Deutschland ist sehr grün
Habt ihr das auch schon mal festgestellt, dss unser Heimatland sehr, sehr grün ist? Wenn man in andere Länder oder auch Städte fährt, ist das meist anders. Allein wenn man sich schon Berlin anguckt, merkt man das. Da sieht man fast nur Bäume, selbst in der Innenstadt. Eineige Bekannte aus dem Ausland haben das auch schon gesagt. Sehnen wir uns immer noch in den Wald zurück?