Steigt die Armut in Deutschland?
Man hört ja immer öfter das die Armen immer ärmer werden und die Reichen immer reicher. Stimmt das in dem Maß auch in Deutschland? In der letzten Zeit hat sich auf der Arbeitsmarkt ja wieder etwas getan und mehr Menschen haben Arbeit und dann auch mehr zum Ausgeben. Wollte mal hören wie ihr das seht hier im Land.