Macht und Geld entscheidend
Ist in unserer Gesellschaft nur noch Macht und Geld wichtig um angesehen und akzeptiert zu sein? Selbst die Politiker und Wirtschaftsbosse sind sich ihrer sozialen Verantwortung nicht mehr bewusst und handeln sehr oft egoistisch und opportunistisch. Sollte man weiter darauf hoffen das sich dieses Verhalten noch mal ändern wird, oder sollte man sich diesem "Trend" anschließen um nicht auf der Strecke zu bleiben?