Bleichen der Haut
Ich habe in einer Zeitschrift gelesen das es mittlerweile ein regelrechter Trend geworden sein soll sich seine Haut zu bleichen. Besonders in Ländern in denen die Menschen dunkle Haut haben, speziell Japan, greifen immer mehr Frauen auf das Hautbleichen zurück, um ihrem Schönheitsideal nachzueifern.
Ich wollte mal wissen wie schädlich das eigentlich ist, und wie das genau funktioniert. Weiß da jemand mehr drüber? Denkt ihr, dass der Trend auch nach Deutschland kommen könnte?