Ist Deutschland wirklich ein Rechtsstaat?
Manchmal fange ich wirklich an zu zweifeln, ob unser Deutschland sich wirklich als ein Rechtsstaat bezeichnen darf. Wenn man im Fernsehen manchmal sieht, wie mit Vergewaltigern oder Mördern umgegangen wird...wo ich mir dann denke, die Strafe ist ein Witz! Vorallem sollte das gleiche Recht für alle gelten, was aber wie ich finde selten der Fall ist. Was denkt ihr zu dem Thema?