Nehmt ihr die euch vom Arzt verschriebenen Medikamente immer ein?
Hi,
ich hab neulich ein Gespräch mit einer Freundin über ärzte und Medikamente gehabt. Als sie mir sagte dass sie die ihr vom Arzt verschriebenen Medikamente meistens nicht nimmt war ich etwas erstaunt. Sie meinte sie würde eher an die Selbstheilungskräfte des Körpers glauben.
Ich finde dieses Verhalten unsinnig und gefährlich - wozu geht man den schliesslich sonst zum Arzt?
Wie handhabt ihr das? Schluckt ihr immer brav alles was der Arzt euch verschreibt?
LG
eveline