Finanzdienstleister statt Banken
In letzter Zeit sieht man im Fernsehen und den Zeitschriften viel Werbung von Finanzdienstleistern. Angeblich soll man dort mehr Geld rausbekommen, aber versprechen kann man ja immer viel, und gerade in der Werbung ist das nichts Neues. Da es auch viele schwarze Schafe und Betrüger gibt, vertraue ich mein Geld doch lieber der Bank an. Wie seht ihr das? Hat jemand Erfahrungen mit Finanzdienstleistern gemacht?