Wo „küntliche Intelligenz“ Schaden anrichtet: 3 Beispiele für missbräuchliche Anwendungen

1. Deepfakes:

Deepfakes sind täuschend echt wirkende, manipulierte Bild- oder Videoaufnahmen in der meist das Gesicht einer Person auf eine echte oder fiktive Person übertragen wird.

Deepfakes können dazu verwendet werden, die Identität einer Person zu stehlen, ihren Ruf zu schädigen, sie zu erpressen oder zu belästigen.

2. Angstanrufe mit geklonter Stimme:

Bei Dieser Art des Betruges könnte z.B. die Stimme eines bekannten Polizisten oder das eines Familienangehörigen kopiert werden. Anschließen wird bei meist älteren Menschen angerufen um Sie emotional zu belasten, ihnen Geld zu stehlen oder um Ihnen sensible Informationen zu entlocken.

3. Verbreitung von Hassrede und Hetze:

Hassrede und Hetze können zu Gewalt und Diskriminierung gegen Einzelpersonen oder Gruppen führen. Es können z.B. Texte & Audiodateien verfasst werden, die ganz professionell geschrieben bzw. gesprochen klingen und man meinen könnte das der geschriebene bzw. der gesprochene Inhalt der Wachheit entspricht. In Wirklichkeit ist meist nichts oder nur ein Teil davon wahr und dient nur dazu einer Einzelpersonen oder einer Gruppen schaden zuzufügen.

Hinweis:

Die oben genannten Beispiele sind nur einige der Möglichkeiten, wie KI missbraucht werden kann. Es ist wichtig, dass wir uns dieser Gefahren bewusst sind und Maßnahmen ergreifen, um sie zu verhindern.