Menü Schließen

Gefahren von künstlicher Intelligenz

Künstliche Intelligenz, kurz KI, ist in aller Munde. Die Chancen, die damit einhergehen, werden als hoch eingeschätzt. Gleiches gilt nach Ansicht von Experten aber auch bei den Risiken und Gefahren für den Menschen – nur dass diese gern unberücksichtigt bleiben.

 

Die Zeichen stehen auf dem Vormarsch der künstlichen Intelligenz. Angefangen vom Kreativbereich über die Produktion bis hin zur Logistik finden KI-Systeme in immer mehr Branchen und Unternehmen Anwendung. Die Hoffnungen, die auf den KI-Lösungen ruhen, sind hoch und reichen von einer besseren Produktivität über Marktvorteile bis hin zu einer deutlichen Kostenreduzierung. Der Druck, der auf Unternehmen lastet, ist enorm. Umso mehr trifft KI gerade in der Wirtschaft auf offene Ohren.

Doch den vielen Vorteilen und Chancen stehen Risiken und Gefahren gegenüber, über die vor allem auf öffentlicher Seite viel zu wenig gesprochen wird. So haben führende Experten rund um Sam Altman, Chef von OpenAI, in einem Schreiben kürzlich festgehalten, dass die Gefahren, die von KI ausgehen, mit denen von Pandemien sowie einem Atomkrieg gleichzusetzen sind. Demnach sollten Maßnahmen, die dazu beitragen, eine Vernichtung durch KI zu verhindern, eine ähnliche Priorität genießen wie die hier genannten Risikofaktoren.

Gefahren von künstlicher Intelligenz
Gefahren von künstlicher Intelligenz

Welche Gefahren/Risiken gibt es bei künstlicher Intelligenz?

KI-Entwickler haben vor allem in den letzten Monaten einen vollkommen neuen Run auf ihre Systeme erlebt. Nicht ohne Grund – immerhin versprechen sie teilweise eine deutliche Entlastung von Mitarbeitern und bieten ganz neue Chancen bei der Zeit- und Kostenersparnis.

So vielfältig wie die Einsatzmöglichkeiten künstlicher Intelligenz sind, sind aber auch die Gefahren, die davon ausgehen. So kann KI beispielsweise bei der Entwicklung neuer Chemiewaffen helfen oder auch in der strategischen Kriegführung eingesetzt werden. Darauf hat zuletzt insbesondere das in San Francisco niedergelassene Zentrum für KI-Sicherheit aufmerksam gemacht. Eine Gefahr, die gern unterschätzt wird, ist die Verbreitung von Falschinformationen, die durch künstliche Intelligenz entstehen.

Nicht zuletzt fürchten Experten aber auch,  dass die Zukunft der Menschheit künftig vollständig von Maschinen abhängig sein könnte. Es ist bei Weitem nicht die erste Warnung, die es in den letzten Monaten mit Blick auf die Entwicklung und das Voranschreiten künstlicher Intelligenz gegeben hat. So wurde von einer weiteren Organisation ein offener Brief publik, in dem Tech-Experten bei der KI-Entwicklung eine Pause von insgesamt sechs Monaten vorschlagen. Unterzeichnet wurde dieser Brief unter anderem von Elon Musk.

Welche Folgen kann KI haben?

Die Warnungen mit Blick auf die Weiterentwicklung von KI müssen Expertenaussagen zufolge ernst genommen werden. So bedarf es in erster Linie angemessener, aber auch ethischer Richtlinien sowie Kontrollmechanismen, um die Risiken, die mit den Systemen einhergehen, einzudämmen. So stellen KI-Systeme nicht nur eine Bedrohung für den Datenschutz dar, sondern sind ebenso eine Freiheitsbedrohung.

Was macht KI so gefährlich?

Viele Branchen haben sich durch die konsequente Anwendung künstlicher Intelligenz in den letzten Monaten von Grund auf verändert. KI-Systeme werden in immer mehr Bereichen eingesetzt, für die ursprünglich vor allem menschliche Intelligenz gebraucht wurde. Erste Auswirkungen zeigen sich auf den Arbeitsmärkten. Immer häufiger werden menschliche Fachkräfte durch künstliche Intelligenz ersetzt.

Doch gerade hier zeigt sich auch eine enorme Gefahr. Die Zuverlässigkeit und Nachvollziehbarkeit künstlicher Intelligenz weist enorme Lücken auf. KI-Systeme arbeiten immer auf Basis von enormen Datensätzen. Die daraus resultierenden Prozesse sind wenig transparent. Auch die Entscheidungen, die KI basierend auf diesen enormen Datenmengen trifft, lassen sich häufig kaum nachvollziehen.

Besonderes Gefahrenpotenzial haben aber auch Fake-Nachrichten und Fake-Videos, die von KI produziert und gestreut werden. Sie tragen dazu bei, dass sich öffentliche Meinungen innerhalb kurzer Zeit verzerren und das echte Meldungen längst nicht mehr die Aufmerksamkeit bekommen, die sie eigentlich brauchen.

Gleichzeitig können durch autonome KI-Systeme aber auch Schwachstellen entstehen, die Kriminelle ausnutzen. Cybersicherheitsbedrohungen, aber auch vollkommen neue physische Gefahren sind damit möglich.

Künstliche Intelligenz bietet viele neue Möglichkeiten
Künstliche Intelligenz bietet viele neue Möglichkeiten

Deepfakes führen zu gefährlichen Desinformationen

Ein Risikofaktor von KI, der gern unterschätzt wird, ist der Einfluss von sogenannten Deepfakes auf die öffentliche Meinung, aber auch auf Entscheidungen, die von Politik und Wirtschaft getroffen werden. KI-Tools können schon jetzt überzeugende Desinformationen in Form von authentischen Nachrichtenartikeln erstellen. Diese Deepfakes sorgen für eine Manipulation der öffentlichen Meinung, können aber auch dazu führen, dass eigentlich vorhandene Gefahren nicht mehr in erforderlichem Maße ernst genommen werden. Fehlinformationen, die durch KI generiert werden, können sämtliche gesellschaftliche Bereiche betreffen und verändern. Dazu gehören Politik und Wirtschaft ebenso wie das soziale Miteinander.

Wie lässt sich den Risiken von KI entgegentreten?

Wie genau in Zukunft den Gefahren künstlicher Intelligenz entgegengetreten werden kann, ist derzeit noch unklar. Zum einen bedarf es der Entwicklung ethischer Richtlinien. Nur so lässt sich mit Blick auf den Einsatz von KI-Systemen ein konsequenter Kontrollverlust minimieren. Darüber hinaus ist es aber auch wichtig, die Medienkompetenz der Nutzer zu fördern, um sie letzten Endes sensibler gegenüber gefälschten Inhalten zu machen.

Gleichzeitig braucht es aber auch eine konsequente Zusammenarbeit aller wichtigen Akteure, um sicherzustellen, dass menschliche Intelligenz geschützt wird. Dies zeigt sich vor allem in Berufen und Bereichen, in denen KI-gestützte Chatbots letzten Endes immer mehr Bereiche des Alltags, aber auch der individuellen Arbeitsplätze einnehmen. (Erstveröffentlichung: 20.06.2024 – Illustrationen: AI Generated)

Infos