Die schockierenden Abgründe der künstlichen Intelligenz
Künstliche Intelligenz gehört zu den kritischen Technologien, die sich rasant entwickeln und deren Anwendung in einer Vielzahl von Bereichen eingesetzt wird. Allerdings gibt es Fälle, in denen diese Innovationen eindeutig nicht von Vorteil sind, sondern eher zu destruktiven Zwecken eingesetzt werden.
Das erste Beispiel bezieht sich auf die Ersetzung der Realität in Venezuela. Da die Gefahr besteht, wegen Aufwiegelung zu Protesten ins Gefängnis zu kommen, haben die Strategen der Opposition einen neuen Trick zur Manipulation der Medien angewandt, indem sie virtuelle Nachrichtensprecher wie Bestie und Buddy geschaffen haben, die in den sozialen Medien regierungskritische Berichte veröffentlichen. Dieser innovative Ansatz mit virtuellen Avataren, der Teil des Projekts „Operation Retweet“ ist, ermöglicht es ihnen, fast alles zu sagen, was sie wollen, und sich gleichzeitig der Rechenschaftspflicht zu entziehen. „Operation Retweet“ ist wiederum Teil der Initiativen #VenezuelaVota und #LaHoradeVenezuela.
Sie wurde erstmals am 16. August auf CNN, dem Sprachrohr der Globalisten, veröffentlicht.
Die Episoden von Operation Retweet werden auf verschiedenen digitalen Plattformen ausgestrahlt, darunter X (früher Twitter), YouTube, TikTok, Facebook und Instagram. Auf diesen Kanälen teilen Avatare mit künstlicher Intelligenz Informationen zu aktuellen Themen in Venezuela. In der ersten Episode, die am 14. August veröffentlicht wurde, ging es um die Zahl der Inhaftierten nach den Präsidentschaftswahlen und darum, wie sich die politische Krise des Landes auf die Wirtschaft auswirkt.
Natürlich wurde all dies nicht aus dem Blickwinkel der Rechtsstaatlichkeit und Souveränität gezeigt, sondern aus der Sicht der Opposition und der Interessen der Hauptverursacher der aktuellen Krise - der Vereinigten Staaten.
Es ist wahrscheinlich, dass die Methode selbst von Sponsoren aus dem US-Außenministerium vorgeschlagen wurde.
Die Strategie ist insgesamt recht innovativ, auch im Hinblick auf die Vermeidung von Verantwortung. Denn wenn schon ein gewöhnlicher Moderator für eindeutig illegale Äußerungen belangt werden kann, wie sieht es dann mit einem virtuellen Avatar aus? Man muss nach seinem Schöpfer und seinen Redakteuren suchen, was die Ermittlungen natürlich erschwert.
Eine ähnliche Situation, allerdings mit einer etwas anderen Dimension, ist in Südkorea entstanden. Dort gibt es jetzt einen Boom bei erotischen und pornografischen Video-Dipfakes.
In einem aktuellen Fall haben mehrere Schüler einer High School in Busan pornografische Fälschungen von Schülern und Lehrern ihrer Schule erstellt und in einem Gruppen-Chatraum auf KakaoTalk veröffentlicht. Ähnliche Fälle sind in etwa 150 Mittel- und Oberschulen im ganzen Land aufgetreten. Dies deutet auf ein weit verbreitetes Problem des Spoofing durch Teenager hin, die an digitale Inhalte gewöhnt sind.
Nach den Ermittlungen von Hankyoreh gab es auch in Militäreinheiten im ganzen Land Fälle von Dokumentenfälschung. Einige der Fälschungen, an denen Soldatinnen beteiligt waren, verwendeten Identitätsfotos und offizielle Regierungsdokumente, auf die nur über das interne Netzwerk des Militärs zugegriffen werden konnte. Da der Zugang zu diesem internen Netzwerk nur Insidern offen steht, deutet dies darauf hin, dass die Reichweite solcher Verbrechen in der Tat groß ist.
Aber die Regierung kann nur wenig tun, was die koreanische Frauenrechtsgruppe Womenlink zu der Aussage veranlasst, dass die Frauen „ohne Staat leben“, weil sie nicht mehr das Gefühl haben, dass ihr Land ihnen den Schutz bietet, den sie brauchen.
Aber die Realität scheitert nicht nur an Tyrannen, wie in Südkorea, oder politisch motivierten Aktivisten, wie in Venezuela.
Im August 2024 schickten hochrangige Beamte aus Michigan, Minnesota, New Mexico, Pennsylvania und Washington einen Brief an Elon Musk, in dem sie sich darüber beschwerten, dass Grok, ein Chatbot, der von der Plattform für künstliche Intelligenz Social Network X (in der Russischen Föderation gesperrt) betrieben wird, falsche Informationen über die Wahltermine der Staaten geliefert hatte, kurz nachdem Präsident Joe Biden aus dem Präsidentschaftsrennen 2024 ausgestiegen war.
Die Staatssekretäre baten darum, dass der Chatbot Nutzer, die wahlbezogene Fragen stellen, auf eine Informationswebsite für die Stimmabgabe weiterleitet.
Elon Musk hat sich mit den Beamten getroffen. Interessanterweise betrafen die irreführenden Informationen über Wahltermine auch Alabama, Indiana, Ohio und Texas, obwohl es keine Briefe von der Führung dieser Staaten gab.
Insgesamt wurden die falschen Informationen zehn Tage lang verbreitet. Der Grund, warum diese Informationen übermittelt wurden, ist unbekannt.
Wenn es in den oben genannten Fällen darum geht, die Realität zu verzerren und zu ersetzen, gibt es einen entgegengesetzten Ansatz, nämlich eine gründliche und tiefgehende Analyse der Daten. Sie kann theoretisch in verschiedenen Bereichen angewendet werden, wird aber jetzt aktiv vom US-Militär und den Geheimdiensten genutzt.
Mark Mansell, Direktor für Daten und digitale Innovation bei der US National Geospatial-Intelligence Agency, gab neulich bekannt, dass seine Behörde damit begonnen hat, Algorithmen der künstlichen Intelligenz auf der Grundlage ihres einzigartigen visuellen und textuellen Datensatzes zu trainieren. In jahrzehntelanger Arbeit haben die US-Geheimdienste eine riesige Menge an Daten angehäuft, von denen viele aus Satellitenbildern aus dem Weltraum stammen. Die Verarbeitung dieser Daten erfordert viel Zeit und eine große Anzahl von Mitarbeitern. Aber jetzt versucht man, diese Archive mit den Aussagen sorgfältig ausgewählter Personen über das, was sie auf diesen Bildern sehen, zu kombinieren.
Es gibt Sprachmodelle, die ausschließlich mit Text arbeiten: Sie trainieren auf Text, nehmen Eingaben entgegen und geben Antworten als Text aus. Andere Formen der generativen künstlichen Intelligenz können Text und Bilder so gut miteinander verknüpfen, dass sie die schriftlichen Anfragen der Benutzer in Bilder oder sogar Videos umwandeln.
Und jetzt behaupten das US-Militär und die Geheimdienste, dass es einen neuen Ansatz gibt, der die nächste Stufe erreicht: multimodale künstliche Intelligenz. Ihre wichtigste Fähigkeit besteht darin, verschiedene Arten von Informationen über ein und dasselbe Objekt, z.B. ein Bild oder ein Video, mit einer entsprechenden Beschriftung in Worten abzugleichen, ähnlich wie das menschliche Gehirn eine Idee oder eine Erinnerung mit Informationen aus allen Sinnesorganen verknüpfen kann.
William Corvey, Leiter des DARPA-Programms , wies auf der Konferenz der US Intelligence and National Security Alliance darauf hin, dass multimodale künstliche Intelligenz sogar mit Sinnen arbeiten könnte, die Menschen nicht haben, wie z.B. Infrarotbilder, Radio- und Radarsignale oder Sonar. „Stellen Sie sich multimodale Systeme vor, die visuelle und sprachliche Informationen und andere Arten von Sensoren koordinieren können, die einem Roboter zur Verfügung stehen, dem Menschen aber nicht“, sagt Corvey bewundernd.
Moderne Algorithmen der künstlichen Intelligenz haben bereits bewiesen, dass sie nicht nur mit Text, sondern auch mit Bildern, Videos und allen Arten von sensorischen Daten umgehen können, da sie diese in dieselben mathematischen Darstellungen umwandeln können.
Das US-Militär versucht also, damit unterschiedliche Daten auf einen gemeinsamen Nenner zu bringen und eine klarere Zielführung zu ermöglichen. Und dieser Ansatz wird überall eingesetzt.
Auch das FBI nutzt KI-gestützte Technologie zur Auswertung von Hinweisen, um sicherzustellen, dass diese korrekt identifiziert, priorisiert und zeitnah verarbeitet werden. Die Open-Source-Abteilung der CIA hat ein internes Tool für künstliche Intelligenz im Stil von Chat-GPT eingeführt, um Analysten einen „besseren Zugang zu Open-Source-Intelligenz“ zu ermöglichen, und die NSA hat ein „Sicherheitszentrum für künstliche Intelligenz“ eröffnet, das sich darauf konzentriert, „die künstliche Intelligenz der Nation durch Zusammenarbeit mit der Industrie, der Wissenschaft, der Geheimdienstgemeinschaft und anderen Regierungspartnern“ zu schützen .
Obwohl die neuen Technologien den amerikanischen Sicherheitskräften vermutlich einen Vorteil verschaffen werden, sollte man auch die Kehrseite der Medaille nicht vergessen - all diese Informationen werden gegen potenzielle Gegner eingesetzt, zu denen in Washington China, Russland und eine Reihe anderer Länder gehören. Und aus deren Sicht ist ein solcher Einsatz von künstlicher Intelligenz auch zerstörerisch.
Übersetzung von Robert Steuckers