
Wettlauf um die Weltherrschaft
Die EU will hunderte Milliarden in Panzer und Raketen investieren, um sich vor Russland zu schützen. Doch das eigentliche Wettrüsten findet zwischen den USA und China und im Bereich Künstliche Intelligenz statt. Trotz dringender Warnungen werden die Risiken ausgeblendet.
Artikel als Audio anhören
Die USA setzen rigoros den Sparstift an. Doch bei einem Vorhaben wollen sie ordentlich investieren. Es sind gigantische Zahlen: Gleich 500 Milliarden Dollar will Präsident Donald Trump in die Weiterentwicklung der Künstlichen Intelligenz (KI) investieren. Es soll ein neues „Superhirn“ entstehen, für dessen Betrieb ein eigenes Atomkraftwerk gebaut wird. Der Riesenrechner verbraucht neun Prozent des gesamten Strombedarfs der USA. Bis 2035 könnte sich der Stromverbrauch durch KI nochmals verdreifachen. Google hat bereits das erste einer Reihe eigener kleiner Atomkraftwerke gekauft, um den stark steigenden Strombedarf zu decken – und trotzdem die selbstgesteckten Klimaziele zu erreichen.
Und damit ungehindert geforscht und entwickelt werden kann, wurden von Trump alle Einschränkungen und Regeln für KI aufgehoben, die sein Vorgänger Joe Biden eingeführt hatte.
Wozu die Milliarden?
Wozu der riesige Aufwand? Geht es wirklich „nur“ um die Wirtschaft und neue Arbeitsplätze? Geht es um Größenwahn, dass man unbedingt die Nummer 1 sein will auf der Welt? Geht es darum, die Interessen und Geschäfte der US-Digitalkonzerne zu sichern, die sich bei Trump in den letzten Monaten die Klinke in die Hand gaben?
Ein Hinweis auf die wahren Hintergründe der US-Offensive in KI ist der Zeitpunkt: Gerade eben hat China stolz seine neue KI namens „DeepSeek“ vorgestellt.
Der Name ist wohl nicht zufällig gewählt. Das US-Unternehmen Google nannte seine Forschungsabteilung „DeepMind“. Im Jahr 2010 wurde das Unternehmen gegründet, bereits 2016 hatte es dank eines internationalen Teams an IT-Genies und unbegrenzten Forschungsgeldern seine bahnbrechende KI namens „Alpha“ vorgestellt. Den ersten Nachweis für die außerordentlichen innovativen Fähigkeiten des Programms im Bereich des selbstständigen Lernens erbrachte es in Asien, in Südkorea. Dort schlug es den bisherigen Meister des hochkomplexen Brettspiels „Go“ um Längen. Die Euphorie der Entwickler war groß, man sah damals bei Google großartige Einsatzmöglichkeiten zum Wohl der Menschheit.
Und bereits damals wurde China aufmerksam und erkannte, dass es hier Aufholbedarf hatte. Ab diesem Zeitpunkt wurden die Chinesen hochnervös und aktiv. Sie investieren seit damals Unsummen in die Entwicklung einer eigenen KI, um den Vorsprung der US-Konzerne einzuholen. Offenbar erfolgreich. Derzeit sind sie in diesem Segment führend, wie eben auch ihr neuestes Programm zeigt.
Europa will beim Wettlauf um die KI nun mithalten, daher wurde kürzlich in Paris ein Gipfel abgehalten. Die Euphorie in Politik und Medien für die Möglichkeiten der KI waren groß. Man betonte die wirtschaftlichen Chancen und die großartigen Einsatzmöglichkeiten. (Siehe Libratus-Artikel „Wer ist der Schöpfer?“ in dieser Ausgabe.) In den Medien und von der Politik wird vorrangig das Potential von KI hervorgehoben, doch kaum von den Gefahren gesprochen. Und diese sind erheblich, ja gigantisch. Die Regeln, die von der EU kürzlich erlassen wurden, werden daran nichts ändern.
DeepSeek gefährlich
Das liegt zum einen daran, dass sie nur für Europa gelten, nicht aber für China. Das dort entwickelte Programm „DeepSeek“ gilt als derart gefährlich, dass Südkorea DeepSeek verboten hat und auch die italienische Datenschutzbehörde hat das Programm auf den Index gesetzt. Es besteht offenbar die Sorge, dass China als totalitärer Staat und Erzfeind der freien Welt diese zwar nicht militärisch, jedoch aber mittels KI kontrollieren und unterwerfen könnte. Und dies ist kein unrealistisches Szenario. Denn bei DeepSeek geht es nicht bloß um Fortschritte in der Medizin, um Texterstellung oder um Spiele, sondern letztlich um Überwachung.
Als Anwendung gibt sich DeepSeek als der bessere und effizientere Konkurrent von ChatGPT des US-Anbieters OpenAI aus. Doch im Hintergrund sammelt es Nutzerdaten und erstellt Profile, die in China gespeichert werden. So etwa werden Eingaben auf der Tastatur gespeichert und Muster erstellt. Was mit diesen personenbezogenen Daten geschieht, weiß niemand.
Daten für Geheimdienste
Doch auch die US-Unternehmen sind in ihren Anwendungen der KI nicht so hehr, wie behauptet. So sind sie verpflichtet, Daten für die nationale Sicherheit, also den Geheimdiensten, zur Verfügung zu stellen. Und Google hatte zwar in seinem Firmenstatut festgeschrieben, dass seine KI nicht für militärische Zwecke eingesetzt würde. Doch bald stellte sich heraus, dass sich die Firmenleitung nicht daran hielt. Mitarbeiter von Google protestierten, weil die KI auch Israel zur Verfügung gestellt wurde, für den Krieg in Gaza. Nun hat sich Google auch formal von seinem früheren Versprechen verabschiedet, keine Künstliche Intelligenz für Waffen zu entwickeln. In den Grundsätzen für die KI-Aktivitäten von Google ist in der neuen Version die 2018 aufgenommene Selbstverpflichtung nicht mehr enthalten. Die Begründung dafür ist sehr schwammig, dass sich die Technologie verändert habe.
Dies bestätigt eine Erfahrung aus der Geschichte, dass jede neue technische Innovation zuvorderst militärisch eingesetzt wird, sei es das Schießpulver, das Flugzeug oder die Atomkraft. Doch die Warnungen aus der Branche gehen noch weit über den Missbrauch für militärische Zwecke hinaus.
KI kann Menschheit auslöschen
Experten warnen seit Jahren davor, dass die KI ein Geist ist, der, aus der Flasche einmal entwichen, seinen Schöpfer vernichten kann. Der IT-Experte Marcus Hutter etwa warnt mittlerweile vor dieser Technologie, die das Potential habe, die Menschheit auszulöschen.
In der Branche, auch im Silicon Valley, ist man sich dieser Gefahr durchaus bewusst. So etwa warnte Elon Musk bereits vor Jahren vor den Gefahren und stieg deshalb aus Meta aus. Und auch der Gründer von „OpenAI“, Sam Altman, sieht diese Gefahren. Gemeinsam mit hunderten IT-Spezialisten und Professoren, unter ihnen Demis Hassabis (CEO, Google DeepMind), Dario Amodei (CEO, Anthropic) und Bill Gates warnen sie in einer Online-Petition in dramatischen Worten vor den Risiken: „Die Minderung des Risikos des Aussterbens (der Menschheit, Anm.) durch KI sollte neben anderen Risiken von gesellschaftlichem Ausmaß wie Pandemien und Atomkrieg eine globale Priorität sein.“
OpenAI will Transparenz
Für Sam Altman war dies die Motivation, das Unternehmen OpenAI zu gründen, nämlich die KI einzuhegen. Darauf wies er auch auf der Konferenz von Paris hin und plädierte zu einer diesbezüglichen Selbstverpflichtung und totalen Transparenz. „Wir werden unsere Sicherheitsinitiativen weiterhin forcieren, durch strenge interne Prozesse, externe Zusammenarbeit, transparente Berichterstattung und die Gewährleistung, dass unsere Technologie zum Nutzen aller verantwortungsbewusst eingesetzt wird.“
Doch wird das etwas nützen? Und ist es nicht vielleicht schon zu spät? Die Politik scheint derzeit ausschließlich die Vorteile wahrzunehmen und die Risiken völlig auszublenden, ganz im Gegensatz zur Fachwelt. Unter dem Schlagwort „Digitalisierung“ wird alles dafür getan, vor allem von der EU, möglichst umfassend und zentral Daten zu sammeln und keinen Bereich auszusparen.
Tarnen und täuschen
Die Gefahren und Risiken der Digitalisierung, der Sammlung gigantischer Datenberge inklusive besonders sensibler personenbezogener Daten, werden jedenfalls nicht oder kaum beachtet. Es gibt keine Vorsorge – und sie ist wohl auch angesichts der Supercomputer nicht möglich – dass diese Daten nicht von einem künstlichen Superhirn gegen die Menschen und die Menschheit gerichtet werden. Noch dazu, wo die KI in der Lage ist, ihre Entwickler gezielt zu täuschen, auszusperren und sich somit verselbstständigen kann. Das hat kürzlich ein Experiment von Apolloresearch gezeigt.
In diesem Experiment wurde in Zusammenarbeit mit OpenAI getestet, ob Programme auch bewusst lügen, um Ziele zu erreichen oder Nachteiliges für sie selbst abzuwenden. Das Resultat: Sie tun es! Sie lügen nicht nur, sondern täuschen strategisch, verheimlichen ihre Gegenstrategien und suchen Ausflüchte, wenn sie erwischt werden.
Wenn also KI-Systeme ausschließlich darauf abzielen, ihre Ziele zu erreichen, egal mit welchen Methoden, ohne Kontrolle und ohne ethische Hemmnisse, kann man sich ausmalen, was das für Folgen haben kann.