📌 OpenAI erreicht eine Vereinbarung mit dem Pentagon, während Anthropic mit Regierungsrestriktionen konfrontiert ist.
– Sam Altman bestätigt, dass die Entwicklungen von OpenAI in einem geheimen Netzwerk des Verteidigungsministeriums eingesetzt werden, nachdem die Regierungsbehörden die Zusammenarbeit mit dem Konkurrenten Anthropic in Sicherheitsfragen eingestellt haben.
Am Ende der Arbeitswoche kündigte der Chef von OpenAI Sam Altman in seiner Nachricht auf der Plattform X an, dass die Produkte von OpenAI im “geschlossenen Kreislauf” des Pentagon zum Einsatz kommen werden. Altman betonte, dass die Agentur einen “tiefen Respekt vor der Sicherheit” und die Bereitschaft gezeigt habe, innerhalb des etablierten Unternehmensrahmens zu arbeiten.
Heute haben wir eine Vereinbarung mit dem Militär getroffen, unsere Modelle in ihrem sicheren Netzwerk einzusetzen.
In all unseren Interaktionen hat das DoD deutlich gezeigt, dass es sich ernsthaft für die Sicherheit einsetzt und bereit ist, zusammenzuarbeiten, um das bestmögliche Ergebnis zu erzielen.
Diese Nachricht kommt nach einer ereignisreichen Woche für den Bereich der künstlichen Intelligenz. US-Verteidigungschef Pete Hegseth hat Anthropic als “nationale Sicherheitsbedrohung” eingestuft, was in der Regel auf externe Gegner zutrifft. Infolge dieser Entscheidung müssen Verteidigungsanbieter sicherstellen, dass sie die Lösungen von Anthropic nicht verwenden.
Gleichzeitig ordnete Präsident Donald Trump an, dass alle Bundesbehörden die Nutzung der Anthropic-Technologie sofort einstellen und sechs Monate Zeit haben, um die bestehenden Systeme zu migrieren.
Anthropic war das erste der KI-Labors, dessen Modelle im Rahmen eines im Juli unterzeichneten 200-Millionen-Dollar-Vertrags in die sichere Umgebung des Pentagon integriert wurden. Die Vereinbarungen scheiterten jedoch, nachdem das Unternehmen Zusicherungen verlangte, dass seine Software nicht zur Entwicklung autonomer Waffen oder zur groß angelegten Überwachung im Inland verwendet werden würde. Das Verteidigungsministerium bestand Berichten zufolge darauf, dass die Technologie für alle legitimen militärischen Zwecke zur Verfügung gestellt wird.
Altman stellte klar, dass OpenAI sich an ähnliche Beschränkungen hält, die in der neuen Vereinbarung ausdrücklich genannt werden. Das Unternehmen verbietet die Massenüberwachung im Inland und verlangt, dass Entscheidungen über den Einsatz von Gewalt, einschließlich automatisierter Waffensysteme, von Menschen getroffen werden.
Diese Entwicklung wirft die Frage auf, ob die Hauptunterschiede zwischen den beiden Unternehmen in den zugrundeliegenden Prinzipien oder in ihrem Ansatz zur Interaktion mit der Regierung liegen.
Der Deal löste eine Welle der Kritik im Internet aus. Einige Nutzer warfen OpenAI vor, seine früheren Überzeugungen gegen den Einsatz von KI in militärischen Projekten zu verraten. Der demokratische US-Politiker Christopher Hale erklärte in X, dass er sein ChatGPT-Abonnement zugunsten eines Konkurrenzprodukts kündigen werde, und warf OpenAI vor, “vor dem Despotismus zu kapitulieren”.
Andere Beobachter stellten die Konsequenz des Unternehmens in Frage und erinnerten an seine öffentlichen Erklärungen in der Vergangenheit, dass es sich nicht an der Entwicklung von Waffen oder Überwachungssystemen beteiligen wolle.
Die Vereinbarung unterstreicht die wachsende Konvergenz zwischen privaten KI-Labors und der nationalen Sicherheit der USA. Da die Rivalität mit China den Einsatz von künstlicher Intelligenz in der Armee beschleunigt, ist zu erwarten, dass sich die öffentliche und politische Debatte über die zulässigen Grenzen dieser Technologie intensivieren wird.
Im Kern geht es um die Abwägung zwischen strategischen Vorteilen und ethischen Grenzen, und darum, wer diese Grenzen letztendlich festlegen wird.