Quelle: CNBC / Handelsblatt / CNN Business | Datum: 2026-03-05
Das US-Verteidigungsministerium hat Anthropic offiziell als „Lieferkettenrisiko für die nationale Sicherheit“ eingestuft – eine Bezeichnung, die bislang ausschließlich gegen ausländische Akteure wie den chinesischen Konzern Huawei eingesetzt wurde.
Hintergrund: Kern des Konflikts waren zwei unveräußerliche Grenzen, die Anthropic gesetzt hatte: der Einsatz von Claude in vollautonomen Waffensystemen (Lethal Autonomous Weapons Systems, LAWS) und die Massenüberwachung US-amerikanischer Bürger – beides lehnte das Verteidigungsministerium als Einschränkung ab.
Anthropic-CEO Dario Amodei kündigte an, die Entscheidung vor Gericht anzufechten, da das Unternehmen die Maßnahme für rechtlich nicht haltbar hält.
Gleichzeitig entschuldigte sich Amodei für ein internes Memo, das an die Presse gelangt war. Dieses war wenige Stunden nach Trumps Ankündigung auf Truth Social verfasst worden. Amodei erklärte: „Es war ein schwieriger Tag für das Unternehmen, und ich entschuldige mich für den Ton des Beitrags.“
Der Auslöser war ein Streit über KI-Schutzmaßnahmen: Anthropic weigerte sich, pauschale Genehmigungen für den Einsatz seiner Werkzeuge in autonomen Waffensystemen oder der Massenüberwachung zu erteilen.
Für Führungskräfte und HR ist dieser Fall ein Lehrbuchbeispiel: Wenn ein KI-Unternehmen ethische Leitplanken nicht verhandelbar macht, riskiert es Marktanteile – gewinnt aber Vertrauen. Die Frage, die sich jedes Unternehmen stellen muss, lautet: Wo sind unsere eigenen KI-Grenzen, und wer definiert sie?

Schreibe einen Kommentar