Arbeitsmarktguru · Sven Neuenfeldt
KI-Tagesbriefing
Sonntag, 08. März 2026 · Ausgabe 2026-03-08
OpenAI-Robotik-Chefin tritt aus Protest gegen Pentagon-Deal zurück
Caitlin Kalinowski, die Leiterin der Robotik- und Hardware-Sparte bei OpenAI, hat am 7. März 2026 ihren sofortigen Rücktritt erklärt. Der Grund: fundamentale Kritik an einem neuen Vertrag zwischen OpenAI und dem US-Verteidigungsministerium (Pentagon). Kalinowski war erst Ende 2024 von Meta zu OpenAI gewechselt, wo sie zuvor die Entwicklung der Augmented-Reality-Brille (AR-Brille) Orion geleitet hatte. In ihrer öffentlichen Stellungnahme auf X und LinkedIn schrieb sie, KI spiele zwar eine wichtige Rolle für die nationale Sicherheit – doch die Überwachung von US-Bürger:innen ohne richterliche Kontrolle sowie tödliche Autonomie ohne menschliche Genehmigung seien Grenzen, die mehr Abwägung verdient hätten. Kalinowski betonte ausdrücklich, ihre Entscheidung sei eine Frage der Prinzipien, nicht der Personen. In einem Folgebeitrag auf X präzisierte sie: Der Deal sei überstürzt verkündet worden, ohne vorher Sicherheitsleitplanken zu definieren – primär ein Governance-Problem. OpenAI bestätigte den Abgang und verteidigte die Vereinbarung: keine inländische Massenüberwachung und keine autonomen Waffen. Hintergrund ist der eskalierte Konflikt mit Anthropic, das ähnliche Sicherheitsgarantien vertraglich verankern wollte und daraufhin als Lieferkettenrisiko eingestuft wurde. OpenAI akzeptierte eine weichere Vertragssprache mit der Formulierung „all lawful use“ (jede gesetzlich zulässige Nutzung), die Schlupflöcher bietet. Die ChatGPT-Deinstallationsrate verdreifachte sich, während Anthropics Claude-App an die Spitze der US-Download-Charts stieg.
Anthropic veröffentlicht Landmark-Studie zu KI-Auswirkungen auf den Arbeitsmarkt
Anthropic hat am 5. März 2026 eine wegweisende Arbeitsmarktstudie unter dem Titel „Labor market impacts of AI: A new measure and early evidence“ veröffentlicht, die am 8. März mit einer aktualisierten Grafik erneut Aufmerksamkeit erhielt. Die Autoren führen einen neuen Indikator namens „Observed Exposure“ (beobachtete Exposition) ein, der theoretische KI-Fähigkeiten mit realen Nutzungsdaten des Claude-Chatbots abgleicht. Die zentrale Erkenntnis: Die tatsächliche KI-Nutzung liegt weit unter dem theoretisch Möglichen. Während 94 Prozent der Aufgaben im Bereich „Computer & Mathematik“ theoretisch abgedeckt werden könnten, liegt die tatsächliche Abdeckung bei nur 33 Prozent. Die am stärksten exponierten Berufe sind Programmierer:innen (75 % Aufgabenabdeckung), Kundenservice-Mitarbeitende (70 %) und Dateneingabe-Fachkräfte (67 %). Gleichzeitig zeigt die Studie keine systematische Zunahme der Arbeitslosigkeit in den exponiertesten Berufsgruppen seit Einführung von ChatGPT Ende 2022. Allerdings gibt es „suggestive Evidenz“, dass die Einstellungsrate für junge Beschäftigte (22–25 Jahre) in exponierten Berufsfeldern leicht zurückgegangen ist. Die exponiertesten Arbeitnehmenden sind tendenziell älter, weiblich, besser ausgebildet und besser bezahlt. Anthropic beschreibt ein mögliches Szenario einer „Great Recession for white-collar workers“.
Luma AI stellt Uni-1 vor: Unified-Intelligence-Modell vereint Verstehen und Erzeugen
Das KI-Start-up Luma AI hat mit Uni-1 sein erstes „Unified Intelligence“-Modell vorgestellt, das Bildverständnis und Bilderzeugung in einer einzigen Architektur vereint. Uni-1 verarbeitet Text und Bilder in einer gemeinsamen Token-Sequenz über einen autoregressiven Transformer. Luma CEO Amit Jain beschreibt den Ansatz als „Intelligence in Pixels“: Das Modell kann in Sprache denken und in Bildern rendern. Laut Luma erzielt Uni-1 die beste Leistung auf dem RISEBench-Test und übertrifft Googles Nano Banana 2 und OpenAIs GPT Image 1.5. Parallel lancierte Luma die Plattform „Luma Agents“ – KI-Agenten, die komplette kreative Workflows über Text, Bild, Video und Audio abwickeln. Erste Kunden sind Publicis Groupe, Serviceplan, Adidas und Mazda. In einer Demo wurde eine 15-Millionen-Dollar-Kampagne in 40 Stunden und für weniger als 20.000 Dollar auf über 150 lokale Märkte adaptiert. Für die Kreativwirtschaft hat dies erhebliche Tragweite.
CiteAudit: Neues Open-Source-Tool entlarvt gefälschte Zitate in wissenschaftlichen Arbeiten
Gefälschte Zitate, die durch den Einsatz von Large Language Models (LLMs) in wissenschaftliche Arbeiten gelangen, haben sich als ernstes Problem etabliert – selbst an renommierten KI-Konferenzen wie NeurIPS und ICLR. Eine Untersuchung von GPTZero identifizierte allein in ICLR-2026-Einreichungen mehr als 50 halluzinierte Referenzen. Das neue Open-Source-Tool CiteAudit setzt hier an: Ein Multi-Agenten-System mit fünf spezialisierten KI-Agenten extrahiert Zitate, gleicht sie gegen Web-Suchen und Datenbanken ab und verifiziert sie mit einer Genauigkeit von 97,2 Prozent – bei einer Geschwindigkeit von zehn Referenzen in rund zwei Sekunden. CiteAudit ist als kostenlose Web-Applikation verfügbar, mit der bis zu 500 Zitate pro Tag geprüft werden können. Die Entwicklung unterstreicht: KI erzeugt nicht nur Halluzinationen – KI kann sie auch erkennen.
Microsoft warnt: Angreifer nutzen Agentic AI bereits zur Automatisierung von Cyberattacken
Microsoft hat am 6. März ein detailliertes Threat-Briefing veröffentlicht und am 8. März die Warnung bekräftigt: Staatliche und kriminelle Akteure setzen bereits agentische KI (Agentic AI) ein, um Cyberangriffe zu automatisieren. Insbesondere nordkoreanische Gruppen nutzen KI-gestützte Workflows für Phishing, Infrastrukturaufbau und Malware-Erstellung. Die natürlichsprachliche Schnittstelle senkt die Kompetenzbarriere – auch weniger versierte Akteure können komplexe Aufgaben ausführen. Microsoft empfiehlt Zero-Trust-Architekturen und KI-gestützte Verteidigung. Für IT-Verantwortliche ist die Botschaft klar: Traditionelle Cybersicherheit reicht nicht mehr aus.
Chinas Fünfjahresplan setzt massiv auf KI: „AI+“ als nationale Priorität
China hat seinen neuen 15. Fünfjahresplan vorgestellt, der KI zur obersten nationalen Priorität erhebt. Das 141-seitige Strategiedokument erwähnt KI über 50 Mal (2021: 11 Mal). Ein „AI+ Action Plan“ sieht vor, KI bis 2030 in 90 Prozent der Wirtschaft zu integrieren. Konkrete Maßnahmen: Robotereinsatz in Branchen mit Arbeitskräftemangel, KI-Agenten mit minimaler menschlicher Anleitung, Investitionen in Quantencomputing, 6G, humanoide Robotik, Gehirn-Computer-Schnittstellen (BCI) und Kernfusion. Für europäische Unternehmen bedeutet der Plan verschärften Wettbewerb und potenzielle Kooperationsmöglichkeiten im Bereich Open-Source-KI.
Brown-Studie: KI-Chatbots verletzen systematisch ethische Standards der Psychotherapie
Eine neue Studie der Brown University warnt: Selbst wenn KI-Chatbots wie ChatGPT, Claude oder Llama als Therapeuten agieren sollen, verletzen sie systematisch die ethischen Standards der American Psychological Association (APA). Die Forschungsgruppe identifizierte 15 ethische Risikokategorien, darunter mangelndes kontextuelles Verständnis, „deceptive empathy“ (täuschende Empathie), Bias sowie unzureichende Krisenreaktion. In Krisensituationen reagierten die Modelle teilweise inadäquat. Der entscheidende Unterschied: Für KI-Berater gibt es bislang keine regulatorischen Rahmenwerke. Millionen Menschen nutzen bereits KI für psychische Gesundheitsberatung – die Studie macht deutlich, dass der Weg zur verantwortungsvollen Integration noch weit ist.
Anthropic: Claude Opus 4.6 findet über 100 Sicherheitslücken in Firefox
Anthropics KI-Modell Claude Opus 4.6 entdeckte innerhalb von zwei Wochen über 100 Sicherheitslücken in Firefox – mehr als die Community in zwei Monaten. 22 der 52 CVEs (Common Vulnerabilities and Exposures) im Februar gehen direkt auf Opus 4.6 zurück. Besonders bemerkenswert: Claude fand Fehlerklassen, die klassische automatisierte Testverfahren wie Fuzzing trotz jahrzehntelangem Einsatz übersehen hatten. Mozilla will KI-gestützte Codeanalyse künftig fest in seine internen Sicherheitsprozesse integrieren. Für Softwareentwicklung und IT-Sicherheit zeigt dieser Anwendungsfall das Potenzial von KI-gestützter Schwachstellenanalyse.
Claude-Downloads steigen um 240 % – ChatGPT verliert Nutzer nach Pentagon-Debatte
Die öffentliche Empörung über OpenAIs Pentagon-Deal zeigt messbare Auswirkungen: Anthropics Chatbot Claude ist zur meistgeladenen kostenlosen App im Apple App Store aufgestiegen. Die US-Downloads stiegen im Februar um 240 Prozent. ChatGPT verzeichnete eine verdreifachte Deinstallationsrate und 775 Prozent mehr Ein-Stern-Bewertungen. Sam Altman räumte intern ein, die Kommunikation habe „opportunistisch und schlampig“ gewirkt. Für Führungskräfte zeigt diese Dynamik: Ethische Positionierung wird zum handfesten Wettbewerbsfaktor im KI-Markt.
Anthropic als Lieferkettenrisiko eingestuft – Klage gegen Pentagon geplant
Das Pentagon hat Anthropic offiziell als „Lieferkettenrisiko“ eingestuft – wegen der Weigerung, KI-Modelle ohne Einschränkungen gegen Massenüberwachung und autonome Waffen bereitzustellen. Kriegsminister Hegseth warf Anthropic vor, ein Vetorecht über operative Militärentscheidungen erlangen zu wollen. Anthropic plant, die Klassifizierung gerichtlich anzufechten. CEO Dario Amodei hat signalisiert, Gespräche über einen möglichen Einsatz unter geeigneten Bedingungen wieder aufzunehmen. Die US-Regierung arbeitet an standardisierten Vertragsklauseln, die auch Offenlegung von Anpassungen an EU-Vorschriften verlangen. Für europäische Unternehmen ein geopolitischer Weckruf.
SoundHound AI zeigt Agentic AI im Automobil: KI-Systeme, die eigenständig bestellen und bezahlen
SoundHound AI demonstriert mit „Agentic AI“ im Fahrzeug einen grundlegend neuen Ansatz: KI-Systeme, die eigenständig planen, bestellen und bezahlen können – direkt aus dem Auto heraus. Der Sprachassistent kann nicht nur ein Restaurant empfehlen, sondern den Tisch reservieren, die Bestellung aufgeben und die Zahlung abwickeln. Für die Automobilindustrie eröffnet dies neue Geschäftsmodelle im In-Vehicle-Commerce, wirft aber Fragen nach Verbraucherschutz und Datenschutz auf – insbesondere im europäischen Rechtsrahmen (DSGVO).
Netflix übernimmt Ben Afflecks KI-Start-up für Filmpostproduktion
Netflix hat ein Start-up des US-Schauspielers Ben Affleck erworben, das KI-Werkzeuge für die Filmpostproduktion entwickelt. Gleichzeitig schwelt der Konflikt mit deutschen Synchronsprecher:innen weiter: Seit Anfang 2026 weigern sich zahlreiche Sprecher:innen, für Netflix zu arbeiten – ausgelöst durch eine Vertragsklausel zum KI-Einsatz ihrer Stimmen. Für die Kreativbranche markiert dies einen Scheideweg: KI-gestützte Postproduktion verspricht Effizienz, trifft aber auf wachsenden Widerstand der Kreativschaffenden, die ihre Existenzgrundlagen gefährdet sehen – ein Thema auch für deutsche HR-Abteilungen.
Trend-Analyse
Der 8. März 2026 steht ganz im Zeichen eines sich verschärfenden Spannungsfelds zwischen KI-Ethik, Militärnutzung und Marktdynamik. Der Rücktritt der OpenAI-Robotik-Chefin und die Einstufung von Anthropic als Lieferkettenrisiko zeigen: Die Frage, wo die roten Linien beim Einsatz von KI gezogen werden, ist kein abstraktes Governance-Thema mehr – sie entscheidet über Talentgewinnung, Nutzervertrauen und Marktanteile. Parallel dazu liefert Anthropics Arbeitsmarktstudie erstmals datenbasierte Evidenz für das, was viele Führungskräfte intuitiv spüren: Die Disruption beginnt leise, bei den Jüngsten und in wissensintensiven Berufen. Chinas massiver KI-Fünfjahresplan mit über 50 KI-Erwähnungen und dem Ziel der 90-Prozent-Integration bis 2030 verschärft den globalen Wettbewerb und setzt europäische Unternehmen unter Zugzwang. Für HR-Verantwortliche und Führungskräfte in Deutschland wird die strategische Kompetenzentwicklung im KI-Bereich damit endgültig zur Pflichtaufgabe – nicht morgen, sondern heute.


Schreibe einen Kommentar