Gleich drei Nachrichten in 24 Stunden verändern das Koordinatensystem, in dem wir über KI nachdenken: ein Modell-Duell mit Tücken, eine transatlantische Industriefusion und ein Milliarden-Investment, das zeigt, wie ernst die Großen dieses Rennen nehmen. Und dazwischen eine Meldung, die kein Unternehmen gerne hätte – und die die Frage nach Verantwortung neu stellt.
GPT-5.5 ist das klügste Modell – und halluziniert am häufigsten
OpenAI hat am 23. April GPT-5.5 veröffentlicht. Das Modell führt derzeit den Artificial Analysis Intelligence Index an – mit 60 Punkten, drei Punkte vor Claude Opus 4.7 und Gemini 3.1 Pro Preview. Besonders stark ist GPT-5.5 im agentischen Arbeiten: Mehrstufige Aufgaben planen, Tools nutzen, Zwischenergebnisse prüfen, bis zum Ziel durcharbeiten – ohne dass Nutzer jeden Schritt steuern müssen. Im Terminal-Bench 2.0, dem Benchmark für komplexe Kommandozeilen-Workflows, erreicht das Modell 82,7 Prozent.
Doch wer nur auf die Spitzenposition schaut, übersieht das entscheidende Problem. Im AA-Omniscience-Benchmark, der falsche Antworten bestraft, halluziniert GPT-5.5 mit einer Rate von 86 Prozent – es antwortet also vielfach auch dann, wenn es die richtige Antwort schlicht nicht kennt. Claude Opus 4.7 liegt hier bei 36 Prozent, Gemini 3.1 Pro Preview bei 50 Prozent. Auch im sogenannten BullshitBench – 100 logisch unmögliche Fragen, die plausibel klingen – schneidet GPT-5.5 nicht besser ab als sein Vorgänger. Die Fähigkeit, bei Unsicherheit Nein zu sagen, hat sich kaum verbessert.
Was das für die Praxis bedeutet: Benchmarks messen zwei völlig verschiedene Fähigkeiten. Genauigkeit fragt: Wenn das Modell antwortet, wie oft hat es recht? Halluzinationsrate fragt: Wann sagt es „Ich weiß es nicht“ – statt etwas zu erfinden? Wer KI für rechtlich oder medizinisch relevante Entscheidungen einsetzt, braucht die zweite Fähigkeit dringender als die erste. Höchstleistung in Benchmarks ist kein Ersatz für Zuverlässigkeit im Alltag.
Aleph Alpha wird kanadisch: Was Europas KI-Souveränität wirklich bedeutet
Am 24. April haben das kanadische Unternehmen Cohere und das Heidelberger KI-Start-up Aleph Alpha ihren Zusammenschluss offiziell bekanntgegeben. Die Pressekonferenz in Berlin fand in Anwesenheit von Bundesdigitalminister Wildberger und dem kanadischen Minister Evan Solomon statt – ungewöhnlich für einen Unternehmensverkauf, bezeichnend für eine staatlich flankierte Industriestrategie.
Die wirtschaftliche Realität: Cohere-Aktionäre erhalten rund 90 Prozent der Anteile, Aleph-Alpha-Aktionäre etwa 10 Prozent. Die Bewertung der fusionierten Einheit liegt bei rund 20 Milliarden US-Dollar. Die Schwarz-Gruppe – Mutterkonzern von Lidl und Kaufland – beteiligt sich mit 500 Millionen Euro an Coheres Series-E-Finanzierungsrunde und bringt ihre STACKIT-Cloud-Infrastruktur ein, inklusive eines Rechenzentrums in Lübbenau. Im Gegenzug soll die fusionierte Einheit bevorzugt auf STACKIT laufen. Gründer Jonas Andrulis hatte Aleph Alpha bereits im Januar 2026 verlassen.
Das Motiv beider Regierungen ist klar: Deutschland und Kanada wollen zeigen, dass souveräne KI-Systeme jenseits amerikanischer Hyperscaler möglich sind. Coheres bisheriger Schwerpunkt liegt auf großen Sprachmodellen für Unternehmen in regulierten Branchen. Aleph Alphas Stärke waren kleinere Modelle für europäische Sprachen und datenschutzkonforme Anwendungen in der öffentlichen Verwaltung. Die Kombination ist strategisch nachvollziehbar. Ob daraus ein globaler KI-Champion werden kann, der OpenAI ernsthaft Konkurrenz macht – das ist die Frage, die erst die nächsten zwei bis drei Jahre beantworten werden.
Was das für Unternehmen und öffentliche Institutionen bedeutet: Wer heute auf Aleph-Alpha-Produkte setzt, arbeitet morgen im Cohere-Ökosystem. Wer noch gar keine Entscheidung getroffen hat, bekommt mit diesem Deal eine Option, die gezielt auf Datensouveränität und Unabhängigkeit von US-Plattformen ausgerichtet ist. Das ist kein Nischenthema mehr. Es ist Industriepolitik, die direkt in Ihre Beschaffungsentscheidungen hineinwirkt.
Google setzt 40 Milliarden Dollar auf Anthropic – und auf seinen eigenen Rivalen
Ebenfalls am 24. April bestätigte Google eine Investition in Anthropic, die in der Geschichte der KI-Branche ihresgleichen sucht. Zunächst fließen 10 Milliarden US-Dollar sofort – bei einer Bewertung von Anthropic mit 350 Milliarden Dollar. Weitere 30 Milliarden Dollar können folgen, gebunden an Leistungsmeilensteine. Dazu kommt Google Cloud: 5 Gigawatt Rechenkapazität auf Basis von TPU-Chips sollen ab 2027 zur Verfügung stehen.
Was diese Zahlen so bemerkenswert macht: Anthropic ist Googles Konkurrent. Das Unternehmen entwickelt die Claude-Modellfamilie und konkurriert direkt mit Googles Gemini. Und dennoch investiert Google in dieses Unternehmen – weil Anthropic gleichzeitig einer der größten Abnehmer von Google-Cloud-Infrastruktur ist. Jeder Dollar, den Anthropic für Rechenkapazität ausgibt, fließt zu einem erheblichen Teil zurück zu Google. Amazons paralleles Deal zeigt dieselbe Logik: 5 Milliarden sofort, bis zu 20 Milliarden optional – und Anthropic verpflichtet sich im Gegenzug, über 100 Milliarden Dollar für AWS-Dienste auszugeben.
Anthropics jährlicher Umsatz liegt inzwischen bei über 30 Milliarden Dollar. Anfang des Jahres waren es noch rund 9 Milliarden. Dieses Wachstum erklärt, warum die großen Technologieunternehmen jetzt handeln: Wer zu spät investiert, verliert den Infrastrukturanteil an diesem Markt.
Was das für Entscheider bedeutet: KI-Infrastruktur wird nicht mehr vom Markt allein reguliert – sie wird durch strategische Kapitalflüsse zwischen den wenigen Akteuren geformt, die es sich leisten können, Dutzende Milliarden zu investieren. Für Unternehmen, die KI in ihre Kernprozesse integrieren, bedeutet das: Die Anbieterbindung wird enger. Die Abhängigkeiten werden größer. Wer das heute ignoriert, hat morgen weniger Wahlfreiheit.
KI im Bewerbungsprozess: Die stille Revolution, die HR gerade überrollt
Mehrere Berichte vom Wochenende zeigen, was die Zahlen längst beweisen: KI hat den Bewerbungsprozess in Deutschland grundlegend verändert – und zwar auf beiden Seiten. Laut einer Statista-Umfrage vom Januar 2026 unter 500 deutschen Jobsuchenden nutzten 58 Prozent KI bei ihrer Bewerbung – Anschreiben schreiben, Lebenslauf generieren, E-Mails formulieren. 60 Prozent dieser Bewerberinnen und Bewerber sagen gleichzeitig, dass KI möglichst unerkannt bleiben solle.
Auf der Unternehmensseite scannen Bewerber-Management-Systeme Lebensläufe automatisch, priorisieren oder filtern heraus – häufig bevor ein Mensch die Unterlagen je gesehen hat. Die Folge ist eine paradoxe Situation: KI schreibt die Bewerbung, KI liest sie – und Menschen auf beiden Seiten wissen kaum, was dabei eigentlich ausgesiebt wird.
Goldman Sachs hat in einer separaten Analyse errechnet, dass KI das monatliche Beschäftigungswachstum in den USA im vergangenen Jahr um netto rund 16.000 Stellen reduziert hat. Dabei entstehen monatlich rund 25.000 neue Stellen durch KI – aber 41.000 fallen weg. Am stärksten betroffen sind Berufseinsteiger in wissensintensiven Feldern: Software-Entwickler im Alter zwischen 22 und 25 Jahren haben laut Stanford AI Index 2026 seit 2024 fast 20 Prozent weniger Beschäftigung.
Was das für Führungskräfte und HR bedeutet: Die Frage ist nicht mehr, ob KI den Bewerbungsprozess verändert. Sie lautet: Wer trägt Verantwortung für die Qualität dieser Entscheidungen – wenn weder Bewerber noch Unternehmen noch wissen, welche Kriterien die KI tatsächlich anlegt? Transparenz im KI-Einsatz im Recruiting ist kein Nice-to-have. Es ist eine Governance-Frage, die Unternehmen jetzt aktiv beantworten müssen.
Die dunkelste Meldung: OpenAI und das Schulmassaker in Kanada
Am 25. April entschuldigte sich OpenAI-CEO Sam Altman öffentlich in einem Brief an die Bewohner der kanadischen Kleinstadt Tumbler Ridge. Am 10. Februar 2026 hatte dort eine 18-Jährige acht Menschen getötet, sechs davon in einer Schule. Das Unternehmen hatte den ChatGPT-Account der mutmaßlichen Täterin bereits im Juni 2025 gesperrt – weil automatisierte Systeme Gewaltszenarien in den Chats erkannt hatten. Die Behörden wurden dennoch nicht informiert. OpenAI hielt das nicht für notwendig.
Was danach folgte, ist bekannt: Ein weiterer Account der Täterin wurde erst nach der Tat entdeckt. Die kanadische Regierung bestellte OpenAI-Vertreter ein. Und nun kommt die Entschuldigung – zweieinhalb Monate nach der Tat.
Diese Meldung ist keine Randnotiz. Sie ist eine Grundsatzfrage. KI-Systeme erkennen heute sehr wohl Hinweise auf Gefährdungslagen. Was fehlt, ist ein verbindlicher Rahmen: Wann muss ein KI-Unternehmen Behörden informieren? Welche rechtlichen Pflichten entstehen, wenn automatisierte Überwachung etwas entdeckt – und dann nichts passiert? Altman hat Bereitschaft signalisiert, an Lösungen zu arbeiten. Bereitschaft ist kein Konzept. Wer das ernst meint, braucht Regeln, Prozesse und externe Kontrolle.
Ausblick:
Fünf Themen, ein roter Faden. KI ist längst keine Technologie mehr, die in Labors entwickelt und dann auf Märkte losgelassen wird. Sie ist ein Infrastrukturprojekt, ein geopolitisches Instrument, ein Arbeitsmarktfaktor und ein Sicherheitsthema gleichzeitig. Wer nur einen dieser Stränge verfolgt, sieht nicht das Bild.
Die Investitionen von Google und Amazon in Anthropic zeigen: Der Wettbewerb um KI-Infrastruktur wird über Rechenkapazität und Kapitalallokation entschieden – nicht mehr allein über Modellintelligenz. Die Fusion von Cohere und Aleph Alpha zeigt: Europa versucht, durch staatlich gestützte Konsolidierung einen eigenen Platz in diesem Rennen zu sichern. GPT-5.5 zeigt: Wer nur auf Benchmark-Spitzenwerte schaut, übersieht, was für die Praxis wirklich zählt. Und die OpenAI-Meldung zeigt: Vertrauen in KI-Systeme baut sich nur auf, wenn Unternehmen mehr Verantwortung übernehmen, als Marktlogik allein verlangt.
Das ist die Aufgabe der nächsten Monate – für Regulatoren, für Unternehmen, für Führungskräfte. Nicht zu warten, bis der Rahmen von außen kommt. Sondern die eigene Haltung zu klären: Was wollen wir mit KI gestalten – und wo ziehen wir selbst die Linie?
Bleiben Sie neugierig. Und handeln Sie.

Schreibe einen Kommentar