🧠 OpenAI kooperiert mit Cerebras ↗
OpenAI gibt an, 750 MW KI-Rechenleistung mit extrem niedriger Latenz über Cerebras hinzuzufügen – im Grunde ein Versuch, Antworten „in Echtzeit“ statt „geh Tee kochen, komm später wieder“ erscheinen zu lassen.
Das Konzept bleibt einfach: Schnellere Schlussfolgerungsschleifen (Fragen – Denken – Antworten) bedeuten, dass die Mitarbeiter länger im Unternehmen bleiben und mehr Aufgaben bewältigen können … was durchaus Sinn ergibt. Die Kapazität wird schrittweise ausgebaut, weitere Anlagen werden bis 2028 in Betrieb genommen.
🔍 Google nutzt E-Mails und YouTube-Verlauf, um personalisierte KI voranzutreiben ↗
Googles Gemini wird immer nutzerfreundlicher, indem es Daten aus Gmail, der Suche und dem YouTube-Verlauf abruft – sofern man dies zulässt (standardmäßig ist es deaktiviert). Es ist quasi die Chatbot-Version davon, wie Ihr Smartphone weiß, dass Sie hungrig sind, bevor Sie es selbst merken.
Die Idee dahinter ist, dass Gemini Vorlieben und Kontext erfassen kann, sodass die Antworten weniger allgemein gehalten sind und eher so wirken, als ob es sich wirklich an dein Leben erinnert. Praktisch – und gleichzeitig etwas, das einen mitten im Scrollen innehalten und denken lässt: „Moment mal, das weiß ja einiges.“
🧩 Der Verkauf eines leistungsstarken KI-Chips von Nvidia nach China erhält unter Auflagen grünes Licht ↗
Die USA haben den Verkauf von Nvidias H200 KI-Chips nach China genehmigt – allerdings unter einer Reihe von Auflagen (Priorität für US-Lieferungen, zusätzliche Prüfschritte, Beschränkungen hinsichtlich des Bestimmungsortes der Chips).
Die Abgeordneten sind gespalten – einige sehen darin ein nationales Sicherheitsrisiko, andere eine Frage der Wettbewerbsfähigkeit (denn wenn man nicht verkauft, tut es jemand anderes … oder China baut einfach schneller). Es ist eine jener politischen Entscheidungen, die gleichzeitig „strategisch“ und irgendwie verworren sind.
🛡️ Das belgische Cybersicherheits-Startup Aikido erreicht mit einer neuen Finanzierungsrunde den Einhorn-Status ↗
Aikido Security erreichte eine Bewertung von 1 Milliarde Dollar nachdem das Unternehmen 60 Millionen Dollar . Dabei setzte es stark auf den Aspekt der „Sicherheitsvorkehrungen für Entwickler“, da KI-gestütztes Codieren immer mehr Code, Fehler und unvorhergesehene Überraschungen mit sich bringt.
Sie bewerben es als Entwickler-zentrierte Sicherheitslösung, die Risiken automatisch erkennt, ohne jeden Sprint in einen Compliance-Albtraum zu verwandeln. Das Erstaunliche daran ist ihr rasantes Wachstum – der Markt zahlt ganz offensichtlich für eine Lösung, die verhindert, dass KI-Code Sicherheitslücken enthält.
👩💻 Anthropic erweitert Claude Code über Entwickleraufgaben hinaus mit Cowork ↗
Anthropic entwickelt Claude Code über Cowork – weniger nur Unterstützung beim Programmieren, sondern eher ein kollaborativer Assistent, der in Arbeitsabläufe integriert werden kann.
Es ist Teil des größeren Trends, dass Code-Assistenten aufhören, nur eine ausgefeilte Autovervollständigung zu sein, und anfangen, sich wie halbautonome Teammitglieder zu verhalten… was aufregend oder beunruhigend oder beides ist – je nachdem, wie Ihre letzte PR-Überprüfung verlaufen ist.
🧯 depthfirst kündigt 40 Millionen Dollar schwere Serie-A-Finanzierungsrunde zur Sicherung der weltweiten Software an ↗
depthfirst hat 40 Millionen Dollar , um einen KI-nativen Ansatz für Softwaresicherheit zu entwickeln – einen Ansatz, der echte Schwachstellen mit weniger Fehlalarmen aufspüren soll (in Wahrheit der ewige Traum).
Sie positionieren sich als „Labor für angewandte KI“ im Bereich Sicherheit und investieren in die Skalierung von Forschung und Produktentwicklung. Wenn KI dabei hilft, schneller mehr Code zu schreiben, besteht der Gegenschritt im Grunde darin, dass KI hilft, diesen schneller zu verteidigen – eine Schlange, die eine andere Schlange im Trenchcoat frisst.
Häufig gestellte Fragen
Was bedeutet die Partnerschaft von OpenAI mit Cerebras für die Reaktionsgeschwindigkeit?
OpenAI zufolge erweitert die Partnerschaft mit Cerebras die KI-Rechenleistung um 750 MW mit extrem niedriger Latenz, um Reaktionen in Echtzeit spürbar zu machen. Konkret bedeutet das schnellere Inferenzprozesse – fragen, denken, antworten – wodurch Interaktionen direkter erfolgen. Auch rechenintensive Aufgaben laufen flüssiger ab, ohne lange, unangenehme Pausen. Die Kapazität soll bis 2028 schrittweise ausgebaut werden.
Wann werden die 750 MW Rechenleistung von Cerebras tatsächlich verfügbar sein?
Die Ankündigung beschreibt den Ausbau als schrittweise Einführung, wobei die Kapazität bis 2028 schrittweise erhöht wird, anstatt alles auf einmal. Bei solchen Stufen werden die anfänglichen Vorteile meist zuerst sichtbar und vergrößern sich dann mit dem Ausbau der Infrastruktur. Die deutlichsten Anzeichen für die Auswirkungen sind in der Regel geringere Latenzzeiten und eine stabilere Leistung unter Last. Im Wesentlichen handelt es sich um einen mehrjährigen Ausbau.
Wie nutzt Google Gemini den Verlauf von Gmail, der Suche und YouTube zur Personalisierung?
Googles Plan sieht vor, Gemini durch den Zugriff auf Daten aus Quellen wie Gmail, der Suche und dem YouTube-Verlauf zu personalisieren – allerdings nur, wenn Sie dies explizit aktivieren. Standardmäßig ist diese Funktion deaktiviert, was aus Datenschutzgründen und hinsichtlich der Erwartungen relevant ist. Ziel ist es, dass Gemini Ihre Präferenzen und den Kontext erkennt, sodass die Antworten weniger standardisiert wirken. Viele Nutzer werden den Komfort gegen die Menge an Informationen abwägen, die sie preisgeben möchten.
Ist die Personalisierung bei Gemini automatisch aktiviert und welche Auswirkungen hat dies auf den Datenschutz?
Bei dieser Einführung positioniert Google die Funktion als optional und standardmäßig deaktiviert. Das bedeutet, dass Sie entscheiden müssen, ob Gemini Daten von Produkten wie Gmail oder Ihrem YouTube-Verlauf nutzen darf, um die Antworten zu personalisieren. Der Kompromiss liegt auf der Hand: Mehr Kontext kann die Relevanz verbessern, führt aber auch zu einer größeren Menge an persönlichen Daten, die in die Nutzererfahrung einfließen. Üblicherweise wird die Funktion daher nur selektiv aktiviert und die Einstellungen regelmäßig überprüft.
Welche Bedingungen stellten die USA für den Verkauf des Nvidia H200-Chips an China?
Die hier beschriebene Genehmigung ist an Auflagen geknüpft, darunter die Priorisierung von US-Lieferanten, zusätzliche Prüfschritte und Beschränkungen hinsichtlich der endgültigen Bestimmungsorte der Chips. Auch die Debatte wird deutlich: Einige Abgeordnete sehen ein Risiko für die nationale Sicherheit, während andere die Wettbewerbsfähigkeit betonen – wenn US-Unternehmen nicht liefern, könnten alternative Anbieter oder inländische Alternativen an Bedeutung gewinnen. Es handelt sich um eine politische Maßnahme mit strategischer Absicht und komplexen Abwägungen.
Warum sammeln KI-Sicherheits-Startups wie Aikido und Depthfirst gerade jetzt große Finanzierungsrunden ein?
Das zentrale Thema ist, dass KI-gestütztes Codieren die Codemenge vervielfacht – und damit auch Fehler und unvorhergesehene Sicherheitslücken – weshalb der Bedarf an entwicklerfreundlichen Schutzmechanismen steigt. Aikido positioniert sich als „entwicklerorientierte“ Sicherheitslösung, die Risiken aufzeigt, ohne jeden Sprint zu einem Compliance-Problem zu machen. Depthfirst hingegen verfolgt einen KI-basierten Ansatz, der darauf abzielt, echte Probleme mit weniger Fehlalarmen zu erkennen. Mit zunehmendem Codevolumen wird „schnellere Absicherung“ zu einem festen Budgetposten und nicht mehr zu einem optionalen Feature.