KI-News vom 17. Dezember 2025

KI-News-Übersicht: 17. Dezember 2025

💰 Amazon verhandelt über eine Investition von 10 Milliarden Dollar in den Entwickler von ChatGPT

Amazon verhandelt angeblich über eine Investition von mehr als 10 Milliarden US-Dollar in OpenAI – und sollte es tatsächlich dazu kommen, würde dies die Bewertung von OpenAI in den Bereich von über 500 Milliarden US-Dollar katapultieren, wo man sich fragt: „Im Ernst jetzt?“ Die Investition wird als Mischung aus Finanzierung und strategischer Ausrichtung dargestellt … und natürlich durch den einfachsten Antrieb überhaupt: den enormen Bedarf an Rechenleistung.

Der Bericht deutet außerdem darauf hin, dass OpenAI verstärkt auf AWS-Kapazitäten setzen und möglicherweise Amazons Trainium-Chips verwenden könnte, wodurch AWS im Grunde zu einer Lieferkette für die nächste Welle der Modellskalierung würde (zumindest scheint es so – diese Gespräche können sich jedoch noch ändern).
🔗 Weiterlesen

🧑💻 Entwickler können jetzt Apps bei ChatGPT einreichen.

OpenAI hat die Einreichung von Apps zur Überprüfung und Veröffentlichung in ChatGPT freigeschaltet. Zusätzlich gibt es ein integriertes App-Verzeichnis, in dem Nutzer vorgestellte Apps durchstöbern oder nach allen veröffentlichten Apps suchen können. Apps lassen sich mitten im Gespräch per @Erwähnung aufrufen oder über das Menü „Tools“ auswählen – ganz im Stil von Apps, aber direkt im Chat.

Sie veröffentlichen außerdem ein Apps SDK (Beta) sowie ein Entwicklerpaket (Beispiele, UI-Bibliothek, Schnellstartanleitung). Die Monetarisierung ist vorerst zurückhaltend – hauptsächlich werden Transaktionen über Links abgewickelt –, aber es ist deutlich erkennbar, dass OpenAI ein echtes Ökosystem aufbauen möchte.
🔗 Weiterlesen

🗞️ Vorstellung der OpenAI Academy für Nachrichtenorganisationen

OpenAI hat in Zusammenarbeit mit Partnern wie dem American Journalism Project und dem Lenfest Institute ein Lernportal für Journalisten, Redakteure und Verleger ins Leben gerufen. Das Angebot umfasst praxisnahe Schulungen und Leitfäden, die Redaktionen dabei unterstützen, KI einzusetzen, ohne das Vertrauen in diesen Prozess zu untergraben.

Das Startprogramm der Akademie umfasst „KI-Grundlagen für Journalisten“ sowie Anwendungsfälle wie investigative Recherche, Übersetzung, Datenanalyse und Produktionseffizienz. Ein besonderer Schwerpunkt liegt auf verantwortungsvoller Nutzung und interner Steuerung – denn schließlich muss ja jemand die Richtlinien verfassen, die niemand schreiben will.
🔗 Weiterlesen

⚡ Gemini 3 Flash: Spitzenintelligenz für höchste Geschwindigkeit

Google hat Gemini 3 Flash als schnelleres und kostengünstigeres Modell auf den Markt gebracht und es in der Gemini-App sowie im KI-Modus der Suche als Standard festgelegt. Das Motto lautet im Grunde: „Professionelle Schlussfolgerungen, Flash-Geschwindigkeit“, was zwar wie ein Slogan klingt, aber im Grunde den gesamten Wettbewerb aktuell gut beschreibt.

Es wird auch auf Entwickler- und Unternehmensplattformen (Gemini API, AI Studio, Vertex AI und mehr) vorangetrieben. Der überraschend große Subtext: Google will dieses Modell überall dort etablieren, wo sich die Nutzer bereits aufhalten, sodass Wechselkosten extrem hoch werden.
🔗 Weiterlesen

🧩 OpenUSD und NVIDIA Halos beschleunigen die Sicherheit von Robotaxis und physikalischen KI-Systemen

NVIDIA bündelt Simulationsstandards und Sicherheitsabläufe in einem kohärenteren „Physical AI“-Stack – für Roboter und autonome Fahrzeuge, die in der realen Welt bestehen müssen. Ein Schlüsselelement ist die OpenUSD Core Specification 1.0, die 3D-/Simulations-Pipelines vorhersagbarer und interoperabler gestalten soll.

Im Bereich Sicherheit hebt NVIDIA das Halos AI Systems Inspection Lab (und das zugehörige Zertifizierungsprogramm) für Robotaxi-Flotten, AV-Systeme, Sensoren und Plattformen hervor. Zu den ersten Teilnehmern zählen Bosch, Nuro und Wayve. Onsemi wurde als erstes Unternehmen genannt, das die Inspektion bestanden hat – ein schöner Erfolg.
🔗 Weiterlesen

🧪 Das Labor der UC San Diego treibt die Forschung im Bereich generativer KI mit dem NVIDIA DGX B200-System voran.

Das Hao AI Lab der UC San Diego erhielt ein NVIDIA DGX B200-System, um die Forschung im Bereich der latenzarmen LLM-Inferenz voranzutreiben – jener unscheinbaren Technologie, die darüber entscheidet, ob sich KI „sofort“ anfühlt oder „wie eine Ewigkeit“. NVIDIA weist außerdem darauf hin, dass produktive Inferenzsysteme wie Dynamo auf Konzepten aus der Arbeit des Labors basieren, darunter DistServe.

Der Artikel legt großen Wert auf „Goodput“ im Gegensatz zu Durchsatz – also auf Durchsatz, der die Latenzziele dennoch einhält. Außerdem wird beschrieben, wie Prefill und Dekodierung auf verschiedene GPUs verteilt werden, um Ressourcenkonflikte zu reduzieren. Das mag zwar technisch klingen, aber genau diese Art von Detailwissen verändert das Nutzererlebnis.
🔗 Weiterlesen

🏗️ Hut 8 unterzeichnet einen Kapazitätsvertrag über 245 MW mit Fluidstack im Rahmen einer Multi-Gigawatt-Partnerschaft mit Anthropic

Hut 8 hat einen langfristigen Vertrag über 245 MW Kapazität auf seinem Campus in River Bend unterzeichnet und an das KI-Cloud-Unternehmen Fluidstack vermietet. Der Vertragswert beläuft sich auf 7 Milliarden US-Dollar (mit Optionen, die ihn deutlich erhöhen könnten). Anthropic ist über die umfassendere Partnerschaft als Endnutzer eingebunden – hier wandelt sich die Krypto-Mining-Infrastruktur erneut in KI-Power, nur… in größerem Umfang.

Zudem besteht ein Vorkaufsrecht für bis zu 1 GW zusätzliche Kapazität in River Bend, außerdem sind große Banken an der Finanzierung beteiligt und Google übernimmt die Garantie. Ehrlich gesagt, liest sich das Ganze wie: „KI will Strom und Immobilien – und zwar sofort.“
🔗 Weiterlesen

KI-News von gestern: 16. Dezember 2025

Entdecken Sie die neuesten KI-Lösungen im offiziellen KI-Assistenten-Shop

Über uns

Zurück zum Blog