KI-Nachrichten, 15. Februar 2026

KI-News-Übersicht: 15. Februar 2026

🦞 OpenClaw-Gründer Steinberger wechselt zu OpenAI, Open-Source-Bot wird zur Stiftung

Peter Steinberger wechselt zu OpenAI, um dort „persönliche Agenten“ voranzutreiben, während OpenClaw selbst in einer Stiftung untergebracht wird, um Open Source zu bleiben (und weiterhin unterstützt zu werden). Diese Aufteilung ist… ziemlich clever – man stellt den Entwickler ein und hält das Projekt öffentlich.

OpenClaws Ansatz ist erfrischend praxisnah: E-Mail-Bearbeitung, Versicherungsformulare, Flug-Check-in, die lästigen Alltagsaufgaben. Es hat sich auf GitHub rasant verbreitet, und diese Popularität hat Sicherheitsbedenken hervorgerufen, insbesondere bei unvorsichtiger Implementierung.

🪖 Pentagon „genervt“ von den anthropischen Widerständen gegen den Einsatz des KI-Modells Claude durch das Militär, erwägt laut einem Bericht einen Abbruch der Beziehungen

Der Kernkonflikt: Das Pentagon will weitreichenden Zugriff für „alle rechtmäßigen Zwecke“, während Anthropic weiterhin strenge Beschränkungen für vollautonome Waffensysteme und Massenüberwachung durchsetzen will. Solche Meinungsverschiedenheiten klingen philosophisch, bis jemand sagt: „Wir könnten euch ersetzen.“

Ein oft unterschätzter Aspekt: ​​Die Verantwortlichen wollen nicht, dass das Modell Arbeitsabläufe mittendrin blockiert, und sie wollen auch nicht ewig über Sonderfälle verhandeln (verständlich … aber trotzdem beunruhigend). Hier herrscht eine echte, unübersehbare Spannung darüber, wer die Kontrolle hat.

🧠 Startup entwickelt Modell zur Vorhersage menschlichen Verhaltens

Simile sicherte sich 100 Millionen Dollar, um ein Modell mit „begrenztem Lernen“ zu entwickeln, das das Verhalten von Menschen vorhersagen soll – insbesondere mögliche Fragen in Telefonkonferenzen zu Quartalsergebnissen. Ein eng gefasstes Ziel, große Ambitionen, eine etwas unheimliche Kombination.

Der Ansatz basiert auf Interviews mit realen Personen und Daten aus der Verhaltensforschung und führt anschließend Simulationen mit KI-Agenten durch, die reale Präferenzen widerspiegeln sollen. Es ist, als würde man ein Wettermodell für menschliche Entscheidungen erstellen … was unmöglich klingt, bis es plötzlich Realität wird.

🧑⚖️ Exklusivmeldung: Weißes Haus setzt Abgeordneten aus Utah unter Druck, KI-Transparenzgesetz zu stoppen

Ein Vorstoß für mehr Transparenz im Bereich Künstliche Intelligenz auf Ebene des US-Bundesstaates Utah stößt auf direkten Druck aus dem Weißen Haus. Offizielle Vertreter drängen den Initiator des Gesetzesentwurfs, diesen nicht weiterzuverfolgen. Der Gesetzesentwurf konzentriert sich auf Transparenz und die Sicherheit von Kindern – ein Argument, das aus rein objektiver Sicht kaum zu widerlegen ist.

Der eigentliche Streitpunkt ist jedoch die Zuständigkeitsfrage: Wer legt die Regeln fest, die Bundesstaaten oder die Bundesregierung? Und ja, es herrscht ein ziemliches Durcheinander – wie wenn zwei Leute dasselbe Lenkrad in die Hand nehmen und darauf bestehen, der Ruhige zu sein.

🎬 ByteDance verpflichtet sich nach der Drohung von Disney, die unautorisierte Nutzung von geistigem Eigentum für sein KI-Videotool zu verhindern

Disney hat ByteDance wegen dessen KI-Videogenerators eine Unterlassungserklärung zugestellt. ByteDance versichert, die Sicherheitsvorkehrungen gegen die unerlaubte Nutzung von geistigem Eigentum und Bildmaterial zu verstärken. Die Beschwerde lautet angeblich, dass das Tool bekannte Franchise-Charaktere wie gemeinfreie Aufkleber ausspuckt.

Es ist die Kollision, die jeder kommen sah: Virale KI-Videotools entwickeln sich rasant, Studios gehen juristisch vor, und „Wir werden Sicherheitsvorkehrungen treffen“ wird zur Standardentschuldigung. Ironischerweise wirkt die Technologie wie Magie – und die juristische Seite wie die Schwerkraft.

Häufig gestellte Fragen

Was bedeutet es, dass der Gründer von OpenClaw zu OpenAI wechselte, während OpenClaw zu einer Stiftung wurde?

Dies deutet auf eine Trennung zwischen dem Entwickler der „persönlichen Agenten“ und dem weiterhin öffentlich verwalteten Projekt hin. Steinbergers Wechsel zu OpenAI lässt vermuten, dass er sich dort auf die Weiterentwicklung agentenbasierter Produkte konzentrieren wird. Die Eingliederung von OpenClaw in eine Stiftung soll sicherstellen, dass das Projekt Open Source bleibt und nachhaltig unterstützt wird. Konkret zielt dieser Schritt darauf ab, das Vertrauen der Community zu bewahren, während der Entwickler dorthin geht, wo die Ressourcen verfügbar sind.

Warum konzentrieren sich KI-Agenten im OpenClaw-Stil auf Aufgaben wie E-Mails und Papierkram?

Da die Arbeit im Bereich der alltäglichen Verwaltung repetitiv, regelbasiert und zeitaufwändig ist, eignet sie sich besonders gut für die Automatisierung. Die hier genannten Beispiele – E-Mail-Sortierung, Bearbeitung von Versicherungsunterlagen und Flug-Check-in – sind klar definierte Aufgaben mit eindeutigen Erfolgskriterien. Diese Fokussierung kann dazu führen, dass sich Agenten schneller wertgeschätzt fühlen als durch weniger umfassende Assistenten. Sie unterstreicht auch, warum sorgfältige Zugriffskontrollen so wichtig sind, wenn Agenten auf persönliche Konten zugreifen.

Wie kann man einen Open-Source-KI-Agenten wie OpenClaw einsetzen, ohne Sicherheitsprobleme zu verursachen?

Behandeln Sie es wie eine Software, die sensible Daten einsehen kann, nicht wie ein einfaches Skript. Üblicherweise werden Zugangsdaten streng geschützt, Berechtigungen auf das absolute Minimum beschränkt und Protokolle sowie Prüfprotokolle geführt. Führen Sie es in einer eingeschränkten Umgebung aus und trennen Sie es von kritischen Systemen. Viele Sicherheitsbedenken entstehen durch unachtsame Bereitstellung, insbesondere wenn Endpunkte oder Token ohne ausreichende Sicherheitsvorkehrungen offengelegt werden.

Warum ist das Pentagon mit den Beschränkungen von Anthropic für die militärische Nutzung von Claude unzufrieden?

Der Streit dreht sich um Umfang und Kontrolle: Das Pentagon fordert weitreichenden Zugriff für „alle rechtmäßigen Zwecke“, während Anthropic strenge Beschränkungen für vollautonome Waffensysteme und Massenüberwachung einhält. Die Verantwortlichen wollen außerdem vermeiden, dass Modelle Arbeitsabläufe blockieren oder endlose Verhandlungen über Sonderfälle erfordern. Diese Spannung ist weniger abstrakt, als sie klingt – es geht darum, wer in realen Operationen entscheidet, was das Modell leisten darf.

Wie versuchen Startups, menschliches Verhalten mithilfe von KI vorherzusagen, und warum wird das als kontrovers empfunden?

Das hier vorgestellte Beispiel, Simile, verfolgt ein Modell des „begrenzten Lernens“, das darauf abzielt, das Verhalten von Menschen vorherzusagen, beispielsweise durch die Antizipation wahrscheinlicher Fragen in Situationen wie Telefonkonferenzen zu Geschäftsergebnissen. Der beschriebene Ansatz kombiniert Interviews mit Daten aus der Verhaltensforschung und Simulationen mit KI-Agenten, die reale Präferenzen abbilden sollen. Es wirkt beunruhigend, da die KI dadurch nicht mehr auf Menschen reagiert, sondern sie vorhersagt. Die Herausforderung besteht darin, die Aussagen realistisch zu halten und Überheblichkeit zu vermeiden.

Was passiert, wenn KI-Videotools urheberrechtlich geschützte Charaktere erzeugen, wie im Konflikt zwischen ByteDance und Disney?

Das beschriebene Muster ist bekannt: Ein Studio fordert die Unterlassung der Nutzung, woraufhin die Plattform die Sicherheitsvorkehrungen verstärkt, um die unautorisierte Verwendung von geistigem Eigentum oder Abbildungen zu verhindern. Bei vielen Tools bedeuten diese Sicherheitsvorkehrungen strengere Inhaltsfilter, eine verbesserte Erkennung erkennbarer Personen und eine klarere Durchsetzung der Nutzungsbedingungen. Der zugrundeliegende Konflikt liegt im Spannungsfeld zwischen Geschwindigkeit und Haftung – die Verbreitung viraler Inhalte schreitet rasant voran, während die Durchsetzung von Rechten wie die Schwerkraft wirkt. Mit der zunehmenden Verbreitung von Videogeneratoren ist mit weiteren solchen Konflikten zu rechnen.

KI-News von gestern: 13. Februar 2026

Entdecken Sie die neuesten KI-Lösungen im offiziellen KI-Assistenten-Shop

Über uns

Zurück zum Blog