🕵️ Großbritannien wird mit Microsoft zusammenarbeiten, um ein Deepfake-Erkennungssystem zu entwickeln ↗
Großbritannien arbeitet nach eigenen Angaben mit Microsoft, Akademikern und anderen Experten zusammen, um ein System zu entwickeln, das Deepfakes im Internet erkennen kann – sowie eine geeignete Methode, um zu testen, ob die Erkennungswerkzeuge auch in der Praxis funktionieren.
Der Schwerpunkt liegt auf den schwerwiegendsten Schäden: Identitätsdiebstahl, Betrug und nicht einvernehmliche sexuelle Inhalte. Nicht glamourös, aber genau dort konzentriert sich der Schaden.
🧠 Anthropic veröffentlicht KI-Upgrade, während der Markt Softwareaktien abstraft ↗
Anthropic hat ein verbessertes Claude-Modell (Opus 4.6) vorgestellt, das mit höherer Leistung in den Bereichen Programmierung und Finanzen sowie der Fähigkeit wirbt, bis zu 1 Million Token auf einmal zu verarbeiten. Das ist eine Menge Kontext – als würde man dem Modell einen ganzen Bibliotheksausweis geben.
Sie setzen außerdem verstärkt auf „Agenten“ mithilfe von Claude Code, wodurch Aufgaben auf autonome Helfer verteilt werden können. Praktischer als man erwarten würde – und gleichzeitig eine Entwicklung, die traditionelle Softwareinvestoren etwas nervös macht.
🧑💼 OpenAI stellt KI-Agentendienst vor, um Unternehmen anzuziehen ↗
OpenAI kündigte „Frontier“ an, einen auf Unternehmen ausgerichteten Dienst zum Erstellen und Verwalten von KI-Agenten – also Bots, die spezifische Aufgaben wie das Debuggen von Software, die Abwicklung von Arbeitsabläufen und ähnliches übernehmen.
Der Clou ist, dass es sich in die bestehende Unternehmensinfrastruktur integrieren und sogar Drittanbieter-Agenten unterstützen soll. Das klingt so, als wolle OpenAI nicht nur Modellanbieter, sondern auch die zentrale Steuerungsplattform werden. Ambitioniert … oder etwas besitzergreifend, je nachdem, wie man es betrachtet.
🪖 USA und China verzichten auf gemeinsame Erklärung zum Einsatz von KI im Militär ↗
Eine Reihe von Ländern unterzeichnete eine nicht bindende Erklärung, in der Grundsätze für den Einsatz von KI in der Kriegsführung festgelegt werden – Dinge wie menschliche Verantwortung, klare Befehlsstrukturen sowie ernsthafte Tests und Risikobewertungen.
Aber die USA und China haben nicht unterzeichnet. Das ist die ganze Geschichte in einem einzigen Moment – die Regeln existieren, und die größten Akteure… haben den Stift nicht in der Hand.
🎭 Die New Yorker Gesetzgebung schreibt die Offenlegung von KI-generierten Darstellern in der Werbung vor und stärkt die postmortalen Persönlichkeitsrechte ↗
New York hat Gesetze verabschiedet, die vorschreiben, dass Werbung mit KI-generierten „synthetischen Darstellern“ dies dem Publikum im Bundesstaat klar offenlegen muss – selbst wenn der Werbetreibende seinen Sitz woanders hat. Kurz gesagt: Man kann nicht einfach einen künstlichen Menschen an die Öffentlichkeit bringen und das dann Marketing nennen.
Unabhängig davon verschärfte der Staat die Bestimmungen zur kommerziellen Nutzung von Abbildungen Verstorbener, einschließlich digitaler Repliken. Ehrlich gesagt ist das etwas makaber, aber auch ein deutliches Zeichen dafür, dass Identität heutzutage einen Sicherheitsgurt braucht
Häufig gestellte Fragen
Was entwickelt Großbritannien gemeinsam mit Microsoft, um Deepfakes im Internet aufzuspüren?
Großbritannien kündigt an, gemeinsam mit Microsoft, Wissenschaftlern und anderen Experten ein System zur Erkennung von Deepfakes im Internet zu entwickeln. Geplant ist auch ein zuverlässiges Testverfahren, um die Leistungsfähigkeit der Erkennungstools außerhalb des Labors zu überprüfen. Der Fokus liegt dabei auf den schwerwiegendsten Gefahren: Identitätsdiebstahl, Betrug und nicht einvernehmliche sexuelle Inhalte.
Wie werden sich Tests von Deepfake-Detektoren unter realen Bedingungen von Demos unterscheiden?
Neben der Entwicklung des Detektors selbst legt Großbritannien Wert auf eine Methode, um Deepfake-Erkennungstools unter realistischen Bedingungen zu testen. In vielen Testumgebungen zeigen Modelle auf sorgfältig zusammengestellten Datensätzen eine gute Leistung, versagen jedoch, sobald sich Inhaltsformate, Komprimierung oder Angriffstaktiken ändern. Ein strukturierter Evaluierungsansatz ermöglicht einen konsistenten Vergleich der Tools und deckt auf, wo die Erkennung in realen Online-Umgebungen versagt.
Was hat Anthropic in Claude Opus 4.6 verändert, und warum ist die Tokenbegrenzung wichtig?
Anthropic zufolge verbessert Claude Opus 4.6 die Performance in Bereichen wie Programmierung und Finanzen und kann bis zu 1 Million Kontext-Tokens verarbeiten. Dieses größere Kontextfenster erleichtert die Arbeit mit langen Dokumenten oder komplexen Codebasen, ohne dass Informationen ständig neu geladen werden müssen. Zudem hoben sie die „Agenten“ von Claude Code hervor, mit denen Aufgaben auf autonome Helfer verteilt werden können.
Was ist OpenAI „Frontier“ und wie fügt es sich in Unternehmens-Workflows ein?
OpenAI hat „Frontier“ als unternehmensorientierten Dienst zur Entwicklung und Verwaltung von KI-Agenten angekündigt, die spezifische Aufgaben wie das Debuggen von Software oder die Workflow-Verwaltung übernehmen. Frontier ist darauf ausgelegt, sich in die bestehende Unternehmensinfrastruktur zu integrieren und nicht als eigenständiger Modellendpunkt zu fungieren. OpenAI gab außerdem an, Agenten von Drittanbietern zu unterstützen, was auf eine Steuerungsebene zur Koordination verschiedener Agentensysteme hindeutet.
Was besagt die Erklärung zur militärischen KI, und was bedeutet sie für die KI-Governance?
Die Erklärung wird als nicht bindend beschrieben und legt Grundsätze für den Einsatz von KI in der Kriegsführung fest, darunter menschliche Verantwortung, klare Befehlsstrukturen sowie gründliche Tests und Risikobewertungen. Reuters berichtete, dass viele Länder die Erklärung unterzeichnet haben, die USA und China jedoch nicht. Für die KI-Governance ist diese Ausnahmeregelung von Bedeutung, da sie die größten Akteure von einem gemeinsamen Normenwerk ausschließt.
Welche Anforderungen stellen die neuen New Yorker Vorschriften an KI-generierte Darsteller in Werbespots?
New York hat Gesetze verabschiedet, die vorschreiben, dass Werbung, die KI-generierte „synthetische Darsteller“ verwendet, dies dem Publikum im Bundesstaat deutlich offenlegen muss, selbst wenn der Werbetreibende seinen Sitz außerhalb des Bundesstaates hat. Darüber hinaus hat der Staat die Rechte am eigenen Bild nach dem Tod hinsichtlich der kommerziellen Nutzung des Abbildes Verstorbener, einschließlich digitaler Kopien, gestärkt. Konkret führt dies zu einer klareren Kennzeichnung und strengeren Kontrollen der KI-Nutzung.