🧬 DeepMind startet AlphaGenome zur Identifizierung genetischer Krankheitsursachen ↗
DeepMind hat AlphaGenome vorgestellt, ein KI-System, das vorhersagen soll, wie DNA-Mutationen die Genregulation verändern – also wann, wo und wie stark Gene aktiviert werden. Es kann riesige DNA-Abschnitte in einem Durchgang scannen, einschließlich der weitläufigen nicht-kodierenden Regionen, die oft als biologische Dunkle Materie gelten.
Das Konzept ist recht einfach: schnellere Identifizierung derjenigen Mutationen, die für Faktoren wie Krebsrisiko und komplexe Erbkrankheiten wirklich relevant sind. Wenn es wie versprochen funktioniert, verbringen Forscher weniger Zeit mit Spekulationen und mehr Zeit mit dem Testen der richtigen Dinge – was zwar einleuchtend klingt, aber im Grunde den Kern der Sache ausmacht.
🧑💼 Künstliche Intelligenz wird Arbeitsplätze kosten, räumt Liz Kendall ein ↗
Die britische Technologieministerin sagte offen, dass die Einführung von KI zu Arbeitsplatzverlusten führen wird – nicht etwa die übliche Beschwichtigungshaltung. Sie wies auf die Unsicherheit bezüglich der Einstiegspositionen für Hochschulabsolventen in Bereichen wie Jura und Finanzen hin und gab nicht vor, dass es eine pauschale Zahl gäbe, die man versprechen könne.
Gleichzeitig setzt die Regierung massiv auf Anpassung: Millionen von Arbeitnehmern werden in grundlegenden KI-Kenntnissen geschult, um Großbritannien zu einem schnelleren KI-Anwender zu machen. Es ist die klassische Spannung: Ja, Arbeitsplätze gehen verloren, ja, neue entstehen, und nein, der Übergang wird nicht reibungslos verlaufen.
🗞️ Großbritannien drängt Google dazu, Webseiten die Möglichkeit zu geben, KI-Übersichten abzulehnen ↗
Die britischen Wettbewerbsbehörden schlugen Änderungen vor, die es Verlagen ermöglichen würden, die Nutzung ihrer Inhalte für Googles KI-Übersichten – oder für das Training eigenständiger KI-Modelle – abzulehnen, ohne dafür negative Auswirkungen auf ihr normales Suchmaschinenranking zu befürchten. Dieser Aspekt der „Bestrafung“ spielt hier eine entscheidende Rolle.
Die Idee ist, das Machtverhältnis neu auszubalancieren, da KI-gestützte Zusammenfassungen das Klickverhalten (oder Nicht-Klickverhalten) der Nutzer verändern. Googles Antwort lautete im Wesentlichen: Das Suchverhalten ändert sich, wir erwägen weitere Kontrollmöglichkeiten, aber zersplittern Sie das Produkt nicht in eine unübersichtliche, fragmentierte Version seiner selbst … was zwar nachvollziehbar, aber auch bequem ist.
🛡️ Ihre Daten bleiben sicher, wenn ein KI-Agent auf einen Link klickt ↗
OpenAI beschrieb ein spezifisches Sicherheitsrisiko für KI-Agenten: URL-basierte Datenexfiltration. Dabei verleitet ein Angreifer eine KI dazu, eine URL zu laden, die unbemerkt private Informationen in die Abfragezeichenfolge einbettet. Selbst wenn das Modell das Geheimnis nie preisgibt, kann die Anfrage selbst es preisgeben. Heimtückisch und erschreckend simpel.
Die Lösung besteht aus einer einfachen, aber wirkungsvollen Regel: Agenten sollten nur URLs automatisch abrufen, die bereits öffentlich sind und deren Existenz über einen unabhängigen Webindex bestätigt wurde. Ist ein Link nicht als öffentlich verifiziert, sollte das System die Geschwindigkeit reduzieren und dem Nutzer durch Warnungen die Kontrolle zurückgeben – eine bewusste, aber sinnvolle Einschränkung.
🇪🇺 Das nächste Kapitel für KI in der EU ↗
OpenAI veröffentlichte einen EU-zentrierten Entwurf, der das Problem des „Leistungsüberhangs“ aufzeigt: Modelle können mehr, als Privatpersonen und Unternehmen derzeit nutzen, und diese Lücke birgt das Risiko ungleicher Fortschritte in den einzelnen Ländern. Es ist, als besäße man einen Rennwagen und fahre damit nur zum Kiosk um die Ecke … nur dass der Kiosk die gesamte Wirtschaft repräsentiert.
Neben der Rhetorik gibt es konkrete Maßnahmen: ein Programm zur Weiterbildung Tausender europäischer KMU im Bereich KI, ein Stipendium für Forschungsprojekte zur Sicherheit und zum Wohlbefinden junger Menschen sowie eine verstärkte Zusammenarbeit mit Regierungen. Es ist teils Strategiepapier, teils Kampagne zur Umsetzung – und ja, die Grenzen zwischen diesen beiden Polen verschwimmen.
🔐 KI-Risiko trifft auf Cyber-Governance: NIST-Entwurf eines Cyber-KI-Profils ↗
Ein neuer Entwurf des NIST (basierend auf einer Analyse einer Anwaltskanzlei) konzentriert sich darauf, wie Organisationen KI in die Cyber-Governance integrieren sollten – sowohl hinsichtlich der Absicherung ihrer eigenen KI-Systeme als auch deren Nutzung zur Verbesserung der Cyberabwehr. Offiziell ist dies freiwillig, doch „freiwillig“ neigt dazu, mit der Zeit zur Erwartungshaltung zu werden.
Die Arbeitsgruppen befassen sich mit Themen wie der Sicherung von KI-Komponenten und dem Einsatz KI-gestützter Verteidigungssysteme – einschließlich Lieferkettenaspekten und agentenähnlicher Automatisierung in Reaktionsabläufen. Die Grundidee ist: KI sowohl als neue Angriffsfläche als auch als neues Werkzeugset zu betrachten und nicht so zu tun, als würden sich diese beiden Aspekte gegenseitig aufheben.
Häufig gestellte Fragen
Was ist DeepMinds AlphaGenome und welches Problem versucht es zu lösen?
AlphaGenome ist ein KI-System von DeepMind, das laut Hersteller vorhersagen kann, wie DNA-Mutationen die Genregulation beeinflussen – wann Gene aktiviert werden, wo dies geschieht und wie stark. Es ist darauf ausgelegt, sehr große DNA-Abschnitte gleichzeitig zu analysieren, einschließlich der nicht-kodierenden Regionen, die bekanntermaßen schwer zu interpretieren sind. Ziel ist es, Forschern zu helfen, die Mutationen zu identifizieren, die am ehesten Krankheiten auslösen, sodass sich Labortests auf die vielversprechendsten Ansätze konzentrieren können.
Wie könnte AlphaGenome Forschern helfen, genetische Krankheitsursachen schneller zu finden?
In vielen Arbeitsabläufen der Genetik liegt der Engpass darin, riesige Variantenlisten auf die wenigen zu reduzieren, die die Genaktivität plausibel verändern. AlphaGenome verspricht, diese Unsicherheit zu verringern, indem es vorhersagt, wie spezifische Mutationen die Regulation über lange DNA-Sequenzen hinweg beeinflussen könnten. Bestätigen sich diese Vorhersagen, können Forschungsteams Experimente mit den Varianten priorisieren, die am ehesten mit dem Krebsrisiko oder komplexen Erbkrankheiten zusammenhängen, und so weniger Zeit mit erfolglosen Versuchen verschwenden.
Wird die Einführung von KI in Großbritannien tatsächlich Arbeitsplätze kosten, und welche Berufe sind am stärksten gefährdet?
Die britische Technologieministerin Liz Kendall erklärte, die Einführung von KI werde zu Arbeitsplatzverlusten führen und betonte die Unsicherheit hinsichtlich der Einstiegspositionen von Hochschulabsolventen. Sie verwies insbesondere auf Bereiche wie Recht und Finanzen, in denen Aufgaben zu Beginn der Karriere leichter automatisierbar sein könnten. Gleichzeitig legt die Regierung Wert auf die Anpassung durch umfangreiche Schulungen in grundlegenden KI-Kenntnissen und räumt ein, dass der Übergang trotz der Entstehung neuer Berufsfelder uneinheitlich verlaufen könnte.
Können britische Verlage die Teilnahme an Googles KI-Übersichten ablehnen, ohne ihre Suchmaschinenplatzierungen zu verlieren?
Die britischen Wettbewerbsbehörden haben Änderungen vorgeschlagen, die es Verlagen ermöglichen würden, die Verwendung ihrer Inhalte für Googles KI-Übersichten oder das Training eigenständiger KI-Modelle zu deaktivieren, ohne dafür Nachteile in den Suchergebnissen zu befürchten. Ziel ist es, das Machtverhältnis auszugleichen, da KI-Zusammenfassungen das Klickverhalten verändern. Google hat signalisiert, weitere Kontrollmaßnahmen zu erwägen, warnt aber gleichzeitig vor einer fragmentierten Sucherfahrung.
Wie kann ein KI-Agent durch einfaches Anklicken eines Links private Daten preisgeben?
OpenAI beschrieb ein URL-basiertes Datenexfiltrationsrisiko, bei dem ein Angreifer einen KI-Agenten dazu bringt, einen Link abzurufen, der sensible Informationen unbemerkt in die Abfragezeichenfolge einbettet. Selbst wenn das Modell das Geheimnis in seiner Ausgabe nicht wiederholt, kann die Anfrage selbst es übertragen. Eine gängige Gegenmaßnahme ist das Hinzufügen von „bewussten Hürden“, wie z. B. Warnungen und die Anforderung einer Benutzerbestätigung, wenn ein Link nicht unabhängig als öffentlich verifiziert wurde.
Was ist der Entwurf des Cyber-KI-Profils des NIST und wie verändert er die Cyber-Governance?
Ein Entwurf des NIST-Profils (erörtert im Rahmen einer Rechtsanalyse) definiert KI sowohl als etwas, das geschützt werden muss, als auch als ein Instrument der Cyberabwehr. Er gliedert die Arbeit in Themen wie die Sicherung von KI-Komponenten, die Bewältigung von Lieferkettenrisiken und den Einsatz KI-gestützter Abwehrmechanismen – einschließlich stärker automatisierter, agentenähnlicher Reaktionsabläufe. Obwohl solche Rahmenwerke formal freiwillig sind, werden sie oft faktisch zur Norm und drängen Organisationen dazu, KI formell in ihre Governance- und Kontrollprozesse zu integrieren.