🏫 In manchen Schulen befragen Chatbots Schüler zu ihren Leistungen. Doch die KI-Revolution bereitet Lehrern Sorgen ↗
Einige australische Schulen erproben eine innovative Variante des Rechenwegs: Schüler bearbeiten eine Aufgabe, woraufhin ein KI-Chatbot in einem interaktiven Dialog ihr Verständnis überprüft. Im Prinzip handelt es sich um eine mündliche Prüfung, nur dass eine Maschine so lange fragt: „Was meinen Sie damit?“, bis man sich unwohl fühlt.
Die größere Sorge gilt der ungleichmäßigen Einführung: Ein Branchenbericht warnt davor, dass Vorreiter einen Blitzstart hinlegen könnten, während andere hinterherhinken, was zu einem zweigleisigen Bildungssystem führen würde. Lehrkräfte weisen zudem immer wieder auf die bekannten – und nach wie vor ernsten – Bedenken hin: Datenschutz, Wohlbefinden und die Frage, wie verhindert werden kann, dass aus „KI-Hilfe“ ein „KI hat es getan“ wird.
👮 Die Londoner Polizei nutzt KI-Tools von Palantir, um Fehlverhalten von Beamten zu kennzeichnen ↗
Die Londoner Metropolitan Police (Met) nutzt KI von Palantir, um interne Arbeitsmuster – Krankheitsfälle, Fehlzeiten, Überstunden – zu analysieren und nach Hinweisen auf mögliche Probleme mit den Berufsstandards zu suchen. Das Projekt ist als zeitlich begrenztes Pilotprojekt angelegt, und die Met betont, dass die endgültigen Entscheidungen weiterhin von Menschen getroffen werden. Doch auch diese „noch“ ist eine wichtige Aufgabe.
Die Polizeigewerkschaft ist alles andere als begeistert. Sie spricht von „automatisierter Verdachtserkennung“ und warnt vor undurchsichtigen Systemen, die Stress und Arbeitsbelastung fälschlicherweise als Fehlverhalten interpretieren. Es ist einer dieser Momente, in denen die Technologie auf der Präsentation vielversprechend klingt, sich dann aber in der Praxis als äußerst problematisch erweist.
🛡️ Britische Datenschutzbehörde warnt in gemeinsamer Erklärung vor KI-generierten Bildern ↗
Die britische Datenschutzbehörde ICO schloss sich anderen Aufsichtsbehörden in einer gemeinsamen Warnung vor KI-generierten Bildern an, die identifizierbare Personen ohne deren Einwilligung zeigen – kurz gesagt: „Es ist synthetisch“ ist keine Ausrede. Die Botschaft lautet: Es gilt, frühzeitig Schutzmaßnahmen zu entwickeln und die Aufsichtsbehörden einzubeziehen, anstatt den klassischen Tech-Trick anzuwenden, erst auf den Markt zu kommen und sich später zu entschuldigen.
Sie weisen außerdem auf erhöhte Risiken für Kinder hin, was einleuchtend ist, denn wenn sich so etwas erst einmal verbreitet hat, ist es, als würde man versuchen, Glitzer wieder in ein Glas zurückzuholen. Die Kernaussage ist, dass Privatsphäre und Würde den Modezyklus überdauern sollen – so scheint es zumindest.
🪖 US-Verteidigungsminister Hegseth hat den CEO von Anthropologie zu einem harten Gespräch über den militärischen Einsatz von Claude einbestellt, berichtet Axios ↗
Reuters berichtet, dass der US-Verteidigungsminister sich mit dem CEO von Anthropic treffen wird, um in einem offenbar konfrontativeren Gespräch über den militärischen Einsatz von Claude zu sprechen. Das Pentagon fordert angeblich von großen KI-Anbietern, ihre Modelle in klassifizierten Netzwerken mit weniger Einschränkungen zugänglich zu machen – Anthropic wehrt sich jedoch bisher gegen jegliche Lockerung der Sicherheitsvorkehrungen.
Der Subtext liest sich wie ein klassisches Dilemma: „Schnell handeln, aber … mit Raketen im Spiel“. Können sich die Parteien nicht auf Leitlinien einigen, könnte die Beziehung belastet werden oder gar zerbrechen. Gleichzeitig signalisiert Anthropic jedoch, dass die Gespräche mit der Regierung weiterhin konstruktiv verlaufen. Die Lage ist also angespannt, aber noch nicht endgültig.
🧠 ChatGPT – Versionshinweise ↗
Die Versionshinweise von OpenAI weisen auf ein erweitertes Kontextfenster im „Denkmodus“ hin. Das bedeutet, dass Sie dem Modell mehr Text geben und längere Gesprächsverläufe kohärent halten können, ohne dass frühere Details verloren gehen. Falls Sie jemals erlebt haben, wie ein Modell etwas „vergessen“ hat, was Sie gerade gesagt haben (ärgerlich!), zielt diese Funktion genau darauf ab.
Es ist ein ziemlich nerdiges Upgrade, das unauffällig die praktischen Abläufe verändert: längere Dokumente, komplexere Projekte, ausgedehntere Recherchesitzungen. Nicht glamourös, aber es ist die Art von grundlegender Veränderung, die plötzlich das ganze Haus geräumiger wirken lässt.
Häufig gestellte Fragen
Was bedeutet es, wenn Schulen Chatbots einsetzen, um Schüler zu ihren Aufgaben zu „befragen“?
An einigen australischen Schulen bearbeiten Schüler eine Aufgabe und führen anschließend einen Dialog mit einem KI-Chatbot, der ihre Argumentation hinterfragt. Das Verfahren ähnelt einer mündlichen Prüfung und fordert die Schüler auf, ihre Ausführungen zu erläutern und zu begründen. Ziel ist es, das Verständnis zu überprüfen, nicht nur die Ergebnisse. So lassen sich auch Lücken aufdecken, wenn ein Schüler zentrale Behauptungen nicht begründen kann.
Wie könnten KI-Chatbots in Schulen ein „zweistufiges“ Bildungssystem schaffen?
Ein Branchenbericht warnt davor, dass Schulen, die neue Technologien schnell einführen, einen Vorsprung erzielen könnten, während Schulen, die sich langsamer anpassen, weiter zurückfallen. Wenn einige Schulen KI-Tools zur Leistungsbeurteilung, Lernförderung oder Missbrauchsprävention einsetzen, könnten sie die Ergebnisse schneller verbessern. Anderen Schulen fehlen möglicherweise Budget, Personal oder klare Richtlinien, um vergleichbare Systeme einzuführen. Diese ungleiche Verbreitung kann bestehende Ressourcen- und Leistungsunterschiede vergrößern.
Wie versuchen Lehrer zu verhindern, dass aus „KI-Hilfe“ ein „KI hat es getan“ wird?
Ein gängiger Ansatz besteht darin, die Bewertung stärker auf den Prozess und die Erklärung als auf das fertige Produkt auszurichten. Chatbot-ähnliche Fragen, Entwürfe, Reflexionen oder mündliche Kontrollen können es erschweren, Arbeiten einzureichen, die man nicht verstanden hat. Lehrkräfte können zudem klarere Grenzen für zulässige Hilfestellungen setzen, beispielsweise Brainstorming im Vergleich zu einer vollständigen Überarbeitung. Der Schwerpunkt liegt weiterhin auf dem Nachweis des Verständnisses, nicht auf der Kontrolle jedes einzelnen Hilfsmittels.
Welche Datenschutz- und Wohlbefindensprobleme ergeben sich beim Einsatz von KI in Klassenzimmern?
Lehrer äußern immer wieder Bedenken hinsichtlich der Art der erhobenen Schülerdaten, deren Speicherung und des Zugriffs darauf. Auch das Wohlbefinden der Schüler gibt Anlass zur Sorge, wenn sie sich ständig überwacht oder durch computergestützte Fragen unter Druck gesetzt fühlen. Kinder stellen eine besonders gefährdete Gruppe dar, da sensible Informationen sich auf unerwartete Weise verbreiten oder in Systemen verbleiben können. Viele Schulen versuchen daher, frühzeitig Schutzmaßnahmen zu implementieren, anstatt diese später nachträglich einzuführen.
Wie nutzt die Metropolitan Police die von Palantir bereitgestellte KI, um potenzielles Fehlverhalten von Beamten aufzudecken?
Die Londoner Metropolitan Police (Met) nutzt eine von Palantir bereitgestellte KI, um Arbeitsmuster wie Krankheit, Fehlzeiten und Überstunden zu analysieren. Ziel ist es, Hinweise auf mögliche Probleme mit den Berufsstandards zu erkennen. Es handelt sich um ein zeitlich begrenztes Pilotprojekt, und die Met betont, dass die Entscheidungen weiterhin von Menschen getroffen werden. Kritiker befürchten, dass das Tool wie ein „automatisierter Verdacht“ wirken kann, wenn es Stress fälschlicherweise als Fehlverhalten interpretiert.
Warum befürchten Polizeigewerkschaften eine „automatisierte Verdachtsbildung“ durch KI-gestützte Überwachungsinstrumente?
Die Polizeigewerkschaft befürchtet, dass intransparente Modelle Fehlverhalten aus Mustern ableiten könnten, die harmlose Erklärungen haben. Arbeitsspitzen, gesundheitliche Probleme und Stress können die Anwesenheit oder Überstunden beeinflussen, ohne dass ein Fehlverhalten vorliegt. Ist die Logik des Tools nicht transparent, wird es für Beamte schwieriger, Meldungen anzufechten, und für Vorgesetzte, faire Grenzwerte festzulegen. Selbst bei menschlichen Entscheidungen können automatisierte Signale die Ergebnisse beeinflussen.
Wovor warnt das britische ICO im Zusammenhang mit KI-generierten Bildern identifizierbarer Personen?
Die britische Datenschutzbehörde schloss sich anderen Aufsichtsbehörden an und warnte davor, dass „synthetisch“ nicht gleichbedeutend mit folgenlos ist. Wenn ein KI-generiertes Bild eine identifizierbare Person ohne deren Einwilligung zeigt, bestehen weiterhin Risiken für die Privatsphäre und die Würde der Person. Die Aufsichtsbehörden betonen, dass frühzeitig Schutzmaßnahmen entwickelt und die Aufsicht intensiviert werden sollten, anstatt die Inhalte vorschnell zu veröffentlichen. Sie weisen zudem auf die erhöhten Risiken für Kinder hin, da sich der Schaden nach der Verbreitung solcher Inhalte schnell ausweiten kann.
Was steckt hinter dem Bericht über den Druck des Pentagons auf Anthropic hinsichtlich des militärischen Einsatzes von Claude?
Reuters berichtet, dass der US-Verteidigungsminister sich mit dem CEO von Anthropic treffen wird, um die militärische Nutzung von Claude zu verschärfen. Das Pentagon fordert offenbar von großen KI-Anbietern, ihre Modelle in klassifizierten Netzwerken mit weniger Einschränkungen zugänglich zu machen. Anthropic wehrt sich gegen lockerere Sicherheitsvorkehrungen und verweist auf einen Konflikt über die geltenden Richtlinien. Die Beziehung scheint angespannt, obwohl beide Seiten signalisieren, dass die Gespräche weiterhin konstruktiv verlaufen.
Was hat sich in den ChatGPT-Versionshinweisen bezüglich der Kontextlänge im „Denkmodus“ geändert?
Die Versionshinweise von OpenAI weisen auf ein erweitertes Kontextfenster im „Denkmodus“ hin, wodurch mehr Text in einem einzigen Thread angezeigt werden kann. Dies ist in der Praxis hilfreich bei langen Dokumenten, komplexen Projekten und mehrstufigen Recherchen, bei denen frühere Details wichtig sind. Es handelt sich eher um eine grundlegende Verbesserung als um eine auffällige Funktion. Der Hauptvorteil besteht darin, dass bei längeren Sitzungen weniger Details verloren gehen.