🧒 OpenAI führt Altersvorhersage auf ChatGPT ein ↗
OpenAI hat damit begonnen, eine „Altersvorhersage“-Funktion in ChatGPT zu integrieren. Dieses System versucht im Hintergrund zu erkennen, wann ein Konto wahrscheinlich einem Minderjährigen gehört, und greift dann mit zusätzlichen Sicherheitsvorkehrungen ein. Wenn es vermutet, dass Sie unter 18 Jahre alt sind, wird der Zugriff auf sensiblere Inhalte automatisch eingeschränkt.
Wenn die Vermutung falsch ist (was gelegentlich vorkommt), erfolgt die Abhilfe durch Identitätsprüfung via Persona mithilfe eines Selfie-basierten Prozesses. Dies ist auch mit umfassenderen Plattformänderungen wie Experimenten mit dem „Erwachsenenmodus“ und Monetarisierungsmaßnahmen verknüpft, die sich ehrlich gesagt anfühlen, als würde man mehrere Bälle gleichzeitig in der Luft halten.
🏦 Großbritannien braucht laut Abgeordneten „KI-Stresstests“ für Finanzdienstleistungen ↗
Britische Abgeordnete fordern im Grunde: Schluss mit der Sorglosigkeit gegenüber KI im Finanzwesen. Sie argumentieren, dass Regulierungsbehörden und Regierung KI-Systeme ähnlich wie Banken Stresstests unterziehen sollten – denn Fehler im Finanzsektor breiten sich rasend schnell aus.
Das Problem liegt in der Art von Schwierigkeiten, die sich erst im großen Maßstab zeigen: Verzerrungen, Fehlerketten, Betrugsmuster, Rückkopplungsschleifen. Es ist, als würde man ein Kleinkind einen Bus fahren lassen, weil die Straße gerade ist … bis sie es plötzlich nicht mehr ist.
🏛️ KI-Beauftragte ernannt, um City bei der sicheren Nutzung von KI-Chancen zu unterstützen ↗
Die britische Regierung ernannte zwei „KI-Champions“, um die Einführung von KI im Finanzdienstleistungssektor zu beschleunigen – mit den üblichen Versprechungen von Wachstum, Produktivität, Investitionen, all dem gut klingenden Apparat.
Bemerkenswert ist der Balanceakt: Dynamik und Sicherheit stehen im Vordergrund. Beruhigend … oder leicht komisch, je nach Tagesform.
💰 Humans&, ein auf den Menschen ausgerichtetes KI-Startup, gegründet von ehemaligen Mitarbeitern von Anthropic, xAI und Google, hat in einer Seed-Finanzierungsrunde 480 Millionen US-Dollar eingesammelt ↗
Humans& startete mit einer beeindruckenden Seed-Finanzierungsrunde und einem Team, das sich wie ein „Starterpaket für KI-Labore“ liest – Experten aus großen Modellbaufirmen und der Tech-Branche. Das erklärte Ziel ist weniger ein Chatbot, sondern vielmehr die „Unterstützung von Menschen bei der Koordination und Zusammenarbeit“ durch Systeme, die sowohl mit Menschen als auch mit KI-Agenten interagieren können.
Das ist eine Menge Geld für etwas, das noch in der frühen Phase ist. Das kann entweder ein Zeichen für Optimismus am Markt sein … oder bedeuten, dass wir alle gemeinsam Feuerwerk kaufen, weil uns der Klang gefällt. Ehrlich gesagt, könnte beides zutreffen.
⚖️ Das Legal-AI-Startup Ivo hat in seiner jüngsten Finanzierungsrunde 55 Millionen Dollar eingesammelt ↗
Das Legal-AI-Startup Ivo hat frische Finanzmittel eingeworben, um seine Plattform auszubauen und den Vertrieb zu skalieren, und reitet dabei auf der Welle von Anwaltskanzleien und internen Rechtsabteilungen, die papierintensive Arbeitsabläufe automatisieren.
Diese Kategorie ist weiterhin erfolgreich, weil ihr Nutzen klar und einfach ist: weniger Zeitaufwand für repetitive Dokumentenarbeit, weniger Fehler, die übersehen werden. Nicht glamourös, aber äußerst lukrativ.
🧠 Laut dem taiwanesischen Unternehmen Inventec scheint die Entscheidung über Nvidias H200-Chip „auf chinesischer Seite festzustecken“ ↗
Ein taiwanischer Serverhersteller sagte, die Frage, ob Nvidia seinen KI-Chip H200 in China verkaufen werde, scheine „festzustecken“ – was darauf hindeutet, dass der Flaschenhals nicht nur in externen Regeln liege, sondern auch in Genehmigungen auf chinesischer Seite oder in internen Dynamiken.
Das ist die ernüchternde Realität von KI-Hardware: Alle reden von Modellen und Agenten, doch die gesamte Zukunft hängt von wenigen Engpässen, Genehmigungen und der Politik der Lieferketten ab. Es ist, als plane man einen Raketenstart … und stelle dann fest, dass man den Schlüssel für das Treibstoffventil vergessen hat.
Häufig gestellte Fragen
Wie lautet die Altersvorhersage von OpenAI auf ChatGPT, und was ändert sich, wenn man als unter 18 Jahre alt eingestuft wird?
OpenAI hat eine unauffällige „Altersvorhersage“-Schicht eingeführt, die versucht, zu ermitteln, ob ein Konto wahrscheinlich einem Minderjährigen gehört. Sollte das System feststellen, dass Sie unter 18 Jahre alt sind, greift ChatGPT automatisch mit zusätzlichen Sicherheitsvorkehrungen ein. In der Praxis bedeutet dies in der Regel strengere Beschränkungen für als sensibel eingestufte Inhalte. Ziel ist es, Risiken zu minimieren, ohne jeden Nutzer zu zwingen, sein Alter im Voraus anzugeben.
Was passiert, wenn die Altersvorhersage von ChatGPT falsch ist?
Falls die Alterserkennung bei ChatGPT fehlschlägt und einen Erwachsenen fälschlicherweise als unter 18 einstuft, sieht die vorgesehene Lösung eine Identitätsprüfung vor. In dieser Version erfolgt diese Prüfung über Persona mithilfe eines Selfie-basierten Verfahrens. Nach erfolgreicher Prüfung kann das Konto wieder normal genutzt werden, anstatt weiterhin strengeren Sicherheitsvorkehrungen unterworfen zu sein. Es ist ein Kompromiss: weniger riskante Sonderfälle, dafür aber zusätzliche Hürden, wenn das System eine falsche Einschätzung abgibt.
Wie fügt sich die Persona-Selfie-Verifizierung in den Sicherheitsansatz von OpenAI ein?
Persona dient als Mechanismus zur Behebung altersbedingter Unsicherheiten, wenn die Systemerkennung als unzuverlässig eingestuft wird. Die Identitätsprüfung per Selfie ist als Korrekturschritt nach einer fehlerhaften Altersvorhersage vorgesehen. Auf vielen Plattformen wird dieser Schritt genutzt, um Sicherheit und Zugriff in Einklang zu bringen, ohne legitime Nutzer dauerhaft zu sperren. Er deutet zudem auf eine stärkere Durchsetzung auf Kontoebene hin, nicht nur auf Filterung auf Abfrageebene.
Warum führt OpenAI jetzt eine Altersbeschränkung ein, und was hat das mit dem „Erwachsenenmodus“ zu tun?
Dieses Update erfolgt zeitgleich mit umfassenderen Plattformänderungen, darunter die bereits erwähnten Experimente mit dem „Erwachsenenmodus“ und die Monetarisierungsmaßnahmen. Die Altersvorhersage auf ChatGPT dient nun als Schalter, der festlegt, wer strengere Zugriffsrechte erhält und wer einen breiteren Zugang hat. Dies ist nützlich für eine Plattform, die verschiedene Nutzungserlebnisse für unterschiedliche Zielgruppen testet. Zudem kann so der Zugriff auf riskantere Inhalte eingeschränkt und gleichzeitig die Expansion in anderen Bereichen ermöglicht werden.
Was sind „KI-Stresstests“ für britische Finanzdienstleistungen und warum wollen die Gesetzgeber sie?
Britische Abgeordnete fordern „KI-Stresstests“, die KI-Systeme ähnlich wie Banken behandeln: Sie sollen auf Herz und Nieren geprüft werden, bevor sich Probleme ausbreiten. Die Sorge besteht darin, dass Verzerrungen, Fehlerkaskaden, Betrugsmuster und Rückkopplungsschleifen erst bei großflächigen Systemen sichtbar werden. Im Finanzwesen können sich kleine Fehler in eng vernetzten Systemen schnell verbreiten. Stresstests sollen Schwächen frühzeitig aufdecken, bevor echtes Geld und echte Kunden betroffen sind.
Wer sind die britischen „KI-Champions“ für die City of London und welche Aufgaben haben sie?
Die britische Regierung hat zwei „KI-Champions“ ernannt, um die Einführung von KI im Finanzdienstleistungssektor zu beschleunigen. Ihre Rolle besteht darin, die City bei der Nutzung von KI-Chancen zu unterstützen und dabei gleichzeitig für Sicherheit zu sorgen. Konkret bedeutet dies Koordination und Interessenvertretung: Förderung der Nutzung, Unterstützung bewährter Verfahren und Abstimmung der Interessengruppen. Dies signalisiert, dass die Regierung eine schnellere Einführung anstrebt, die jedoch durch transparente Sicherheitsvorkehrungen abgesichert ist.