Welche Verantwortung tragen Entwickler, die generative KI einsetzen?

Welche Verantwortung tragen Entwickler, die generative KI einsetzen?

Kurz gesagt: Entwickler, die generative KI einsetzen, tragen die Verantwortung für das gesamte System, nicht nur für die Ergebnisse des Modells. Wenn KI Entscheidungen, Code, Datenschutz oder das Vertrauen der Nutzer beeinflusst, müssen sie sichere Anwendungen auswählen, Ergebnisse überprüfen, Daten schützen, Schäden minimieren und sicherstellen, dass Nutzer Fehler überprüfen, korrigieren und gegebenenfalls korrigieren können.

Wichtigste Erkenntnisse:

Verifizierung : Behandeln Sie aufbereitete Ergebnisse als nicht vertrauenswürdig, bis Quellen, Tests oder eine menschliche Überprüfung sie bestätigen.

Datenschutz : Minimieren Sie die Anzahl der erfassten Daten, entfernen Sie Identifikatoren und sichern Sie Protokolle, Zugriffskontrollen und Lieferanten.

Fairness : Tests über verschiedene demografische Gruppen und Kontexte hinweg, um Stereotypen und ungleiche Misserfolgsmuster aufzudecken.

Transparenz : Kennzeichnen Sie den Einsatz von KI klar, erläutern Sie ihre Grenzen und bieten Sie eine menschliche Überprüfung oder Beschwerdemöglichkeit an.

Verantwortlichkeit : Vor dem Start sollten klare Verantwortliche für Bereitstellung, Störungen, Überwachung und Rücksetzung festgelegt werden.

Welche Verantwortung tragen Entwickler, die generative KI einsetzen? Infografik

Artikel, die Sie im Anschluss an diesen Artikel vielleicht interessieren:

🔗 Die besten KI-Tools für Softwareentwickler: Die führenden KI-gestützten Programmierassistenten
Vergleichen Sie die besten KI-Programmierassistenten für schnellere und sauberere Entwicklungsabläufe.

🔗 Die 10 besten KI-Tools für Entwickler zur Steigerung der Produktivität
Rangliste der KI-Tools für Entwickler zur intelligenteren und schnelleren Programmierung.

🔗 Warum KI schlecht für Gesellschaft und Vertrauen sein kann
Erläutert die realen Schäden: Voreingenommenheit, Datenschutz, Arbeitsplatzverlust und Risiken durch Fehlinformationen.

🔗 Ist die KI bei wichtigen Entscheidungen zu weit gegangen?
Definiert, wann KI Grenzen überschreitet: Überwachung, Deepfakes, Überredung, fehlende Zustimmung.

Warum die Verantwortung von Entwicklern, die generative KI einsetzen, wichtiger ist, als allgemein angenommen wird

Viele Softwarefehler sind ärgerlich. Ein Knopf funktioniert nicht. Eine Seite lädt langsam. Etwas stürzt ab und alle stöhnen auf.

Generative KI-Probleme können anders sein. Sie können subtil sein.

Ein Modell kann selbstsicher klingen, obwohl es falsch ist. (NIST GenAI-Profil) Es kann Verzerrungen reproduzieren, ohne dass offensichtliche Warnzeichen erkennbar sind. (NIST GenAI-Profil) Es kann sensible Daten offenlegen, wenn es unvorsichtig eingesetzt wird. (OWASP Top 10 für LLM-Anwendungen) (ICOs acht Fragen zu generativer KI) Es kann Code erzeugen, der funktioniert – bis er im Produktivbetrieb auf peinliche Weise versagt. (OWASP Top 10 für LLM-Anwendungen) Ähnlich wie die Einstellung eines überaus enthusiastischen Praktikanten, der nie schläft und von Zeit zu Zeit mit verblüffender Überzeugung Fakten erfindet.

Deshalb ist die Verantwortung von Entwicklern, die generative KI einsetzen, weit größer als die reine Implementierung. Entwickler erstellen nicht mehr nur logische Systeme, sondern probabilistische Systeme mit fließenden Übergängen, unvorhersehbaren Ergebnissen und realen sozialen Konsequenzen. (NIST AI RMF)

Das bedeutet, Verantwortung umfasst Folgendes:

Sie kennen das ja – wenn sich ein Werkzeug wie von Zauberhand anfühlt, hinterfragen die Leute es nicht mehr. Entwickler können es sich nicht leisten, so entspannt zu sein.

Was zeichnet eine gute Version der Verantwortung von Entwicklern aus, die generative KI einsetzen? 🛠️

Eine gute Form von Verantwortung ist nicht nur formaler Natur. Es reicht nicht, einfach einen Haftungsausschluss am Ende hinzuzufügen und das Ganze als Ethik zu bezeichnen. Sie zeigt sich in Designentscheidungen, Testmethoden und dem Verhalten des Produkts.

So sieht Verantwortungsdefinition für Entwickler, die generative KI einsetzen,

Das klingt nach viel, und das ist es auch. Aber so ist das nun mal, wenn man mit Technologien arbeitet, die Entscheidungen, Überzeugungen und Verhalten in großem Umfang beeinflussen können. OECD-KI-Prinzipien

Vergleichstabelle – die Kernverantwortung von Entwicklern, die generative KI einsetzen, auf einen Blick 📋

Verantwortungsbereich Wen es betrifft Tägliche Entwicklerpraxis Warum es wichtig ist
Genauigkeit und Überprüfung Nutzer, Teams, Kunden Ergebnisse prüfen, Validierungsebenen hinzufügen, Grenzfälle testen KI kann fließend arbeiten und dennoch völlig falsch liegen – eine ungünstige Kombination (NIST GenAI-Profil).
Datenschutz Nutzer, Kunden, interne Mitarbeiter Minimieren Sie die Verwendung sensibler Daten, bereinigen Sie Abfragen, kontrollieren Sie Protokolle Sind private Daten erst einmal durchgesickert, ist es zu spät 😬 ICOs acht Fragen zu generativer KI OWASP Top 10 für LLM-Bewerbungen
Voreingenommenheit und Fairness unterrepräsentierte Gruppen, alle Nutzer wirklich Ergebnisse prüfen, verschiedene Eingaben testen, Sicherheitsvorkehrungen optimieren Schaden ist nicht immer laut – manchmal ist er systematisch und leise. NIST GenAI-Profil. ICO-Leitfaden zu KI und Datenschutz.
Sicherheit Unternehmenssysteme, Benutzer Beschränken Sie den Modellzugriff, schützen Sie sich gegen sofortiges Einschleusen, führen Sie riskante Aktionen in einer Sandbox durch Ein geschickter Angriff kann das Vertrauen schnell zerstören – OWASP Top 10 für LLM-Bewerbungen – NCSC zu KI und Cybersicherheit
Transparenz Endnutzer, Aufsichtsbehörden, Supportteams KI-Verhalten klar kennzeichnen, Grenzen erläutern, Nutzung dokumentieren den OECD-KI-Prinzipien und dem Verhaltenskodex zur Kennzeichnung und Kennzeichnung KI-generierter Inhalte hilft.
Rechenschaftspflicht Produktverantwortliche, Rechtsabteilung, Entwicklerteams Zuständigkeiten, Vorfallbearbeitung und Eskalationswege definieren „Die KI war’s“ ist keine reife Antwort. OECD-KI-Prinzipien
Zuverlässigkeit alle, die das Produkt berühren Überwachen Sie Fehler, legen Sie Vertrauensschwellenwerte fest und erstellen Sie Ausweichlogik Modelle driften ab, versagen auf unerwartete Weise und erleben hin und wieder dramatische Zwischenfälle (NIST AI RMF NCSC-Richtlinien für sichere KI).
Wohlbefinden der Nutzer besonders schutzbedürftige Nutzer Vermeiden Sie manipulatives Design, begrenzen Sie schädliche Ergebnisse und überprüfen Sie risikoreiche Anwendungsfälle Nur weil etwas generiert werden kann, heißt das nicht, dass es den OECD-KI-Prinzipien, dem NIST-KI-RMF

Eine etwas ungleichmäßige Tabelle, ja, aber das passt zum Thema. Auch die tatsächliche Verantwortung ist ungleich verteilt.

Verantwortung beginnt vor der ersten Eingabeaufforderung – die Wahl des richtigen Anwendungsfalls 🎯

Eine der größten Aufgaben von Entwicklern ist die Entscheidung, ob generative KI überhaupt eingesetzt werden soll . NIST AI RMF

Das klingt selbstverständlich, wird aber ständig übersehen. Teams sehen ein Modell, sind begeistert und versuchen, es in Arbeitsabläufe zu pressen, die sich besser mit Regeln, Suchfunktionen oder herkömmlicher Softwarelogik lösen ließen. Nicht jedes Problem braucht ein Sprachmodell. Manche Probleme erfordern eine Datenbank und einen ruhigen Nachmittag.

Vor Baubeginn sollten Entwickler sich folgende Fragen stellen:

  • Ist die Aufgabe ergebnisoffen oder deterministisch?

  • Könnte eine fehlerhafte Ausgabe Schaden verursachen?

  • Benötigen die Nutzer Kreativität, Vorhersagen, Zusammenfassungen, Automatisierung – oder einfach nur Geschwindigkeit?

  • Werden die Nutzer den Ergebnissen übermäßig vertrauen? NIST GenAI-Profil

  • Kann ein Mensch die Ergebnisse realistisch beurteilen? OECD-KI-Prinzipien

  • Was passiert, wenn das Modell falsch ist? OECD-KI-Prinzipien

Ein verantwortungsbewusster Entwickler fragt nicht nur: „Können wir das bauen?“ Er fragt: „Sollte es so gebaut werden?“ NIST AI RMF

Diese Frage allein verhindert eine Menge glänzenden Unsinn.

Genauigkeit ist eine Verantwortung, keine Zusatzfunktion ✅

Um es klarzustellen: Eine der größten Fallen generativer KI ist die Verwechslung von Eloquenz mit Wahrheit. Modelle liefern oft Antworten, die ausgefeilt, strukturiert und überzeugend klingen. Das ist schön und gut, solange der Inhalt nicht als Unsinn in Selbstsicherheit verpackt ist. NIST GenAI-Profil

Die Verantwortung von Entwicklern, die generative KI einsetzen, umfasst daher auch die Entwicklung von Systemen zur Verifizierung.

Das bedeutet:

Dies ist in Bereichen wie diesen von großer Bedeutung:

  • Gesundheitspflege

  • Finanzen

  • juristische Arbeitsabläufe

  • Ausbildung

  • Kundensupport

  • Unternehmensautomatisierung

  • Codegenerierung

Generierter Code kann beispielsweise übersichtlich aussehen, aber Sicherheitslücken oder Logikfehler verbergen. Ein Entwickler, der ihn blind kopiert, arbeitet ineffizient – ​​er lagert das Risiko lediglich in einem ansprechenderen Format aus. OWASP Top 10 für LLM-Anwendungen ; NCSC zu KI und Cybersicherheit

Das Modell kann hilfreich sein. Die Verantwortung für das Ergebnis liegt weiterhin beim Entwickler. OECD-KI-Prinzipien

Datenschutz und verantwortungsvoller Umgang mit Daten sind nicht verhandelbar 🔐

Hier wird es schnell ernst. Generative KI-Systeme basieren häufig auf Eingabeaufforderungen, Protokollen, Kontextfenstern, Speicherschichten, Analysen und Infrastruktur von Drittanbietern. Dadurch entstehen zahlreiche Möglichkeiten, dass sensible Daten auslaufen, persistent gespeichert oder auf unerwartete Weise wiederverwendet werden. ICOs acht Fragen zur generativen KI – OWASP Top 10 für LLM-Anwendungen

Entwickler haben eine Verantwortung zum Schutz folgender Punkte:

  • persönliche Informationen

  • Finanzunterlagen

  • medizinische Details

  • interne Firmendaten

  • Geschäftsgeheimnisse

  • Authentifizierungstoken

  • Kundenkommunikation

Zu verantwortungsvollen Praktiken gehören:

Dies ist einer jener Bereiche, in denen „Wir haben vergessen, daran zu denken“ kein geringfügiger Fehler ist. Es ist ein schwerwiegender Vertrauensbruch.

Und einmal gebrochenes Vertrauen breitet sich aus wie zerbrochenes Glas. Vielleicht nicht die eleganteste Metapher, aber Sie verstehen, was gemeint ist.

Voreingenommenheit, Fairness und Repräsentation – die stillen Verantwortlichkeiten ⚖️

Verzerrungen in generativer KI sind selten ein offensichtlicher Bösewicht. Sie sind meist viel subtiler. Ein Modell kann stereotype Stellenbeschreibungen, ungleiche Moderationsentscheidungen, einseitige Empfehlungen oder kulturell eingeschränkte Annahmen erzeugen, ohne dass dies offensichtlich auffällt. NIST GenAI-Profil

Deshalb gehört es zur Verantwortung von Entwicklern, die generative KI einsetzen, auch, sich aktiv für Fairness einzusetzen.

Entwickler sollten:

Ein System kann insgesamt gut funktionieren, während es einige Nutzer dauerhaft schlechter bedient als andere. Das ist nicht akzeptabel, nur weil die durchschnittliche Leistung in einem Dashboard gut aussieht. ICO-Leitfaden zu KI und Datenschutz ; NIST GenAI-Profil

Und ja, Fairness ist schwieriger als eine einfache Checkliste. Sie erfordert Urteilsvermögen, Kontext, Abwägungen und auch ein gewisses Maß an Unbehagen. Das entbindet einen jedoch nicht von der Verantwortung – im Gegenteil, es bestätigt sie. ICO-Leitfaden zu KI und Datenschutz

Sicherheit ist heute teils vorausschauendes Design, teils Ingenieursdisziplin 🧱

Die Sicherheit generativer KI stellt eine ganz eigene Herausforderung dar. Traditionelle Anwendungssicherheit ist natürlich weiterhin wichtig, doch KI-Systeme bieten ungewöhnliche Angriffsflächen: Prompt-Injection, indirekte Prompt-Manipulation, unsichere Tool-Nutzung, Datenexfiltration durch Kontext und Modellmissbrauch durch automatisierte Workflows. OWASP Top 10 für LLM-Anwendungen, NCSC zu KI und Cybersicherheit

Entwickler sind für die Sicherheit des gesamten Systems verantwortlich, nicht nur der Benutzeroberfläche. NCSC-Richtlinien für sichere KI

Zu den Hauptaufgaben gehören hier:

Eine unangenehme Wahrheit ist, dass Nutzer – und Angreifer – definitiv Dinge ausprobieren werden, mit denen Entwickler nicht gerechnet haben. Manche aus Neugier, manche aus Bosheit, manche, weil sie nachts um 2 Uhr versehentlich auf das Falsche geklickt haben. So etwas kommt vor.

Sicherheit für generative KI ist weniger mit dem Bau einer Mauer vergleichbar, sondern eher mit der Verwaltung eines sehr gesprächigen Türstehers, der sich manchmal durch die Formulierung täuschen lässt.

Transparenz und Nutzereinwilligung sind wichtiger als ein auffälliges UX-Design 🗣️

Wenn Nutzer mit KI interagieren, sollten sie darüber informiert sein. OECD-KI-Prinzipien: Verhaltenskodex zur Kennzeichnung und Beschriftung KI-generierter Inhalte

Nicht vage. Nicht in Begriffen verstrickt. Ganz klar.

Eine zentrale Aufgabe von Entwicklern, die generative KI einsetzen, besteht darin, sicherzustellen, dass die Benutzer Folgendes verstehen:

Bei Transparenz geht es nicht darum, Nutzer einzuschüchtern. Es geht darum, sie zu respektieren.

Gute Transparenz könnte beispielsweise Folgendes umfassen:

Viele Produktteams befürchten, dass Ehrlichkeit die Faszination einer Funktion mindert. Mag sein. Doch falsche Gewissheit ist schlimmer. Eine elegante Benutzeroberfläche, die Risiken verschleiert, ist im Grunde nichts anderes als geschliffene Verwirrung.

Die Entwickler bleiben verantwortlich – auch wenn das Modell „entscheidet“ 👀

Dieser Aspekt ist von entscheidender Bedeutung. Die Verantwortung kann nicht an den Anbieter des Modells, die Modellkarte, die Vorlage oder die undurchsichtige Welt des maschinellen Lernens delegiert werden. OECD-KI-Prinzipien, NIST-KI-RMF

Entwickler bleiben weiterhin verantwortlich. OECD-KI-Prinzipien

Das bedeutet, dass jemand im Team die Verantwortung dafür tragen sollte:

Es sollten klare Antworten auf Fragen wie diese geben:

Ohne Verantwortlichkeit verschwimmt der Nebel. Jeder geht davon aus, dass sich jemand anderes darum kümmert... und am Ende kümmert sich niemand darum.

Dieses Muster ist in Wahrheit älter als die KI. Die KI macht es lediglich gefährlicher.

Verantwortungsbewusste Entwickler programmieren auf Korrektur, nicht auf Perfektion 🔄

Hier liegt der Clou: Verantwortungsvolle KI-Entwicklung bedeutet nicht, so zu tun, als wäre das System perfekt. Es bedeutet vielmehr, von möglichen Fehlern auszugehen und die Entwicklung entsprechend anzupassen. NIST AI RMF

Das bedeutet, Produkte zu entwickeln, die:

So sieht Reife aus. Keine glänzenden Demos. Keine reißerischen Marketingtexte. Echte Systeme mit Schutzmechanismen, Protokollen, Verantwortlichkeiten und genügend Demut, um zuzugeben, dass die Maschine kein Zauberer ist. NCSC-Richtlinien für sichere KI, OECD-KI-Prinzipien

Denn das ist es nicht. Es ist ein Werkzeug. Ein mächtiges, ja. Aber eben doch nur ein Werkzeug.

Abschließende Betrachtung der Verantwortung von Entwicklern, die generative KI einsetzen 🌍

Welche Verantwortung tragen also Entwickler, die generative KI einsetzen ?

Es geht darum, mit Bedacht zu entwickeln. Zu hinterfragen, wo das System hilft und wo es schadet. Die Privatsphäre zu schützen. Auf Verzerrungen zu prüfen. Ergebnisse zu verifizieren. Den Arbeitsablauf abzusichern. Transparent gegenüber den Nutzern zu sein. Den Menschen eine sinnvolle Kontrolle zu ermöglichen. Verantwortung zu übernehmen, wenn etwas schiefgeht. NIST AI RMF OECD AI-Prinzipien

Das mag sich gewagt anhören – und das ist es auch. Aber genau das unterscheidet durchdachte Entwicklung von rücksichtsloser Automatisierung.

Die besten Entwickler, die generative KI einsetzen, sind nicht diejenigen, die dem Modell die meisten Tricks beibringen. Sie sind diejenigen, die die Konsequenzen dieser Tricks verstehen und ihr Design entsprechend anpassen. Sie wissen, dass Geschwindigkeit wichtig ist, aber Vertrauen das eigentliche Produkt darstellt. Erstaunlicherweise hat diese altbewährte Idee immer noch Gültigkeit. NIST AI RMF

Letztendlich ist Verantwortung kein Hindernis für Innovation. Sie verhindert vielmehr, dass Innovation zu einem teuren, turbulenten Ungetüm mit einer ausgefeilten Benutzeroberfläche und einem Vertrauensproblem wird 😬✨

Und vielleicht ist das die einfachste Version davon.

Bauen Sie mutig, ja – aber bauen Sie so, als könnten Menschen betroffen sein, denn das sind sie. OECD-KI-Prinzipien

Häufig gestellte Fragen

Welche Verantwortung tragen Entwickler, die generative KI in der Praxis einsetzen?

Die Verantwortung von Entwicklern, die generative KI einsetzen, geht weit über die schnelle Bereitstellung von Funktionen hinaus. Sie umfasst die Auswahl des richtigen Anwendungsfalls, das Testen der Ergebnisse, den Schutz der Privatsphäre, die Reduzierung schädlichen Verhaltens und die Verständlichkeit des Systems für die Nutzer. In der Praxis bleiben die Entwickler für die Konzeption, Überwachung, Fehlerbehebung und Steuerung des Tools im Fehlerfall verantwortlich.

Warum erfordert generative KI mehr Entwicklerverantwortung als normale Software?

Herkömmliche Fehler sind oft offensichtlich, doch Fehler in generativen KI-Systemen können zwar fehlerfrei klingen, sind aber dennoch fehlerhaft, voreingenommen oder riskant. Dadurch sind Probleme schwerer zu erkennen und Nutzer vertrauen den Systemen leichter irrtümlich. Entwickler arbeiten mit probabilistischen Systemen; ihre Verantwortung umfasst daher den Umgang mit Unsicherheit, die Schadensbegrenzung und die Vorbereitung auf unvorhersehbare Ergebnisse vor dem Launch.

Woran erkennen Entwickler, wann generative KI nicht eingesetzt werden sollte?

Ein gängiger Ausgangspunkt ist die Frage, ob die Aufgabe offen gestaltet ist oder besser durch Regeln, Suchfunktionen oder Standardlogik gelöst werden kann. Entwickler sollten zudem bedenken, welchen Schaden eine falsche Antwort anrichten könnte und ob ein Mensch die Ergebnisse realistisch überprüfen kann. Verantwortungsvoller Einsatz bedeutet manchmal, ganz auf generative KI zu verzichten.

Wie können Entwickler Halluzinationen und Fehlantworten in generativen KI-Systemen reduzieren?

Genauigkeit muss von vornherein gewährleistet sein und darf nicht vorausgesetzt werden. In vielen Prozessen bedeutet dies, Ausgaben auf vertrauenswürdigen Quellen zu basieren, generierten Text von verifizierten Fakten zu trennen und Prüfprozesse für risikoreichere Aufgaben einzusetzen. Entwickler sollten zudem Eingabeaufforderungen testen, die das System verwirren oder in die Irre führen sollen, insbesondere in Bereichen wie Programmierung, Support, Finanzen, Bildung und Gesundheitswesen.

Welche Verantwortung tragen Entwickler, die generative KI einsetzen, in Bezug auf Datenschutz und sensible Daten?

Die Verantwortung von Entwicklern, die generative KI einsetzen, besteht darin, die in das Modell einfließenden Daten auf ein Minimum zu beschränken und Eingabeaufforderungen, Protokolle und Ausgaben als sensibel zu behandeln. Entwickler sollten nach Möglichkeit Identifikatoren entfernen, die Aufbewahrungsdauer begrenzen, den Zugriff kontrollieren und die Einstellungen der Anbieter sorgfältig prüfen. Nutzer sollten zudem nachvollziehen können, wie ihre Daten verarbeitet werden, anstatt die Risiken erst später zu entdecken.

Wie sollten Entwickler mit Verzerrungen und Fairness in den Ergebnissen generativer KI umgehen?

Die Bekämpfung von Vorurteilen erfordert aktive Evaluation, nicht Annahmen. Ein praktischer Ansatz besteht darin, Eingabeaufforderungen in verschiedenen demografischen Gruppen, Sprachen und Kontexten zu testen und die Ergebnisse anschließend auf Stereotypen, Ausgrenzung oder ungleiche Fehlermuster zu überprüfen. Entwickler sollten zudem Möglichkeiten schaffen, damit Nutzer oder Teams schädliches Verhalten melden können, denn ein System kann insgesamt gut funktionieren, obwohl es bestimmte Gruppen systematisch benachteiligt.

Welche Sicherheitsrisiken müssen Entwickler bei generativer KI berücksichtigen?

Generative KI eröffnet neue Angriffsflächen, darunter das Einschleusen von Prompt-Code, die unsichere Verwendung von Tools, Datenlecks durch Kontextabhängigkeit und der Missbrauch automatisierter Aktionen. Entwickler sollten nicht vertrauenswürdige Eingaben bereinigen, Tool-Berechtigungen einschränken, den Datei- und Netzwerkzugriff begrenzen und Missbrauchsmuster überwachen. Sicherheit betrifft nicht nur die Benutzeroberfläche, sondern den gesamten Workflow rund um das Modell.

Warum ist Transparenz bei der Entwicklung mit generativer KI wichtig?

Nutzer sollten klar erkennen können, wann KI zum Einsatz kommt, was sie leisten kann und wo ihre Grenzen liegen. Gute Transparenz umfasst Kennzeichnungen wie „KI-generiert“ oder „KI-unterstützt“, einfache Erklärungen und klare Wege zum menschlichen Support. Diese Offenheit schwächt das Produkt nicht, sondern hilft Nutzern, Vertrauen aufzubauen und bessere Entscheidungen zu treffen.

Wer trägt die Verantwortung, wenn eine generative KI-Funktion Schaden verursacht oder etwas falsch macht?

Die Entwickler und Produktteams tragen weiterhin die Verantwortung für das Ergebnis, selbst wenn das Modell die Antwort liefert. Das bedeutet, dass klare Verantwortlichkeiten für die Freigabe von Bereitstellungen, die Bearbeitung von Störungen, Rollbacks, die Überwachung und die Kommunikation mit den Nutzern bestehen müssen. „Das Modell hat entschieden“ reicht nicht aus, denn die Verantwortung muss bei denjenigen liegen, die das System entworfen und eingeführt haben.

Wie sieht verantwortungsvolle generative KI-Entwicklung nach dem Start aus?

Verantwortungsvolle Weiterentwicklung wird auch nach der Veröffentlichung durch Monitoring, Feedback, Überprüfung und Korrektur fortgesetzt. Robuste Systeme sind überprüfbar, unterbrechbar, wiederherstellbar und verfügen über Ausweichmechanismen für den Fall, dass die KI versagt. Ziel ist nicht Perfektion, sondern die Entwicklung eines Systems, das sich bei auftretenden Problemen in der Praxis sicher untersuchen, verbessern und anpassen lässt.

Referenzen

  1. Nationales Institut für Standards und Technologie (NIST)NIST GenAI-Profilnvlpubs.nist.gov

  2. OWASPOWASP Top 10 für LLM-Bewerbungenowasp.org

  3. Information Commissioner's Office (ICO)Die acht Fragen des ICO zur generativen KIico.org.uk

Entdecken Sie die neuesten KI-Lösungen im offiziellen KI-Assistenten-Shop

Über uns

Zurück zum Blog