Kurz gesagt: Generative KI zielt hauptsächlich darauf ab, neue, plausible Inhalte (Texte, Bilder, Audio, Code usw.) zu erzeugen, indem sie Muster in vorhandenen Daten erkennt und diese anhand einer Eingabe erweitert. Sie ist besonders hilfreich, wenn schnelle Entwürfe oder mehrere Varianten benötigt werden. Ist jedoch faktische Korrektheit wichtig, sollten die Inhalte zusätzlich fundiert recherchiert und überprüft werden.
Wichtigste Erkenntnisse:
Generation : Sie erzeugt neue Ergebnisse, die gelernte Muster widerspiegeln, nicht gespeicherte „Wahrheit“.
Fundierung : Wenn Genauigkeit wichtig ist, verknüpfen Sie Antworten mit vertrauenswürdigen Dokumenten, Zitaten oder Datenbanken.
Kontrollierbarkeit : Durch klare Vorgaben (Format, Fakten, Tonfall) lassen sich die Ergebnisse konsistenter gestalten.
Missbrauchsschutz : Fügen Sie Sicherheitsbarrieren hinzu, um gefährliche, private oder unzulässige Inhalte zu blockieren.
Verantwortlichkeit : Ergebnisse als Entwürfe behandeln; protokollieren, bewerten und risikoreiche Arbeiten an Menschen weiterleiten.
Artikel, die Sie im Anschluss an diesen Artikel vielleicht interessieren:
🔗 Was ist generative KI?
Verstehe, wie Modelle Text, Bilder, Code und mehr erzeugen.
🔗 Wird KI überbewertet?
Eine ausgewogene Betrachtung von Hype, Grenzen und realen Auswirkungen.
🔗 Welche KI ist die richtige für Sie?
Vergleichen Sie gängige KI-Tools und wählen Sie das am besten geeignete aus.
🔗 Gibt es eine KI-Blase?
Worauf man achten sollte, welche Marktrisiken bestehen und was als Nächstes kommt.
Das Hauptziel der generativen KI 🧠
Wenn Sie die kürzeste und präziseste Erklärung wünschen:
-
Generative KI lernt die „Struktur“ von Daten (Sprache, Bilder, Musik, Code)
-
Anschließend werden neue Muster , die dieser Form entsprechen.
-
Dies geschieht als Reaktion auf eine Aufforderung, den Kontext oder Einschränkungen
Ja, es kann einen Absatz schreiben, ein Bild malen, eine Melodie remixen, eine Vertragsklausel entwerfen, Testfälle generieren oder etwas Logoähnliches gestalten.
Nicht etwa, weil es so „versteht“ wie ein Mensch (darauf kommen wir noch zurück), sondern weil es gut darin ist, Ergebnisse zu erzeugen, die statistisch und strukturell mit den erlernten Mustern übereinstimmen.
Wer eine fundierte Herangehensweise an die Frage sucht, wie man KI sicher einsetzt, findet im KI-Risikomanagement-Framework des NIST eine solide Grundlage für Risikomanagement und Kontrollstrategien. [1] Und wer speziell auf die Risiken generativer KI (und nicht allgemein auf KI) eingehen möchte, findet im GenAI-Profil des NIST detailliertere Informationen darüber, was sich ändert, wenn das System Inhalte generiert. [2]

Warum streiten sich die Leute über das „Hauptziel der generativen KI“? 😬
Die Leute reden aneinander vorbei, weil sie unterschiedliche Bedeutungen von „Ziel“ verwenden
Manche Leute meinen:
-
Technisches Ziel: realistische, kohärente Ergebnisse generieren (der Kern)
-
Unternehmensziel: Kosten senken, Produktivität steigern, Kundenerlebnisse personalisieren
-
Menschliches Ziel: schneller Hilfe beim Denken, Gestalten oder Kommunizieren erhalten.
Und ja, die kollidieren.
Bleiben wir realistisch: Das Hauptziel der generativen KI ist die Generierung – die Schaffung von Inhalten, die vorher nicht existierten, basierend auf Eingaben.
Die geschäftlichen Angelegenheiten folgen später. Die kulturelle Panik folgt auch später (sorry… irgendwie schon 😬).
Womit die Leute GenAI verwechseln (und warum das wichtig ist) 🧯
Eine kurze „Das-nicht“-Liste beseitigt viele Missverständnisse:
GenAI ist keine Datenbank
Es „holt nicht die Wahrheit hervor“. Es erzeugt plausible Ergebnisse. Wenn man die Wahrheit benötigt, muss man sie durch Dokumente, Datenbanken, Zitate und menschliche Überprüfung untermauern. Dieser Unterschied macht im Grunde die gesamte Zuverlässigkeitsfrage aus. [2]
GenAI ist nicht automatisch ein Agent
Ein Modell, das Text generiert, ist nicht dasselbe wie ein System, das sicher Aktionen ausführen kann (E-Mails versenden, Datensätze ändern, Code bereitstellen). „Kann Anweisungen generieren“ ≠ „sollte sie ausführen“
GenAI ist nicht beabsichtigt
Es kann Inhalte erzeugen, die absichtlich klingen. Das ist aber nicht dasselbe wie tatsächliche Absicht zu haben.
Was zeichnet eine gute Version von generativer KI aus? ✅
Nicht alle „generativen“ Systeme sind gleichermaßen praktikabel. Eine gute generative KI erzeugt nicht nur ansprechende Ergebnisse, sondern auch wertvolle, kontrollierbare und für den jeweiligen Kontext sichere .
Eine gute Version zeichnet sich in der Regel durch Folgendes aus:
-
Kohärenz – es widerspricht sich nicht alle zwei Sätze.
-
Fundierung – sie kann Ergebnisse mit einer verlässlichen Datenquelle verknüpfen (Dokumente, Zitate, Datenbanken) 📌
-
Kontrollierbarkeit – Sie können Tonfall, Format und Rahmenbedingungen steuern (nicht nur die Stimmungsgebung).
-
Zuverlässigkeit – ähnliche Eingabeaufforderungen liefern ähnliche Ergebnisse, keine Zufallsergebnisse.
-
Sicherheitsgeländer – gefährliche, private oder unzulässige Ausgänge werden durch die Konstruktion vermieden.
-
Offenheit im Verhalten – man kann sagen: „Ich bin mir nicht sicher“, anstatt etwas zu erfinden.
-
Workflow-Passung – es fügt sich in die menschliche Arbeitsweise ein, kein Fantasie-Workflow.
Das NIST fasst diese ganze Diskussion im Grunde unter dem Begriff „Vertrauenswürdigkeit + Risikomanagement“ zusammen, was … die wenig glamouröse Sache ist, die sich jeder schon früher gewünscht hätte. [1][2]
Eine etwas unvollkommene Metapher (Vorsicht!): Ein gutes generatives Modell ist wie ein sehr schneller Küchenhelfer, der alles zubereiten kann… aber manchmal Salz mit Zucker verwechselt, und man braucht Beschriftungen und Geschmackstests, damit man keinen Dessert-Eintopf serviert 🍲🍰
Ein kurzer, alltäglicher Mini-Fall (zusammengesetzt, aber ganz normal) 🧩
Stellen Sie sich ein Support-Team vor, das von GenAI Antwortvorschläge verlangt:
-
Woche 1: „Lassen Sie einfach das Model die Tickets beantworten.“
-
Die Ergebnisse sind schnell, zuverlässig… und manchmal auf kostspielige Weise fehlerhaft.
-
-
Woche 2: Sie fügen die Datenabfrage (zieht Fakten aus genehmigten Dokumenten ab) + Vorlagen („Immer nach der Konto-ID fragen“, „Niemals Rückerstattungen versprechen“ usw.).
-
Fehlerquote sinkt, Konsistenz verbessert sich.
-
-
Woche 3: Sie fügen eine Prüfspur (menschliche Genehmigung für Hochrisikokategorien) + einfache Bewertungen („Richtlinie zitiert“, „Rückerstattungsregel befolgt“).
-
Das System ist nun einsatzbereit.
-
Diese Vorgehensweise entspricht im Wesentlichen dem praktischen Standpunkt des NIST: Das Modell ist nur ein Teilaspekt; die Kontrollmechanismen rund um das Modell sorgen erst für ausreichende Sicherheit. [1][2]
Vergleichstabelle – beliebte generative Optionen (und warum sie funktionieren) 🔍
Die Preise ändern sich ständig, daher bleibt die Einteilung absichtlich ungenau. Außerdem: Kategorien überschneiden sich. Ja, das ist ärgerlich.
| Werkzeug / Vorgehensweise | Publikum | Preis (ungefähr) | Warum es funktioniert (und eine kleine Besonderheit) |
|---|---|---|---|
| Allgemeine LLM-Chat-Assistenten | Alle, Teams | Kostenlose Version + Abonnement | Ideal zum Entwerfen, Zusammenfassen und Brainstormen. Manchmal auch mal danebenliegend … wie ein mutiger Freund 😬 |
| API-LLMs für Apps | Entwickler, Produktteams | Nutzungsbasiert | Lässt sich leicht in Arbeitsabläufe integrieren; wird häufig mit Datenabfrage und Tools kombiniert. Benötigt Leitplanken, sonst wird es komplex |
| Bildgeneratoren (Diffusionsstil) | Kreative, Vermarkter | Abonnement/Guthaben | Stark in Stil + Variation; basiert auf Entrauschungs-Stilgenerierungsmustern [5] |
| Open-Source-Generativmodelle | Hacker, Forscher | Kostenlose Software + Hardware | Kontrolle und Anpassungsmöglichkeiten, datenschutzfreundliche Einstellungen. Allerdings kostet die Einrichtung mehr Aufwand (und die GPU-Hitze) |
| Audio-/Musikgeneratoren | Musiker, Hobbyisten | Guthaben/Abonnement | Schnelle Ideenfindung für Melodien, Einzelspuren und Sounddesign. Lizenzbestimmungen können verwirrend sein (siehe Bedingungen) |
| Videogeneratoren | Kreative, Studios | Abonnement/Guthaben | Schnelle Storyboards und Konzeptclips. Die Konsistenz zwischen den Szenen bereitet weiterhin Kopfzerbrechen |
| Retrieval-augmented generation (RAG) | Unternehmen | Infrastruktur + Nutzung | Hilft dabei, die Dokumentenerstellung mit Ihren Dokumenten zu verknüpfen; eine gängige Kontrollmaßnahme zur Reduzierung von „erfundenem Inhalt“ [2] |
| Synthetische Datengeneratoren | Datenteams | Unternehmensähnlich | Praktisch bei knappen/sensiblen Daten; muss aber validiert werden, damit die generierten Daten nicht irreführend sind 😵 |
Unter der Haube: Generierung ist im Grunde „Mustervervollständigung“ 🧩
Die unromantische Wahrheit:
Ein Großteil der generativen KI basiert auf dem Prinzip „Vorhersagen, was als Nächstes kommt“, das so lange skaliert wird, bis es sich wie etwas anderes anfühlt.
-
Im Text: den nächsten Textabschnitt (tokenähnlich) in einer Sequenz erzeugen - das klassische autoregressive Setup, das modernes Prompting so effektiv gemacht hat [4]
-
Bei Bildern: Man beginnt mit Rauschen und entrauscht es iterativ, um eine Struktur zu erhalten (die Intuition der Diffusionsfamilie) [5]
Deshalb sind Eingabeaufforderungen wichtig. Man gibt dem Modell ein Teilmuster vor, und es vervollständigt es.
Das ist auch der Grund, warum generative KI sich hervorragend eignet für:
-
„Schreiben Sie dies in einem freundlicheren Ton.“
-
„Geben Sie mir zehn Überschriftenvorschläge.“
-
„Wandeln Sie aus diesen Notizen einen klaren Plan aus.“
-
„Gerüstcode + Tests generieren“
…und warum es auch damit Schwierigkeiten haben kann:
-
strenge faktische Genauigkeit ohne Begründung
-
lange, brüchige Argumentationsketten
-
einheitliche Identität über viele Ausdrucksformen hinweg (Charaktere, Markenstimme, wiederkehrende Details)
Es geht nicht darum, wie ein Mensch zu „denken“. Es geht darum, plausible Fortsetzungen zu generieren. Wertvoll, aber anders.
Die Kreativitätsdebatte – „Schaffen“ vs. „Remixen“ 🎨
Die Leute regen sich hier unverhältnismäßig stark auf. Ich kann das irgendwie verstehen.
Generative KI erzeugt oft Ergebnisse, die kreativ anfühlen
-
Konzepte kombinieren
-
Variationen schnell erkunden
-
überraschende Zusammenhänge auf der Oberfläche
-
Stile mit unheimlicher Genauigkeit imitieren
Aber es fehlt ihm an Intention. An innerem Ausdruck. Kein „Ich habe das gemacht, weil es mir wichtig ist“
Eine kleine Anmerkung vorab: Auch wir Menschen remixen ständig. Wir tun es nur mit unseren Lebenserfahrungen, Zielen und unserem Geschmack. Daher bleibt die Bezeichnung umstritten. Praktisch gesehen ist es ein kreativer Hebel für uns Menschen, und das ist der entscheidende Punkt.
Synthetische Daten – das stillschweigend unterschätzte Ziel 🧪
Ein überraschend wichtiger Zweig der generativen KI befasst sich mit der Erzeugung von Daten, die sich wie reale Daten verhalten, ohne dabei reale Personen oder seltene sensible Fälle preiszugeben.
Warum das wertvoll ist:
-
Datenschutz- und Compliance-Beschränkungen (geringere Offenlegung realer Datensätze)
-
Simulation seltener Ereignisse (z. B. Betrugsfälle in Grenzbereichen, Ausfälle in speziellen Pipelines usw.)
-
Testen von Pipelines ohne Verwendung von Produktionsdaten
-
Datenaugmentation bei kleinen realen Datensätzen
Doch der Haken bleibt derselbe: Synthetische Daten können unbemerkt dieselben Verzerrungen und blinden Flecken reproduzieren wie die Originaldaten – weshalb Governance und Messung genauso wichtig sind wie deren Erzeugung. [1][2][3]
Synthetische Daten sind wie entkoffeinierter Kaffee – sie sehen gut aus, riechen gut, aber manchmal erfüllen sie nicht die Erwartungen ☕🤷
Die Grenzen – Wobei generative KI Schwächen hat (und warum) 🚧
Wenn Sie sich nur eine Warnung merken sollten, dann diese:
Generative Modelle können fließenden Unsinn erzeugen.
Häufige Fehlerarten:
-
Halluzinationen – die selbstsichere Erfindung von Fakten, Zitaten oder Ereignissen
-
Veraltetes Wissen – Modelle, die mit Momentaufnahmen trainiert wurden, können Aktualisierungen verpassen.
-
Schnelle Reaktionsfähigkeit – kleine Änderungen im Wortlaut können große Auswirkungen auf die Ergebnisse haben.
-
Versteckte Verzerrung – Muster, die aus verzerrten Daten abgeleitet werden.
-
Übermäßige Nachgiebigkeit – es versucht zu helfen, selbst wenn es nicht sollte.
-
Inkonsistentes Denken – insbesondere bei längeren Aufgaben
Genau deshalb gibt es die Diskussion um „vertrauenswürdige KI“: Transparenz, Verantwortlichkeit, Robustheit und nutzerzentriertes Design sind keine bloßen Wünsche, sondern die Voraussetzung dafür, dass man eine unzuverlässige KI nicht in die Produktion einführt. [1][3]
Erfolg messen: erkennen, wann das Ziel erreicht ist 📏
Wenn das Hauptziel von generativer KI darin besteht, „wertvolle neue Inhalte zu generieren“, dann lassen sich die Erfolgsmetriken üblicherweise in zwei Kategorien einteilen:
Qualitätskennzahlen (menschliche und automatisierte)
-
Korrektheit (sofern zutreffend)
-
Kohärenz und Klarheit
-
Stilübereinstimmung (Tonfall, Markenstimme)
-
Vollständigkeit (umfasst alles, was Sie angefordert haben)
Workflow-Metriken
-
Zeitersparnis pro Aufgabe
-
Reduzierung der Überarbeitungen
-
Höherer Durchsatz ohne Qualitätseinbußen
-
Kundenzufriedenheit (die aussagekräftigste Kennzahl, auch wenn sie schwer zu quantifizieren ist)
In der Praxis stoßen die Teams auf eine unangenehme Wahrheit:
-
Das Modell kann schnell „ausreichend gute“ Entwürfe erstellen
-
Doch die Qualitätskontrolle wird zum neuen Engpass
Der eigentliche Gewinn besteht also nicht nur in der Generierung. Es geht um Generierung plus Überprüfungssysteme – Abrufgrundlagen, Evaluierungssuiten, Protokollierung, Red-Teaming, Eskalationswege… all die unscheinbaren Dinge, die es realitätsnah machen. [2]
Praktische „Nutze es ohne Reue“-Richtlinien 🧩
Wenn Sie generative KI für mehr als nur gelegentlichen Spielspaß einsetzen, helfen Ihnen ein paar Gewohnheiten sehr:
-
Bitten Sie um Struktur: „Geben Sie mir einen nummerierten Plan und anschließend einen Entwurf.“
-
Einschränkungen: „Verwenden Sie nur diese Fakten. Falls Informationen fehlen, geben Sie an, welche fehlen.“
-
Unsicherheit einfordern: „Annahmen und Vertrauen auflisten.“
-
Nutzen Sie die Erdung: Stellen Sie eine Verbindung zu Dokumenten/Datenbanken her, wenn Fakten wichtig sind [2].
-
Behandeln Sie Ergebnisse wie Entwürfe: selbst herausragende.
Und der einfachste Trick ist der menschlichste: Lesen Sie es laut vor. Klingt es, als wolle ein Roboter Ihren Chef beeindrucken, sollte es wahrscheinlich überarbeitet werden 😅
Zusammenfassung 🎯
Das Hauptziel der generativen KI ist es, neue Inhalte zu generieren, die einer Vorgabe oder Einschränkung entsprechen , indem sie Muster aus Daten lernt und plausible Ergebnisse erzeugt.
Es ist so wirkungsvoll, weil es:
-
beschleunigt die Entwurfs- und Ideenfindung
-
Vervielfacht Variationen kostengünstig
-
hilft dabei, Kompetenzlücken zu schließen (Schreiben, Programmieren, Design)
Es ist riskant, weil es:
-
kann Fakten fließend erfinden
-
erbt Voreingenommenheit und blinde Flecken
-
benötigt Verankerung und Aufsicht in ernsthaften Kontexten [1][2][3]
Richtig eingesetzt, ist es weniger ein „Ersatzhirn“ als vielmehr ein „Turbo-Antrieb“.
Falsch eingesetzt, ist es eine Art Selbstsicherheitskanone, die auf Ihren Arbeitsablauf gerichtet ist … und das wird schnell teuer 💥
Häufig gestellte Fragen
Was ist das Hauptziel generativer KI in der Alltagssprache?
Das Hauptziel generativer KI ist die Erzeugung neuer, plausibler Inhalte – Texte, Bilder, Audio oder Code – basierend auf Mustern, die sie aus vorhandenen Daten gelernt hat. Sie ruft keine „Wahrheit“ aus einer Datenbank ab. Stattdessen generiert sie Ausgaben, die statistisch konsistent mit dem sind, was sie zuvor gesehen hat, und die durch Ihre Eingabe und etwaige Einschränkungen geformt werden.
Wie generiert generative KI neue Inhalte aus einer Eingabeaufforderung?
In vielen Systemen funktioniert die Generierung wie eine Mustervervollständigung im großen Stil. Bei Texten sagt das Modell voraus, was als Nächstes in einer Sequenz folgt, und erzeugt so zusammenhängende Fortsetzungen. Bei Bildern beginnen Diffusionsmodelle oft mit Rauschen und „entrauschen“ dieses iterativ, um eine Struktur zu erzeugen. Ihre Eingabe dient als Teilvorlage, die das Modell vervollständigt.
Warum erfindet generative KI manchmal so selbstsicher Fakten?
Generative KI ist darauf optimiert, plausible und flüssige Ergebnisse zu liefern – nicht die faktische Richtigkeit zu garantieren. Deshalb kann sie überzeugend klingenden Unsinn, erfundene Zitate oder falsche Ereignisse erzeugen. Wenn Genauigkeit wichtig ist, benötigt man in der Regel fundierte Informationen (vertrauenswürdige Dokumente, Zitate, Datenbanken) sowie eine menschliche Überprüfung, insbesondere bei risikoreichen oder kundenorientierten Aufgaben.
Was bedeutet „Erdung“ und wann sollte ich sie anwenden?
Die Validierung bedeutet, die Modellausgabe mit einer verlässlichen Datenquelle zu verknüpfen, beispielsweise mit genehmigten Dokumentationen, internen Wissensdatenbanken oder strukturierten Datenbanken. Sie sollten die Validierung immer dann anwenden, wenn es auf faktische Richtigkeit, die Einhaltung von Richtlinien oder Konsistenz ankommt – etwa bei Support-Antworten, Entwürfen aus dem Rechts- oder Finanzbereich, technischen Anweisungen oder allem, was im Fehlerfall konkreten Schaden verursachen könnte.
Wie kann ich die Ergebnisse generativer KI konsistenter und besser kontrollierbar gestalten?
Die Kontrollierbarkeit verbessert sich durch klare Vorgaben: erforderliches Format, zulässige Fakten, Richtlinien für den Tonfall und explizite Verhaltensregeln. Vorlagen sind hilfreich („Fragen Sie immer nach X“, „Versprechen Sie niemals Y“), ebenso wie strukturierte Anweisungen („Erstellen Sie einen nummerierten Plan, dann einen Entwurf“). Wenn man das Modell bittet, Annahmen und Unsicherheiten aufzulisten, kann man zudem übermäßiges Vertrauen in Vermutungen reduzieren.
Ist generative KI dasselbe wie ein Agent, der Aktionen ausführen kann?
Nein. Ein Modell, das Inhalte generiert, ist nicht automatisch ein System, das Aktionen wie das Versenden von E-Mails, das Ändern von Datensätzen oder das Bereitstellen von Code ausführen sollte. „Kann Anweisungen generieren“ ist etwas anderes als „sicher auszuführen“. Wenn Sie Tools oder Automatisierungen hinzufügen, benötigen Sie in der Regel zusätzliche Schutzmechanismen, Berechtigungen, Protokollierung und Eskalationswege, um Risiken zu minimieren.
Was zeichnet ein „gutes“ generatives KI-System in realen Arbeitsabläufen aus?
Ein gutes System ist wertvoll, kontrollierbar und sicher genug für seinen Kontext – nicht nur beeindruckend. Praktische Indikatoren sind Kohärenz, Zuverlässigkeit bei ähnlichen Abfragen, Anknüpfung an vertrauenswürdige Quellen, Sicherheitsmechanismen, die unzulässige oder private Inhalte blockieren, und Offenheit bei Unsicherheit. Der umgebende Workflow – Prüfprozesse, Bewertung und Überwachung – ist oft genauso wichtig wie das Modell selbst.
Was sind die größten Einschränkungen und Fehlerquellen, auf die man achten sollte?
Häufige Fehlerquellen sind Fehlinterpretationen, veraltetes Wissen, mangelnde Reaktionsfähigkeit, versteckte Voreingenommenheit, übermäßige Befolgung von Anweisungen und inkonsistentes Denken bei längeren Aufgaben. Das Risiko steigt, wenn Ergebnisse als fertige Arbeit statt als Entwurf behandelt werden. Für den Produktiveinsatz ergänzen Teams ihre Prozesse oft um Maßnahmen wie Datenabfrage, Auswertungen, Protokollierung und manuelle Überprüfung sensibler Kategorien.
Wann ist die Generierung synthetischer Daten ein sinnvoller Einsatz von generativer KI?
Synthetische Daten sind hilfreich, wenn reale Daten knapp, sensibel oder schwer zu teilen sind und wenn Simulationen seltener Fälle oder sichere Testumgebungen benötigt werden. Sie können die Offenlegung realer Datensätze reduzieren und Pipeline-Tests oder -Erweiterungen unterstützen. Dennoch ist eine Validierung erforderlich, da synthetische Daten Verzerrungen oder blinde Flecken der Originaldaten reproduzieren können.
Referenzen
[1] NIST AI RMF – ein Rahmenwerk für das Management von KI-Risiken und -Kontrollen. Mehr erfahren
[2] NIST AI 600-1 GenAI-Profil – Leitfaden für GenAI-spezifische Risiken und Gegenmaßnahmen (PDF). Mehr erfahren
[3] OECD-KI-Prinzipien – ein übergeordneter Leitfaden für verantwortungsvolle KI. Mehr erfahren
[4] Brown et al. (NeurIPS 2020) – Grundlagenarbeit zum Few-Shot-Prompting mit großen Sprachmodellen (PDF). Mehr erfahren
[5] Ho et al. (2020) – Diffusionsmodell zur Bildgenerierung mittels Rauschunterdrückung (PDF). Mehr erfahren