Kurz gesagt: Vozo AI zielt darauf ab, die Videolokalisierung in einem einzigen Workflow zu komprimieren: Transkribieren, Übersetzen, Synchronisieren (optional mit Stimmklonierung), Lippensynchronisieren, Untertiteln, Bearbeiten und Exportieren. Besonders nützlich ist es für die Wiederverwendung von Videos mit sprechenden Personen, Schulungsvideos oder Marketingvideos, bei denen Entwürfe überprüft werden können. Wenn Nuancen sicherheitskritisch sind oder keine Einwilligung vorliegt, sollte auf Stimmklonierung verzichtet werden.
Wichtigste Erkenntnisse:
Arbeitsablauf : Rechnen Sie mit einem Prozess, bei dem zunächst ein Entwurf erstellt wird; planen Sie ausreichend Zeit für die Bearbeitung von Transkript und Übersetzung ein.
Editierbarkeit : Um Terminologieabweichungen vorzubeugen, sollten Glossare und Stilrichtlinien frühzeitig angewendet werden.
Qualitätskontrolle : Vor dem Export stichprobenartige Überprüfung von Namen, Nummern, Handlungsaufforderungen und emotional aufgeladenen Formulierungen.
Einwilligung : Vor dem Klonen einer Stimme muss eine ausdrückliche Genehmigung eingeholt werden; Genehmigungen müssen für jede Sprache dokumentiert werden.
Transparenz : Synthetische Synchronisation sollte offengelegt werden, wenn die Zuschauer irregeführt werden könnten; Herkunftsstandards sollten berücksichtigt werden.
Artikel, die Sie im Anschluss an diesen Artikel vielleicht interessieren:
🔗 Wie man mit KI ein Musikvideo erstellt
Erstellen Sie visuelle Elemente, synchronisieren Sie die Bearbeitungen und erstellen Sie ein professionelles KI-Video.
🔗 Die 10 besten KI-Tools für die Videobearbeitung
Vergleichen Sie die leistungsstärksten Editoren hinsichtlich schnellerer Schnitte, Effekte und Arbeitsabläufe.
🔗 Die besten KI-Tools zur Verbesserung Ihrer Filmproduktion
Nutzen Sie KI für Drehbücher, Storyboards, Einstellungen und eine effizientere Postproduktion.
🔗 Wie man einen KI-Influencer erstellt: Ein detaillierter Einblick
Entwerfen Sie eine Persona, erstellen Sie Inhalte und bauen Sie eine Marke für KI-gestützte Content-Erstellung auf.
Wie ich Vozo AI bewerte (damit ihr wisst, was diese Übersicht ist und was nicht) 🧪
Diese Übersicht basiert auf Folgendem:
-
Die öffentlich beschriebenen Fähigkeiten und der Arbeitsablauf von Vozo (was das Produkt laut Herstellerangaben leistet) [1]
-
Die Preis-/Punktemechanik, die Vozo öffentlich dokumentiert (wie die Kosten tendenziell mit der Nutzung skalieren) [2].
-
Weitgehend akzeptierte Sicherheitsrichtlinien für synthetische Medien (Einwilligung, Offenlegung, Herkunft) [3][4][5]
Was ich nicht tue: Ich suggeriere nicht, dass es eine einzige „Qualitätsbewertung“ gibt, die für jeden Akzent, jedes Mikrofon, jede Sprecheranzahl, jedes Genre und jede Zielsprache gilt. Solche Tools können bei geeignetem Material hervorragend und bei ungeeignetem Material nur mittelmäßig aussehen. Das ist keine Ausrede, sondern einfach die Realität der Lokalisierung.

Was Vozo AI ist (und was es ersetzen will) 🧩
Vozo AI ist eine KI-Plattform für die Videolokalisierung . Vereinfacht gesagt: Sie laden ein Video hoch, die Plattform transkribiert und übersetzt den gesprochenen Text, generiert eine Synchronisation (optional mit Stimmklonierung), versucht die Lippensynchronisation und unterstützt Untertitel mit einem Workflow, bei dem die Bearbeitung im Vordergrund steht. Vozo hebt außerdem Funktionen wie Anweisungen zum Übersetzungsstil , Glossare und eine Echtzeit-Vorschau mit Bearbeitungsmöglichkeiten , ganz nach dem Motto „Gehen Sie nicht gleich mit dem ersten Entwurf zufrieden“. [1]
Es versucht, den klassischen Lokalisierungsprozess zu ersetzen:
-
Transkripterstellung
-
Menschliche Übersetzung + Überprüfung
-
Sprecherbuchung
-
Aufnahmesitzungen
-
Manuelle Ausrichtung am Video
-
Untertitel-Timing + -Stil
-
Überarbeitungen… endlose Überarbeitungen
Denkvermögen nicht , sondern zielt darauf ab, den Zeitablauf zu verkürzen (und die Anzahl der „Bitte erneut exportieren“-Schleifen zu reduzieren). [1]
Für wen Vozo AI am besten geeignet ist (und wer es wahrscheinlich lieber lassen sollte) 🎯
Vozo AI eignet sich tendenziell am besten für:
-
Kreative nutzen Videos regionsübergreifend wieder (Talking-Head-Videos, Tutorials, Kommentare) 📱
-
Marketingteams lokalisieren Produktdemos, Anzeigen und Landingpage-Videos
-
Bildungs-/Schulungsteams, bei denen die Inhalte ständig aktualisiert werden (und das erneute Aufnehmen mühsam ist).
-
Agenturen, die mehrsprachige Leistungen in großem Umfang liefern, ohne ein Mini-Studio aufzubauen
Vozo AI ist möglicherweise nicht die beste Wahl, wenn:
-
Ihre Inhalte sind rechtlich, medizinisch oder sicherheitskritisch, sodass Nuancen nicht optional sind.
-
Sie lokalisieren filmische Dialogszenen mit Nahaufnahmen und emotional aufgeladenem Schauspiel.
-
Du willst „einen Knopf drücken, veröffentlichen, keine Überprüfung“ – das ist, als würdest du erwarten, dass sich das Toastbrot von selbst mit Butter bestreicht 😬
Die Checkliste für „gute KI-Synchronisationstools“ (was sich die Leute gewünscht hätten, früher überprüft zu haben) ✅
Eine gute Version eines Tools wie Vozo muss Folgendes leisten:
-
Transkriptionsgenauigkeit unter realen Bedingungen:
Akzente, schnelle Sprecher, Rauschen, Übersprechen, billige Mikrofone. -
Eine Übersetzung, die die Intention (nicht nur die Worte) berücksichtigt, ist wichtig.
Eine wörtliche Übersetzung kann zwar „korrekt“ sein, aber dennoch falsch. -
Natürliche Sprachausgabe.
Tempo, Betonung, Pausen – kein „Robotersprecher, der eine Rückerstattungsrichtlinie vorliest“. -
Lippensynchronisation, die zum Anwendungsfall passt:
Bei Aufnahmen mit sprechenden Köpfen kann man erstaunlich viel erreichen. Bei dramatischen Szenen und Nahaufnahmen fällt hingegen jedes Detail auf. -
Schnelle Bearbeitung für die vorhersehbaren Probleme:
Markenbegriffe, Produktnamen, interner Jargon und Phrasen, die Sie nicht übersetzen möchten. -
Einwilligung + Sicherheitsvorkehrungen
Die Stimmklonierung ist leistungsstark, was bedeutet, dass sie auch leicht missbraucht werden kann. (Darüber werden wir sprechen.) [4]
Die wichtigsten Kernfunktionen von Vozo AI (und wie sie sich im Alltag anfühlen) 🛠️
KI-Synchronisation + Stimmenklonierung 🎙️
Vozo positioniert das Klonen von Stimmen als Möglichkeit, die Sprecheridentität über verschiedene Sprachen hinweg konsistent zu halten, und fördert die KI-Synchronisation als Teil seines durchgängigen Übersetzungs-Workflows. [1]
In der Praxis landet das Ergebnis der Sprachklonierung üblicherweise in einem dieser Bereiche:
-
Großartig: „Moment mal… das klingt ganz nach ihnen.“
-
Gut genug: Gleiche Stimmung, etwas anderes Feeling, den meisten Zuschauern wird es egal sein.
-
Unheimlich: nah dran, aber nicht ganz, insbesondere bei emotionalen Dialogen oder ungewöhnlichen Betonungen.
Wo es sich in der Regel gut verhält: klarer Ton, ein Sprecher, gleichmäßiger Sprechrhythmus .
Wo es ins Wanken geraten kann: Emotionen, Umgangssprache, Unterbrechungen, schnelles Durcheinanderreden .
Lippensynchronisation 👄
Vozo integriert die Lippensynchronisation als Kernbestandteil des Angebots für übersetzte Videos, einschließlich Szenarien mit mehreren Sprechern, bei denen Sie auswählen können, welche Gesichter synchronisiert werden sollen. [1]
Eine praktische Methode, Erwartungen zu formulieren:
-
Ein stabiler, frontaler Sprecher → oft der nachsichtigste
-
Seitenansicht, schnelle Bewegungen, Hände in Mundnähe, niedrig aufgelöstes Filmmaterial → mehr Gelegenheiten für „Hm… irgendetwas stimmt nicht“
-
Manche Sprachpaare wirken visuell naturgemäß „schwieriger“, weil sich Mundformen und Sprechtempo unterscheiden
Wenn Ihr Ziel ist, die Zuschauer nicht abzulenken, kann eine ausreichend gute Lippensynchronisation schon ein Erfolg sein. Wenn Ihr Ziel hingegen „Bild-für-Bild-Perfektion“ ist, könnten Sie sich professionell genervt fühlen.
Untertitel + Styling ✍️
Vozo integriert Untertitel in denselben Workflow: formatierte Untertitel, Zeilenumbrüche, Anpassungen an Hoch-/Querformat und Optionen wie die Verwendung eigener Schriftarten für Branding. [1]
Untertitel sind auch ein Sicherheitsnetz, falls die Synchronisation nicht perfekt ist. Das wird oft unterschätzt.
Workflow für Bearbeitung und Korrekturlesen 🧠
Vozo legt besonderen Wert auf Bearbeitbarkeit: Echtzeit-Vorschau, Bearbeitung des Transkripts, Anpassung von Timing/Geschwindigkeit und Übersetzungssteuerungselemente wie Glossare und Stilanweisungen. [1]
Das ist ein großes Problem, denn selbst die beste Technik kann schmerzhaft sein, wenn man den Fehler nicht schnell korrigiert. Es ist, als hätte man eine schicke Küche, aber keinen Pfannenwender.
Ein realistischer Vozo AI-Workflow (was Sie tatsächlich tun werden) 🔁
Im realen Leben sieht Ihr Arbeitsablauf in der Regel wie folgt aus:
-
Video hochladen
-
Automatische Sprachtranskription
-
Zielsprache(n) auswählen
-
Synchronisation und Untertitel erstellen
-
Transkript prüfen + Übersetzung
-
Korrigieren Sie Terminologie, Tonfall und ungewöhnliche Formulierungen
-
Stichprobenartige Überprüfung des Timings und der Lippensynchronisation (insbesondere in Schlüsselmomenten)
-
Exportieren + veröffentlichen
Der Teil, den viele überspringen und bereuen: Schritt 5 und Schritt 6. Die
KI-Ausgabe ist ein Entwurf. Manchmal ein guter Entwurf – aber eben nur ein Entwurf.
Ein einfacher Profi-Tipp: Erstellen Sie vor Beginn ein kleines Glossar (Produktnamen, Slogans, Berufsbezeichnungen, Begriffe, die nicht übersetzt werden dürfen). Überprüfen Sie dann zuerst diese. ✅
Ein winziges (hypothetisches) Beispiel, das reale Projekte widerspiegelt 🧾
Angenommen, Sie haben eine 6-minütige Produktdemo auf Englisch und möchten diese nun auch auf Spanisch, Französisch und Japanisch .
Ein „vernünftiger“ Überprüfungsplan, der Sie vor dem Wahnsinn bewahrt:
-
Achten Sie auf die ersten 30–45 Sekunden genau (Tonfall, Namen, Erzähltempo).
-
jeder einzelnen Aussage auf dem Bildschirm springen (Zahlen, Funktionen, Garantien)
-
CTA-/Preis-/Rechtshinweis zweimal durchsehen
-
Wenn Lippensynchronisation wichtig ist, achten Sie auf die Momente, in denen die Gesichtsausdrücke am größten sind.
Das ist zwar nicht glamourös, aber so vermeidet man, dass ein aufwendig synchronisiertes Video erscheint, in dem der Produktname… nun ja, ziemlich unpassend übersetzt wird. 😅
Preisgestaltung und Wert (wie man über Kosten nachdenkt, ohne sich den Kopf zu zerbrechen) 💸🧠
Die Abrechnung von Vozo basiert auf Tarifen und einem Punkte-/Nutzungsmodell (die genauen Zahlen variieren je nach Tarif und können sich ändern). In der Dokumentation von Vozo wird auf die Preis-/Tarifseiten verwiesen, wo Funktionen, Punktezuweisungen und Preise können. [2]
Die einfachste Methode zur Überprüfung von Werten auf Plausibilität:
-
Beginnen Sie mit einer typischen Videolänge, die Sie veröffentlichen
-
Multiplizieren Sie mit der Anzahl der Zielsprachen
-
Fügen Sie einen Puffer für Revisionszyklen
-
Vergleichen Sie das dann mit Ihren realen Alternativen (interne Arbeitsstunden, Agenturkosten, Studiozeit)
Kredit-/Punktesysteme sind nicht „schlecht“, aber sie belohnen Teams, die:
-
Exporte bewusst gestalten,
-
Behandle das erneute Rendern nicht wie einen Fidget Spinner
Sicherheit, Einwilligung und Offenlegung (der Teil, den alle überspringen, bis es zu spät ist) 🔐⚠️
Stimmenklonierung beinhalten kann , sollten Sie die Einwilligung als nicht verhandelbar betrachten.
1) Ausdrückliche Genehmigung zum Klonen der Stimme einholen ✅
Wenn Sie die Stimme einer Person klonen, holen Sie deren ausdrückliche Einwilligung ein. Dies reduziert nicht nur ethische Bedenken, sondern auch rechtliche und Reputationsrisiken.
Außerdem: Identitätsdiebstahl ist keine theoretische Angelegenheit. Die FTC hat Identitätsdiebstahl als anhaltendes Problem hervorgehoben und für 2024 Verluste in Höhe von fast 3 Milliarden US-Dollar durch Identitätsdiebe (basierend auf Berichten) – weshalb die Richtlinie „Es sollte nicht einfacher sein, sich als andere Personen auszugeben“ nicht nur auf einem Bauchgefühl beruht. [3]
2) Synthetische oder veränderte Medien müssen offengelegt werden, wenn sie irreführend sein könnten 🏷️
Eine solide Faustregel: Wenn ein vernünftiger Zuschauer denken könnte: „Das hat diese Person definitiv gesagt“, und Sie Stimme oder Performance künstlich verändert haben, ist die Offenlegung der richtige Schritt.
Der Rahmen für synthetische Medien der Partnership on AI erörtert explizit Praktiken in Bezug auf Transparenz, Offenlegungsmechanismen und Risikominderung für Urheber, Werkzeugentwickler und Distributoren. [4]
3) Provenienznachweis-Tools (Content Credentials / C2PA) in Betracht ziehen 🧾
Provenienzstandards sollen dem Publikum helfen, Ursprung und Bearbeitungen . Sie sind kein Allheilmittel, aber eine wichtige Orientierungshilfe für ambitionierte Teams.
C2PA beschreibt Content Credentials als einen offenen Standardansatz zur Feststellung des Ursprungs und der Bearbeitungen digitaler Inhalte. [5]
Profi-Tipps für bessere Ergebnisse (ohne Vollzeit-Babysitter zu werden) 🧠✨
Behandeln Sie Vozo wie einen talentierten Praktikanten: Sie können hervorragende Arbeit leisten, aber Sie benötigen dennoch Anleitung.
-
Bereinigen Sie Ihre Audiodatei vor dem Hochladen (Rauschunterdrückung verbessert alle nachfolgenden Prozesse).
-
Verwenden Sie ein Glossar für Markenbegriffe und Produktnamen [1]
-
Schauen Sie sich die ersten 30 Sekunden sorgfältig an und überprüfen Sie anschließend stichprobenartig den Rest.
-
Achten Sie auf Namen und Nummern – sie sind eine Fehlerquelle.
-
Achten Sie auf emotionale Momente (Humor, Betonung, ernste Aussagen).
-
Exportieren Sie zunächst eine Sprache als „Vorlage“, und skalieren Sie sie anschließend.
Ein seltsamer Tipp, der weh tut, weil er wahr ist: Kürzere Ausgangssätze lassen sich tendenziell sauberer übersetzen und zeitlich ausrichten.
Wann ich Vozo AI wählen würde (und wann nicht) 🤔
Ich würde mich für Vozo AI entscheiden, wenn:
-
Sie produzieren regelmäßig Inhalte und möchten die Lokalisierung schnell skalieren
-
Sie möchten Synchronisation und Untertitel in einem einzigen Arbeitsablauf [1]
-
Ihre Inhalte bestehen hauptsächlich aus Interviews, Schulungen, Marketing oder Erklärvideos
-
Sie sind bereit, einen Korrekturdurchgang durchzuführen (und nicht einfach blind auf „Veröffentlichen“ zu klicken)
Ich würde zögern, wenn:
-
Ihre Inhalte erfordern äußerst präzise Nuancen (rechtlich/medizinisch/sicherheitskritisch)
-
Sie benötigen eine perfekte filmische Lippensynchronisation
-
Sie haben keine Einwilligung, Stimmen zu klonen oder Abbilder zu verändern (dann lassen Sie es bitte sein) [4]
Kurz zusammengefasst ✅🎬
Vozo AI lässt sich am besten als Lokalisierungs-Workbench verstehen: Videoübersetzung, Synchronisation, Stimmklonierung, Lippensynchronisation und Untertitelung , mit Bearbeitungsfunktionen, die Ihnen helfen, das Ergebnis zu verfeinern, anstatt von vorne beginnen zu müssen. [1]
Realistische Erwartungen bewahren:
-
Planen Sie, die Ergebnisse zu überprüfen
-
Plan zur Korrektur von Terminologie und Tonfall
-
Behandeln Sie das Klonen von Stimmen mit Einwilligung und Transparenz
-
Wenn Ihnen Vertrauen wichtig ist, sollten Sie Offenlegungs- und Herkunftsnachweispraktiken in Betracht ziehen [4][5]
Wenn du das tust, fühlt sich Vozo an, als hättest du ein kleines Produktionsteam engagiert… das schnell arbeitet, nicht schläft und gelegentlich Slang missversteht. 😅
Häufig gestellte Fragen
Was ist Vozo AI und welches Problem löst es?
Vozo AI ist eine Videolokalisierungsplattform, die mehrere Arbeitsschritte in einem einzigen Workflow zusammenfasst: Transkription, Übersetzung, Synchronisation, Lippensynchronisation, Untertitelung, Bearbeitung und Export. Ziel ist es, den für die traditionelle Lokalisierung typischen Aufwand (separate Transkription, Übersetzung, Sprachaufnahmen, Synchronisation, Untertitel-Timing, Korrekturen) deutlich zu reduzieren. Die Plattform ersetzt zwar nicht das manuelle Arbeiten, kann aber die Zeitabläufe verkürzen, wenn Sie bereit sind, Entwürfe zu prüfen und zu bearbeiten.
Wie funktioniert der Vozo AI-Lokalisierungsworkflow in der Praxis?
Ein typischer Vozo-AI-Workflow sieht folgendermaßen aus: Zuerst wird ein Entwurf erstellt. Man lädt das Video hoch, generiert automatisch ein Transkript, wählt die Zielsprachen aus und erstellt anschließend Synchronisation und Untertitel. Danach überprüft und bearbeitet man Transkript und Übersetzung, korrigiert Fehler in Terminologie und Tonfall und kontrolliert Timing und Lippensynchronisation an wichtigen Stellen. Am meisten ärgert man sich darüber, die Überprüfung auszulassen, da das KI-Ergebnis noch ein Entwurf ist.
Welche Videoarten erzielen die besten Ergebnisse mit Vozo AI?
Vozo AI erzielt die besten Ergebnisse bei Videos mit Frontalansicht, Tutorials, Schulungsinhalten, Produktdemos und Marketing-Erklärvideos. Diese Formate sind weniger fehleranfällig bei Synchronisation und Lippensynchronisation und bieten in der Regel einen klareren Ton und ein gleichmäßigeres Tempo. Weniger geeignet ist Vozo AI für filmische Dialoge mit Nahaufnahmen und emotional aufgeladenem Schauspiel, da hier selbst kleinste Timing- oder Betonungsfehler deutlich sichtbar werden.
Wie kann ich in Vozo AI eine einheitliche Terminologie über verschiedene Sprachen hinweg gewährleisten?
Nutzen Sie Glossare und Richtlinien für den Übersetzungsstil frühzeitig, bevor Sie zahlreiche Entwürfe erstellen. Das ist der direkteste Weg, um Abweichungen in der Terminologie bei Markennamen, Produktnamen, Slogans und Formulierungen, die nicht übersetzt werden sollen, zu vermeiden. Es empfiehlt sich, zunächst ein kleines Glossar anzulegen und die Begriffe direkt im ersten Entwurf zu überprüfen. Frühzeitige Richtlinien ersparen Ihnen später wiederholte Korrekturen.
Was sollte ich vor dem Export eines lokalisierten Videos auf Qualität prüfen?
Überprüfen Sie vorrangig stichprobenartig alle Aussagen, die das Vertrauen erschüttern könnten: Namen, Zahlen, Preise, Garantien, Werbeaussagen und Handlungsaufforderungen. Achten Sie in den ersten 30–45 Sekunden genau auf Tonfall, Sprechtempo und Aussprache und konzentrieren Sie sich dann auf die wichtigsten Momente, anstatt alles linear anzusehen. Besondere Aufmerksamkeit gilt emotional aufgeladenen Aussagen, bei denen die Stimme selbst bei korrekter Wortwahl unnatürlich wirken kann.
Wann sollte ich das Klonen von Stimmen in Vozo AI vermeiden?
Vermeiden Sie das Klonen von Stimmen, wenn Sie keine ausdrückliche Einwilligung des Sprechers haben oder wenn der Inhalt Schaden anrichten könnte, falls er als „das, was er gesagt hat“ wahrgenommen wird. Es eignet sich auch nicht für juristische, medizinische oder sicherheitskritische Inhalte, bei denen Nuancen unerlässlich sind. Behandeln Sie die Einwilligung als dokumentierte Anforderung für jede Sprache und jedes Projekt, nicht als bloße Checkliste. Fehlt die Einwilligung, verwenden Sie die Funktion nicht.
Muss ich die KI-Synchronisation offenlegen, und wie gehe ich dabei am sichersten vor?
Wenn ein vernünftiger Zuschauer annehmen könnte, der Sprecher habe diese Worte persönlich in dieser Sprache gesprochen, ist Offenlegung die sicherere Wahl. Transparenz trägt dazu bei, das Risiko einer Irreführung des Publikums zu verringern, insbesondere bei sehr realistischer synthetischer Synchronisation. Für professionelle Teams können Herkunftsnachweisverfahren wie Content Credentials und ähnliche Standards klarere Informationen darüber liefern, was sich geändert hat. Das ist zwar kein absoluter Schutz, entspricht aber den Richtlinien für verantwortungsvolle synthetische Medien.
Wie sollte ich die Preisgestaltung und das Punktesystem von Vozo AI gestalten, damit die Kosten nicht aus dem Ruder laufen?
Vozo verwendet Tarife und Punkte-/Nutzungsmechaniken, wobei die genauen Zuteilungen je nach Tarif variieren und sich im Laufe der Zeit ändern können. Eine einfache Methode zur Kostenschätzung ist, eine typische Videolänge zu wählen, diese mit der Anzahl der Zielsprachen zu multiplizieren und einen Puffer für Korrekturen hinzuzufügen. Punktemodelle belohnen tendenziell gezielte Exporte, da ständiges erneutes Rendern die Nutzung schnell verbraucht. Exportieren Sie eine Sprache als Vorlage und skalieren Sie anschließend.
Referenzen
[1] Vozo AI Video Translator – Funktionsübersicht (Synchronisation, Stimmklonung, Lippensynchronisation, Untertitel, Bearbeitung, Glossare) – mehr erfahren
[2] Vozo – Preisgestaltung und Abrechnung (Tarife/Punkte, Abonnements, Preisseite) – mehr erfahren
[3] Hinweis der US-amerikanischen Federal Trade Commission zu Identitätsdiebstahl und gemeldeten Verlusten (4. April 2025) – mehr erfahren
[4] Partnerschaft zum Rahmenwerk für KI-generierte synthetische Medien: Offenlegung, Transparenz und Risikominderung – mehr erfahren
[5] C2PA – Übersicht zu Content Credentials und Herkunftsstandards für Ursprung und Bearbeitungen – mehr erfahren