OpenAI verstärkt Transparenz bei KI-generierten Inhalten
Die zunehmende Verbreitung von KI-generierten Inhalten hat Bedenken hinsichtlich der Authentizität und der potenziellen Manipulation von Informationen geweckt. Um diesem entgegenzuwirken, hat sich OpenAI der Coalition for Content Provenance and Authenticity (C2PA) angeschlossen und wird die offenen Standards der C2PA-Metadaten in seine generativen KI-Modelle integrieren.
Wichtige Maßnahmen für mehr Transparenz
Die C2PA-Standards erlauben es digitalen Inhalten, mit Metadaten zertifiziert zu werden, die ihre Herkunft nachweisen. Dies gilt unabhängig davon, ob die Inhalte vollständig von KI erstellt, mit KI-Tools bearbeitet oder traditionell erfasst wurden. OpenAI hat bereits begonnen, C2PA-Metadaten in die Bildausgaben seines neuesten Modells DALL-E 3 in ChatGPT und der OpenAI API zu integrieren. Bei der breiteren Einführung des neuen Videogenerierungsmodells Sora werden die Metadaten ebenfalls integriert.
Timing ist alles
Dieser Schritt kommt zu einer Zeit, in der die Sorgen über die Möglichkeit, dass KI-generierte Inhalte Wähler vor großen Wahlen in den USA, Großbritannien und anderen Ländern irreführen könnten, zunehmen. Die Authentifizierung von KI-erstellten Medien kann dazu beitragen, Deepfakes und andere manipulierte Inhalte, die auf Desinformationskampagnen abzielen, zu bekämpfen.
Gemeinsame Anstrengungen sind notwendig
OpenAI hebt hervor, dass technische Maßnahmen alleine nicht ausreichen. Plattformen, Ersteller und Inhaltsverwalter müssen gemeinsam handeln, um die Metadaten für Endverbraucher zu erhalten. Zusätzlich zur C2PA-Integration entwickelt OpenAI neue Verfahren zur Herkunftsbestimmung, wie z. B. manipulationssichere Wasserzeichen für Audio- und Bild-Erkennungsklassifizierer.
Praktische Anwendungen und Forschungsinitiativen
OpenAI hat Anwendungen für den Zugang zu seinem DALL-E 3 Bild-Erkennungsklassifizierer über das Researcher Access Program geöffnet. Dieses Tool soll die Wahrscheinlichkeit vorhersagen können, dass ein Bild von einem der OpenAI-Modelle stammt.
Interne Tests zeigen eine hohe Genauigkeit bei der Unterscheidung von Nicht-KI-Bildern von DALL-E 3-Visualisierungen, wobei rund 98% der DALL-E-Bilder korrekt identifiziert wurden und weniger als 0,5% der Nicht-KI-Bilder fälschlicherweise markiert wurden.
Zusätzliche Unterstützungsmaßnahmen
OpenAI hat auch die Wasserzeichentechnologie in sein Voice Engine-Modell für benutzerdefinierte Stimmen integriert, das sich derzeit in einer begrenzten Vorschau befindet. Das Unternehmen ist zuversichtlich, dass die verstärkte Einführung von Herkunftsstandards dazu führen wird, dass Metadaten Inhalte während ihres gesamten Lebenszyklus begleiten und so eine entscheidende Lücke in den Praktiken zur digitalen Inhaltsauthentizität schließen.
Partnerschaften und Förderungen
Gemeinsam mit Microsoft startet OpenAI einen gesellschaftlichen Resilienzfonds in Höhe von 2 Millionen US-Dollar, um die KI-Bildung und das Verständnis zu fördern. Dieser Fonds unterstützt Initiativen wie AARP, International IDEA und die Partnership on AI.
OpenAI betont, dass kollektives Handeln erforderlich ist: „Unsere Bemühungen rund um die Herkunftsbestimmung sind nur ein Teil einer breiteren Branchenbemühung – viele unserer Peer-Forschungslabors und generativen KI-Unternehmen treiben ebenfalls Forschung in diesem Bereich voran. Wir begrüßen diese Anstrengungen – die Branche muss zusammenarbeiten und Erkenntnisse teilen, um unser Verständnis zu vertiefen und weiterhin Transparenz im Internet zu fördern.“