Meta und die Herausforderung der KI-Kennzeichnung: Echte Fotos unter falschem Verdacht

In den sozialen Netzwerken des Meta-Konzerns, zu dem Facebook, Instagram und Threads gehören, sorgt seit Mai ein kleines Label für große Verwirrung. „Made with AI“ steht auf manchen Fotos, die in diesen Netzwerken geteilt werden – ein Hinweis darauf, dass die Bilder mit Hilfe von Künstlicher Intelligenz generiert wurden. Doch immer wieder kommt es zu Fehlern, die Fotografen und Nutzer gleichermaßen verärgern.

Ein prominentes Beispiel ist Pete Souza, ein ehemaliger Fotograf des Weißen Hauses in Washington. Er berichtete dem Magazin TechCrunch, dass Instagram seine Bilder fälschlicherweise als KI-generiert markierte. Dies geschah, obwohl Souza den KI-Hinweis „Made with AI“ nicht angeklickt hatte. Der Fehler scheint mittlerweile behoben zu sein, aber Souza ist nicht der Einzige, der über diese Problematik klagt.

Adobe: Der mögliche Übeltäter

Souza vermutet, dass eine Veränderung bei der Fotosoftware Adobe die Ursache für die fehlerhafte Bewertung sein könnte. Ein neues Tool von Adobe verlangt, dass ein Bild vor dem Speichern als JPEG geglättet wird. Dieser Schritt könnte vom Algorithmus von Meta als künstliche Erstellung eines Bildes interpretiert werden. Dies zeigt, wie empfindlich und fehleranfällig die Erkennungssoftware sein kann, insbesondere bei der Bearbeitung durch verschiedene Software-Tools.

Meta rechtfertigt die Einführung des „Made with AI“-Labels als einen Schritt in Richtung mehr Transparenz und Sicherheit. Nick Clegg, ein Manager bei Meta, erklärte, dass Nutzer die Transparenz rund um diese neue Technik schätzen. Alle Bilder, die in den Metadaten Hinweise auf KI enthalten, würden entsprechend markiert. Diese Maßnahme soll Nutzer vor falsch generierten Bildern schützen und die Integrität der geteilten Inhalte wahren.

Doch das Problem besteht nicht nur in der falschen Kennzeichnung echter Fotos. Auch KI-generierte Bilder werden teilweise nicht korrekt markiert. Es gibt ganze Seiten und Gruppen, die nahezu ausschließlich aus KI-generierten Bildern bestehen, ohne dass diese entsprechend gekennzeichnet sind. Dies stellt die Nutzer vor die Herausforderung, selbst herauszufinden, welche Bilder echt und welche künstlich erstellt sind.

Meta hat auf die Kritik reagiert und angekündigt, den Ansatz zur Markierung von Inhalten zu überdenken. Ziel ist es, branchenführende Tools zu entwickeln, die dabei helfen, unsichtbare Marker künstlicher Intelligenz im großen Stil zu erkennen. Gerade im Hinblick auf die bevorstehenden US-Wahlen im November sei dies eine wichtige Aufgabe, betonte der Konzern.

Fazit: Ein Balanceakt zwischen Technologie und Vertrauen

Die Kennzeichnung von KI-generierten Inhalten ist ein Balanceakt zwischen technologischer Innovation und dem Vertrauen der Nutzer. Fehlerhafte Markierungen können das Vertrauen in die Plattformen untergraben und die Glaubwürdigkeit der geteilten Inhalte infrage stellen. Es bleibt abzuwarten, wie Meta und andere Unternehmen diese Herausforderung meistern werden, um sowohl Transparenz als auch Sicherheit zu gewährleisten.

Abonnieren Sie unseren Newsletter, um aktuelle Informationen und Einblicke direkt in Ihr Postfach zu erhalten. Bei weiteren Fragen oder Anliegen können sie uns unter unserem Kontaktformular kontaktieren.

Werden Sie als erstes informiert!

© 2024 AICADAMY – Eine Marke der DDE Global GmbH. All Rights Reserved.