- Fehlende und fehlerhafte „Made with AI“-Markierungen auf Meta-Plattformen verärgern Fotografen und Nutzer. Pete Souza, ehemaliger Fotograf des Weißen Hauses, berichtet über fälschliche KI-Labelling seiner Fotos. Souza vermutet eine Änderung in Adobe-Software als mögliche Ursache für die Fehlzuschreibungen. Fotorealistische Bilder sind besonders anfällig für ungerechtfertigte KI-Markierungen. Meta entwickelt Tools zur besseren Erkennung unsichtbarer KI-Marker, insbesondere vor den US-Wahlen.
Seit Mai findet sich auf diversen Fotos in den Meta-Netzwerken Facebook, Instagram und Threads der Hinweis „Made with AI“. Jüngste Berichte enthüllen jedoch, dass es häufig zu Fehlern kommt. Einige KI-generierte Fotos erhalten keinen entsprechenden Hinweis, während echte Fotos fälschlicherweise als KI-kreiert markiert werden. Diese Fehlzuschreibungen haben zahlreiche Fotografen und Nutzer verärgert.
Einer dieser Fotografen ist Pete Souza, ein ehemaliger Fotograf des Weißen Hauses in Washington. Souza berichtete, dass Instagram ihm willkürlich den „Made with AI“-Hinweis für seine Bilder zugeordnet habe, obwohl diese nicht mittels Künstlicher Intelligenz bearbeitet wurden.
Adobe – Mögliche Ursache für die Fehlerhaftigkeit
Souza vermutet eine Änderung in der Adobe-Fotosoftware als Auslöser. Ein neu eingeführtes Tool verlangt, dass Bilder vor dem Speichern als JPEG geglättet werden. Dieser Glättungsprozess könnte von Metas Algorithmus fälschlicherweise als Zeichen einer künstlichen Bilderstellung erkannt werden. Obwohl Souza das KI-Label nicht ausgewählt hat, wurde der Hinweis dennoch an seinen Bildern angebracht. Glücklicherweise scheint das Problem bei Souzas Fotos behoben zu sein: Der KI-Hinweis erscheint unter seinen Bildern jetzt nicht mehr.
Fotorealistische Bilder sind besonders betroffen und werden oft ungerechtfertigt mit dem KI-Label versehen. Der Meta-Manager Nick Clegg erklärte, dass Nutzer Transparenz hinsichtlich dieser neuen Technik schätzen würden. Demnach sollen alle Bilder, die in den Metadaten Hinweise auf KI beinhalten, das entsprechende Label erhalten.
Problematik der umgekehrten Falschkennzeichnung
Doch das Problem besteht auch in der umgekehrten Falschkennzeichnung: KI-generierte Fotos, die nicht klar als solche identifiziert werden, erhalten keinen Hinweis. So existieren beispielsweise ganze Websites oder Gruppen, deren Inhalte nahezu ausschließlich aus KI-generierten Bildern bestehen, die nicht entsprechend markiert sind.
Meta hat auf die Kritik reagiert und überdenkt nun seinen Ansatz der Inhaltsmarkierung. Ziel ist es, branchenführende Tools zu entwickeln, die unsichtbare Marker Künstlicher Intelligenz im großen Stil erkennen können. Insbesondere im Vorfeld der US-Wahlen im November wird dies als kritische Aufgabe angesehen. Meta arbeitet daran, den genauen Grad der KI-Beteiligung besser zu erfassen.