- – OpenAI arbeitet an Software zur Klonung menschlicher Stimmen
- – “Voice Engine” verwendet Texteingaben und Audioproben
- – Bedenken wegen potenziellem Missbrauch
- – Angst vor Manipulationen im US-Wahlkampf
- – Chancen und Potenzial der Anwendung
Der Entwickler OpenAI arbeitet an einer bahnbrechenden Software zur Klonung menschlicher Stimmen, aber aus Sorge vor Missbrauch hält das Unternehmen die Veröffentlichung vorerst zurück. Die “Voice Engine” verwendet Texteingaben und eine kurze 15-sekündige Audioprobe, um eine natürliche und dem Originalsprecher sehr ähnliche Sprache zu erzeugen, so teilte der US-Konzern am Freitag mit. Die Entwicklung dieses Programms hat OpenAI seit 2022 beschäftigt, unter anderem um Text in Sprache umwandelnde Software zu verbessern.
Bedenken wegen potenziellem Missbrauch
Ob und wann die Voice Engine für die breite Öffentlichkeit zugänglich gemacht wird, ist derzeit noch unklar. Besonders in einem Wahljahr birgt eine solche Anwendung erhebliche Risiken, sagte OpenAI. Aus diesem Grund geht das Unternehmen behutsam und sachkundig mit der Frage einer Veröffentlichung um. OpenAI hofft auf einen Diskurs über die Chancen und Risiken dieser Technologie und plant weitere Tests.
Angst vor Manipulationen im US-Wahlkampf
Im Januar hatten gefälschte Anrufe Ängste vor Manipulationen im Rennen um das Weiße Haus geschürt. In automatisierten Anrufen hatte eine Stimme, die dem US-Präsidenten Joe Biden verblüffend ähnlich klang, Demokraten in New Hampshire aufgefordert, nicht an den Vorwahlen teilzunehmen. Solche sogenannten Robocalls sind ein gängiges Wahlkampf-Instrument in den USA.
Chancen und Potenzial der Anwendung
OpenAI wies in seiner Mitteilung auch auf die Chancen der Anwendung hin. In Zusammenarbeit mit einem Partner wurde erforscht, wie diese künstlichen Stimmen beim Lesenlernen helfen können. Außerdem hat die Voice Engine Potenzial beim Übersetzen von Videos und Podcasts, um so ein größeres Publikum zu erreichen. Es ist jedoch wichtig, dass die geklonte Stimme als KI-generiert erkannt wird.