
„Ich kann mir überlegen, ob ich bei allem mitspiele“
Im Zeitalter von künstlicher Intelligenz verschwimmen die Grenzen zwischen echten Inhalten und Desinformation zunehmend. Autorin und Online-Expertin Ingrid Brodnig hat sich der Aufklärung digitaler Phänomene verschrieben. Ob wir uns vor künstlicher Intelligenz fürchten müssen, warum Falschnachrichten den öffentlichen Diskurs gefährden und wie wir besser miteinander ins Gespräch kommen, erklärt sie im Apropos-Titelinterview.
Titelinterview mit Ingrid Brodnig
von Julia Herzog
Wann waren Sie bei einem Online-Beitrag zuletzt selbst nicht sicher: Ist das jetzt echt?
Ingrid Brodnig: Ein Moment, in dem ich nicht wusste, ob ein Beitrag echt ist, war, als angeblich der Rowohlt Verlag postete, dass Daniel Kehlmann verstorben ist. Da habe ich gleich gegoogelt, ob das stimmt. Der Account war fake, die Nachricht eine Falschmeldung.
Sie haben für Ihre Kolumne im „Standard“ Ihre eigene Stimme mittels künstlicher Intelligenz geklont. Wenn man Ihre Vorträge kennt, ist es beinahe erschreckend, wie gut die KI Ihre Stimme imitiert. Wie haben Sie das erlebt?
Ingrid Brodnig: Ich war selbst überrascht. Die KI hat einen Text vorgelesen, in dem es hieß, dass das nicht ich bin, die da spricht, sondern die künstliche Intelligenz. Wenn im Text nicht klar geworden wäre, dass hier eine KI spricht, hätte ich es selbst für meine echte Stimme gehalten. Wenn mir dann jemand gesagt hätte, dass es eine alte Aufnahme von mir ist, hätte ich es geglaubt.
KI kann mittlerweile täuschend echte Bilder, Videos und Ton erstellen. Muss man sich vor der Verbreitung künstlicher Intelligenz fürchten?
Ingrid Brodnig: Technisch ist schon unglaublich viel möglich. Wenn ich genügend Audiodateien von einer Person im Internet finde, kann ich deren Stimme nachmachen. Gerade bei Politikern und Politikerinnen passiert das häufig. Aber dafür, was technisch möglich ist, passiert noch relativ wenig.
Welche Gründe gibt es dafür?
Ingrid Brodnig: Meine Vermutung ist, dass Leute, die Falschnachrichten produzieren, mit simpleren technischen Methoden auch schon erfolgreich sind. Man kann Unwahrheiten ins Internet stellen oder alte Fotos nehmen und in einen falschen Kontext rücken. Hochtechnologische Fakes erfordern mehr Arbeit, als einfach böse Gerüchte zu verbreiten. Vor allem das Erstellen gekonnter Videofakes, sogenannter Deepfakes, ist schwierig. Viele dieser Videos schauen noch hölzern aus, man merkt etwa, dass das Gesicht viel zu starr ist oder der Kopf nicht zum Rest des Körpers passt. Sobald Deepfakes leicht erstellbar werden, besteht noch einmal eine größere Gefahr, dass es sehr viel breitenwirksamere Fakes geben wird.
Wie erkenne ich, ob ein Inhalt echt oder künstlich generiert ist?
Ingrid Brodnig: Bei Fotos kann ich...