Ende Jänner veröffentlichte der Fotograf und Filmemacher Andrea Pizzini zum allerersten Mal ein gefälschtes Bild. Jenes einer vergoldeten Fotokamera. Das Bild ging viral, innerhalb weniger Tage sahen es sich auf seinem Instagram-Kanal knapp sechs Millionen Menschen weltweit an. „Dieses Bild erlangte eine Reichweite, die ich mir in meinen Träumen nicht vorstellen konnte“, sagt Pizzini, der seit etwa einem halben Jahr mit KI-Tools im Internet experimentiert. <BR /><BR /><div class="img-embed"><embed id="896051_image" /></div> <BR /><BR />Doch wie funktioniert so ein künstlicher Bildgenerator? „Nun, es ist ganz einfach: Ein Mensch tippt in eine Suchmaske ein, was für ein Bild er haben möchte, und die Künstliche Intelligenz wandelt den Text in ein Bildmotiv um. Möglich machen es Algorithmen, die mit maschinellem Lernen arbeiten.“ Hierfür biete das Internet verschiedenste KI-Tools an, wie zum Beispiel Midjourney (www.midjourney.com) oder Dall-E (openai.com/product/dall-e-2). Pizzini arbeitet hauptsächlich mit Midjourney, „die generiert weitaus realistischere Bilder als Dall-E“, so der 45-Jährige. So weit so künstlich-kunstvoll. Nun zur Umsetzung. <h3> Vom geschriebenen Text</h3> zum gefälschten Bild Um ein Foto von Reinhold Messner in Designer-Jacke zu erstellen, tippt Andrea Pizzini folgenden Text in den KI-Generator Midjourney ein: „Press Photo of Reinhold Messner in white oversized Balenciaga puffer“ (zu Deutsch: „Pressefoto von Reinhold Messner in weißer Balenciaga-Puffer-Jacke in Übergröße“). Dann spielt Pizzini noch etwas mit der Farbe und der Belichtung – und voilà – innerhalb weniger Sekunden erstellt das Tool ein „Deepfake“, also ein „tiefgründig“ gefälschtes Bild von Reinhold Messner. Nun drängt sich die Frage auf: Kann jeder solche Bilder erstellen? „Theoretisch ja“, sagt Pizzini, „es braucht aber eine Menge Kreativität und Fantasie bei der Eingabe. Die Kunst ist es nämlich, Worte und Begriffe so ausgeklügelt zu wählen, dass man ein einmaliges Bild erhält.“ <h3> Wie genial sind „Fake-Bilder“ wirklich?</h3>Mit seinen KI-Experimenten regte Andrea Pizzini im Netz und weit darüber hinaus die Diskussion rund um künstlich generierte Bilder an. Kann man KI-Bilder überhaupt als Fotografien bezeichnen? Und: Wer braucht eigentlich noch eine Kamera, wenn aus einfachen Texteingaben auf Knopfdruck fotorealistische Bilder werden? <BR /><BR /><BR /><div class="img-embed"><embed id="896054_image" /></div> <BR /><BR />Pizzini sieht die neuartige Technik eher als Fortschritt, denn als Gefahr: „Daher rate ich allen Unternehmen, sich mit KI-generierten Fotos, Videos und Texten auseinandersetzen. Das ist nicht nur ein Hype wie der 3D-Fernseher, sondern wird bald all unsere Lebensbereiche durchdringen.“ Daher plädiert der Filmemacher und Fotograf, der mit seiner Serie „wellenbrecher“ aus der Intensivstation während der Corona-Pandemie italienweit für Aufmerksamkeit sorgte, für mehr Aufklärung in diesem Bereich: „Natürlich macht mir die Arbeit mit KI Spaß, aber ich sehe mich als Vermittler“, sagt er. „Ich möchte Menschen auf diese neue, digitale Welt aufmerksam machen, zum kritischen Hinterfragen anregen, denn KI-Bilder sind nun mal keine Fotografien, und zum Schmunzeln bringen.“ <BR /><BR /><BR /><div class="img-embed"><embed id="896057_image" /></div> <h3>Zwischen Manipulation und Täuschung</h3>Nicht ganz so lustig findet der frühere Extrembergsteiger Reinhold Messner sein Deepfake. „Diese Art von „Kunst„ kann ich nicht als Kunst wahrnehmen oder teilen. Es ist eine irreführende, künstliche Darstellung von Personen. Dem Betrachter wird eine Realität vorgetäuscht, die nie existiert hat“, betont er. Dass ein „Fake-Foto“ von ihm im Netz kursiert, stört Messner nicht. Allerdings, so der 78-Jährige, verliere die Fotografie so ihre Aussagekraft und verursache beim Konsumenten ein grundsätzliches Misstrauen. „Täuschung ist die schlimmste Art der Manipulation eines Menschen“, so Messners deutliche Worte. <h3> Daran erkennt man (noch) Fake-Bilder und Fake-Videos</h3>Angesichts solcher Täuschungen wird es also zunehmend schwieriger einzuordnen, was wirklich passiert ist und was nicht. Doch genauso wie Irren menschlich ist, macht die KI (noch) Fehler. Oswald Lanz, Professor an der Fakultät für Ingenieurswis-senschaften an der Universität Bozen, erklärt, wie man solch falsches Bildmaterial erkennen kann: „KI-generierte Bilder sehen oft hyperrealistisch aus – eher wie inszenierte künstlerische Aufnahmen denn als Moment-Fotografien. Körperteile sind unproportioniert, zu kurze Arme, oder Hände, die eher Klauen ähneln, zu viele oder zu wenig Finger. Haare erscheinen verschwommen, während das Gesicht scharf abgebildet ist. KI-generierte Videos, die es mittlerweile auch gibt, sind hingegen sehr kurz, nur wenige Sekunden lang, verpixelt oder unscharf, zeigen unnatürliche Bewegungen; Belichtung und Schatten sind inkohärent, Tonspuren sind nicht vorhanden oder nicht synchronisiert mit dem Inhalt.“ <BR /><BR /><BR /><div class="img-embed"><embed id="896060_image" /></div> <BR />Der Uni-Professor ist sich allerdings sicher, dass sich die Qualität und Auflösung der generierten Bilder kontinuierlich verbessern werden. „Es wird für uns in Zukunft also noch schwieriger werden, KI-generierte Medien von realen zu unterscheiden.“ „Deepfakes“ seien daher auch ein interessanter und bedrohlich wirkender Bereich bei der Frage, wie man Künstliche Intelligenz regulieren sollte, aber er solle für die Regulierung von KI nicht zu weit nach vorn gestellt werden“, so Lanz. Denn – und das zeige generell ein Blick in die Vergangenheit: Um Desinformation zu verbreiten, brauche es nicht immer ausgefeilte High-End-Fälschung, sondern auch nur ein einfaches Gerücht, das gestreut wird.<BR />