Künstliche Intelligenz (KI) ist mittlerweile in der Lage, plausible Bilder von Menschen zu erstellen, dank Websites wie Diese Person kommt nicht, sowie nicht existierenden Tieren und sogar Mietzimmern.
Die Ähnlichkeit zwischen den simulierten Bildern und der Realität ist so groß, dass sie durch eine in den Proceedings of the National Academy of Sciences of the United States of America (PNAS) veröffentlichte Studie aufgezeigt wurde, die echte Gesichter mit denen vergleicht, die durch einen KI-Algorithmus erstellt wurden bekannt als Generative Adversarial Networks (GANs).
Die Forschung kommt nicht nur zu dem Schluss, dass es schwierig war, zwischen den beiden zu unterscheiden, sondern zeigt auch, dass fiktive Gesichter mehr Vertrauen erzeugen als echte. Obwohl der Unterschied mit nur 7,7 % gering ist, waren die Gesichter, die als am wenigsten vertrauenswürdig eingestuft wurden, real, während drei der vier als am vertrauenswürdigsten angesehenen Gesichter fiktiv waren. Sophie Nightingale, Professorin für Psychologie an der Lancaster University und Co-Autorin der Studie, sagt, dass das Ergebnis nicht etwas war, was das Team erwartet hatte: „Wir waren ziemlich überrascht“, sagt sie.
Die Forschung basierte auf drei Experimenten. Im ersten Experiment erzielten die 315 Teilnehmer, die gebeten wurden, zwischen echten und künstlichen Gesichtern zu unterscheiden, eine Genauigkeitsrate von 48,2 %. Im zweiten Experiment erhielten die 219 verschiedenen Teilnehmer Tipps zur Unterscheidung von künstlichen und echten Gesichtern mit Feedback zu ihren Vermutungen. Der Prozentsatz richtiger Antworten im zweiten Experiment war mit einer Genauigkeitsrate von 59 % etwas höher als im ersten. In beiden Fällen waren die Gesichter, die am schwierigsten zu klassifizieren waren, die von Weißen. Nightingale glaubt, dass diese Diskrepanz darauf zurückzuführen ist, dass die Algorithmen eher an diese Art von Gesichtern gewöhnt sind, dies sich jedoch mit der Zeit ändern wird
Im dritten Experiment wollten die Forscher noch weiter gehen und das Vertrauen messen, das durch die Gesichter erzeugt wird, und überprüfen, ob die synthetischen das gleiche Vertrauen auslösen. Dazu mussten 223 Teilnehmer die Gesichter von 1 (sehr unzuverlässig) bis 7 (sehr vertrauenswürdig) bewerten. Bei den echten Gesichtern betrug die durchschnittliche Punktzahl 4,48 gegenüber 4,82 bei den synthetischen Gesichtern. Obwohl der Unterschied nur 7,7 % beträgt, betonen die Autoren, dass er „signifikant“ ist. Von den 4 vertrauenswürdigsten Gesichtern waren drei synthetisch, während die vier, die den Teilnehmern am wenigsten vertrauenswürdig erschienen, echt waren.
Alle analysierten Gesichter gehörten zu einer Stichprobe von 800 Bildern, halb echt und halb falsch. Die synthetische Hälfte wurde von GANs erstellt. Die Stichprobe bestand aus einer gleichen Anzahl von Männern und Frauen vier verschiedener Rassen: Afroamerikaner, Kaukasier, Ostasiaten und Südasiaten. Sie verglichen die tatsächlichen Gesichter mit einem synthetischen Gesicht mit ähnlichem Alter, Geschlecht, Rasse und allgemeinem Erscheinungsbild. Jeder Teilnehmer analysierte 128 Gesichter.
José Miguel Fernández Dols, Professor für Sozialpsychologie an der Autonomen Universität Madrid, dessen Forschung sich auf den Gesichtsausdruck konzentriert, weist darauf hin, dass nicht alle Gesichter den gleichen Ausdruck oder die gleiche Haltung haben und dass dies „das Urteilsvermögen beeinflussen kann“. Die Studie berücksichtigt die Bedeutung des Gesichtsausdrucks und geht davon aus, dass ein lächelndes Gesicht eher als vertrauenswürdiger eingestuft wird. Allerdings lächelten 65,5 % der echten Gesichter und 58,8 % der synthetischen Gesichter, sodass der Gesichtsausdruck allein „nicht erklären kann, warum Kunststoffe als vertrauenswürdiger eingestuft werden“.
Kritisch sieht der Forscher auch die Körperhaltung von drei der als weniger vertrauenswürdig eingestuften Bilder; Den oberen Teil des Gesichts in Bezug auf den Mund nach vorne zu drücken und den Hals zu schützen, ist eine Haltung, die häufig einer Aggression vorausgeht. „Synthetische Gesichter werden realistischer und können leicht mehr Vertrauen schaffen, indem sie mit mehreren Faktoren spielen: der typischen Beschaffenheit des Gesichts, den Gesichtszügen und der Körperhaltung“, sagt Fernández Dols.
Die Folgen synthetischer Inhalte
Neben der Erstellung synthetischer Gesichter prognostiziert Nightingale, dass andere Arten von künstlich erstellten Inhalten wie Videos und Audios „auf dem Weg“ sind, nicht mehr von echten Inhalten zu unterscheiden. „Es ist die Demokratisierung des Zugangs zu dieser leistungsstarken Technologie, die die größte Bedrohung darstellt“, sagt sie. „Wir ermutigen auch dazu, den oft laissez-faire-Ansatz gegenüber der Öffentlichkeit und die uneingeschränkte Freigabe von Code für jedermann zur Integration in jede Anwendung zu überdenken.“
Um die Verbreitung nicht einvernehmlicher intimer Bilder, Betrugs- und Desinformationskampagnen zu verhindern, schlagen die Forscher Richtlinien für die Erstellung und Verbreitung synthetisierter Bilder vor, um die Öffentlichkeit vor „Deep Fakes“ zu schützen.
Aber Sergio Escalera, Professor an der Universität Barcelona und Mitglied des Computer Vision Center, hebt den positiven Aspekt von KI-generierten Gesichtern hervor: „Es ist interessant zu sehen, wie Gesichter generiert werden können, um eine freundliche Emotion zu vermitteln“, sagt er und deutet dies an könnte in die Erstellung virtueller Assistenten integriert werden oder verwendet werden, wenn Menschen, die an einer psychischen Erkrankung leiden, ein bestimmter Ausdruck wie Ruhe vermittelt werden soll.
Aus ethischer Sicht sei es laut Escalera wichtig, das Potenzial von KI offenzulegen und vor allem „sich der möglichen Risiken bewusst zu sein, die bei der Übergabe an die Gesellschaft bestehen können“. Er weist auch darauf hin, dass die derzeitige Gesetzgebung dem technologischen Fortschritt „ein wenig hinterherhinkt“ und es noch „viel zu tun“ gebe.
Exklusive Inhalte für Abonnenten
Lesen Sie ohne Grenzen