Ist das echt oder ein Fake? |
Wird das Denkvermögen des Menschen zunehmend unwichtig gegenüber Künstlichen Intelligenzen? Wohl nur, wenn Menschen sich zu stark auf KI verlassen und nicht mehr selbst überlegen. / Foto: Adobe Stock/Syda Productions
ChatGPT hat ohne Zweifel für Aufregung gesorgt. Als sogenannte »Generative Künstliche Intelligenz« ist die Anwendung in der Lage, Texte nach den Anweisungen eines Nutzers zu erzeugen. Dabei kommuniziert das Programm menschlich und kann auf individuelle Fragen antworten. Nicht weniger beeindruckend sind Künstliche Intelligenzen, die aus wenigen Worten realistische Bilder, Grafiken, Kunstwerke, ganze Bücher und Filme erzeugen – gerade bei letzteren allerdings noch nicht perfekt. Papst Franziskus mit weißer Daunenjacke oder Ex-US-Präsident Donald Trump, der von Polizisten festgenommen wird, sind wohl zwei der bekanntesten Bildbeispiele.
Die Werke künstlicher Intelligenzen wirken täuschend echt und sind mitunter schwer von menschlichen Werken zu unterscheiden. Besonders bei Bildern ist das problematisch. Sie bleiben im Gedächtnis, auch wenn hinterher bekannt wird, dass es sich um Fälschungen handelt. Einige Firmen haben deshalb Filter in ihre künstlichen Intelligenzen eingebaut, die verhindern sollen, dass bekannte Persönlichkeiten benutzt oder pornografische Inhalte und Fake News generiert werden. Andere haben das nicht. Zudem sind bei einigen Programmen die Quellcodes für jeden Interessierten frei zugänglich und veränderbar. Wer über das notwendige technische Equipment verfügt, kann somit theoretisch sein eigenes Modell erzeugen.
Einige Entwickler arbeiten parallel an Detektionssoftware, die künstlich erzeugte Bilder und Texte aufspüren sollen. Bekannte Beispiele, die auf das Erkennen von Texten abzielen, sind zum Beispiel GPTZero, AI Text Classifier oder Plattformen wie Copyleaks.com und Scribbr.de. Problematisch hieran ist jedoch, dass jeder Algorithmus, der die Werke künstlicher Intelligenzen aufspüren kann, gleichzeitig dafür verwendet werden kann, die Programme zu trainieren. Viele Wissenschaftler fordern deshalb eine Kennzeichnungspflicht von mit künstlicher Intelligenz erzeugten Bildmaterialien und Texten in Form von Wasserzeichen, die in den Quellcode eingearbeitet oder in die Trainingsdaten eingefügt werden. Alternativ gibt es auch die Möglichkeit, menschliche Erzeugnisse zu kennzeichnen.
Aktuell ist es somit umso wichtiger, Bilder und Texte kritisch zu hinterfragen. Zudem gibt es zumindest bei Bildern noch einige Anhaltspunkte, die helfen können, künstlich generiertes Material zu enttarnen. So empfiehlt das Massachusetts Institute of Technology (MIT), bei Bildern und Videos den Fokus auf das Gesicht zu legen, da es sich bei Deepfakes fast immer um Veränderungen des Gesichts handelt. Sieht die Haut zu glatt oder runzelig aus? Passt das Alter des Gesichts zum Rest des Körpers? Sehen die Schatten um Augen und Augenbrauen echt aus? Sind die Spiegelungen in Brillengläsern realistisch? Erscheint die Gesichtsbehaarung natürlich? Gibt es vielleicht zu viel oder zu wenig davon? Wie sehen die Grübchen aus? Bei Videos sollte man den Experten zufolge auf das Zwinkern achten. Deepfakes verraten sich häufig dadurch, dass die Personen zu viel oder zu wenig zwinkern. Zudem können Lippenbewegungen oder die Darstellung der Zähne auffällig sein.
Bekannt ist bereits, dass Menschen trainieren können, ein Gespür für echte und unechte Bilder zu entwickeln. Im Rahmen des Projekts »Detect Fakes« der Nothwestern Unniversity Kellogg School of Management kann das jeder einmal ausprobieren und testen, wie gut ihm das Unterscheiden von echt und unecht gelingt. Die Eingaben werden anonymisiert gesammelt und für Forschungszwecke verwendet.