Ist das echt oder ein Fake? |
Wird das Denkvermögen des Menschen zunehmend unwichtig gegenüber Künstlichen Intelligenzen? Wohl nur, wenn Menschen sich zu stark auf KI verlassen und nicht mehr selbst überlegen. / Foto: Adobe Stock/Syda Productions
ChatGPT hat ohne Zweifel für Aufregung gesorgt. Als sogenannte »Generative Künstliche Intelligenz« ist die Anwendung in der Lage, Texte nach den Anweisungen eines Nutzers zu erzeugen. Dabei kommuniziert das Programm menschlich und kann auf individuelle Fragen antworten. Nicht weniger beeindruckend sind Künstliche Intelligenzen, die aus wenigen Worten realistische Bilder, Grafiken, Kunstwerke, ganze Bücher und Filme erzeugen – gerade bei letzteren allerdings noch nicht perfekt. Papst Franziskus mit weißer Daunenjacke oder Ex-US-Präsident Donald Trump, der von Polizisten festgenommen wird, sind wohl zwei der bekanntesten Bildbeispiele.
Die Werke künstlicher Intelligenzen wirken täuschend echt und sind mitunter schwer von menschlichen Werken zu unterscheiden. Besonders bei Bildern ist das problematisch. Sie bleiben im Gedächtnis, auch wenn hinterher bekannt wird, dass es sich um Fälschungen handelt. Einige Firmen haben deshalb Filter in ihre künstlichen Intelligenzen eingebaut, die verhindern sollen, dass bekannte Persönlichkeiten benutzt oder pornografische Inhalte und Fake News generiert werden. Andere haben das nicht. Zudem sind bei einigen Programmen die Quellcodes für jeden Interessierten frei zugänglich und veränderbar. Wer über das notwendige technische Equipment verfügt, kann somit theoretisch sein eigenes Modell erzeugen.
Einige Entwickler arbeiten parallel an Detektionssoftware, die künstlich erzeugte Bilder und Texte aufspüren sollen. Bekannte Beispiele, die auf das Erkennen von Texten abzielen, sind zum Beispiel GPTZero, AI Text Classifier oder Plattformen wie Copyleaks.com und Scribbr.de. Problematisch hieran ist jedoch, dass jeder Algorithmus, der die Werke künstlicher Intelligenzen aufspüren kann, gleichzeitig dafür verwendet werden kann, die Programme zu trainieren. Viele Wissenschaftler fordern deshalb eine Kennzeichnungspflicht von mit künstlicher Intelligenz erzeugten Bildmaterialien und Texten in Form von Wasserzeichen, die in den Quellcode eingearbeitet oder in die Trainingsdaten eingefügt werden. Alternativ gibt es auch die Möglichkeit, menschliche Erzeugnisse zu kennzeichnen.
Aktuell ist es somit umso wichtiger, Bilder und Texte kritisch zu hinterfragen. Zudem gibt es zumindest bei Bildern noch einige Anhaltspunkte, die helfen können, künstlich generiertes Material zu enttarnen. So empfiehlt das Massachusetts Institute of Technology (MIT), bei Bildern und Videos den Fokus auf das Gesicht zu legen, da es sich bei Deepfakes fast immer um Veränderungen des Gesichts handelt. Sieht die Haut zu glatt oder runzelig aus? Passt das Alter des Gesichts zum Rest des Körpers? Sehen die Schatten um Augen und Augenbrauen echt aus? Sind die Spiegelungen in Brillengläsern realistisch? Erscheint die Gesichtsbehaarung natürlich? Gibt es vielleicht zu viel oder zu wenig davon? Wie sehen die Grübchen aus? Bei Videos sollte man den Experten zufolge auf das Zwinkern achten. Deepfakes verraten sich häufig dadurch, dass die Personen zu viel oder zu wenig zwinkern. Zudem können Lippenbewegungen oder die Darstellung der Zähne auffällig sein.
Bekannt ist bereits, dass Menschen trainieren können, ein Gespür für echte und unechte Bilder zu entwickeln. Im Rahmen des Projekts »Detect Fakes« der Nothwestern Unniversity Kellogg School of Management kann das jeder einmal ausprobieren und testen, wie gut ihm das Unterscheiden von echt und unecht gelingt. Die Eingaben werden anonymisiert gesammelt und für Forschungszwecke verwendet.
Im Hinblick auf Texte haben wir ChatGPT selbst um eine Anleitung gebeten und der künstlichen Intelligenz (KI) dafür dreimal folgende Frage gestellt: »Wie kann man menschliche Texte von KI-Texten unterscheiden?«. ChatGPT lieferte im ersten Versuch folgende Antworten:
Im zweiten und dritten Durchgang fielen die Antworten inhaltlich ähnlich aus, sprachlich gab es zum Teil kleine Abwandlungen. Auffällig war jedoch, dass sich ChatGPT derzeit nicht im Klaren ist, ob Fehler und Ungenauigkeiten eher auf einen menschlichen Verfasser oder auf eine Künstliche Intelligenz hindeuten. Denn während das Programm im ersten Versuch diesen Punkt gar nicht aufführte, gab es im zweiten Versuch an, dass KI-generierte Texte manchmal Fehler oder Ungenauigkeiten enthalten, die in menschlichen Texten weniger häufig vorkommen. Der Mensch soll deshalb auf Grammatik- oder Rechtschreibfehler sowie auf ungenaue Informationen achten, die darauf hinweisen könnten, dass der Text von einer KI stammt.
Beim dritten Versuch schwenkte ChatGPT dann ins Gegenteil um. Hier lautete die Antwort: KI-generierte Texte neigen dazu, weniger Fehler und Ungenauigkeiten zu enthalten als menschliche Texte. Wenn der Text zu perfekt erscheint oder keine offensichtlichen Fehler enthält, könnte dies darauf hindeuten, dass er von einer KI generiert wurde.
Dieser kleine Versuch macht deutlich, wo die Schwachstellen von künstlich erzeugten Texten liegen: Sie müssen nicht fehlerfrei sein. Darauf weist ChatGPT nach jeder Antwort auch selbst hin. Zudem bleibt dem Anwender verborgen, auf welche Quellen ChatGPT seine Antworten stützt. Das liegt daran, dass die Anwendung keine Suchmaschine ist und derzeit auch nicht auf diese zugreift. ChatGPT ist darauf trainiert, Texte zu erzeugen, die möglichst menschlich klingen, und zwar auf der Grundlage von Millionen von Trainingstexten, die von überall herstammen können.
Aus Schulen ist ChatGPT dennoch kaum mehr wegzudenken. Einer Umfrage des Digitalverbands Bitkom aus dem vergangenen Frühjahr zufolge, haben nur 8 Prozent der Schüler noch nie von ChatGPT gehört oder gelesen. Inzwischen dürfte die Zahl noch weiter gesunken sein. Umso wichtiger ist es, dass Schüler und Lehrer im Umgang mit künstlicher Intelligenz geschult werden, um diese nicht nur für die Umgehung von Hausaufgaben, sondern auch sinnvoll und effektiv zu nutzen. So kann ChatGPT zum Beispiel als Lerntrainer fungieren, der individuelle Fragen konkret beantworten und helfen kann, Verständnisprobleme zu beseitigen oder Lücken zu schließen. Unterstützend kann die Anwendung Lernmaterialien und Übungen generieren und Antworten korrigieren. Auf Wunsch motiviert das Programm und verteilt virtuelle Auszeichnungen.
ChatGPT
Die Nutzung von ChatGPT ist kostenlos, für die Registrierung reicht eine E-Mail Adresse aus. Laut der Betreiberfirma OpenAI ist die Verwendung von ChatGPT ab 13 Jahren erlaubt, die Erstellung eines Accounts ab 18 Jahren. Wissen sollte man jedoch, dass jede Eingabe dazu verwendet wird, die künstliche Intelligenz zu trainieren. Zudem greift die Datenschutzgrundverordnung (DSGVO) der Europäischen Union, die Nutzer vor Datenmissbrauch schützen soll, nicht, da sich die Server in den USA befinden.
Midjourney
Der Einstieg in den Bild Generator Midjourney ist etwas schwieriger. Hier benötigt man zusätzlich einen Account bei Discord. Auf der Website von Midjourney klickt man dafür auf »Join the Beta« und wird an Discord weitergeleitet. Hier wählt man einen Chatraum aus, in dem anschließend das Bild designt wird. Dafür muss man Midjourney konkrete Anweisungen sogenannte »text prompts« geben, die immer mit »/imagine« beginnen.
Generative Künstliche Intelligenzen wie ChatGPT sind eindrucksvoll, doch die Anwendungsgebiete künstlicher Intelligenzen sind weitaus vielfältiger. Nach Angaben des Fraunhofer-Institut für Intelligente Analyse und Informationssysteme (IAIS) ist künstliche Intelligenz ein Teilgebiet der Informatik, das sich damit befasst, wie ein Computer intelligentes, menschliches Verhalten nachahmen kann. Diese Intelligenz kann auf programmierten Abläufen basieren oder durch maschinelles Lernen erzeugt werden. Letzteres basiert auf einem Algorithmus, der durch Wiederholung lernt, eine Aufgabe selbstständig zu erfüllen.
Roboter können auf diesem Weg zum Beispiel lernen, wie sie ein Objekt greifen müssen. Künstliche Intelligenzen kommen in der Bilderkennung zum Einsatz und finden Anwendung in der medizinischen Diagnostik, bei der Gesichtserkennung oder beim autonomen Fahren. Sie können Prozesse optimieren, Muster und Sprache erkennen. Viele Systeme finden sich bereits heute in unserem Alltag und werden ganz selbstverständlich genutzt wie zum Beispiel Sprachsteuerungssysteme oder Smart Home Komponenten. Wichtig für die sichere Anwendung sind immer die Trainingsdaten. Sind hier Fehler enthalten, kann das zu Fehlfunktionen des Systems führen, die es von alleine nicht erkennen kann.