PTA-Forum online Avoxa
instagram facebook
Künstliche Intelligenz

Ist das echt oder ein Fake?

Seit dem Start von ChatGPT ist das Thema »Künstliche Intelligenz« in aller Munde. Neben düsteren Schreckensszenarios dreht es sich dabei vor allem um eine Frage: Wie unterscheidet man das Werk eines Computers von dem eines Menschen? Und können wir echt und unecht überhaupt noch trennen?
AutorKontaktCarina Steyer
Datum 09.04.2024  08:30 Uhr

Im Gespräch mit ChatGPT 

Im Hinblick auf Texte haben wir ChatGPT selbst um eine Anleitung gebeten und der künstlichen Intelligenz (KI) dafür dreimal folgende Frage gestellt: »Wie kann man menschliche Texte von KI-Texten unterscheiden?«. ChatGPT lieferte im ersten Versuch folgende Antworten:

  • Menschliche Nuancen und Emotionen: Menschliche Texte enthalten oft Nuancen, persönliche Erfahrungen und emotionale Ausdrücke, die in KI-generierten Texten fehlen können. Achte auf den emotionalen Gehalt des Textes und darauf, ob persönliche Perspektiven oder Meinungen enthalten sind.
  • Kreativität und Originalität: Menschliche Autoren können kreative und originelle Ideen in ihren Texten einbringen, die möglicherweise nicht von KI-Modellen reproduziert werden können. Wenn der Text besonders einfallsreich oder ungewöhnlich ist, könnte dies ein Hinweis darauf sein, dass ein Mensch ihn geschrieben hat.
  • Konsistenz und Kontext: Menschliche Texte sind oft besser darin, konsistent zu bleiben und den Kontext der Diskussion zu berücksichtigen. Wenn der Text gut in den Kontext passt und konsistent bleibt, ist dies ein Hinweis darauf, dass er von einem Menschen verfasst wurde.
  • Komplexe Strukturen und Ausdrücke: Menschliche Texte können komplexere Satzstrukturen, Wortwahl und Ausdrücke enthalten, die über das hinausgehen, was KI-Modelle derzeit reproduzieren können. Wenn der Text eine anspruchsvolle Sprache oder komplexe Argumentationsstrukturen aufweist, könnte dies darauf hindeuten, dass ein Mensch ihn verfasst hat.

Im zweiten und dritten Durchgang fielen die Antworten inhaltlich ähnlich aus, sprachlich gab es zum Teil kleine Abwandlungen. Auffällig war jedoch, dass sich ChatGPT derzeit nicht im Klaren ist, ob Fehler und Ungenauigkeiten eher auf einen menschlichen Verfasser oder auf eine Künstliche Intelligenz hindeuten. Denn während das Programm im ersten Versuch diesen Punkt gar nicht aufführte, gab es im zweiten Versuch an, dass KI-generierte Texte manchmal Fehler oder Ungenauigkeiten enthalten, die in menschlichen Texten weniger häufig vorkommen. Der Mensch soll deshalb auf Grammatik- oder Rechtschreibfehler sowie auf ungenaue Informationen achten, die darauf hinweisen könnten, dass der Text von einer KI stammt.

Beim dritten Versuch schwenkte ChatGPT dann ins Gegenteil um. Hier lautete die Antwort: KI-generierte Texte neigen dazu, weniger Fehler und Ungenauigkeiten zu enthalten als menschliche Texte. Wenn der Text zu perfekt erscheint oder keine offensichtlichen Fehler enthält, könnte dies darauf hindeuten, dass er von einer KI generiert wurde.

Frag die KI
Die experimentelle KI
von PZ und PTA-Forum
Die experimentelle KI
von PZ und PTA-Forum
Die experimentelle KI
von PZ und PTA-Forum
 
FAQ
BETA
Menü
Zeit
SENDEN
Wie kann man die CAR-T-Zelltherapie einfach erklären?
Warum gibt es keinen Impfstoff gegen HIV?
Was hat der BGH im Fall von AvP entschieden?
Zeit
GESAMTER ZEITRAUM
3 JAHRE
1 JAHR
Senden
SENDEN
KI
IHRE FRAGE WIRD BEARBEITET ...
KI
KI
UNSERE ANTWORT
QUELLEN
22.01.2023 – Fehlende Evidenz?
LAV Niedersachsen sieht Verbesserungsbedarf
» ... Frag die KI ist ein experimentelles Angebot der Pharmazeutischen Zeitung. Es nutzt Künstliche Intelligenz, um Fragen zu Themen der Branche zu beantworten. Die Antworten basieren auf dem Artikelarchiv der Pharmazeutischen Zeitung und des PTA-Forums. Die durch die KI generierten Antworten sind mit Links zu den Originalartikeln. ... «
Ihr Feedback
War diese Antwort für Sie hilfreich?
 
 
FEEDBACK SENDEN
FAQ
Was ist »Frag die KI«?
»Frag die KI« ist ein experimentelles Angebot der Pharmazeutischen Zeitung. Es nutzt Künstliche Intelligenz, um Fragen zu Themen der Branche zu beantworten. Die Antworten basieren auf dem Artikelarchiv der Pharmazeutischen Zeitung und des PTA-Forums. Die durch die KI generierten Antworten sind mit Links zu den Originalartikeln der Pharmazeutischen Zeitung und des PTA-Forums versehen, in denen mehr Informationen zu finden sind. Die Redaktion der Pharmazeutischen Zeitung verfolgt in ihren Artikeln das Ziel, kompetent, seriös, umfassend und zeitnah über berufspolitische und gesundheitspolitische Entwicklungen, relevante Entwicklungen in der pharmazeutischen Forschung sowie den aktuellen Stand der pharmazeutischen Praxis zu informieren.
Was sollte ich bei den Fragen beachten?
Damit die KI die besten und hilfreichsten Antworten geben kann, sollten verschiedene Tipps beachtet werden. Die Frage sollte möglichst präzise gestellt werden. Denn je genauer die Frage formuliert ist, desto zielgerichteter kann die KI antworten. Vollständige Sätze erhöhen die Wahrscheinlichkeit einer guten Antwort.
Wie nutze ich den Zeitfilter?
Damit die KI sich bei ihrer Antwort auf aktuelle Beiträge beschränkt, kann die Suche zeitlich eingegrenzt werden. Artikel, die älter als sieben Jahre sind, werden derzeit nicht berücksichtigt.
Sind die Ergebnisse der KI-Fragen durchweg korrekt?
Die KI kann nicht auf jede Frage eine Antwort liefern. Wenn die Frage ein Thema betrifft, zu dem wir keine Artikel veröffentlicht haben, wird die KI dies in ihrer Antwort entsprechend mitteilen. Es besteht zudem eine Wahrscheinlichkeit, dass die Antwort unvollständig, veraltet oder falsch sein kann. Die Redaktion der Pharmazeutischen Zeitung übernimmt keine Verantwortung für die Richtigkeit der KI-Antworten.
Werden meine Daten gespeichert oder verarbeitet?
Wir nutzen gestellte Fragen und Feedback ausschließlich zur Generierung einer Antwort innerhalb unserer Anwendung und zur Verbesserung der Qualität zukünftiger Ergebnisse. Dabei werden keine zusätzlichen personenbezogenen Daten erfasst oder gespeichert.
TEILEN
Datenschutz

Mehr von Avoxa