Nachbericht der Denkfabrik am 03. Mai 2023: KI beim Denken beobachten
Der immense Erfolg von ChatGPT begeistert Kommunikatorinnen und Kommunikatoren weltweit, zugleich verunsichert das Programm auch viele. Text-, Bild- und Videoverarbeitungsprogramme, die auf Basis von Künstlicher Intelligenz (KI) arbeiten, könnten zu einem echten Game-Changer für die gesamte Branche werden. Aber wie verlässlich sind diese Programme überhaupt und wo liegen die Fallstricke? Darüber sprach die Landesgruppe Hessen / Rheinland-Pfalz / Saarland mit Dr. Thomas Arnold vom Hessian Center for Artificial Intelligence in einer weiteren Veranstaltung des Formats „Denkfabrik“. Gut 100 Teilnehmende aus zahlreichen Landes- und Fachgruppen diskutierten mit.
Kennen Sie Dr. Johannes Müller, den leitenden Kurator am Frankfurter Städel-Museum? Falls nicht, sind Sie in guter Gesellschaft, denn der Name ist frei erfunden. Das Textverarbeitungsprogramm ChatGPT jedoch, dem Forscher Thomas Arnold die Aufgabe gab, einen entsprechenden Blog-Post zu schreiben, zitiert den fiktiven Dr. Müller als „reale“ Person – und würde in diesem Fall einer Fake-News den Weg bereiten. Wie also umgehen mit dem Chat-Bot?
„ChatGPT und andere, auf KI basierende Programme haben bereits eine Vielzahl von guten und sehr hilfreichen Einsatzmöglichkeiten“, sagt Arnold. Er schiebt die Warnung gleich hinterher: „Aber Vorsicht vor erfundenen Informationen in den ausgegebenen Texten!“. Nicht nur, weil ChatGPT derzeit einen Wissenstand hat, der lediglich bis zum Jahr 2021 reicht. Das Problem liegt vielmehr in der Natur eines solchen KI-Chatbots. „Die Ergebnisse basieren auf Wahrscheinlichkeiten von Wort- und Textfortführungen“, beschreibt es der Darmstädter Forscher. Ein von ChatGPT (und anderen Programmen) erstellter Text wird Wort für Wort vervollständigt, was der User live auf seinem Bildschirm mitverfolgen kann. Man beobachtet die KI also quasi beim Denken.
Gute Einsatzmöglichkeiten solcher Programme sind nach Ansicht von Arnold daher Textvervollständigungen, Fragen beantworten lassen oder auch Textverbesserungen. Und ChatGPT kann verschiedenste Textformate liefern – vom Gedicht über die Analyse bis hin zum Social-Media-Post. Nur die Garantie, dass auch alles stimmt, die gibt es – noch – nicht. Ob es besser funktioniert, wenn die KI auf Englisch gefüttert wird? Der Eindruck ist zumindest nicht von der Hand zu weisen. „ChatGPT wird eigentlich auch auf Deutsch trainiert, aber manchmal klingen die dann ausgegebenen Texte tatsächlich etwas holprig“, räumt Thomas Arnold ein.
Sind KI-Texte nachweisbar?
Aus der anderen Perspektive betrachtet, macht der Umgang mit KI-basierten Tools die Arbeit allerdings auch eher knifflig. Lehrende an Schulen oder Universitäten müssen immer mehr damit rechnen, dass die abgegebenen Hausarbeiten mit Hilfe von ChatGPT und ähnlichen Programmen erstellt wurden. Lässt sich das herausfinden, sind diese von KI erstellten Texte oder Textpassagen nachweisbar? Versuche mit entsprechenden detektivisch arbeitenden Programmen dazu gibt es bereits, aber mit begrenzter Erfolgsquote. „Die Ergebnisse sind sehr wechselhaft, man kann sich nicht darauf verlassen“, sagt Arnold.
Auch der Gedanke, die von KI geschriebenen Texte mit einer Art „Wasserzeichen“ zu versehen, biete keine wirkliche Sicherheit, dass ChatGPT-Passagen auch identifiziert werden. Denn sobald die Parameter von ChatGPT nur ein wenig verändert werden, sinke sofort die Treffergenauigkeit der „Detektivprogramme“.
Muss man aber KI-geschriebene Texte überhaupt nachweisen können? Einige Teilnehmende sagten im Diskussionsteil der Denkfabrik ja, weil man doch irgendwann vielleicht beweisen möchte, dass man als Kommunikatorin oder Kommunikator einen Text selbst geschrieben hat und sein Geld wert ist. Andere waren hier anderer Meinung, weil es doch in der Kommunikation auf die Qualität und Wirkweise eines Textes ankomme und nicht auf die Entstehung.
Dr. Arnold resümierte, dass auf die Gesellschaft durch die massenhafte Nutzung von KI-basierten Textverarbeitungsprogrammen zwei Herausforderungen zukommen: „Die Fragen von Urheber- und Datenschutzverletzungen nehmen zu, ebenso wie die Beschleunigung von Fake-News.“
(P.S: Dieser Text wurde rein auf Basis handgeschriebener Notizen verfasst. Noch hat ChatGPT den Autor nicht überzeugt, solche Aufgaben schneller und besser erledigen zu können. Aber wie lange noch…?)
Text: Holger Paul
Bild: D koi/Unsplash