Springe direkt zu Inhalt

Der Papagei im Netz

ChatGPT liefert in Sekundenschnelle Antworten auf komplexe Themen. Forschende diskutieren über die weitreichenden gesellschaftlichen Implikationen der Software

16.02.2023

ChatGPT ist sehr leistungsfähig. Doch es übernimmt auch Falschbehauptungen.

ChatGPT ist sehr leistungsfähig. Doch es übernimmt auch Falschbehauptungen.
Bildquelle: Florence Lo / dpa REUTERS

Die vergangenen 20 Jahre haben gezeigt, welch enorme Auswirkungen Algorithmen auf die Gesellschaft haben können. Anfang des Jahrtausends revolutionierte Google den Zugang zu Informationen weltweit. Im vergangenen Jahrzehnt waren es die sozialen Medien, die den gesellschaftlichen Umgang im Internet entscheidend prägten. Nun könnten wir vor einem dritten großen Einschnitt stehen: Im November 2022 veröffentlichte die amerikanische Firma Open­AI das Programm ChatGPT – eine extrem leistungsstarke Künstliche Intelligenz, einfach zu bedienen und kostenfrei. 

Für Aufsehen sorgt das Programm derzeit vor allem, weil es in der Lage ist, in wenigen Sekunden Antworten auf nahezu sämtliche erdenklichen Fragen zu liefern. Es erstellt eigene kohärente Texte, auf Wunsch sogar komplette Artikel oder Essays. „Die Leistungsfähigkeit des Programms ist enorm“, sagt Jochen Schiller. „Es ist derzeit nur ein Prototyp, doch bereits jetzt ist es in der Lage, sinnvolle und fundierte Unterhaltungen zu komplexen Themen zu führen – bis hin zu juristischen Einschätzungen.“ Schiller ist Professor für Informatik an der Freien Universität und setzt sich intensiv mit Fragen der digitalen Zukunft auseinander. Künftig könnte das Programm Anwendung in weiten gesellschaftlichen Bereichen finden, sagt er. „Die Stärke von ChatGPT liegt darin, Millionen von Texten in Sekunden zu durchforsten und Zusammenhänge zu erkennen“, sagt er.

„In naher Zukunft könnte es so zum Beispiel präzisere medizinische Diagnosen stellen als viele Ärzte.“ Noch sei die Technologie nicht ausgereift. „Nicht selten fabriziert das Programm auch einfach Quatsch“, sagt Schiller. „Und beharrt dabei auch noch frech auf den falschen Antworten.“ 

ChatGPT übernimmt Fehler und Vorurteile aus seiner Datengrundlage

ChatGPT generiert sein Wissen auf Grundlage von Millionen Texten im Internet. Das Problem: Das Programm übernimmt dabei Fehler und Vorurteile aus seiner Datengrundlage. „Das Programm selbst ist ja nicht intelligent“, sagt Christoph Benzmüller, Professor am „Dahlem Center for Machine Learning and Robotics“ am Institut für Informatik der Freien Universität. „Überspitzt gesagt ist es nichts weiter als ein Papagei, der nachplappert, was er irgendwo aufgeschnappt hat und aufgrund statistischer Berechnungen für die Wahrheit hält.“

Verblüffende Leistungsfähigkeit und argumentative Beharrlichkeit mischen sich in den Texten von ChatGPT derzeit mit Einfältigkeit und Falschbehauptungen. Dabei könne es auch dazu kommen, dass das Programm nicht nur Falschinformationen anderer wiedergibt, sondern auch neue in Umlauf bringt. „Man kommt leicht in Situationen, in denen das Programm Zitate oder komplette Publikationen einfach erfindet“, sagt Benzmüller. „Die beeindruckenden sprachlichen Fähigkeiten des Programms suggerieren eine falsche faktische Kompetenz.“ 

Diese eigentümliche Mischung werfe weitreichende Fragen auf, sagt Steffi Pohl, Professorin für Methoden und Evaluation/Qualitätssicherung am Fachbereich Erziehungswissenschaft und Psychologie der Freien Universität. „Anders als bei klassischen Suchmaschinen lässt sich bei ChatGPT nicht einmal ausmachen, aus welchen Quellen die Aussagen stammen“, sagt sie. „Nicht nur unter Studierenden, auch in der breiten Gesellschaft braucht es jetzt noch größere Medienkompetenz, um Falschinformationen identifizieren zu können.“ Das Programm sei bereits in der Mitte der Gesellschaft angekommen und werde nicht mehr verschwinden, meint Steffi Pohl. „Jetzt müssen wir Strategien entwickeln, mit denen Menschen die Glaubwürdigkeit von Informationen in dieser neuen Situation überprüfen können.“

Viele Studierende nutzen bereits ChatGPT

Auch die Anforderungen an Studierende müssten sich dahingehend verändern. „Das Programm kann bereits heute viele Prüfungsaufgaben oder Hausarbeiten ohne Schwierigkeiten lösen“, sagt Jochen Schiller. Joachim Heberle kennt das Problem. Der Physikprofessor hat an der Freien Universität das Amt der Zentralen Ombudsperson für wissenschaftliche Integrität inne. Er berichtet, dass sich bereits Lehrende aus mehreren Fachbereichen bei ihm gemeldet haben. „Viele Studierende benutzen die Software bereits in ihrem Alltag“, sagt er. „Unter den Lehrenden herrscht eine rege Diskussion darüber, wie wir damit umgehen.“ Wenn der Einsatz von Programmen wie ChatGPT im Rahmen von Prüfungsleistungen erfolge, sei dies schlicht Betrug. 

In der Lehre sei es angesichts der technologischen Hilfen umso wichtiger geworden, das Grundlagenverständnis zu stärken, sagt Informatikprofessor Jochen Schiller. „Trotz Taschenrechner ist es für ein Zahlenverständnis wichtig, händisch rechnen zu können“, sagt er. „Und ähnlich verhält es sich auch mit anderer Technik.“ Kritisches, eigenständiges Denken werde immer zentral bleiben. „Programme wie ChatGPT können einige Aufgaben für uns übernehmen“, sagt Schiller. „Aber wir sind es, die dem Programm sagen müssen, was es tun soll, und die dafür notwendige Wissensgrundlage bereitstellen.“ Künstliche Intelligenz ist auf dem Vormarsch. „Es wurden in den vergangenen Jahren enorme Forschungsleistungen auf dem Gebiet erzielt“, sagt KI-Experte Benzmüller. „Wir brauchen nun eine breite politische Debatte darüber, welche Einsatzfelder in Zukunft gesellschaftlich wünschenswert sind.“

Dieser Artikel ist am 19.02.2023 in der Tagesspiegel-Beilage der Freien Universität Berlin erschienen.