top of page
Suche
AutorenbildVerena Köfler

Willkommen im Wunderland

Sind ChatGPT, Midjourney & Co. der ersehnte Schlüssel für günstigen und schnellen Content oder tragen sie zur Desinformation und Verbreitung von Fake-News bei?


Der Papst zeigt sich modebewusst im weißen Daunenparka, um den Hals das Kruzifix, in der Hand einen Mate-Tee.


Donald Trump kämpft mit einer Truppe uniformierter Polizisten, die ihn offensichtlich festnehmen wollen.


Zwei Bilder, die im März 2023 um die Welt gingen. Zwei Bilder, die eine Geschichte erzählen. Nur: diese Bilder sind Fake, erstellt mit Hilfe einer künstlichen Intelligenz. Die Stories dahinter sind so nie passiert – und doch gibt es sie jetzt, verbreitet in sozialen Netzwerken und diskutiert in den Medien. Das wirft Fragen auf.


Was ist Realität, was Fiktion? Muss eine Geschichte so passiert sein, oder genügt es, dass sie passiert sein könnte? Treten sich künstliche und menschliche Intelligenz als Konkurrenten gegenüber, Texter gegen ChatGPT, Fotografen gegen Midjourney? Was können diese Tools und was sollen sie unserer Meinung nach können? Und: Spielt das alles überhaupt noch eine Rolle?


Form und Inhalt


Seit es jedem möglich ist, mittels künstlicher Intelligenz (KI) Texte und Bilder zu erzeugen, sind ChatGPT, Midjourney und Co. in aller Munde. Durch diese Tools entstehen völlig neue Möglichkeiten, Inhalte zu erstellen. Vom Schulreferat bis zur Unternehmenskommunikation scheint alles möglich, ohne viel Zeit und Geld zu investieren. Die ersten Ergebnisse ernüchtern. ChatGPT liefert überzeugende Texte, beantwortet Fragen höflich und ausführlich. Aber: Zum Teil ist es kompletter Nonsens, was der Chatbot von sich gibt. Doch tut er das aus voller Überzeugung.


Aus Unmengen an Informationen baut uns die künstliche Intelligenz eine Geschichte, die stimmen kann – oder auch nicht. ChatGPT reiht Wörter aneinander, die üblicherweise aufeinander folgen. Es konstruiert Sätze mit korrekter Semantik, aber teilweise fraglichem Inhalt. Doch Schein besiegt Sein, die Form den Inhalt.


Glaubwürdigkeit und Realität


Einer der früheren Chatbots nennt sich A.L.I.C.E. (Artificial Linguistic Computer Entity). Und irgendwie ergeht es uns heute tatsächlich wie Alice in der Geschichte von Lewis Carroll, die mithilfe des richtigen Schlüssels die Tür ins Wunderland öffnet. Sie betritt eine Welt voller Absurditäten, die ihr jedoch real erscheinen. Bedenkt man, wie absurd unsere Gegenwart oft erscheint, ist es kein Wunder, dass Fiktion und Realität kaum mehr auseinanderzuhalten sind. So liefert uns ChatGPT einwandfrei formulierte Texte, die durchaus wahr sein könnten - wenn man es nicht besser weiß oder nicht überprüft.


Doch wie schnell geht es, dass diese Inhalte im Internet verbreitet und, ohne den eigentlichen Ursprung zu kennen, bald für Realität gehalten werden. In der Schnelligkeit der Mediennutzung bleibt der Fakten-Check oft aus. Glaubwürdig ist nicht mehr, was überprüfbar ist. Glaubwürdig ist, was durch Texte und Bilder überzeugt. Das Bild des Papstes in der noblen weißen Daune, das Foto von Trumps Verhaftung – nicht wenige User hielten diese Bilder in den sozialen Netzwerken für echt. Um es mit der Königin von Alice im Wunderland zu sagen: Wir haben mittlerweile „die rechte Übung“ darin, etwas Unmögliches zu glauben.(*)


(*) „Etwas Unmögliches kann man nicht glauben“, sagt Alice. „Du wirst darin eben noch nicht die rechte Übung haben“, antwortet ihr daraufhin die Königin.


Künstliche und menschliche Intelligenz


Eins muss man sagen: ChatGPT formuliert gut. Rein von der Sprache her ist nicht zu unterscheiden, ob ein Text von einer künstlichen Intelligenz oder von Menschen geschrieben wurde. Aber: Die Sprachmodelle kennen weder Verstand noch Logik. Und schon gar keine Empathie. Die Texte beruhen auf maschinellem Lernen und auf Wahrscheinlichkeiten. Welche Wörter kommen häufig im gleichen Zusammenhang vor? Diese ergeben mit höherer Wahrscheinlichkeit sinnvolle Sätze, die für uns vertraut und damit glaubwürdig klingen. Um den eigentlichen Inhalt geht es dabei aber nicht.


Was die großen Sprachmodelle daher auch (noch) nicht können: Zwischen Wahrheit und Fake zu unterscheiden. Ihr Trainingsfeld ist „das Internet“ – bekanntermaßen kein Füllhorn an absoluter Wahrheit. Anscheinend soll in Punkto Faktentreue nachgebessert werden; inwieweit das überhaupt möglich ist, scheint jedoch fraglich. ChatGPT & Co. sind Sprach- und keine Recherchetools.


Ein weiteres Problem: Die Neutralität der künstlichen Intelligenz ist trügerisch. Sie lernt maschinell mit Daten aus der Vergangenheit (aktuell verfügt ChatGPT über „Wissen“ bis 2021). Dadurch werden auch bestehende Vorurteile und verfestigte Rollenbilder reproduziert. Die Texte sind somit weder wertfrei noch objektiv.


Moral und Fortschritt


Damit sind wir schon beim nächsten Dilemma: Verantwortung und Moral versus technologischer Fortschritt. Die Sprach- und Bildgeneratoren sind mächtige Tools. „Aus großer Macht folgt große Verantwortung“, wird dem Superhelden Spiderman als Maxime mit auf den Weg gegeben. Doch diese KI-Systeme haben weder ein moralisches Bewusstsein noch können sie Verantwortung für die von ihnen erzeugten Informationen übernehmen. Und die Nutzer sind großteils zu wenig darauf vorbereitet.


Somit können mithilfe dieser Modelle Fake News und Desinformationen verbreitet werden. Chatbots können dafür eingesetzt werden (und werden es auch bereits), um z.B. in sozialen Netzwerken Hass zu schüren. Malt man sich aus, wohin dies noch führen kann, scheinen die düstersten Dystopien greifbar nahe. Und doch sind neue Technologien selbst weder „gut“ noch „böse“. Es ist der Mensch, der darüber bestimmt, ob ihr Einsatz ethisch vertretbar ist oder nicht. „In der Tat ist das immense technologische Wachstum nicht mit einer Entwicklung des Menschen in Bezug auf Verantwortung, Werte und Gewissen einhergegangen“, gibt Papst Franziskus zu bedenken. Nun mag man der Kirche vorwerfen, nicht sehr fortschrittsfreundlich zu sein, doch ist eine gewisse Skepsis in diesem Punkt sicher angebracht.


ChatGPT auf die Frage, ob man es gezielt zur Desinformation benützen kann: Ja, es besteht theoretisch die Möglichkeit, dass ich als KI-Modell gezielt zur Desinformation eingesetzt werde. Da ich als Sprachmodell darauf trainiert bin, aufgrund von Mustern und Beziehungen in Texten Vorhersagen zu treffen, könnte ich dazu verwendet werden, falsche oder irreführende Informationen zu generieren. Es ist jedoch wichtig zu betonen, dass ich als KI-Modell selbst keine Absichten oder Vorlieben habe und meine Antworten und Generierungen ausschließlich auf den Daten basieren, auf denen ich trainiert wurde. Das bedeutet, dass ich keine Motivation habe, absichtlich falsche Informationen zu generieren oder zu verbreiten. Es liegt letztendlich in der Verantwortung der Menschen, die meine Generierungen nutzen, um sicherzustellen, dass sie keine Desinformation verbreiten. Es ist wichtig, kritisch zu denken und die Richtigkeit der Informationen zu überprüfen, bevor man sie verwendet oder verbreitet.


Wer braucht noch menschliche Kompetenz?


Was all das langfristig für die Gesellschaft bedeutet – das wird sich zeigen. Auf jeden Fall haben diese Entwicklungen das Potential zu großen Veränderungen. Nicht umsonst haben sich kürzlich Tech-Experten weltweit für eine Begrenzung bzw. einen Stopp der Entwicklung von Programmen wie ChatGPT ausgesprochen. Dadurch solle Zeit gewonnen werden, um einen gesetzlichen Rahmen zu schaffen und auf die möglichen Risiken besser reagieren zu können.


Doch bereits jetzt verändern KI-Tools die Kommunikation. Für die einen – die Absender – wird vieles wohl einfacher und effizienter. Online-Kurse zur Nutzung von ChatGPT werden bereits angeboten. Für die Mediennutzer jedoch wird es noch schwieriger zu erkennen, welchen Informationen man vertrauen kann und welchen nicht. Sind Bilder und Texte noch Abbilder der Realität? Für jede/n von uns bedeutet es daher: Hirn an! Kann eine Story so wirklich stimmen? Was und wer steckt dahinter? Wir brauchen noch mehr Medienkompetenz, bereits an Schulen. Und wir sollten wieder mehr Wert auf die Quellenangaben von Texten und Bildern legen. Wissen, woher’s kommt: Das sollte auch bei Content wieder mehr ins Gewicht fallen.


Die gute Nachricht zum Schluss: Künstliche Intelligenz kann menschliche Kompetenz (noch) nicht ersetzen. Es braucht Menschen mit Herz und Hirn, mit Empathie und Verstand, die diese Tools bedienen, ihre Ergebnisse interpretieren und in den richtigen Kontext setzen. Der Mensch schafft sich nicht ab. Noch nicht.


ChatGPT auf die Frage, ob es den Beruf von Textern ersetzen kann: „Obwohl ich als KI-Modell in der Lage bin, Texte zu generieren, zu korrigieren und zu bearbeiten, ist es unwahrscheinlich, dass ich den Beruf von Textern vollständig ersetzen werde. Der Grund dafür ist, dass der Beruf des Texters mehr umfasst als nur das Schreiben von Texten. Texter sind auch dafür verantwortlich, kreativ zu sein, Zielgruppen zu verstehen, Markenstimmen zu entwickeln und Marketingstrategien zu entwickeln. Während ich als KI-Modell in der Lage bin, Texte zu generieren, basieren meine generierten Texte auf einer Vielzahl von vorherigen Texten und Daten, auf die ich trainiert wurde. Ich kann auch nicht die menschliche Kreativität und das Einfühlungsvermögen ersetzen, die ein Texter in seine Arbeit einbringt. Jedoch kann ich Textern als Hilfsmittel dienen, indem ich Vorschläge für Wörter, Satzstruktur oder Grammatik anbiete, oder ihnen helfen, ihren Workflow durch die Automatisierung bestimmter Aufgaben zu optimieren.“


QUELLEN:


Alle Seiten aufgerufen zwischen 26. März und 2. April 2023

90 Ansichten0 Kommentare

Aktuelle Beiträge

Alle ansehen

コメント


bottom of page