Von hilfreichen Robotern und unkontrollierbaren Maschinen. Diskurse und Narrative zu Künstlicher Intelligenz
Künstliche Intelligenz (KI) durchdringt in zunehmendem Maße unser Alltagsleben: Vom Sprachassistenten, mit dem wir direkt eine Bestellung bei einem Online-Versandhändler aufgeben, bis hin zur automatischen Einparkhilfe werden auf KI basierende Anwendungen als Erleichterung für das menschliche Dasein konstituiert. Doch neben den nützlichen Auswirkungen der KI werden häufig auch Aspekte verhandelt, die Anlass zu Sorge bereiten: Etwa, wenn der Sprachassistent nebenher massenhaft Daten sammelt oder autonome Waffensysteme eigenständig in Kriegsgebieten operieren. Künstliche Intelligenz ist daher immer wieder Gegenstand öffentlicher Debatten.
Ob in der journalistischen Berichterstattung oder in Youtube-Erklärvideos: In (multi-)medialen Kontexten handeln Diskursteilnehmer*innen aus, was sie unter Künstlicher Intelligenz verstehen und welche Erwartungen, Hoffnungen und/oder Ängste sie damit verbinden. Dabei bringen sie spezielle Bilder von KI hervor, die auch die KI-Forschung beeinflussen können: So wird in der öffentlichen Debatte beispielsweise gerne über die „Blackbox KI“ gesprochen, womit gemeint ist, dass die Operationen, die die KI durchführt, nicht im Einzelnen nachvollzogen werden können. Dadurch kann eine Vorstellung einer nicht mehr kontrollierbaren Maschine hervorgerufen werden, die ein Eigenleben führt. Neuere Forschung über die sogenannte Explainable Artificial Intelligence (XAI) versucht, diese „Blackbox“ zu erhellen und reagiert damit auch auf den öffentlichen Diskurs.
Diskurse konstituieren sich aus der Bandbreite der Äußerungen zu KI – und bilden damit zum einen die unterschiedlichen Einstellungen und Positionierungen, die es zu diesem Gegenstandsbereich gibt, ab. In der öffentlichen Berichterstattung zu KI, in sozialen Medien, in Blogbeiträgen und Erklärvideos werden zum anderen aber auch kollektive Vorstellungen, Bilder – in der Linguistik sagen wir Konzepte – von KI hervorgebracht. Im öffentlichen Diskurs wird bestimmt, was wir als Gesellschaft unter KI verstehen, und damit auch deren Akzeptanz oder Nichtakzeptanz.
Mit Diskursanalyse Aufschlüsse über die öffentliche Kommunikation über KI erlangen
Journalistische Texte etwa haben einen maßgeblichen Einfluss darauf, wie Haltungen zu KI entstehen, weil sie als wirkmächtige und meist vertrauenswürdige Beiträge zum Diskurs wahrgenommen werden. Aus diesem Grund ist es aufschlussreich zu hinterfragen, wie die Kommunikation über KI in journalistischen, aber auch in anderen öffentlichen Medien aussieht: Welche sprachlichen Mittel werden hier genutzt? Und welche Deutungsrahmen werden dabei aufgespannt?
Das ist unser Ansatzpunkt in der Research-Unit 1 des Center for Rhetorical Science Communication Research on Artificial Intelligence (RHET AI), das von der Volkswagenstiftung gefördert wird. Wir untersuchen die kommunikative Hervorbringung von Wissen über KI in wissenschaftlichen und nicht-wissenschaftlichen Diskursen. Wir möchten herausfinden, ob KI in verschiedenen wissenschaftlichen Diskursen einheitlich oder unterschiedlich konzeptualisiert wird. Damit erarbeiten wir zudem genauere Erkenntnisse über die Art und Weise, wie KI in der wissenschaftlichen und nicht-wissenschaftlichen Öffentlichkeit verhandelt wird und welche Auswirkungen das auf die Wahrnehmung des Gegenstandes innerhalb und außerhalb der Wissenschaft haben kann.
Einfluss wirkmächtiger Narrative auf Diskurse zu KI
Eine der Fragen, die wir hierbei verfolgen, ist, mit welchen Narrativen das Thema KI beispielsweise in der journalistischen Berichterstattung vermittelt wird. Unter Narrativen sind, vereinfacht gesagt, Erzählgerüste zu verstehen, die genutzt werden, um ein Geschehen oder eine Entwicklung sinnstiftend einzuordnen. Im Kontext von KI kann das beispielsweise das Narrativ der problemlösenden KI sein, die eingesetzt werden soll, um große gesellschaftspolitische Herausforderungen in den Griff zu bekommen. Dieses Narrativ finden wir sehr häufig, wenn es um den Einsatz von KI im Pflegebereich geht:
„Der Pflegekräftemangel ist eine der großen Herausforderung unserer Zeit, denn die Zahl pflegebedürftiger Menschen wächst stetig. Wie Pflegekräfte in Zukunft durch Roboter entlastet werden könnten, untersucht das Forschungsprojekt „Teleskoop“. Die Kernidee: Pflegekräfte erledigen anfallende Aufgaben per Roboter aus der Ferne.“ (Welche Jobs Roboter übernehmen können, Apothekenumschau)
Das Narrativ der problemlösenden KI vermittelt eine positive Wertung des Einsatzes von KI, indem es einen Ausweg aus einer als schwierig empfundenen Situation bietet. Verschiedene Wörter und Aussagen innerhalb der Texte qualifizieren den gegenwärtigen Status Quo in der Pflege als prekär: So wird vom „Sorgenkind Pflege“, von „Pflegekräftemangel“ oder „Herausforderung“ gesprochen. Auf diese Weise wird über die sprachliche Faktur der Texte ein Bild von einer Problemlage konstruiert. Dem wird der Einsatz von KI-basierten Pflegerobotern entgegengestellt, der durch positiv konnotierte Wörter wie „entlasten“, oder „Hilfe“ als Maßnahme zur Behebung der problematischen Situation dargestellt wird.
Dennoch kann diese positive Wertung überlagert werden durch Sorgen und Befürchtungen, die sich aus dem Narrativ einer KI, die den Menschen ersetzt, speisen.
„Ein Roboter in der Pflege – und da werden Arbeitsplätze abgebaut..., da mussten wir richtig Überzeugungsarbeit leisten.“
(Soziale Roboter setzen sich nur langsam durch, Deutschlandfunk).
Daher wird das Narrativ häufig flankiert von Versicherungen, dass die KI rein unterstützende Funktion habe, aber keineswegs den Menschen ersetzen soll:
„Nach Auffassung des Ethikrates kann und soll die Robotik dabei aber auch künftig nicht menschliche Pflegekräfte ersetzen.“
(Berührungen kann man nicht durch Plastik ersetzen, Domradio).
Forschungsziele
Aus linguistischer Perspektive stellen wir uns die Frage, welche Narrative und kommunikativen Muster in den Diskursen dominant auftreten und damit bestimmte Vorstellungen von KI hervorbringen, die die (Nicht-)Akzeptanz von KI in der nicht-wissenschaftlichen Bevölkerung einerseits, aber auch wiederum wissenschaftliche Praktiken andererseits bestimmen. Die im Rahmen unserer linguistischen Forschung generierten Erkenntnisse könnten dabei auch für die nicht-linguistische KI-Forschung von großem Interesse sein. Denn:
- Im Projekt werden die Mechanismen der Wissensgenerierung über KI in der nicht-wissenschaftlichen Bevölkerung aufgezeigt, die zum einen die (Nicht)-Akzeptanz von KI innerhalb der nicht-wissenschaftlichen Bevölkerung, aber zum anderen auch wiederum wissenschaftliche Praktiken bestimmen.
- In der wissenschaftlichen Kommunikation über KI zeigen sich bestimmte Muster, die Rückschlüsse auf sedimentierte Denkmuster bestimmter Forscher:innenkollektive ziehen lassen, die den Wissenschaftler:innen selbst oft nicht bewusst sind. Indem wir diese Muster aufzeigen, kann KI-Forscher:innen deutlich gemacht werden, wie sie in der Kommunikation innerhalb und außerhalb der Wissenschaft selbst bestimmte Vorstellungen von KI generieren.
Mit unserem Projekt leisten wir daher Grundlagenforschung zu Diskursen und Narrativen über Künstliche Intelligenz, aus welcher weiterführende Impulse für alternative Kommunikationsformen abgeleitet werden können, mit der die KI-Forschung mit der Öffentlichkeit in Kontakt treten kann.