Reale Diskussionen vor Bildern, die es eigentlich gar nicht gibt. Das linke zeigt Geraldyn „Jerrie“ M. Cobb (1931 – 2019), die in den 60er Jahren das Mercury 13-Programm durchlief, um zu zeigen, dass Frauen dieselbe Eignung für das Astronautenprogramm vorweisen konnten wie Männer. Im Weltraum, so wie es das KI-generierte Bild suggeriert, war sie allerdings nie. Auf dem rechten Bild sieht man auf einem KI-generierten Gemälde Maria Margaretha Kirch (1670 - 1720). Die deutsche Astronomin gilt als erste Frau, die einen Kometen entdeckte. Ein Bild von ihr aus jener Zeit gibt es in Wirklichkeit nicht. Beide Darstellungen entstammen dem Projekt „Versäumte Bilder – Wissenschaftlerinnen und Pionierinnen sichtbar machen“ von Gesine Born (im Panel zweite von links).
„Die Veränderungen in der Wissenschaftskommunikation durch Social Media waren nichts im Vergleich zu dem, was die Künstliche Intelligenz mit sich bringt“, meint Jens Rehländer, Leiter der Kommunikation bei der VolkswagenStiftung beim Forum Wissenschaftskommunikation in Stuttgart (3. bis 4. Dezember 2025). Erstere habe sich gewissermaßen bedächtig eingeschlichen, letztere komme mit High Speed und Wucht daher. Und die Philosophin und Juniorprofessorin Dr. Amrei Bahr von der Universität Stuttgart möchte mit Blick in die Zukunft „optimistisch bleiben und auch wenn wir es nur aus strategischen Gründen tun“. Damit die allgemeine Stimmung nicht ganz in den Keller geht. Die Sorgen beider passen zu meinem ganz persönlichen mulmigen Gefühl, das ich vom Kongress mit nach Hause nehme. Was aber weniger an der KI selbst liegt.
Zwei Dinge – eine KI
Im Grunde geht es in Stuttgart zwar um diese eine Technologie, aber dennoch um zwei verschiedene Dinge. Das eine, das innovative, das ist die verantwortungsvolle Nutzbarmachung der KI in der Wissenschaftskommunikation. Das andere, das wesentlich kritischere, das ist die Frage, was macht die Künstliche Intelligenz mit dem Feld, auf dem die Wissenschaftskommunikation ihre Wirkung entfalten möchte, soll und zweifellos auch müsste? In Zeiten tiefgreifender technologischer, ökonomischer, ökologischer und gesellschaftlicher Veränderungen. Was bewirkt die KI, wo doch die Digitalisierung und natürlich allem voran Social Media dieses Feld eh schon in Brand gesteckt haben? Pitch on fire!
Wobei meine Frage tatsächlich nicht ganz richtig ist. Denn nicht die Technologie ist es, die etwas „macht“. Es sind die Menschen, die die Technologie nutzen, benutzen oder gar missbrauchen. Es gibt keine gute KI und keine böse KI. Es gibt nur eine Technologie, die auf Basis von Daten Muster erkennt oder auf Basis von Wahrscheinlichkeiten Wörter neu zusammensetzt.
Wildwuchs und Schatten-KI
Zunächst zu dem, das easy going ist. Wie nutzt die Wissenschaftskommunikation KI – oder genauer gesagt Large Language Models (LLMs) und Bilder- bzw. Videos-generierende KI – verantwortungsbewusst und sinnvoll? Da ist tatsächlich niemand im mit 750 Leuten gut besetzen Hegelsaal der Stuttgarter Liederhalle, die oder der das nicht bereits tut. So weit, so gut. Aber irgendwie auch nicht, denn ganz offensichtlich gibt es jede Menge „Wildwuchs“ in Sachen KI-Nutzung an Deutschlands wissenschaftlichen Einrichtungen. Copilot, ChatGPT, Claude, Midjourney et al. – da wird fröhlich durcheinander ge-used und ge-promptet. Und wie man hört, fast immer mit Plattformen externer Anbieter. Manchmal erlaubt, manchmal nicht, manchmal geduldet. „Schatten-KI“, so der Begriff dafür. Auch interessant. Zur gelegentlich nicht datenschutzkonformen Nutzung kommt außerdem: Wir füttern mit diesem Approach das Biest der vornehmlich amerikanischen Megakonzerne gratis mit vielen schönen Daten. Wer das allerdings anspricht, kann direkt in den Verdacht geraten, jetzt möglicherweise schon wieder eine neue Moralisierungsdebatte aufmachen zu wollen und dadurch den Fortschritt zu behindern. Man merkt, die Hochschulen sind auch nur ein Abbild der Gesellschaft.
Bedauerlicherweise haben sich wohl bislang nur vereinzelte Einrichtungen eigene LLMs gebaut, um eigene wissenschaftliche Daten in den eigenen Reihen sinnvoll zu verarbeiten und sie dann in Richtung unserer sehr heterogenen Zielgruppen jenseits der Elfenbeintürme passgenau zu verteilen.
Effizienz und Qualität
Dass KI abseits dieser organisatorischen bzw. strukturellen Aspekte prinzipiell ein ausgesprochen hilfreiches Tool in der Wissenschaftskommunikation ist, daran gibt es freilich nur wenig Zweifel. Was mich direkt zum nächsten Thema führt, der viel zitierten Effizienz. Wer das Prompten und das Chatten mit den Bots ein wenig ausprobiert hat, der ist verblüfft und erfreut, wie rasch man ziemlich plausible Ergebnisse erreicht. Und das schmeckt nach natürlich nach einer enormen Effizienzsteigerung. Sich jedoch vorbehaltlos auf den Auswurf der Bots zu verlassen, würde von nur geringer Medienkompetenz zeugen. Denn wir wissen, die KI halluziniert gerne mal, hat ihre Biases. Auch fluten massive Desinformationskampagnen aus allen möglichen Richtungen seit längerem das Web – „Flood the zone with shit“ – und natürlich gelangen auch diese Dinge auf den Speiseplan der datenhungrigen KI. So kommt es inzwischen zu merklichen Intoxikationen, die mitunter sogar gefährlich sein können. Beispielsweise, wenn sich (nachweislich immer mehr – schließlich ist ChatGPT das neue Google) Menschen via KI über Krankheiten und mögliche Therapieoptionen informieren. Da ist es dann nicht so förderlich, wenn parallel Verschwörungsanhänger die wirkmächtigen Hebel des US-amerikanischen Centers of Disease Control (CDC) oder der Food and Drug Administration (FDA) bedienen. Aber das gehört dann schon zum Pitch on fire.
Schnelle Ergebnisse dank LLM ja, aber im Anschluss braucht es eben immer einen fundierten Datencheck. Sind die angegebenen Quellen valide? Sind die Quellen richtig zitiert? Sind Kausalitäten richtig beschrieben? Sind die Schlussfolgerungen logisch? Ihr merkt also, verantwortungsbewusste Nutzung von KI bedeutet auch, dass man um Fachbücher, um wissenschaftliche Papers sowie um trust-worthy Websites nicht herumkommt. Stellen wir nun solche Nach-Recherchen dem Umgang mit LLMs in Rechnung, dann schmilzt die initiale Effizienzsteigerung schon deutlich zusammen. Dennoch habe ich und auch viele Kolleginnen und Kollegen die Erfahrung gemacht, dass die KI durchaus zusätzliche Anregungen bieten und die Perspektive erweitern kann. Die Möglichkeiten von Künstlicher Intelligenz als Basis nutzen, Chatbots intelligent prompten, Inhalte verifizieren und korrigieren, den Wordings das Synthetische nehmen und das Persönliche einweben – das ist ein guter Plan.
Transparenz und Vertrauen
Ein ambivalent beleuchtetes Thema. Wenn wir uns in der Wissenschaftskommunikation darauf verständigen, KI bei unserer Arbeit zu verwenden, dann erscheint entsprechende Transparenz ohne Zweifel wichtig, notwendig und unabdingbar. In der Wissenschaftscommunity fühlen jedoch viele, dass die Markierung von Inhalten mit „KI-generiert“ einer starken Entwertung der selbigen gleichkommt. Weil es dann ja offensichtlich nicht unmittelbar von einer Forscherin oder einem Forscher stammt, sondern (mehr oder weniger) von einer Maschine, einer Black Box. Eine Einschätzung zur Rezeption, die aber nach außen vielleicht gar nicht unbedingt zutreffen muss. Denn erstaunlicherweise prüfen gemäß dem Ernst & Young „AI Sentiment Index 2025“ nur 27 Prozent der deutschen KI-User die Ergebnisse von ChatBots nach. Wow – hatte ich nicht weiter oben festgehalten: unbedingt checken!? Zugleich ist das unheimlich paradox. Denn tatsächlich vertrauen nur 55 Prozent der GenZ Künstlicher Intelligenz vollends (Statista, Mai 2025). Und mit zunehmendem Alter nimmt das Vertrauen in KI-Ergebnisse und -Empfehlungen sogar ab. Nicht ganz unerwartet! 45 Prozent bei der GenY, 38 Prozent bei der GenX und nur 22 Prozent bei den Boomern.
Mit Blick auf die Ernst & Young-Zahl frage ich mich tatsächlich einmal mehr, ist das diese Wurschtigkeit der Gesellschaft(en), die wir allenthalben sehen? Ich weiß, dass der Klimawandel gebremst werden müsste, aber es ist mir egal, alles soll so bleiben wie es ist. Ich weiß, dass das E-Auto längst das Rennen gewonnen hat, aber das ist mir egal, ich will meinen Verbrenner behalten. Ich weiß, dass Hass und Hetze die Demokratie zersetzt, aber das ist mir egal, ich will jetzt auch mal alles rauslassen. Ich weiß, dass grüne Technologien die Märkte der Zukunft sind, aber das ist mir egal, ich will meine alten Industrien behalten. Und eben auch: Ich weiß, dass die KI halluziniert und Fehler macht, aber das ist mir egal, Hauptsache ich habe ein schnelles (und zumindest plausibel klingendes) Ergebnis. In der ZEIT vom 4. Dezember (2025) headed ein Artikel mit: „Die Menschheit hat beschlossen, ungebremst in die ökologische Katastrophe zu gehen“. Das beschreibt meine Vibes an dieser Stelle ganz gut.
Einen speziellen Platz in diesem Diskurs um KI-Vertrauen nehmen Bilder ein. Weiß ja schließlich auch jedes Kind, dass ein solches mehr als tausend Worte sagt. Einerseits werden KI-generierte Bilder immer besser, aber das macht sie auch immer weniger als solche erkennbar (falls sie nicht gekennzeichnet sind). Manche meinen, diese Perfektion werde die Menschen mit ihrer Sehnsucht nach dem Authentischen schnell langweilen. Andere halten dagegen, dass sie nach dem exzessiven Umgang mit Virtual und Augmented Reality die Normalität der Realität komplett gelangweilt habe. Ein Leben ohne VR-Brille nicht mehr denkbar. Joke! Aber zwei interessante Gegenpositionen.
Und jetzt endlich mal ein Quantum Optimismus: Wie KI-generierte Bilder etwas sehr Positives leisten können, das zeigt mein Teaserfoto oben, auf dem zwei Exponate des Projekts „Versäumte Bilder – Wissenschaftlerinnen und Pionierinnen sichtbar machen“ von Gesine Born und ihrem Bilderinstitut zu sehen sind. Die Bilder wurden im September und Oktober 2025 im Bundesministerium für Forschung, Technologie und Raumfahrt (BMFTR) ausgestellt, ein Check lohnt sich sehr. Alles weitere dazu in der Bildunterschrift.
Als Fazit bleibt: Klare Anwendungsempfehlung für LLM in der Wissenschaftskommunikation (und sicher auch in einigen anderen Bereichen), aber mit Sinn, Verstand und kritischem Hinterfragen. Schließlich will doch niemand in die „digitale Entmündigung“ rutschen, wie Professorin Bahr das so treffend beschreibt.
Das Feld brennt
Nun zum anderen Teil der Kommunikationsrealität. Aber das ist schnell erzählt, weil wir alle es (leider) kennen. Immer düsterer sieht es dort aus, wo unsere Botschaften zu Wissenschaft, zu neuen Technologien und fortschrittlichen Anwendungen, zu gesellschaftlichen Veränderungen verfangen sollen. Denn es ist klar, auch diejenigen, die sagen „The universities are the enemies“, nutzen natürlich die Macht der Künstlichen Intelligenz. BTW: Das Zitat hat J.D. Vance übrigens vom einzigen Präsidenten der US-Geschichte genommen, der von seinem Amt zurücktreten musste: Richard Nixon. Nun ja…
Rehländer, der seit 2021 auch die Kompetenzgruppe Wissenschaftskommunikation im Bundesverband der Kommunikation leitet, spricht von einer „galoppierenden Dekonstruktion der Realität im Web“, sieht das „Ende des common ground“ in Reichweite und fragt, wie man in dieser Situation eine „Infrastruktur der Wahrheit“ aufrechterhalten könne? Eine Frage, die auch nach zwei Tagen intensiven Diskurses in Stuttgart offen bleibt. Wir wissen, eine große Kommunikationsplattform, die einst als diejenige galt, wo man Politik und Journalismus gleichermaßen „traf“, ist seit der Übernahme durch Elon Musk und dem freien Lauf für „alternative Wahrheiten“ plus Hate als „Meinungsfreiheit“ bereits dahin. „Flood the zone with shit“. Die Meinung übrigens, dass man solch ein Feld nicht den Hatern überlassen dürfe, ist inzwischen maximal erodiert und anderen Erkenntnissen gewichen. Zum einen, dass man gegen die Bot-Fabriken und diejenigen, die die Zone eifrig mit Müll fluten, aufgrund der schieren Masse und der auf Eskalation ausgerichteten Algorithmen eh nicht ankommt und zum anderen: „Wenn wir nicht mehr dort sind, geht der Hate einfach nur ins Leere und verliert seine Wirkung.“ Eine bittere Einsicht, aber eben auch wieder wahr. Und wie viele andere im Bildungs- und Wissenschaftskosmos hat ja die TH Deggendorf „X“ ebenfalls längst verlassen.
Was mir an dieser Stelle als Zwischenfazit bleibt, ist die Feststellung, dass das Duo von extrem reichweitenstarke Social Media und Künstlicher Intelligenz, die das Generieren von Fakes in jeder Hinsicht und in jeder Form auch für digitale Laien zu einer ganz einfachen Übung macht, eine sehr unheilige Allianz bilden. Begleitet ist das auch weiterhin von abnehmendem Vertrauen in früher akzeptierte Instanzen (Hochschulen, Leitmedien) und von einer wachsenden Unwilligkeit (und vielleicht irgendwann Unfähigkeit – die Plastizität des Gehirns funktioniert schließlich in beiden Richtungen), sich mit schwierigen Sachverhalten ernsthaft auseinanderzusetzen. Das mit dem „endlich mal wieder die Ärmel hochkrempeln“ mag im ersten Moment anmaßend klingen, aber wir sollten trotz aller digitaler Helferlein nicht vergessen, „Ad astra“ wird man auch in Zukunft nur „per aspera“ kommen. Oder eben gar nicht mehr.
Jörg Kunz
Jörg Kunz ist promovierter Biologe und PR-Experte mit vielen Jahren Erfahrung in Agentur und Industrie sowie in Expertenorganisationen wie Krankenhaus oder Hochschule. In seinen Blogbeiträgen wirft er einen persönlichen Blick auf aktuelle Ereignisse oder Trends und betrachtet diese aus der Sicht der Kommunikation bzw. im speziellen aus Sicht der Wissenschaftskommunikation.