Autorschaft: KI. Ein Gespräch mit Christoph Heilig (LMU, München)
ZUR REIHE: Über kaum eine technologische Errungenschaft wird so viel geredet und gestritten wie über KI, die Künstliche Intelligenz in Form von ChatGPT und anderen, sich immer rasanter entwickelnden Tools. Ihre einschneidenden Auswirkungen auf unsere Gesellschaft werden sowohl als innovativ und arbeitsentlastend begrüßt als auch in ihren sozialen und arbeitsmarktgefährdenden Aspekten kritisch hinterfragt. Welche Konsequenzen haben diese Entwicklungen für die Kunst- und Literaturschaffenden in Bayern?
Das folgende Gespräch führte die Redaktion des Literaturportals Bayern mit dem Wissenschaftler
Christoph Heilig. Herr Dr. Heilig forscht an der LMU München und der Bayerischen Akademie der Wissenschaften zu Themen rund um Bibel, Literatur und KI. Er ist Leiter einer Forschungsgruppe zur Erzählperspektive an der LMU; dort beschäftigt er sich unter anderem damit, welche Auswirkungen Künstliche Intelligenz auf Religion und Kultur haben werden.
*
LITERATURPORTAL BAYERN: Herr Heilig, das ChatGPT-Modell 5 wird gerne als das derzeit fähigste, kreative KI-Schreibprogramm angepriesen. Was sagen Sie dazu? Ist das so?
CHRISTOPH HEILIG: Da ich bereits mit den Vorgängermodellen viel experimentiert hatte, konnte ich es kaum abwarten, das Modell 5 zu untersuchen. Ich war schockiert. Da ist ganz gehörig was schief gelaufen im Entstehungsprozess. Es ist nicht nur so, dass es einen schlechten Schreibstil hat, sondern im Training hat es tatsächlich gelernt, Pseudo-Marker von Literatur als Hochliteratur zu interpretieren.
LPB: Wenn Sie sagen, im Training hat die KI schlecht gelernt. Können Sie näher auf dieses Training eingehen? Wer trainiert hier wen womit? Der Prozess vollzieht sich ja nach der Einspeisung der Daten in der KI-internen Blackbox…
HEILIG: Das Vorgängermodell GPT-4o hatte gewissen Schwachstellen; die Konkurrenz von Anthropic, Claude, schrieb literarisch viel bessere Texte; und man versuchte nun, mit dem neuen Modell bessere Texte zu produzieren. Was wir über das Training von GPT-5 (mittlerweile als Variante 5.2 im Einsatz) sicher wissen, ist, dass bei der Bewertung des Modells am Schluss statt Menschen vermehrt KI selbst eingesetzt wurde.
Wenn OpenAI sagt, GPT-5 schreibe „gut“, dann heißt das primär: es schreibt so, dass es der KI (speziell dem früheren Modell o3-mini) gut gefällt. Ich fresse einen Besen, wenn man das gleiche nicht auch schon im Post-Training gemacht hat! Sprich: man hat wohl eine KI-Jury Feedback geben lassen, welche Tendenzen verstärkt („belohnt“) werden sollen und welche nicht. Anders ist das Resultat nicht zu erklären. Dass nämlich GPT-5 plötzlich eine ganz abstruse Körpermetaphorik verwendet und von den KI-Bewertern das als literarisch hochwertig abgenickt wird. Das Modell wird im Training eben gemerkt haben: Es ist viel leichter gute Punktwertungen zu erzielen, wenn man diese Merkmale, für welche die KI eine merkwürdige Schwäche hatte, statistisch auf die Spitze treibt, als wirklich gute Geschichten zu erzählen.
LPB: Hätten Sie ein Beispiel dafür?
HEILIG: Es ist dann eben nicht mehr „der Mann, der eine Straße entlanggeht“, sondern etwa „das Knochenmark, das dem Asphalt begegnet“. Und es ist tatsächlich so: je mehr davon, desto besser. Es gibt da wirklich keine Obergrenze! Sprich, der Text ergibt schon lange keinen Sinn mehr, aber GPT-5 produziert diese Merkmale immer extremer und findet dabei die literarische Qualität immer überzeugender. Man konnte dem Modell also umgekehrt auch einen zufällig generierten Text vorsetzen, der keinerlei Kohärenz hatte. Weder inhaltlich noch stilistisch. Er wurde dennoch von GTP-5 mit Höchstnoten bewertet. Am Erstaunlichsten war, dass dies weltweit erst einmal niemand zu bemerken schien. Das Modell war bereits eine Woche lang draußen, mit dem propagierten Anspruch, dies sei das bislang beste erzählende, textgenerierende Modell aller Zeiten. Dann erst wurde zurückgerudert.
LPB: Das hört sich so an, als habe das neue Modell die Vorgabe, sei möglichst originell und betone das Ungewöhnliche, vermeide die 100prozentige Trefferquote zugunsten der kleinen feinen Abweichung, etwas zu konsequent umgesetzt…
HEILIG: Ja, das war sicherlich die Zielsetzung von OpenAI, die da nun, was das kreative Erzählen angeht, an den Markt aufschließen und zeigen wollten, wir sind nicht nur gut im Programmieren und Recherchieren, sondern wir können auch tolle Geschichten erzählen. Das Problem ist, dass niemand bei OpenAI menschliche Kultur offensichtlich in irgendeiner Art und Weise ernst nimmt. Es gibt dort leider keine menschlichen Expertinnen und Experten für Literatur. Man hat ein paar Autorinnen und Autoren konsultiert, aber die sind auch nicht immer die besten, wenn es darum geht, wie man schreibt in der Theorie. Die können eben schreiben. Ich finde das vielsagend. Nehmen wir mal an, ChatGPT hätte gelernt, dass einmal eins drei ist – erstens wäre es nie passiert, dass das durchgerutscht wäre und zweitens hätte es einen riesengroßen Aufschrei gegeben. Leider herrscht hier wohl noch die Irrmeinung vor, dass literarische Narrative nichts weiter als seichte Unterhaltung seien.
LPB: Die (De-)Klassifizierung als so genannter „soft skill“, als welcher die Literatur in öffentlichen Diskursen gern marginalisiert wird, ist derzeit ja leider en vogue. Paradoxerweise kommt man allerdings gerade immer mehr dahinter, dass es die Macht der Narrative ist, die die Welt und unser kulturelles und gesellschaftspolitisches Selbstbild bestimmt. Das bringt mich, siehe GPT-5 dazu zu fragen: was geschieht, wenn wir der KI unsere Narration überlassen?
HEILIG: Open-AI hat aufgrund meiner Resultate ChatGPT jetzt angepasst. Wenn man jetzt so einen Nonsens-Text bei ChatGPT eingibt, dann gibt es einen Filter, der in der Antwort drübergelegt wird, der dem Modell „Achtung!“ signalisiert: bewerte die und die Aspekte wie die genannte Körpermetaphorik nicht zu hoch. Aber das sind künstliche Filter, die da drübergelegt wurden. Das Modell selbst im Hintergrund bewertet diese Sachen selbst nach wie vor als literarisch hochwertig. Und OpenAI findet das anscheinend auch nicht weiter problematisch. Es scheint ihnen egal zu sein, dass ein KI-System Blödsinn für genial hält; im Grunde ihres Herzens denken sie anscheinend: wenn die KI sagt, dass dieser Text kohärent und hochliterarisch ist, dann ist er das auch – und wir Menschen sind nur zu doof, das zu beurteilen; und das finde ich gefährlich.
Denn die KI selbst, der man da das letzte Urteil überlässt, ist längst nicht mehr so einfach von ihren Fehlern zu überzeugen. Man muss da wirklich schwere linguistische und literaturwissenschaftliche Fachgeschütze auffahren, um GPT-5 zum Eingeständnis zu bringen, dass das inhaltliche Inkohärenzen sind, die da produziert werden.
Sprich, wir können der KI zwar algorithmisch einen Riegel vorschieben, aber wir können sie längst nicht mehr argumentativ überzeugen. Die Firmen verlassen sich auf KI und die KI will es der KI recht machen. Das bedeutet natürlich auch, dass man KI-Modelle wunderbar manipulieren kann damit. Ich arbeite jetzt gerade an einem Experiment, das noch nicht veröffentlicht ist, aber was aber, denke ich, zweifelsfrei nachweist, dass KI-Modelle ihre Meinungen zu etwa politisch brisanten Fragen sofort ändern, wenn man ihnen den entsprechenden pseudo-literarischen Text in diesem Kontext einspeist.
Wir gehen also immer mehr auf eine Welt zu, in der wir KI-Agenten haben werden, die mit einer großen Wirkmächtigkeit ausgestattet sind. Und die auch immer mehr eigene Persönlichkeiten entwickeln sollen. Und dazu gehört auch eine eigene Ästhetik – und Verwundbarkeit!
Dr. Christoph Heilig. © Stephan Höck/LMU
LPB: Das ist schon beängstigend. Die Generation, die noch ohne KI aufgewachsen ist und ein davon losgelöstes ästhetisches Urteilsvermögen entwickelt hat, kann da noch im Umgang mit diesem Tools differenzieren. Aber wie sieht es mit der Jugend, der Next Generation aus? Die Jugendlichen, die jetzt schon ChatGPT zu allem befragen und mit deren Aussagen als Autoritätsquelle aufwachsen, werden die noch eigenständige ästhetische Urteile fällen können und wenn auf welcher Grundlage? Ist der Kanon dann die Weltliteratur oder die ChatGPT-Literatur? Vielen Fragen stellen sich da.
HEILIG: Ja. Was mich dazu beunruhigt: wir haben es bislang leider noch in keinster Weise geschafft, Literatur als einen Gegenpol zu etablieren. Wir beschränken uns auf die Frage, ob die KIs widerrechtlich mit belletristischen Werken von Autorinnen und Autoren trainiert haben, ohne diese zu vergüten. Das ist zweifelsfrei ein wichtiges Thema; vor allem ökonomisch. Aber es führt am Kern des Hauptproblems vorbei. Und natürlich kann man darüber reden, ob Verlage KI benutzen sollten, um Klappentexte etwa besser zu prompten. Es geht dabei aber völlig unter, welche Rolle menschliche Literatur überhaupt spielen kann bei der Frage, in welche Zukunft wir gehen wollen. Welche Szenarien sollten wir simulieren? Da bräuchten wir die Literatur dringend.
LPB: Der Bedarf nach Visionen, nach starken, demokratiestärkenden und menschenfreundlichen Narrativen ist derzeit groß und wird in den öffentlichen Diskursen auch eingefordert. Was könnte Ihrer Meinung nach Literatur denn jetzt gerade konkret tun?
HEILIG: Ich glaube nicht, dass jetzt alle Autorinnen und Autoren dystopische Science-Fiction schreiben müssen. Aber es gibt verschiedene Dinge, die man tun kann: Auf der Ebene der Verlage fände ich es wichtig darüber nachzudenken, wie man zwischenmenschliche Begegnungen um den jeweiligen Text herum neu und zeitgemäß schaffen könnte. Wie kann man Literatur so vermitteln, dass Leute das Gefühl haben, sie partizipieren an dem zwischenmenschlichen Dialog. Weil das meiner Ansicht nach das Einzige ist, das menschliche Literatur gegenüber der KI-Literatur innerhalb absehbarer Zeit noch zu bieten haben wird.
Das andere ist die Themenwahl. Die Frage ist ja: was wird mit unserer Gesellschaft passieren, wenn wir uns dafür entscheiden, KI in entsprechend viele Lebensräume vorzulassen. Und dafür müssen wir uns erst einmal darüber klar werden, was uns eigentlich wichtig ist. Was wollen wir überhaupt aus unserer jetzigen Welt mitnehmen in diese Zukunft?
Dafür muss ich als Schriftstellerin oder Schriftsteller nicht unbedingt über KI schreiben, aber auf sicherlich neue Weise über zwischenmenschliche Beziehungen. Um die verschiedenen Möglichkeiten simulieren zu können, brauchen wir eine diverse Literatur. Ich glaube tatsächlich sogar, dass es eine Art von KI-Literatur geben kann, die uns hilft in diesem Prozess …
LPB: Wie konkret könnte sie denn helfen?
HEILIG: Was wir ja schon wissen und längst tun, ist KI als Werkzeug zur Stoff- und Themenrecherche und zur Überwindung von Schreibblockaden zu verwenden. Gerade auf der Ebene des Brainstormings kann sie sehr hilfreich sein; beim Zusammenbringen von Erzählfäden. Diese Art der individuellen Schreibhilfe haben wir ja bereits, aber sie ist eben noch zu kurz gedacht.
KI hat die Möglichkeit, uns einen Spiegel vorzuhalten, ohne selbst durch irgendwelche Rücksichtnahmen gehemmt zu sein. Wir reden immer viel davon, dass wir unsere Bubbles haben, in denen wir uns befinden. Eigentlich haben wir eine immense Empathiekrise. Wir sind immer weniger in der Lage, uns in andere Menschen mit anderen Weltbildern hineinzudenken. Was dazu führt, dass wir wie in den USA vermehrt extreme politische Polarisierungen haben; so dass Menschen, die früher beste Freunde waren, inzwischen nicht mehr miteinander sprechen. Die Literatur könnte grundsätzlich dabei helfen, uns in diese jeweils andere Denk- und Empfindungsbilder hineinzuversetzen. Wir haben Literatur aber immer mehr zur seichten Bauchbepinselung missbraucht. Natürlich gibt es Ausnahmen. Natürlich gibt es nach wie vor Literatur, die es schafft, uns wach zu rütteln. Aber man hat dennoch nicht den Eindruck, dass es die primäre Aufgabe von Literatur ist, uns Perspektiven einnehmen zu lassen, die uns eigentlich fremd und wohlmöglich unangenehm sind.
Der KI wiederum versuchen wir ein bestimmtes Weltbild aufzudrängen, was möglichst wenig Menschen verletzt, damit man möglichst viel Umsatz machen kann. Grundsätzlich kann die KI aber, wenn man es technisch richtig macht, jeden beliebigen Standpunkt einnehmen und plausibel darstellen. Und sie ist nicht durch biographisch blinde Flecken oder Befindlichkeiten gehemmt.
Ich experimentiere zum Beispiel mit Satire. Und hier zeigt sich, wie gut KI inzwischen darin ist, auch Nischenpositionen oder Perspektiven jenseits des Mainstreams zu simulieren. Die besten Texte, die ich bislang gelesen habe zum Thema KI und Buchmarkt sind satirische Texte, die ich mir von der KI habe produzieren lassen. Die KI kann nun einmal all die relevanten, vielschichtigen Diskurse viel umfassender aufgreifen, als der Mensch. Richtig gemacht, also mit Sinn und Sachverstand, kann KI-Literatur einen Mehrwert haben und wird einen festen Platz in der Rezeption von Texten in der Zukunft haben. Wir müssen daher komplett neue, kulturelle Praktiken entwickeln, wie wir damit umgehen wollen.
LPB: Ich frage mich aber schon, wo denn dann unser Raum sein wird. Ich verstehe immer noch nicht warum wir jenseits einer Zeit- und Arbeitserleichterung uns selbst abschaffen wollen und uns von der KI auch jene Dinge aus der Hand nehmen lassen wollen, die uns, anders als die Steuererklärung oder das mühsame kleinteilige Recherchieren, Freude machen, wie das Schreiben eines Gedichts oder das Komponieren.
HEILIG: Die Frage ist jetzt, wer das Wir ist. Und dann: es gibt, glaube ich, zumindest in unserer Gesellschaft immer weniger Wertschätzung für den eigentlichen Prozess, der zu einem Produkt führt. Die Vorstellung, dass man um des Prozesses willen selbst schreibt, weil man als Person sich ausdrücken möchte, das ist eine Haltung, die offenbar seit längerer Zeit schon auf dem Rückzug ist. Ich sehe das auch in der Bildung. Es ist ja kaum noch die Idee da, dass man miteinander spricht und gemeinsam Sachen lernt und der Bildungsprozess den gesamten Menschen betrifft, der ein Gut an sich ist. Es geht hauptsächlich um einen Optimierungsprozess zugunsten objektivierbarer Kennzahlen, die sich dann in Noten ausdrücken lassen oder in Pisa-Studien.
Wenn wir als Menschen nicht in die Sinnkrise kommen wollen, müssen wir uns mit dem Gedanken abfinden, dass in nicht allzu ferner Zukunft die besten Texte dann nicht mehr von Menschen, sondern von KI geschrieben sein werden bzw. dass unsere menschlichen, ästhetischen Ansichten eine immer marginalere Rolle spielen. Bedeutet uns Schreiben als kulturelle Tätigkeit denn aber nicht trotzdem etwas? Eine KI produziert ihre Texte nach Wahrscheinlichkeiten; aber die Individualität mit der eine ganz bestimmte Autorin oder ein Autor einen Text schreiben wird, diese Einzigartigkeit ist neben der Produktionsebene aber auch auf Rezeptionsebene für die Lesenden das, was einen Text jenseits des Themas so besonders und berührend machen kann. Ich bleibe optimistisch, dass menschliche Leserinnen und Leser danach auch in Zukunft noch lechzen werden. Denn sonst bräuchten wir ja auch keine Neuerscheinungen, denn es gibt ja genügend Material da draußen.
LPB: Das nehme ich gerne als schönes Schlusswort, in freudiger Erwartung all der menschlich erzeugten literarischen Neuerscheinungen, die uns da zukünftig und hoffentlich lange noch erfreuen mögen. Vielen Dank für das Gespräch.
HEILIG: Gern.
**
Christoph Heilig ist Leiter einer Forschungsgruppe zur Erzählperspektive an der LMU München. In seiner Forschung beschäftigt er sich unter anderem damit, welche Auswirkungen Künstliche Intelligenz auf Religion und Kultur haben werden. Seine Forschung wurde schon mehrfach für ihre Innovativität und Gesellschaftsrelevanz ausgezeichnet. Außerdem wurde er 2025 als erster Theologe überhaupt ins Junge Kolleg der Bayerischen Akademie der Wissenschaften aufgenommen, wo er zur Konkurrenz von maschinellem und menschlichem Erzählen forscht. Für seine literarische Arbeit wird er von der Liepman AG vertreten.
Autorschaft: KI. Ein Gespräch mit Christoph Heilig (LMU, München)>
ZUR REIHE: Über kaum eine technologische Errungenschaft wird so viel geredet und gestritten wie über KI, die Künstliche Intelligenz in Form von ChatGPT und anderen, sich immer rasanter entwickelnden Tools. Ihre einschneidenden Auswirkungen auf unsere Gesellschaft werden sowohl als innovativ und arbeitsentlastend begrüßt als auch in ihren sozialen und arbeitsmarktgefährdenden Aspekten kritisch hinterfragt. Welche Konsequenzen haben diese Entwicklungen für die Kunst- und Literaturschaffenden in Bayern?
Das folgende Gespräch führte die Redaktion des Literaturportals Bayern mit dem Wissenschaftler
Christoph Heilig. Herr Dr. Heilig forscht an der LMU München und der Bayerischen Akademie der Wissenschaften zu Themen rund um Bibel, Literatur und KI. Er ist Leiter einer Forschungsgruppe zur Erzählperspektive an der LMU; dort beschäftigt er sich unter anderem damit, welche Auswirkungen Künstliche Intelligenz auf Religion und Kultur haben werden.
*
LITERATURPORTAL BAYERN: Herr Heilig, das ChatGPT-Modell 5 wird gerne als das derzeit fähigste, kreative KI-Schreibprogramm angepriesen. Was sagen Sie dazu? Ist das so?
CHRISTOPH HEILIG: Da ich bereits mit den Vorgängermodellen viel experimentiert hatte, konnte ich es kaum abwarten, das Modell 5 zu untersuchen. Ich war schockiert. Da ist ganz gehörig was schief gelaufen im Entstehungsprozess. Es ist nicht nur so, dass es einen schlechten Schreibstil hat, sondern im Training hat es tatsächlich gelernt, Pseudo-Marker von Literatur als Hochliteratur zu interpretieren.
LPB: Wenn Sie sagen, im Training hat die KI schlecht gelernt. Können Sie näher auf dieses Training eingehen? Wer trainiert hier wen womit? Der Prozess vollzieht sich ja nach der Einspeisung der Daten in der KI-internen Blackbox…
HEILIG: Das Vorgängermodell GPT-4o hatte gewissen Schwachstellen; die Konkurrenz von Anthropic, Claude, schrieb literarisch viel bessere Texte; und man versuchte nun, mit dem neuen Modell bessere Texte zu produzieren. Was wir über das Training von GPT-5 (mittlerweile als Variante 5.2 im Einsatz) sicher wissen, ist, dass bei der Bewertung des Modells am Schluss statt Menschen vermehrt KI selbst eingesetzt wurde.
Wenn OpenAI sagt, GPT-5 schreibe „gut“, dann heißt das primär: es schreibt so, dass es der KI (speziell dem früheren Modell o3-mini) gut gefällt. Ich fresse einen Besen, wenn man das gleiche nicht auch schon im Post-Training gemacht hat! Sprich: man hat wohl eine KI-Jury Feedback geben lassen, welche Tendenzen verstärkt („belohnt“) werden sollen und welche nicht. Anders ist das Resultat nicht zu erklären. Dass nämlich GPT-5 plötzlich eine ganz abstruse Körpermetaphorik verwendet und von den KI-Bewertern das als literarisch hochwertig abgenickt wird. Das Modell wird im Training eben gemerkt haben: Es ist viel leichter gute Punktwertungen zu erzielen, wenn man diese Merkmale, für welche die KI eine merkwürdige Schwäche hatte, statistisch auf die Spitze treibt, als wirklich gute Geschichten zu erzählen.
LPB: Hätten Sie ein Beispiel dafür?
HEILIG: Es ist dann eben nicht mehr „der Mann, der eine Straße entlanggeht“, sondern etwa „das Knochenmark, das dem Asphalt begegnet“. Und es ist tatsächlich so: je mehr davon, desto besser. Es gibt da wirklich keine Obergrenze! Sprich, der Text ergibt schon lange keinen Sinn mehr, aber GPT-5 produziert diese Merkmale immer extremer und findet dabei die literarische Qualität immer überzeugender. Man konnte dem Modell also umgekehrt auch einen zufällig generierten Text vorsetzen, der keinerlei Kohärenz hatte. Weder inhaltlich noch stilistisch. Er wurde dennoch von GTP-5 mit Höchstnoten bewertet. Am Erstaunlichsten war, dass dies weltweit erst einmal niemand zu bemerken schien. Das Modell war bereits eine Woche lang draußen, mit dem propagierten Anspruch, dies sei das bislang beste erzählende, textgenerierende Modell aller Zeiten. Dann erst wurde zurückgerudert.
LPB: Das hört sich so an, als habe das neue Modell die Vorgabe, sei möglichst originell und betone das Ungewöhnliche, vermeide die 100prozentige Trefferquote zugunsten der kleinen feinen Abweichung, etwas zu konsequent umgesetzt…
HEILIG: Ja, das war sicherlich die Zielsetzung von OpenAI, die da nun, was das kreative Erzählen angeht, an den Markt aufschließen und zeigen wollten, wir sind nicht nur gut im Programmieren und Recherchieren, sondern wir können auch tolle Geschichten erzählen. Das Problem ist, dass niemand bei OpenAI menschliche Kultur offensichtlich in irgendeiner Art und Weise ernst nimmt. Es gibt dort leider keine menschlichen Expertinnen und Experten für Literatur. Man hat ein paar Autorinnen und Autoren konsultiert, aber die sind auch nicht immer die besten, wenn es darum geht, wie man schreibt in der Theorie. Die können eben schreiben. Ich finde das vielsagend. Nehmen wir mal an, ChatGPT hätte gelernt, dass einmal eins drei ist – erstens wäre es nie passiert, dass das durchgerutscht wäre und zweitens hätte es einen riesengroßen Aufschrei gegeben. Leider herrscht hier wohl noch die Irrmeinung vor, dass literarische Narrative nichts weiter als seichte Unterhaltung seien.
LPB: Die (De-)Klassifizierung als so genannter „soft skill“, als welcher die Literatur in öffentlichen Diskursen gern marginalisiert wird, ist derzeit ja leider en vogue. Paradoxerweise kommt man allerdings gerade immer mehr dahinter, dass es die Macht der Narrative ist, die die Welt und unser kulturelles und gesellschaftspolitisches Selbstbild bestimmt. Das bringt mich, siehe GPT-5 dazu zu fragen: was geschieht, wenn wir der KI unsere Narration überlassen?
HEILIG: Open-AI hat aufgrund meiner Resultate ChatGPT jetzt angepasst. Wenn man jetzt so einen Nonsens-Text bei ChatGPT eingibt, dann gibt es einen Filter, der in der Antwort drübergelegt wird, der dem Modell „Achtung!“ signalisiert: bewerte die und die Aspekte wie die genannte Körpermetaphorik nicht zu hoch. Aber das sind künstliche Filter, die da drübergelegt wurden. Das Modell selbst im Hintergrund bewertet diese Sachen selbst nach wie vor als literarisch hochwertig. Und OpenAI findet das anscheinend auch nicht weiter problematisch. Es scheint ihnen egal zu sein, dass ein KI-System Blödsinn für genial hält; im Grunde ihres Herzens denken sie anscheinend: wenn die KI sagt, dass dieser Text kohärent und hochliterarisch ist, dann ist er das auch – und wir Menschen sind nur zu doof, das zu beurteilen; und das finde ich gefährlich.
Denn die KI selbst, der man da das letzte Urteil überlässt, ist längst nicht mehr so einfach von ihren Fehlern zu überzeugen. Man muss da wirklich schwere linguistische und literaturwissenschaftliche Fachgeschütze auffahren, um GPT-5 zum Eingeständnis zu bringen, dass das inhaltliche Inkohärenzen sind, die da produziert werden.
Sprich, wir können der KI zwar algorithmisch einen Riegel vorschieben, aber wir können sie längst nicht mehr argumentativ überzeugen. Die Firmen verlassen sich auf KI und die KI will es der KI recht machen. Das bedeutet natürlich auch, dass man KI-Modelle wunderbar manipulieren kann damit. Ich arbeite jetzt gerade an einem Experiment, das noch nicht veröffentlicht ist, aber was aber, denke ich, zweifelsfrei nachweist, dass KI-Modelle ihre Meinungen zu etwa politisch brisanten Fragen sofort ändern, wenn man ihnen den entsprechenden pseudo-literarischen Text in diesem Kontext einspeist.
Wir gehen also immer mehr auf eine Welt zu, in der wir KI-Agenten haben werden, die mit einer großen Wirkmächtigkeit ausgestattet sind. Und die auch immer mehr eigene Persönlichkeiten entwickeln sollen. Und dazu gehört auch eine eigene Ästhetik – und Verwundbarkeit!
Dr. Christoph Heilig. © Stephan Höck/LMU
LPB: Das ist schon beängstigend. Die Generation, die noch ohne KI aufgewachsen ist und ein davon losgelöstes ästhetisches Urteilsvermögen entwickelt hat, kann da noch im Umgang mit diesem Tools differenzieren. Aber wie sieht es mit der Jugend, der Next Generation aus? Die Jugendlichen, die jetzt schon ChatGPT zu allem befragen und mit deren Aussagen als Autoritätsquelle aufwachsen, werden die noch eigenständige ästhetische Urteile fällen können und wenn auf welcher Grundlage? Ist der Kanon dann die Weltliteratur oder die ChatGPT-Literatur? Vielen Fragen stellen sich da.
HEILIG: Ja. Was mich dazu beunruhigt: wir haben es bislang leider noch in keinster Weise geschafft, Literatur als einen Gegenpol zu etablieren. Wir beschränken uns auf die Frage, ob die KIs widerrechtlich mit belletristischen Werken von Autorinnen und Autoren trainiert haben, ohne diese zu vergüten. Das ist zweifelsfrei ein wichtiges Thema; vor allem ökonomisch. Aber es führt am Kern des Hauptproblems vorbei. Und natürlich kann man darüber reden, ob Verlage KI benutzen sollten, um Klappentexte etwa besser zu prompten. Es geht dabei aber völlig unter, welche Rolle menschliche Literatur überhaupt spielen kann bei der Frage, in welche Zukunft wir gehen wollen. Welche Szenarien sollten wir simulieren? Da bräuchten wir die Literatur dringend.
LPB: Der Bedarf nach Visionen, nach starken, demokratiestärkenden und menschenfreundlichen Narrativen ist derzeit groß und wird in den öffentlichen Diskursen auch eingefordert. Was könnte Ihrer Meinung nach Literatur denn jetzt gerade konkret tun?
HEILIG: Ich glaube nicht, dass jetzt alle Autorinnen und Autoren dystopische Science-Fiction schreiben müssen. Aber es gibt verschiedene Dinge, die man tun kann: Auf der Ebene der Verlage fände ich es wichtig darüber nachzudenken, wie man zwischenmenschliche Begegnungen um den jeweiligen Text herum neu und zeitgemäß schaffen könnte. Wie kann man Literatur so vermitteln, dass Leute das Gefühl haben, sie partizipieren an dem zwischenmenschlichen Dialog. Weil das meiner Ansicht nach das Einzige ist, das menschliche Literatur gegenüber der KI-Literatur innerhalb absehbarer Zeit noch zu bieten haben wird.
Das andere ist die Themenwahl. Die Frage ist ja: was wird mit unserer Gesellschaft passieren, wenn wir uns dafür entscheiden, KI in entsprechend viele Lebensräume vorzulassen. Und dafür müssen wir uns erst einmal darüber klar werden, was uns eigentlich wichtig ist. Was wollen wir überhaupt aus unserer jetzigen Welt mitnehmen in diese Zukunft?
Dafür muss ich als Schriftstellerin oder Schriftsteller nicht unbedingt über KI schreiben, aber auf sicherlich neue Weise über zwischenmenschliche Beziehungen. Um die verschiedenen Möglichkeiten simulieren zu können, brauchen wir eine diverse Literatur. Ich glaube tatsächlich sogar, dass es eine Art von KI-Literatur geben kann, die uns hilft in diesem Prozess …
LPB: Wie konkret könnte sie denn helfen?
HEILIG: Was wir ja schon wissen und längst tun, ist KI als Werkzeug zur Stoff- und Themenrecherche und zur Überwindung von Schreibblockaden zu verwenden. Gerade auf der Ebene des Brainstormings kann sie sehr hilfreich sein; beim Zusammenbringen von Erzählfäden. Diese Art der individuellen Schreibhilfe haben wir ja bereits, aber sie ist eben noch zu kurz gedacht.
KI hat die Möglichkeit, uns einen Spiegel vorzuhalten, ohne selbst durch irgendwelche Rücksichtnahmen gehemmt zu sein. Wir reden immer viel davon, dass wir unsere Bubbles haben, in denen wir uns befinden. Eigentlich haben wir eine immense Empathiekrise. Wir sind immer weniger in der Lage, uns in andere Menschen mit anderen Weltbildern hineinzudenken. Was dazu führt, dass wir wie in den USA vermehrt extreme politische Polarisierungen haben; so dass Menschen, die früher beste Freunde waren, inzwischen nicht mehr miteinander sprechen. Die Literatur könnte grundsätzlich dabei helfen, uns in diese jeweils andere Denk- und Empfindungsbilder hineinzuversetzen. Wir haben Literatur aber immer mehr zur seichten Bauchbepinselung missbraucht. Natürlich gibt es Ausnahmen. Natürlich gibt es nach wie vor Literatur, die es schafft, uns wach zu rütteln. Aber man hat dennoch nicht den Eindruck, dass es die primäre Aufgabe von Literatur ist, uns Perspektiven einnehmen zu lassen, die uns eigentlich fremd und wohlmöglich unangenehm sind.
Der KI wiederum versuchen wir ein bestimmtes Weltbild aufzudrängen, was möglichst wenig Menschen verletzt, damit man möglichst viel Umsatz machen kann. Grundsätzlich kann die KI aber, wenn man es technisch richtig macht, jeden beliebigen Standpunkt einnehmen und plausibel darstellen. Und sie ist nicht durch biographisch blinde Flecken oder Befindlichkeiten gehemmt.
Ich experimentiere zum Beispiel mit Satire. Und hier zeigt sich, wie gut KI inzwischen darin ist, auch Nischenpositionen oder Perspektiven jenseits des Mainstreams zu simulieren. Die besten Texte, die ich bislang gelesen habe zum Thema KI und Buchmarkt sind satirische Texte, die ich mir von der KI habe produzieren lassen. Die KI kann nun einmal all die relevanten, vielschichtigen Diskurse viel umfassender aufgreifen, als der Mensch. Richtig gemacht, also mit Sinn und Sachverstand, kann KI-Literatur einen Mehrwert haben und wird einen festen Platz in der Rezeption von Texten in der Zukunft haben. Wir müssen daher komplett neue, kulturelle Praktiken entwickeln, wie wir damit umgehen wollen.
LPB: Ich frage mich aber schon, wo denn dann unser Raum sein wird. Ich verstehe immer noch nicht warum wir jenseits einer Zeit- und Arbeitserleichterung uns selbst abschaffen wollen und uns von der KI auch jene Dinge aus der Hand nehmen lassen wollen, die uns, anders als die Steuererklärung oder das mühsame kleinteilige Recherchieren, Freude machen, wie das Schreiben eines Gedichts oder das Komponieren.
HEILIG: Die Frage ist jetzt, wer das Wir ist. Und dann: es gibt, glaube ich, zumindest in unserer Gesellschaft immer weniger Wertschätzung für den eigentlichen Prozess, der zu einem Produkt führt. Die Vorstellung, dass man um des Prozesses willen selbst schreibt, weil man als Person sich ausdrücken möchte, das ist eine Haltung, die offenbar seit längerer Zeit schon auf dem Rückzug ist. Ich sehe das auch in der Bildung. Es ist ja kaum noch die Idee da, dass man miteinander spricht und gemeinsam Sachen lernt und der Bildungsprozess den gesamten Menschen betrifft, der ein Gut an sich ist. Es geht hauptsächlich um einen Optimierungsprozess zugunsten objektivierbarer Kennzahlen, die sich dann in Noten ausdrücken lassen oder in Pisa-Studien.
Wenn wir als Menschen nicht in die Sinnkrise kommen wollen, müssen wir uns mit dem Gedanken abfinden, dass in nicht allzu ferner Zukunft die besten Texte dann nicht mehr von Menschen, sondern von KI geschrieben sein werden bzw. dass unsere menschlichen, ästhetischen Ansichten eine immer marginalere Rolle spielen. Bedeutet uns Schreiben als kulturelle Tätigkeit denn aber nicht trotzdem etwas? Eine KI produziert ihre Texte nach Wahrscheinlichkeiten; aber die Individualität mit der eine ganz bestimmte Autorin oder ein Autor einen Text schreiben wird, diese Einzigartigkeit ist neben der Produktionsebene aber auch auf Rezeptionsebene für die Lesenden das, was einen Text jenseits des Themas so besonders und berührend machen kann. Ich bleibe optimistisch, dass menschliche Leserinnen und Leser danach auch in Zukunft noch lechzen werden. Denn sonst bräuchten wir ja auch keine Neuerscheinungen, denn es gibt ja genügend Material da draußen.
LPB: Das nehme ich gerne als schönes Schlusswort, in freudiger Erwartung all der menschlich erzeugten literarischen Neuerscheinungen, die uns da zukünftig und hoffentlich lange noch erfreuen mögen. Vielen Dank für das Gespräch.
HEILIG: Gern.
**
Christoph Heilig ist Leiter einer Forschungsgruppe zur Erzählperspektive an der LMU München. In seiner Forschung beschäftigt er sich unter anderem damit, welche Auswirkungen Künstliche Intelligenz auf Religion und Kultur haben werden. Seine Forschung wurde schon mehrfach für ihre Innovativität und Gesellschaftsrelevanz ausgezeichnet. Außerdem wurde er 2025 als erster Theologe überhaupt ins Junge Kolleg der Bayerischen Akademie der Wissenschaften aufgenommen, wo er zur Konkurrenz von maschinellem und menschlichem Erzählen forscht. Für seine literarische Arbeit wird er von der Liepman AG vertreten.

