Info
28.02.2024, 11:45 Uhr
Redaktion
Die KI und wir

Die KI und wir: Gespräch mit den Autorinnen Monika Pfundmeier und Theresa Hannig

https://www.literaturportal-bayern.de/images/lpbblogs/KI/klein/KI%20AI_500.jpg#joomlaImage://local-images/lpbblogs/KI/klein/KI AI_500.jpg?width=499&height=325
(c) Literaturportal Bayern

Zur Reihe: Über kaum eine technologische Errungenschaft wird so viel geredet und gestritten wie über KI, die Künstliche Intelligenz in Form von ChatGPT und anderen, sich immer rasanter entwickelnden Tools. Ihre einschneidenden Auswirkungen auf unsere Gesellschaft werden sowohl als innovativ und arbeitsentlastend begrüßt als auch in ihren sozialen und arbeitsmarktgefährdenden Aspekten kritisch hinterfragt. Welche Konsequenzen haben diese Entwicklungen für die Kunst- und Literaturschaffenden in Bayern? Inwiefern wirkt sich KI auf ihre Arbeits- und Lebensbedingungen aus? Welche Erkenntnisse lassen sich gewinnen? In der Reihe „Die KI und wir“ widmet sich das Literaturportal diesem brisanten, aktuellen Thema in Form von Gesprächen, Berichten und Rezensionen.   

Das erste Gespräch führte Andrea Heuser für die Redaktion des Literaturportals mit den Autorinnen Monika Pfundmeier (Vorstandsmitglied des European Writers Council, Vorsitzende des VS Region München-Oberbayern) und Theresa Hannig (Politologin und Software-Entwicklerin).

 *

LITERATURPORTAL:  Wir sitzen jetzt hier, in der Bayerischen Staatsbibliothek, um gemeinsam über „Die KI und wir“ zu sprechen. Und das ist ja schon einmal etwas Gutes: dass die KI uns in Präsenz zusammenführt. Was sagt denn ihr, erstmal ganz spontan, zu diesem Kräfteverhältnis zwischen Künstlicher Intelligenz und dem Menschen? Müsste es nicht eigentlich umgekehrt heißen: Wir und die KI? Oder wird es irgendwann vielleicht auf ein „oder“ hinauslaufen? Wir oder die KI?  

MONIKA PFUNDMEIER: Wir und KI – so sollte es meiner Meinung nach definitiv heißen. Ich halte KI für ein Werkzeug, wenn wir das richtig einsetzen, vor allem mit den richtigen Regularien einsetzen. Dann kann uns das helfen.

THERESA HANNIG: Ja, da würde ich komplett zustimmen.

PFUNDMEIER: Ansonsten verhält es sich wie mit jedem Werkzeug: Ich kann es zum Guten nutzen, ich kann aber auch viel Schaden damit anrichten. Und letzteres ist das, was wir in den Griff kriegen müssen.  

LPB: Wenn wir das Stichwort „Schaden“ jetzt einmal direkt aufgreifen. Der Nutzen der KI leuchtet einem wohl viel unmittelbarer ein, deswegen hat es sich ja auch entwickelt. Wo seht ihr denn die größten Risiken und Gefahren, gerade in Bezug auf unser Arbeitsfeld als Schreibende und Literaturschaffende, die wir mit Texten umgehen?

PFUNDMEIER: Ich würde gerne einen Schritt zurück dorthin gehen, wie KI gewachsen ist. Deren Entwicklung ist auf der Basis von Ausbeutung entstanden. Diese Kosten werden aber komplett weggekehrt.

Wenn man darauf schaut, was reingesaugt wird, damit die KI überhaupt etwas rausgeben kann, damit dann Bilder und Texte erzeugt werden können – es sind unglaublich viele Werke von Menschen benutzt und eingespeist worden in diese Rechenleistungen, ohne dass die Menschen, die dafür gearbeitet haben, die einen großen Aufwand dafür geleistet hatten, in irgendeiner Form entschädigt wurden. Das ist: Ausbeutung. Von dieser Ausbeutung profitieren jetzt wiederum Firmen.

HANNIG: Das Tragische ist halt, dass die meisten gar nicht wissen, dass sie ausgebeutet wurden. Wir wissen nicht, welche Texte von uns benutzt wurden und in welcher Form sie wirklich in das Ergebnis mit einfließen. Du hast ja eben schon einige Gefahren genannt, Monika, auf Ebene der Herstellung der Texte. Und nun gibt es natürlich auch noch weitere Bereiche: künstlerische, wirtschaftliche, gesellschaftliche. Gesellschaftlich problematisch ist, dass durch die KI so viele Fähigkeiten kostenlos zur Verfügung gestellt werden und die Menschen daher nicht nur nicht bezahlt werden; ihre Arbeit wird auch entwertet.

Denn wenn eine KI, wenn ChatGTP, zack im Handumdrehen einen Text oder ein Bild generiert, was ist die menschliche Arbeit denn dann noch wert? Du hast also auch von der Mentalität her eine Entwertung der Produkte zusätzlich zur monetären Entwertung. Und das Geld, das generiert wird, fließt ausschließlich den KI-Unternehmen zu, die damit weiterhin Forschung betreiben und ihre eigenen Interessen vorantreiben.

PFUNDMEIER: Ja, das ist eine absolute Verzerrung dessen, welche Kosten verursacht werden und wo die Profite letztendlich landen. Du hast es gerade gesagt, Theresa, auch die Wahrnehmung dessen, welcher Arbeitsaufwand darin steckt, wird absolut weggewaschen.

HANNIG: Genau – um da kurz ein Beispiel zu bringen: Ich habe vorgestern fünf Stunden an einem Text gearbeitet. Und dann habe ich gestern noch zwei Stunden fürs Umschreiben investiert. Am Ende stand dann da ein fertiger Text von einer Seite. Da dieser Text online veröffentlicht wird, ist es durchaus wahrscheinlich, dass er von einer KI sozusagen zu Trainingszwecken „gesnackt“ wird. Aber dieser ganze Schaffensprozess, der dahintersteht – den kürzt die KI einfach komplett ab. Und ich stehe ja in keinem Verhältnis zu dieser KI. Ich kriege davon nichts, ich gebe nur ab. Sprich, die ganze Wertschöpfungskette, die vorher stattgefunden hat, muss ich quasi vorher finanzieren.

PFUNDMEIER: Und es wird eben nicht beachtet, dass genau dieser Prozess der Bearbeitung auch stattfinden muss, damit dann da am Ende ein exzellenter Text (mit künstlerischem Mehrwert, Anspruch) steht. Schon faszinierend: es wird berücksichtigt, dass KI einen gewissen Prozess braucht, um Output zu erzeugen. Was aber wir als Kulturschaffende, als Autor*innen benötigen, das wird eben überhaupt nicht berücksichtigt. Ich springe jetzt hier mal: Das, was das Fatale dann auch letztendlich sein wird, ist: wir hören auf unsere Fähigkeiten weiter zu entwickeln und zu üben. Wir de-qualifizieren uns in dem Sinne (der Unterwerfung unter KI).

HANNIG: Eine Ergänzung: wir haben unsere Texte ja für einen primären Nutzen geschrieben. Dafür wurden wir im besten Falle bezahlt und das lesen ja auch viele Menschen. Jetzt könnte man fragen: Warum ist es denn jetzt ein Problem, wenn auch eine KI das liest? Weil natürlich unsere Arbeitsweise und unsere Kultur darauf abzielt, einen One-zu-One-Austausch zwischen Creator und Leser*in zu haben. Und der Prozess der Buchlektüre dauert ja mehrere Stunden – das ist also zwangsläufig auch auf Rezipientenseite ein langwieriger Prozess. Du kannst allerdings in einem Menschenleben nur so und so viele Bücher lesen.

Was von einer KI alles „eingesaugt“ wird, ist ein über jede menschliche Möglichkeit hinausgehender Informationsverarbeitungsprozess. Hier findet eben keine Reflektion, kein Austausch, keine Multiplikation mit anderen Menschen statt; es fehlt der kulturelle Mehrwert. Kultur entsteht meiner Meinung nach zwischen Schaffenden und ihrem Publikum – das ist eine Kommunikation, selbst wenn sich Autorin und Leser*in nie persönlich treffen, findet da etwas statt und strahlt in die Gemeinschaft aus. Im Gegensatz dazu konsumiert die KI nur, um daraus neue Produkte zu generieren.

PFUNDMIER: … die sich verkaufen lassen. Aber über kurz oder lang ist es sicher so wie bei den Social-Media-Apps. Ich kann mich entscheiden: nehme ich ein Bezahltmodell ohne Werbung oder nehme ich die Kostenlos-Version, die mich permanent mit Werbung nervt. Irgendwer bezahlt den Preis. Das, was bezahlt wird, landet in den Töpfen der großen KI-Firmen.

HANNIG: Genau. Und um das aber noch mal klar zu sagen: Ich persönlich bin überhaupt nicht gegen KI. Ich benutze sie täglich. Aber ich setze mich auch dafür ein, dass die Leute, deren Werke verwendet wurden, dafür bezahlt werden. Künstliche Intelligenz ist ein Werkzeug, das uns weiterbringen wird, aber auch hemmt, wenn wir nicht in der Lage sind, faire Vergütungs- und Lizensierungsmodelle zu schaffen. Und Regulierungen.

PFUNDMEIER: Wir haben das Thema der Regulierung in Sachen Internet verpasst. Und an der Stelle sehen und wissen wir, dass Schäden entstanden sind und entstehen, Schlagwort Darknet. Im Bereich KI haben wir jetzt noch die Möglichkeit, das Konstrukt reguliert zu kriegen. Mit dem „AI-Akt“ ist ein erster Schritt gesetzt. Doch der ist bei Weitem noch nicht schützend genug für Menschen. Es geht noch zu viel in Richtung der Firmen, die davon profitieren sollen. Aber es ist zumindest ein Anfang. Und wir alle müssen uns ernsthalft überlegen: wie wollen wir als Menschen mit derlei Werkzeugen umgehen? 

LPB: Da kommen so viele Stichworte von euch, wo man nachhaken möchte. Zum Beispiel: Strategien, Regulierungen – Monika, die Frage an Dich, auch als Vorstandsmitglied des European Writers Council, wo Du ja auch mit diesen Eingaben zu tun hast: Wie genau sehen solche Regularien auf diesen überregionalen Ebenen denn aus? Was genau bedeutet der „AI-Akt?“

PFUNDMEIER: Der „European-AI-Akt“, also, das ist ein 900-Seiten Papier …

LPB: Ok, ein paar Stichworten reichen; auch wenn die KI das gesamte Paper in ein paar Sekunden gelesen hätte …

HANNIG (lacht): Wahrscheinlich noch schneller…

PFUNDMEIER: Es ist schon sehr umfassend.

Zum einen zielt der AI-Akt darauf ab, dass mehr Transparenz herrscht. Wobei die Verhandelnden an der Stelle sehr stark Einfluss nehmen durften und das aktuelle Ergebnis daher etwas schwammig ist. Da wird und muss noch mehr Klarheit geschaffen werden in punkto Transparenz, sowie an vielen, vielen anderen Stellschrauben. Unter anderem kommt es darauf an, wie dieses grundsätzliche Basisrechenmodell einer jeden KI-Anwendung gestaltet ist und eingeordnet wird; ob es eine sogenannte „Hochrisiko-KI“ ist (bedeutet: das kann dazu führen, dass die Infrastruktur/Verkehr/Stromnetze z.B. stark manipuliert werden könnten). Dann gibt es KI, die einfach nur Verarbeitungen unterstützt (z.B. Fehler in Texten schneller findet). Diese Labels haben zum einen Einfluss darauf, wie stark Transparenz und Offenlegung umgesetzt werden muss. Zudem geht es um die Größe der jeweiligen Unternehmen, die KI als solches entwickeln.

Das Ziel ist, dass vor allem die großen Unternehmen, wie beispielsweise Microsoft oder Google, mehr offenlegen müssen, als jetzt kleinere Firmen, weil man die nicht so sehr belasten möchte mit Bürokratismus. Andererseits ist die Auswirkung von deren Tools wichtiger, möglicherweise kritischer auf Gesellschaft, Politik und Infrastruktur, als es die reine Unternehmensgröße vermuten lässt.

Es gibt das Bestreben transparent zu machen, welche Texte verwendet werden, um KI zu trainieren. Auch diese Klausel ist aktuell sehr schwammig gestaltet und eben davon abhängig wie groß das Unternehmen ist, das wiederum die KI entwickelt. Hier muss man Nachverhandlungen anstreben und vor allem: wir haben aktuell keine klare Reglung dazu, inwiefern eine Kompensation für die Autor*innen stattfinden kann; auch das ist noch nicht entschieden. Im AI Act finden sich aktuell viele Absichten – durchaus auch gute; aber noch ist nichts hundertprozentig abgesegnet, auch wenn es momentan gut aussieht, vor allem nachdem Deutschland und Frankreich ihre Blockadehaltungen etwas aufgegeben haben…  

LPB: Das klingt noch nach viel Arbeit… Nun sind die kulturpolitischen Maßnahmenkataloge und Zusammenschlüsse auf internationaler Basis sicherlich die wirksamste Handlungsebene. Dennoch: was kann ich denn als Individuum tun? Das Opt out etwa gehört da doch sicherlich zu den Möglichkeiten, die man als einzelner Autor oder Autorin hat?

PFUNDMEIER: Ja, definitiv. Wichtig ist: Informiert sein und bleiben, nachfragen beim eigenen Verlag oder nachlesen im Vertragswerk, ob es eine Opt-out-Klausel [dass das Werk nicht zu KI-Trainingszwecken verwendet werden darf] gibt. Bislang gibt es von Verlagsseite keine Verpflichtung dazu. Aber es werden mehr und mehr Verlage, die das auch anbieten. Jede*r sollte also aktiv darauf achten und gegebenenfalls nachfragen.

LPB: Das ist generell ja ein ganz wichtiger Schritt als Autorin, als Autor: das Vertragswerk gut zu lesen, sich möglichst genau zu informieren.

Theresa, Du bist ja neben Deiner Eigenschaft als Autorin auch Politologin und Software-Entwicklerin. – Mit „Pantopia“ hast Du einen Roman, eine wunderbar erfrischende Utopie im Zeitalter von KI geschrieben, wo eine, in Anführungsstrichen, „gute“ KI mit den Menschen zusammenarbeitet, um die weltweite Ausbeutung abzuschaffen und ein besseres Leben für alle zu ermöglichen. Jetzt ist es ein Weilchen her, dass Du dieses Buch geschrieben hast. Wie geht es Dir inzwischen damit; würdest Du es heute noch einmal so schreiben? Was von dieser Utopie wäre denn gesellschaftlich wirklich umsetzbar?

Von links: Monika Pfundmeier und Theresa Hannig (c) Monika Pfundmeier

HANNIG: Erstmal: ich habe den Roman 2020 geschrieben und bin sehr froh, dass ich ihn geschrieben habe, weil: heute könnte ich das wohl nicht mehr so schreiben. Mit so viel Optimismus und so viel „Yes, wir packen das!“ Umsetzbar war von Anfang an schon alles in dem Roman.

Abgesehen davon, dass ich zwar technikbegeistert bin und sich eigentlich bei mir fast immer alles um KI dreht, geht es in „Pantopia“ ja gar nicht wirklich darum. Die KI ist nur ein Mittel zum Zweck. Das, was die Aliens in der Science-Fiktion-Literatur der achtziger Jahre waren, ist jetzt halt die KI. Du brauchst einen externen Gesprächspartner/Gegner, um wichtige Themen zu verhandeln, um von außen betrachtet gesellschaftliche Fragen zu diskutieren.

Und dafür war die KI hier sozusagen da: um zu beweisen, dass viele Dinge, die wir als selbstverständlich erachten, letztlich einfach nur Entscheidungen sind oder Traditionen, die wir uns so aufgebaut haben; den Kapitalismus zum Beispiel. Es ist ja keine Naturkonstante, dass wir so leben müssen, das haben wir so entschieden und so arbeiten und handeln wir. Und mir war von Anfang an wichtig, dass in dem Buch alle Mechanismen aus sich heraus funktionieren. Ich habe also nichts neu erfunden, sondern nur bereits existierende Theorien und Modelle so kombiniert, dass sie uns als Menschheit weiterbringen funktionieren und die KI ist lediglich der Katalysator, damit das Zusammenspiel funktioniert. Aber grundsätzlich bräuchten wir die KI nicht, um dieses sozialere Miteinander umzusetzen.

LPB: Was brauchen wir dann? Was hindert uns?

HANNIG (überlegt): Unser Verhaftet-Sein in unserem System. Das, was früher mal die soziale Marktwirtschaft war, haben wir jetzt seit Mitte der neunziger Jahre zu einem Turbokapitalismus werden lassen. Der jüngste Oxfam-Bericht von vor einigen Wochen sagt es ja: Die fünf reichsten Männer der Welt haben seit 2020 ihr Vermögen verdoppelt, während die unteren fünfzig Prozent nochmal um zwanzig Prozent ärmer geworden sind. Und seit ich denken kann höre ich das: Die Schere zwischen arm und reich geht immer noch weiter auf …

PFUNDMEIER: … ja, allerdings …

HANNIG: Das wissen alle und trotzdem: diejenigen, die was daran ändern könnten, tun nichts dagegen, weil sie ja davon profitieren. Klammer auf: Es gibt ein paar Leute, die das machen, zum Beispiel Marlene Engelhorn, die Erbin des BASF-Vermögens, die ihr Vermögen jetzt nicht einfach nur „verspendet“, sondern Bürgerinnen und Bürger darüber entscheiden und abstimmen lässt, wie man das Geld am besten einsetzt und verwaltet. Was großartig und vorbildlich ist. Klammer zu.

Das Problem ist also nicht, dass wir nicht genug Geld im System hätten, sondern dass diejenigen, die reich sind, kein Interesse daran haben, von diesem Reichtum etwas abzugeben und in der Politik niemand wirklich gewillt ist, sie dazu zu bringen, ihren fairen Beitrag zu leisten.

PFUNDMEIER: Ich möchte eins gern aufgreifen, was Du sagst, nämlich: dass es eine Entscheidung ist, von jedem oder jeder einzelnen ebenso wie gesellschaftlich: Wie gehe ich mit diesem Leben und wie gehe ich mit dieser Zukunft um? Informiere ich mich oder lasse ich mich in dieses Privileg sinken, dass ich mich politisch nicht informieren muss, wenn ich nicht will, als ginge es mich im Grunde sowieso nichts an. Dabei ist alles, was auf unser Leben einwirkt, höchst politisch; vor allem: ich habe, jede*r hat da Handlungs- und Entscheidungsmöglichkeiten.

Mit jedem Produkt, das ich kaufe, habe ich Entscheidungsmacht darüber, wo das ganze Geld letztlich hingeht. Was ich mit meinen Käufen finanziere oder nicht. Ich habe auch bei KI die Möglichkeit zu entscheiden: wofür nutze ich es, setze ich es ein? Ich kann das natürlich auch als Entwickelnde entscheiden – entwickele ich es so, dass die KI mir meine lästigen Arbeiten – etwa die Steuererklärung – abnimmt oder treffe ich die Entscheidung so, dass ich mich nur selbst daran bereichere oder um in der Bequemlichkeit auszuruhen oder einen Status quo mit allen Mitteln und um jeden Preis aufrechterhalten zu wollen, weil ich Angst vor Veränderungen habe – was ja leider ein prägendes Merkmal unserer Gesellschaft ist: dass wir Veränderungen scheuen.

Dann laufen wir Gefahr, dass wir mehr kaputt machen, als uns mit dem Leben mit zu entwickeln. Denn Leben ist Veränderung – und wie ich etwas verändern will, das muss ich nun einmal leider entscheiden, andernfalls entscheiden das nämlich andere für mich.

HANNIG: Aber da muss ich mal kurz reingrätschen, weil ich diese Sache mit der persönlichen Verantwortung schon höchst problematisch und schwierig finde. Einerseits möchte ich Dir da sehr gern zustimmen: der Austritt des Menschen aus der selbstverschuldeten Unmündigkeit, verantwortliche Bürger und so weiter – aber: ich muss am Tag so viele Entscheidungen treffen!

Es geht schon los mit dem Essen: Ist es fair trade, ist es vegan, ist es gesund für meine Kinder, ist es regional? In der Schule, meinem Beruf, in der Freizeit, in der Politik … das muss man sich mal klarmachen, wie viele Entscheidungen ich jeden Tag treffen muss; vielleicht sind es hundert oder zweihundert Mini-Entscheidungen – und irgendwann hör ich halt auf, klicke auf: „ja, Cookies akzeptieren“, „ja AGB gelesen“, ach ja und: „KI, schreib mir schnell noch nen Text.“ Und die wesentliche Frage lautet da: Wieviel kann man denn überhaupt in vollem Wissen und Bewusstsein verantworten?

Vielleicht liegt es an der Illusion, alle Informationen und alles Wissen permanent parat zu haben.  Früher hatte ich die Informationen gar nicht und damit nicht den Konflikt. Wenn ich früher den FCKW-Kühlschrank unwissentlich benutzt habe, war ich nicht schuldig. Heute wäre es eine bewusste Entscheidung, da ich diese Information haben könnte. Man kann also nur scheitern – so dass viele Leute irgendwann sagen: jetzt ist es mir auch schon wurscht. Und die Quintessenz lautet daher: Wie kann man den Einzelnen entlasten? Wir müssten das mit der Gesetzgebung klären. Aber wie schnell da auf politischer Ebene fatale, einfache, populäre Lösungen angeboten werden derzeit …     

PFUNDMEIER: Ja, wir leben in einer sehr komplexen Welt. Es ist verlockend, auf einfache Lösungswege zu setzen. Klar, und auch ich sitze dem durchaus auf. Aber auch wenn es heutzutage komplexer denn je sein mag, sich zu entscheiden: Wir kommen nun einmal nicht daran vorbei, diese Entscheidungen letztlich zu treffen. Und ich glaube auch, dass Gesetzgebung an der Stelle hilft.

Ich verweise kurz auf die Gurtpflicht, die in den siebziger Jahren aufkam und schließlich auch eingeführt wurde. Zunächst war das freiwillig und führte zu einer leichten Reduktion von Unfällen, aber eben auch zu vielen Gegenstimmen. Als der Gurt dann gesetzlich verpflichtend wurde, sind die Unfälle massiv zurückgegangen und dieses Thema hat sich auch insgesamt deeskaliert. Wir hatten ab da also eine klare Grundlage; die war/ist einzuhalten, auf die mensch sich berufen konnte, die für Sicherheit und zunehmend positive Effekte sorgte…

Man kann also durchaus mit Reglungen eine gewisse Komplexität reduzieren oder zumindest entlastend wirken. Und so ähnlich müssen wir es mit KI auch angehen.

LPB: Ja. Schon um diese Komplexität, von der Du gerade sprachst Theresa, in dem Maße zu reduzieren, dass man transparente Handlungsmöglichkeiten hat, die einen aus der Lähmung holen. Was mir – abschließend – in dem Gespräch zwischen euch aufgefallen ist: Die KI ist natürlich auch ein hoch zwiespältiger Anlass; ein Katalysator, um noch einmal grundsätzlich über das Menschsein an sich nachzudenken. Zum einen: was macht uns Menschen überhaupt aus? Dann: wie arbeiten wir? Das hattet ihr am Anfang diskutiert: Welche Arbeitsweisen zeichnen uns Menschen eigentlich aus und wie unterscheidet uns das von der KI? Aber auch: was für politische und soziale Konsequenzen hat die KI? Dass die Konsequenzen immens sind und die KI-Technologie sich mit einer Geschwindigkeit entwickelt, bei der wir kaum noch hinterherkommen, ist inzwischen common sense.

Und sie spiegelt eben nicht nur, sondern radikalisiert auch noch einmal die sozialen und gesellschaftlichen Konflikte des globalen Markts, die Probleme, die unsere Zeit eh hat mit dem Arm-Reich-Gefälle, dem Maße an Überkomplexität und Überforderung – und das suggeriert natürlich ein Gefühl von Ohnmacht. Wie schafft man es aber, aus diesem vielschichtigen Konglomerat aus suggerierter und tatsächlicher Ohnmacht herauszukommen und als Einzelner wirksam zu werden?

Woher beziehe ich denn eigentlich meine Informationen, mein Wissen? Wie wachsen Jugendliche heute mit KI auf? Wie könnte da die Rolle, die Verantwortlichkeit der Schulen aussehen und was ist mit dem Bildungsauftrag generell? Wie wird denn meinen Kindern – abgesehen davon, dass sie etwa Chat GPT geradezu selbstverständlich nutzen – der Umgang mit KI erklärt und vermittelt? Welcher gesellschaftspolitische Kontext wird hergestellt?

HANNIG: Finde ich superproblematisch. Ich bin ja in der Kommunalpolitik tätig und es schmerzt zu sehen, wie da Schulpolitik gemacht wird und wurde. Aufgrund welcher Entscheidung da zum Beispiel Schul-Tablets angeschafft wurden – da kann man nur fassungslos sein. Geräte mit zweijähriger Lieferzeit während der Pandemie zum Beispiel. Geräte, die zudem sauteuer waren, dann allerdings schon bestellt, da musste man dann halt zwei Jahre drauf warten; Pandemie hin, Pandemie her. Und dann gab es eben teilweise kaum oder auch mal gar keinen Digitalunterricht.

Und dann die nächste Frage: welcher Lehrer, welche Lehrerin beherrscht denn diese IT-Dinge? Kaum einer nämlich. Dazu kam, dass die Mehrheit der Entscheidungsträger in einem Alter war, in dem sie keine schulpflichtigen Kinder mehr hatte und/oder einem Geschlecht angehörte, das sich sowieso nicht täglich um die Kinder kümmert oder gekümmert hat! Die hatten überhaupt kein Bewusstsein für die Dringlichkeit des Problems.

Es gab dann ein innovatives Konzept bei uns, das pro Kind 18 Euro im Jahr gekostet hätte – das war denen dann zu teuer! Wo man sich schon fragen muss: was sind uns unsere Kinder und unsere Bildung eigentlich wert?

PFUNDMEIER: Die wirklich dringliche Frage lautet meiner Meinung nach: Wie wollen wir als Menschen in der Zukunft leben? Und was bedeutet Menschlichkeit in der Zukunft? Wollen wir einfach nur Produktionsfaktoren sein, die einer KI zuarbeiten, damit diejenigen, die an Spitzen von Unternehmen sitzen, noch mehr Profit einfahren oder wollen wir das Ganze mal umdenken und uns auf das besinnen, was den Menschen ausmacht? Nämlich ein Miteinander, ein in die Gemeinschaft, in die Dispute und Diskurse gehen können. Was brauchen wir denn, um ein gutes Leben als Menschheit zu haben?

LPB: Ein schönes Schlussplädoyer. – Was würdet ihr euch wünschen in dem Zusammenhang? Wie sollte die Zukunft mit KI für uns aussehen?

HANNIG: Steuern. Ja, Steuern rauf!

PFUNDMEIER: Dass der Mensch im Zentrum steht. Und nicht die Profite für wenige. Dass KI als das genutzt wird, was es ist: ein praktisches Werkzeug, das uns das Leben erleichtern kann, dass wir weiterhin breite, vielfältige, offene Wissenszugänge haben, die wir als Menschen benötigen.