«Für mich ist KI im Religions- und Konfirmandenunterricht ein Sparringspartner», sagt der Landquarter Sozialdiakon Walter Bstieler. Als Religionslehrperson sei man oft ein «Einzelkämpfer» und nicht in einem Team eingebunden. «Beim Neugestalten der Lektionen oder beim Auswerten der Schülerarbeiten hilft mir KI als ein Gegenüber.» Die Auswertung führe ihm manchmal vor Augen, dass Jugendliche ihre Aufgaben oft mithilfe von Chatbots erledigten. «Etwa wenn sie Fürbitten verfassen, die aus der Feder eines Theologen stammen könnten», schmunzelt Bstieler.
Jugend und KI
Die JAMES-Studie der Zürcher Hochschule für Angewandte Wissenschaften zeigt tatsächlich, dass fast 90 Prozent der Jugendlichen KI-Systeme wie Chatbots nutzen, also computergesteuerte Programme, mit denen schriftlich Gespräche geführt werden können, um aus dem Internet Informationen zu erhalten. «Mit dieser Entwicklung müssen wir als Gesellschaft viel sorgfältiger umgehen. Es ist kaum ratsam, Kinder und Jugendliche mit dieser Technologie allein zu lassen», sagt auch David Halser. Er ist wissenschaftlicher Mitarbeiter an der Pädagogischen Hochschule Graubünden und leitet im Auftrag der Bündner Landeskirche und der Freiwilligenfachstelle Benevol im März eine Infoveranstaltung zum Einsatz von KI. In den Kirchgemeinden ist KI nämlich immer mehr ein Thema.
Es geht um Chancengleichheit
Viele Sekretariate oder Vorstandsmitglieder nutzen Chatbots oder sogenannte LLMs (Large Language Models, grosse Sprachmodelle) für das Erstellen von Flyern, Bildern, Rundbriefen, Konzepten oder Umfragen. Ein LLM ist ein KI-Programm, das mit sehr grossen Textmengen gefüttert und trainiert wurde, um menschliche Sprache zu verstehen und selbst Texte zu erzeugen. Doch wenn diese Datensätze Fehler enthalten, sind auch die Ergebnisse falsch. Daher sollte heute mehr als sonst das kritische Denken geschult werden, so Halser. «Das muss in der Schule beginnen, im Sinne einer Chancengerechtigkeit. Denn nicht alle Kinder haben den gleichen Zugang zu KI und den dazu nötigen Geräten.»
Chatbots in der Ausbildung
Auch Spiro Mavrias von der Zürcher Landeskirche beschäftigt sich mit KI und deren Einsatz im kirchlichen Umfeld. Er gibt KI-Workshops und entwickelt für den kirchlichen Raum KI- und Chatbot-Anwendungen, darunter einen Seelsorgetrainings-Chatbot. Mit dem virtuellen Gesprächspartner können zum Beispiel Pfarrpersonen schwierige Gespräche trainieren und ihr Gespräch dann analysieren lassen. Seit Dezember hat er ein kleines Pensum für die Entwicklung von Richtlinien für den Gebrauch von KI in der Kirche. «Künstliche Intelligenz entwickelt sich exponentiell weiter», sagt er, «es ist Zeit, dass wir das Thema von unserer christlichen Lebensdeutung aus beleuchten.»
Kein Mittel gegen Einsamkeit
KI kann Wege erarbeiten, um Probleme zu lösen. Gleichzeitig ergibt sich aber eine Reihe grundsätzlicher Schwierigkeiten. KI ist nie neutral. Falsche Daten können zwar ein korrektes, aber verzerrtes Resultat erbringen. Das kann Nachteile für bestimmte Personengruppen haben: «Ein Chatbot ist immer nur so gut wie seine Datensätze, mit denen er trainiert wurde. Er lernt aus Daten, die Menschen erstellt haben, mitsamt deren blinden Flecken. Diese Daten spiegeln oft gesellschaftliche Muster, Ungerechtigkeiten und Vorurteile wider. Zur christlichen Verantwortung gehört deshalb, dass wir dafür Sensibilität entwickeln», sagt Spiro Mavrias. Eine Gefahr entsteht auch dort, wo Menschen KI-Chatbots als Ersatz für echte Beziehungen verwenden. Dieser Trend nimmt zu: Sogenannte «KI-Companions» (Replika, Character.AI) werden millionenfach genutzt. «Aber was wie Nähe wirkt, ist oft nur eine Simulation davon: ein bequemes, aber kein echtes Du, immer verfügbar, nicht widersprechend.» Genau darin liegt ein Risiko. Menschen gewöhnen sich an das konfliktfreie KI-Gegenüber und können reale Freundschaft und Liebe verlernen und damit einsamer werden. «Einsamkeit wird aber im Kern allein durch zwischenmenschliche Nähe geheilt», sagt Mavrias.
Veränderte Trauerarbeit
Auch die Trauerkultur könnte sich durch KI verändern. QR-Codes auf Grabsteinen oder Apps, die Lebensgeschichten per Augmented Reality dreidimensional sichtbar machen, existieren bereits. Zugleich wächst das Feld der Avatare und «Deadbots», mit denen Hinterbliebene weiter mit der verstorbenen Person scheinbar kommunizieren können. Problematisch sei dabei, betont Mavrias, dass «durch diese neuen Möglichkeiten die heilsame Grenze zwischen der Erinnerung an einen Menschen und der Illusion seiner fortwährenden Ansprechbarkeit aufgeweicht oder verwischt werden könnte».Gerade deshalb gilt: Wo KI Einfluss auf Menschen gewinnt, bleibt die Verantwortung beim Menschen. Sie ist nicht delegierbar, im Gegenteil: «Letztverbindliche Verantwortung, die Menschen oder Umwelt betrifft, kann nicht an eine KI delegiert werden.» Wer KI also nutzt, muss deshalb bewusst entscheiden, womit er ein System «füttert», wozu er es einsetzt und wie er Ergebnisse prüft und einordnet.
