Zum verantwortungsvollen Umgang mit KI in Kirche und Gesellschaft
In einer Zeit, in der Künstliche Intelligenz (KI)[1] unser alltägliches Leben zunehmend beeinflusst, sieht das Landeskomitee der Katholiken in Bayern die Notwendigkeit, eine fundierte und verantwortungsvolle Haltung gegenüber diesem technologischen Fortschritt zu formulieren. Als Christinnen und Christen haben wir vor dem Hintergrund unseres Menschenbildes eine besondere Verantwortung, ethische Prinzipien und Normen in den Umgang mit KI einzubringen. Wir denken den Menschen vernetzt mit Gott und der Umwelt, sowie mit anderen Menschen. Hier spielt die KI eine immer größere Rolle.
Auch Papst Franziskus hat auf die Bedeutung eines ethischen Umgangs mit KI bereits mehrfach hingewiesen. Der Rome Call for AI Ethics[2] benennt zum Beispiel die Dienstbarkeit der KI für jeden Menschen wie für die gesamte Menschheit. Der Call wurde von wirtschaftlichen Playern wie Microsoft, IBM und anderen im Jahr 2020 unterschrieben, nunmehr auch von führenden Religionsvertreterinnen und Religionsvertretern in Hiroshima im Juli 2024, wo er auf die Frage des Friedens inhaltlich zugespitzt wurde (AI Ethics for Peace).[3] Am diesjährigen Welttag der sozialen Kommunikationsmittel[4] wurde – diese Linie aufnehmend – KI von Papst Franziskus in den Dienst für eine wahrhaft menschliche Kommunikation gestellt. Papst Franziskus fordert neben einem internationalen Vertrag einer rechtlichen Reglementierung auch die Ver-sinn-bildlichung der Kommunikation in diesem Feld: „Information kann nicht von lebendiger Beziehung getrennt werden: Sie umfasst den Körper, das Stehen in der Wirklichkeit; sie verlangt, nicht nur Daten, sondern auch Erfahrungen miteinander in Beziehung zu setzen; sie erfordert das Gesicht, den Blick, das Mitgefühl und den Austausch.” KI soll für die wahrhaft menschliche Kommunikation genutzt werden, kann sie aber nicht ersetzen.
Unter diesen Vorzeichen konzentrieren wir uns auf die KI-Anwendungen in Deutschland und in einem zweiten Schritt auf den Einsatz im pastoralen und katechetischen Bereich.
Kriterien zur Bewertung
Würde des Menschen
Die unantastbare Würde jedes Menschen, geschaffen nach dem Bilde Gottes[5], ist ein Wesenselement unseres christlichen Glaubens. „Eine unendliche Würde (Dignitas infinita), die unveräußerlich in ihrem Wesen begründet ist, kommt jeder menschlichen Person zu, unabhängig von allen Umständen und in welchem Zustand oder in welcher Situation sie sich auch immer befinden mag” (Dignitas infinita, Nr. 1). Diese Würde darf durch den Einsatz von KI niemals verletzt werden. Wir fordern daher, dass alle Anwendungen von KI den Menschen dienen sollen. Die Letztverantwortung für die diversen Anwendungen muss weltweit beim Menschen liegen.[6] Damit das möglich ist, müssen neben sogenannten „generativen KI-Systemen“ (z.B. Chat-GPT), bei denen eine Kontrolle durch Dritte leicht möglich ist, auch für andere Bereiche sogenannte „explainable AI“ (XAI) entwickelt werden, bei denen die Entscheidungskriterien festgelegt, überprüft und angepasst werden können. Die Menschendürfen weder manipuliert noch entmündigt werden. Der Schutz der Privatsphäre und der persönlichen Daten muss dabei immer gewährleistet sein. Die Qualität der Ergebnisse des KI-Einsatzes ist abhängig vom Entwicklungsprozess. Irrtümer aus der Programmierungs- und der Lernphase werden von KI vervielfältigt. Deshalb müssen künftig Entwicklungsteams interdisziplinär und divers zusammengesetzt werden.
Soziale Gerechtigkeit
Der Einsatz von KI darf nicht zur Verschärfung sozialer Ungleichheiten führen. Aktuell verfügen wenige Unternehmen über entsprechende Technologien, was zu einer Akkumulation von Knowhow und Macht führt. Demgegenüber müssen die Vorteile der Technologie allen zugutekommen und nicht nur einer privilegierten Minderheit. Der Zugang zu KI-Technologien muss für die Zukunft also fair und gerecht gestaltet werden, um soziale Teilhabe und Chancengleichheit für alle zu fördern.
Wenn in der Arbeitswelt sogenannte „einfachere Tätigkeiten und Berufsbilder“ durch die Etablierung digitaler, technischer Lösungen entfallen, müssen für die Betroffenen alternative Tätigkeiten entwickelt bzw. angeboten werden.
Aber nicht nur der Zugang zu, sondern auch der Umgang mit der KI bedarf ethischer Vorgaben. Im Bereich der Arbeitswelt etwa sind – auch im Bereich der Kirche – vom Recruiting über die Leistungsbeurteilung bis hin zur Zeugniserstellung zahlreiche Anwendungen von KI denkbar, die ethisch fragwürdig sein könnten. In allen Fällen muss die (Letzt-)Beurteilung durch einen Menschen geschehen. Auch hier gilt: Die KI ist ein Werkzeug, das Platz für die Beziehungs- und Wissensarbeit des Menschen eröffnen soll. Beschäftigte und ihre Betriebs- und Personalräte müssen in die Prozesse eingebunden werden.
In diesem Zusammenhang darf nicht unerwähnt bleiben, dass die „Bereinigung” von fragwürdigen Inhalten in den sozialen Medien immer noch von gering entlohnten Arbeitenden in Ländern des Globalen Südens durchgeführt wird, was für diese Personen schwerwiegende psychische Belastungen mit sich bringt.
Gesundheitswesen
Die Nutzung von Künstlicher Intelligenz (KI) im Gesundheitswesen ist eine Realität und ethisch eine enorme Herausforderung.
Einerseits bietet sie zahlreiche Vorteile. Sie ermöglicht beispielsweise präzisere und schnellere medizinische Entscheidungen durch Echtzeit-Datenanalyse, was bei korrekter Anwendung zu verbesserten Präventivmaßnahmen, Kosteneinsparungen und kürzeren Wartezeiten etc. führen kann. KI kann auch die Diagnostik optimieren durch den Vergleich umfangreicherer Krankheitsdaten. Zeitaufwändige Aufgaben in der Chirurgie und Pflege können automatisiert werden. Darüber hinaus kann KI auch bei der Verwaltung, der Terminplanung und der Fehlererkennung helfen, was Effizienz und Qualität der Gesundheitsversorgung erheblich verbessern kann. [7]
Jedoch birgt die Anwendung von KI auch erhebliche Risiken. Beispielsweise können falsche Informationen und Diagnosen lebensgefährlich sein. Die Gefahr besteht, dass Roboter Patientinnen und Patienten nicht sachgerecht pflegen und womöglich diese auch verletzen. Und Entscheidungen, die ausschließlich auf KI basieren, können durch fehlerhafte Daten katastrophale Folgen nach sich ziehen. Daher sollten Daten, die zur Anwendung kommen, nicht verzerrt sein und bestehende Verzerrungen der Wirklichkeit, insbesondere, wenn sie bestimmte Gruppen oder Individuen ungerecht bevorzugen oder benachteiligen, dürfen nicht weiter fortgeschrieben werden (Bias-Beispiel: Gendermedizin = Unterschiede bei Frauen- und Männergesundheit).[8] Vor allem aber darf die menschliche Beziehungsebene in Achtung vor der Würde des Menschen niemals zu kurz kommen.
KI sollte daher ausschließlich als unterstützendes Werkzeug im Gesundheitsbereich betrachtet werden, das menschliche Leistungen ergänzt, aber nicht ersetzt. Auch muss KI in einem kontrollierten und vertrauenswürdigen Umfeld eingesetzt werden, um die bestmöglichen Ergebnisse zu erzielen. Gerade im Gesundheitswesen hat der unkontrollierte Einsatz von KI sonst ungeahnte Konsequenzen.
Verantwortung und Transparenz
Akteure, von Entwicklern bis hin zu Anwendern von KI, sowie öffentliche Zuschussgebe tragen eine hohe Verantwortung. Wir fordern größtmögliche Transparenz in der Entwicklung und Anwendung von KI-Systemen soweit möglich und für das Vertrauen in die KI dienlich. Der Einsatz von KI muss in allen Fällen kenntlich gemacht werden. Entscheidungen, die von oder mit Hilfe von KI getroffen werden, müssen so weit wie möglich nachvollziehbar und überprüfbar sein. Eine ethische und gesellschaftliche Reflexion und Kontrolle der KI-Entwicklung ist unerlässlich.
Zusammenarbeit, Seelsorge und Bildung
In enger Zusammenarbeit von Kirche, Wissenschaft, Politik und Wirtschaft müssen ethische Standards[9] für den Umgang mit und den Einsatz von KI geschaffen werden. Erst wenn deutlich gemacht werden kann, welche Vorteile der Einsatz von KI bei der Bereitstellung von Dienstleistungen und Produkten tatsächlich mit sich bringt, wird das die Skepsis spürbar reduzieren. Beim Ada Lovelace Institut in Großbritannien wurde dieser Zusammenhang im Jahr 2023 untersucht.[10] Eine Mehrheit sieht die Lösung in rechtlichen Reglementierungen, jedoch ist das Vertrauen nach Alter unterschiedlich ausgeprägt. „Die Menschen sagen, dass es für sie wichtig ist, zu verstehen, wie KI-Entscheidungen getroffen werden, auch wenn die Erklärbarkeit eines Systems seine Genauigkeit verringert. Ein komplexes System kann zum Beispiel genauer sein, aber deshalb auch schwieriger zu erklären. Bei der Frage, ob Erklärbarkeit mehr oder weniger wichtig ist als Genauigkeit, ist die häufigste Antwort, dass Menschen und nicht Computer die endgültigen Entscheidungen treffen und in der Lage sein sollten, sie zu erklären (31 %).”
Im Bereich der Bildungsarbeit sind gerade die kirchlichen Träger dafür prädestiniert, die Menschen wertebasiert zu befähigen, Resilienz gegenüber KI-generierten „Wahrheiten” (Deepfakes) zu schaffen und die Kompetenz zu entwickeln, eigenverantwortlich mit den wachsenden Herausforderungen umzugehen – was gestern „Einführung in das Internet” war, ist heute „Umgang mit den Chancen und Risiken von KI”.
Vor allem in der (außer)schulischen Bildungsarbeit von Kindern und Jugendlichen sollte die wertebasierte Kompetenzentwicklung im Umgang mit KI und Sozialen Medien geschult und eingeübt werden.
Demokratie und Religionsfreiheit
Als Christinnen und Christen stehen wir uneingeschränkt zu unserem politischen System der Demokratie. Die Räte und Verbände sind beispielhafte Orte, an denen Demokratie auch im kirchlichen Kontext gelebt und weitergetragen wird. Gesamtgesellschaftlich sehen wir jedoch, dass die Demokratie immer häufiger in Frage gestellt wird. Das zeigt sich unter anderem am Erstarken populistischer, (rechts-)extremer und fremdenfeindlicher Tendenzen und einem spürbaren Vertrauensverlust in Parteien, Mandatsträgerinnen und Mandatsträger sowie staatliche Institutionen.
Eine Ursache dieser Ablehnung liegt auch in der Verbreitung von Halbwahrheiten und Fälschungen, die durch KI-Unterstützung bereits heute nahezu real aussehen und entsprechend flächendeckend verbreitet werden können. KI dient daher immer häufiger als Begründung für systemsprengende Meinungen, die dann auch in Wahlen ihren Ausdruck finden.
Der Einsatz von KI-Systemen eröffnet jedoch auch neue Chancen in diesem Bereich.[11] KI-Systeme können beispielsweise aber große Datenmengen für demokratische Prozesse nutzbar machen, wie beispielsweise bei Wahlen oder der digitalen Partizipation. So hat die Plattform Lernende Systeme[12] für das Feld Demokratie und KI neben allen Warnungen vor Manipulation und Missbrauch auch die positive Rolle von Chatbots im Wahlkampf und die Erstellung zielgruppenorientierter Angebote durch KI hervorgehoben. Mit Blick auf den Bereich der Rechtsstaatlichkeit lassen sich mit KI-Unterstützung so etwa Fälle von Hass und Hetze im Netz effektiver aufdecken. Das erleichtert den zuständigen Stellen die Bearbeitung und Aufklärung.
Gerade in diesem Bereich erscheint es besonders wichtig, nicht in ein Schwarz-Weiß-Denken zu verfallen, sich alleine auf Bedrohungsszenarien zu fokussieren oder die Vorteile von KI überzubetonen. Zum Schutz unserer Demokratien braucht es aufgeklärte, reflektierte Bürgerinnen und Bürger, die Halluzinationen[13], Fake News, Wahlmanipulationen sowie KI-generiertes Bild-, Video- und Tonmaterial auf Social Media-Plattformen entlarven können und die sprachfähig sind, um den Angriffen auf die Demokratie mit Haltung und Argumenten zu begegnen. Um dies zu erreichen, müssen die Angebote und Investitionen im Bereich der (politischen) Bildung und Demokratieförderung ausgeweitet werden. Zudem müssen Institutionen etabliert werden, die in der Lage sind, öffentliche Interessen und bürgerliche und demokratische Rechte auch gegen technische Möglichkeiten und ökonomische Anreize stark zu machen.
Auch mit Blick auf die Religionsfreiheit weltweit können digitale Systeme Hilfe und Bedrohung gleichermaßen sein. Eine Konferenz der International Religious Freedom or Belief Alliance im Bundesentwicklungsministerium hat kürzlich deutlich gemacht, dass KI und ihr Einsatz in Suchmaschinen, Sozialen Medien und Gottesdiensten direkte Auswirkungen darauf haben, wie Menschen weltweit ihr Recht auf Religions- und Weltanschauungsfreiheit leben können.[14] So lassen sich mit digitalen Angeboten Menschen in abgelegenen Regionen leichter und regelmäßiger erreichen, ihre Teilhabe am Glaubensleben und der Gemeinschaft wird verbessert. KI-Systeme können zur Förderung eines friedlichen Miteinanders und Zusammenlebens, für Dialog und Verständigung eingesetzt werden, gleichzeitig aber auch zur Überwachung und Unterdrückung religiöser und anderer Minderheiten. Es braucht auch hier eine wache Zivilgesellschaft, die für (Religions-)Freiheit, Dialog und Gleichberechtigung einsteht und den Willen der politisch Verantwortlichen, dies durchzusetzen.
Schöpfungsverantwortung
Die Nutzung von KI muss im Einklang mit der Bewahrung der Schöpfung stehen. Technologien, die Umwelt und Klima belasten, müssen kritisch hinterfragt und durch nachhaltige Alternativen abgelöst werden. Beim Schürfen von Rohstoffen müssen menschenunwürdige Arbeit und die Zerstörung von Natur vermieden werden.
Bei allem möglichen Fortschritt ist jedoch der ökologische Fußabdruck zu bedenken. Jede Suchabfrage im Internet erfordert Ressourcen, allein der Betrieb von Chat GPT verursacht einen täglichen Energieverbrauch von 62.000 deutschen Haushalten[15], das Training von GPT-3 hat schätzungsweise 700.000 Liter Wasser verbraucht, was dem täglichen Trinkwasserverbrauch von 5.000 Menschen entspricht.[16]
Andererseits gibt es bereits heute Einsatzgebiete von KI, die helfen, das Klima und unseren Planeten zu schützen und den ökologischen Herausforderungen unserer Zeit zu begegnen.[17] So können durch KI beispielsweise Lecks in der Wasserversorgung schneller gefunden und präziser lokalisiert werden, wodurch weniger wertvolles (Trink-)Wasser verloren geht. KI-gestützte Analysetools ermöglichen es, illegale Verkaufsanzeigen geschützter Tierarten im Netz ausfindig zu machen, indem Angebote erfasst sowie nach bestimmten Kriterien gefiltert werden. Zudem erleichtern KI-Systeme die Auswertung von Satellitenbildern, was für die Planung der Energiewende sinnvoll genutzt werden kann, Wirtschaftskreisläufe und Mobilität lassen sich optimieren, effizienter und ressourcenschonender werden.
KI muss daher gezielt so weiterentwickelt und eingesetzt werden, dass sie nachhaltig dem Klimaschutz und der Bewältigung des Klimawandels hilft und keine weiteren Schäden an der Natur und ihren Ökosystemen verursacht – dann kann sie einen entscheidenden Teil zur öko-sozialen Transformation beitragen. Auch als Kirche müssen wir diesen Prozess mitgestalten und uns im Rahmen unserer Möglichkeiten – etwa im Bereich des Bauens, der Beschaffung, des Wirtschaftens und der Bewusstseinsbildung – einbringen und dürfen nicht einem Technikglauben verfallen, dass KI die Frage der Schöpfungsverantwortung an unserer Stelle lösen könne.
Perspektiven für Pastoral und Sakramentenkatechese
Im kirchlichen Vollzug wird KI und zumal generative KI schon auf vielen Ebenen angewendet. Aber wird damit immer dem Dienst der Kirche am Menschen entsprochen?
Als Kirche sind wir berufen, die Seelsorge der Menschen zu fördern. KI kann uns helfen, durch virtuelle Gemeinden, Online-Seelsorge und digitale Glaubensgemeinschaften Menschen zu erreichen, die sonst isoliert oder unerreichbar wären. Dennoch müssen die persönliche Begegnung und das zwischenmenschliche Miteinander im pastoralen Handeln immer im Vordergrund stehen. Nur der Mensch selbst gibt ein authentisches Glaubenszeugnis für die Liebe Gottes zu uns Menschen ab. Die Technologie sollte unsere pastoralen Bemühungen ergänzen und unterstützen, aber niemals ersetzen.
Dies kann konkret so aussehen, dass durch Natural Large Language Models Ideen für Predigten generiert werden können. Die letzte Pointe sollte aber der menschlichen Redaktion und dessen Nachdenken dazu obliegen. Das Bistum Essen hat sich 2023 die Ostergeschichte mit Hilfe von KI bebildern lassen. Hier wäre eine kritische Auseinandersetzung mit den damit verbundenen Stereotypen wichtig, denn KI simuliert auf den vorhandenen Bildern (eher männlich geprägt und weißhäutig) wieder entsprechende ikonische Bilder. Neue Seh- und Denkgewohnheiten werden damit aber nicht generiert.
Bei möglichen KI-Anwendungen darf die Verwaltung nicht vergessen werden, die auch durch KI unterstützt werden kann. Man kann an die Erstellung einfacher Massenbriefe, an die Generierung von Vorhersagen/Kalkulation für Festivitäten, für Werbemaßnahmen/Marketingstrategien, für immer wieder aufkommende Fragestellungen denken. Man könnte beispielsweise spezifische Personengruppen mit bestimmten Mustern aus der Gemeinde mit Hilfe der KI suchen, um gezielt seelsorgerliche Maßnahmen zu planen.
Letztlich werden wir auf die Frage zurückgeworfen, was an die KI delegiert werden kann, ohne die Beziehungsaspekte der Pastoral zu vernachlässigen. So kann KI wie bei Chatbots in der Psychotherapie weite Strecken an Gesprächen simulieren, jedoch nicht die leibliche seelsorgerliche Zuwendung ersetzen. Menschen, die mit ihren Sorgen, Fragen und Nöten bei Chatbots um Rat und Hilfe fragen, müssen ernst genommen werden, gleichzeitig müssen die in der Seelsorge Tätigen dazu befähigt werden, auf die sich verändernde Situation einzugehen und die vorhandenen Technologien im Sinne der Menschen zu nutzen.
Sakramente sind zentrale Elemente unseres Glaubenslebens und Zeichen der Nähe Gottes. Die physische Präsenz des Spenders sowie die reale Gemeinschaft der Gläubigen sind für die Sakramentenspendung unabdingbar. Die Liebe Gottes muss in dieser physischen Präsenz leiblich und sinnlich erfahrbar und begreifbar bleiben.
Jedoch kann KI eine unterstützende Rolle spielen, indem sie beispielsweise die liturgische Bildung und Vorbereitung auf die Sakramente erleichtert und Zugänge zu theologischen Inhalten und spirituellen Ressourcen schafft. So können beispielsweise mittels eines Avatars, der Fragen zu den diversen Sakramenten beantwortet, Verständnisbarrieren abgebaut werden. Wie im Bildungsbereich kann KI den Zugang für Menschen mit Behinderung erleichtern, indem eine Mitfeier virtuell ermöglicht wird und die KI als Vernetzungstool von digitalen und analogen Partizipierenden genutzt wird. Auch kann die Unterstützung der Sakramenten- und Sakramentalienpastoral (Erstkommunion, Firmung, Taufe, Hochzeit, Begräbnis, etc.) durch KI erweitert werden. Mithilfe von Augmented- und Virtual-Reality können „fremde Welten“ (etwa im Kontext von Planspielen etc.) generiert werden, in denen die Partizipierenden verkehren und so Einblick in die sakramentalen Vollzüge bekommen.
Fazit
Als Landeskomitee der Katholiken in Bayern möchten wir dazu beitragen, dass der Fortschritt der Künstlichen Intelligenz im Einklang mit unseren christlichen Werten gestaltet wird. Wir laden alle Akteure in Kirche und Gesellschaft dazu ein, Sektoren innerhalb des kirchlichen Lebens zu entdecken, in denen KI eine Unterstützung des Menschen und eine Bereicherung der menschlichen Handlungsfähigkeit darstellt, diesen Weg gemeinsam zu gehen und die Chancen der KI zum Wohl aller Menschen zu nutzen. Entsprechende Maßstäbe müssen sowohl bei der Umsetzung der einschlägigen EU-Verordnung zur KI in nationales Recht und auch in den Vereinten Nationen Beachtung finden.
Diese Erklärung soll als Leitfaden dienen, um den technologischen Wandel mit menschlicher Wärme und ethischer Klarheit zu begleiten. Nur so können wir sicherstellen, dass die Künstliche Intelligenz tatsächlich eine Bereicherung für Kirche und Gesellschaft darstellt – und besser ist als die bloße technische Machbarkeit.
Von den Mitgliedern des Landeskomitees bei der Herbstvollversammlung 2024
am 15./16. November2024 in Ohlstadt einstimmig beschlossen.
[1] Künstliche Intelligenz ist der gängige Begriff, in technischer Hinsicht wäre Machine Learning angebrachter.
[3] https://www.romecall.org/ai-ethics-for-peace-hiroshima-july-9th-2024.
[4] Am 8.9.2024 (Termin für Deutschland) stand am Welttag der Sozialen Kommunikationsmittel Künstliche Intelligenz im Mittelpunkt der Rede von Papst Franziskus: Botschaft zum 58. Welttag der sozialen Kommunikationsmittel (24.1.2024): Künstliche Intelligenz und die Weisheit des Herzens: für eine wahrhaft menschliche Kommunikation. https://www.dbk.de/fileadmin/redaktion/diverse_downloads/Botschaften/2024-Botschaft_58-Welttag_der_Sozialen_Kommunikationsmittel.pdf.
[5] Vgl. die Relevanzsetzung im Dokument „Dignitas infinita” (8. April 2024) vom Dikasterium für die Glaubenslehre.
[6] Vgl. Deutscher Ethikrat, Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz, Berlin 2023.
[7] Vgl. https://www.iks.fraunhofer.de/de/themen/kuenstliche-intelligenz/kuenstliche-intelligenz-medizin.html.
[8] https://www.bmz-digital.global/biases-und-ki-wie-neutral-ist-technologie.
[9] Vgl. eine Vielzahl von Policy Papern, z.B. High-Level Expert Group der Europäischen Union. https://digital-strategy.ec.europa.eu/en/policies/expert-group-ai.
[10] https://attitudestoai.uk/findings/key-findings.
[11] Vgl. u.a. Policy Paper der Friedrich Neumann Stiftung „Demokratie und KI. Wie technologischer Fortschritt demokratische Strukturen stärken kann (https://www.freiheit.org/de/demokratie-und-ki-wie-technologischer-fortschritt-unsere-demokratie-staerken-kann) oder die Publikation der Bundeszentrale für politische Bildung „KI und Demokratie: Entwicklungspfade“ (https://www.bpb.de/shop/zeitschriften/apuz/kuenstliche-intelligenz-2023/541497/ki-und-demokratie-entwicklungspfade).
[12] Vgl. https://www.plattform-lernende-systeme.de/ki-und-demokratie.html, https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/Whitepaper_KI_im_Superwahljahr_Plattform_Lernende_Systeme_2024.pdf
[13] Hier als Terminus technicus; gemeint ist das Phänomen, wenn ein KI-Modell Inhalte generiert, die falsch, erfunden oder unbegründet sind, zum Beispiel aufgrund einer zu geringen Datenbasis.
[14] Vgl. Bericht des BMZ (10.10.2024) auf https://www.bmz.de/de/aktuelles/aktuelle-meldungen/religions-und-weltanschauungsfreiheit-im-digitalen-raum-230858
[15] Europäische Umweltagentur (2023): Bericht über den CO²-Ausstoß digitaler Dienste
[16] Patterson, Patterson D., Gonzalez, et al. (2023): Making AI Less “Thirsty”: Uncovering and Addressing the Secret Water Footprint of AI Models. Retrieved from AI Water Footprint Study;
[17] Vgl. u.a. https://www.umweltbundesamt.de/themen/digitalisierung/anwendungslabor-fuer-kuenstliche-intelligenz-big#intro; https://www.iis.fraunhofer.de/de/magazin/serien/serie-nachhaltigkeit/digital-nachhaltig-sustainable-development-goals/ressourcenschonende_ki_nachhaltigkeit.html; https://www.bmuv.de/themen/digitalisierung/kuenstliche-intelligenz-fuer-umwelt-und-klima.
Beitragsbild: Adobe Stock / Artistic-Visions: Bilder im Text: Adobe Stock: Prostock-studio, nilanka, Kanika-Graphic.
Klicken Sie auf den unteren Button, um den Inhalt von docs.google.com zu laden.