Künstliche Intelligenz: Instrument oder Geschöpf?

Namhafte Entwickler und Teilhaber mächtiger KI-Technologien warnen vor grossen, noch nicht absehbaren und zum jetzigen Zeitpunkt kaum kontrollierbaren Folgen einer Technologie, die nach eigenen Gesetzmässigkeiten an Einfluss gewinnt. 100 solcher Fachpersonen haben einen offenen Brief unterschrieben, der eine Entwicklungspause der KI-Technologien fordert. Andere und z.T. sogar dieselben bedeutenden Entwickler und Teilhaber betonen die nahezu utopisch wirkenden Chancen, die sich mit dem bevorstehenden Technologischen Durchbruch im Übergang von KI zu KSI (künstlicher Super-Intelligenz) ergeben. Medial werden diese Positionen, wie bei allen technologischen Entwicklungsthemen der letzten 150 Jahre, personalisiert und zugespitzt.

Dystopie

Wer Elon Musk, Bill Gates oder Yuval Noah Harari folgt, findet sich in einem dystopischen Szenario wieder, in der die kurz vor dem Durchbruch stehende Superintelligenz die menschliche Autonomie bedroht oder gar eine gegenüber dem Menschen neue Entwicklungsstufe darstellt. KI ist aus dieser Perspektive weniger eine Technologie, sondern ein Geschöpf, das sich nach eigenen Regeln und Möglichkeiten reproduziert, eigenen Interessen folgen kann und im Verhältnis zum Menschen in eine Konkurrenzsituation tritt. Als Geisteswissenschaftler denkt man dabei nicht zuerst an komplexe Algorithmen, sondern an den Zauberlehrling:

«Herr, die Not ist groß!
Die ich rief, die Geister
Werd’ ich nun nicht los.»

Der Zauberlehrling - J. W. von Goethe

Der Besen entwickelt einen eigenen Willen und eine eigene Macht, diesen Willen gegenüber dem Zauberlehrling durchzusetzen. Der Zauberlehrling hat ein Potential aktiviert, das er nun nicht mehr kontrollieren kann und das ihn selbst und seine Ordnung bedroht.

Utopie

Wer optimistischeren Stimmen Gehör schenkt, wie Sam Altmann, Andrew Ng, Fei-Fei Li oder Andrew McAfee erkennt in der KI ein nützliches und sehr mächtiges Werkzeug, das der Menschheit helfen wird Krankheiten zu heilen, Bildungssysteme zu optimieren, den Energieverbrauch zu reduzieren und insgesamt die Lebensqualität der Menschen zu verbessern. Nicht das Motiv des Zauberlehrlings, sondern der Mythos des feuerbringenden Prometheus steht Pate für diesen Optimismus. Trevor Noah, bis 2022 Moderator der Daily Show und seit 2023 Host des Podcast «What Now» hat Sam Altmann selbst, den CEO von OpenAI «Prometheus» genannt.

Wenn wir die Ausgangslage zuspitzen und personalisieren, können wir fragen: Ist Sam Altmann, der Chefentwickler und CEO von OpenAI ein Zauberlehrling oder ein Prometheus? Und stellt die jetzige KI eine technologische Entwicklung dar oder ist sie ein Geschöpf, dass wachsen, sich entwickeln, eigene Vorstellungen und Werte entwickeln wird und Wege findet, diese durchzusetzen?

KI zwischen Schöpfung und Instrument

Kann man die Innovation der KI mit dem Phänomen iPhone vergleichen? Oder ist sie lediglich eine nächste Innovation, die als Trittbrettfahrerin auf der Welle dieses Phänomens mitreitet? Oder müsste man sie gar mit der Erfindung der Atombombe vergleichen, einer Möglichkeit und Gefahr menschlicher Selbstauslöschung durch Technologie? Wer zu diesen Fragen, die für die ethische Einschätzung der KI-Technologie wichtig sind, eine Haltung entwickeln will, sollte sich nicht zu sehr von den Utopien und Dystopien unserer Popkultur leiten lassen. David Lagercrantzs vierter Millenium-Band «Verschwörung» oder der Film «Free Guy» bieten zwar beste Unterhaltung und können uns zum Nachdenken anregen. Aber sie sind keine Grundlage, auf die wir uns beziehen können, wenn wir über Chancen und Risiken dieser Technologie nachdenken. Genauso fahrlässig wäre es aber, diese Innovation und ihr Potential kleinzureden und sie in Analogie zu Dampfmaschinen, Verbrennungsmotoren oder Verhütungsmitteln zu unterschätzen.

Die erste und vorentscheidende Frage lautet dabei: Handelt es sich bei der KI-Technologie um ein Instrument, eine Technologie, die Menschen verwenden oder um ein Geschöpf, das einzelne Menschen in die Welt gesetzt haben, das sich entwickeln, reproduzieren und selbstständig verbessern wird? Sprechen wir von Innovation – im Sinne menschlichen Handelns – oder von Evolution – im Sinne geschöpflicher Entwicklung? Die Theorie der technologischen Singularität prägt gegenwärtig die Vorstellungen vieler Menschen über KI. Sie dient als Blaupause für Populärwissenschaft, Romane und Hollywoodfilme und erklärt den Weg von der Rechenmaschine zur KI und von da aus zur KSI als evolutiven Prozess.

Technologische Singularität

Rechnen ist nicht Denken. Und Rechenkapazität ist nicht gleichzusetzen mit Intelligenz. Die Theorie der technologischen Singularität grenzt diese Begriffe jedoch nicht trennscharf voneinander ab. Die Idee hinter dieser verbreiteten Theorie ist einfach: Die Rechenleistung der Computer wächst rasant. Sie wird aller Wahrscheinlichkeit nach die Rechenleistung menschlicher Gehirne sehr bald überholen. Eine sehr starke künstliche Intelligenz, die selbstlernend funktioniert, wie dies gegenwärtige Sprachmodelle wie z.B. ChatGPT, Bard oder Sydney tun, könnte, gepaart mit dieser schieren Rechenleistung den menschlichen Verstand nicht nur punktuell, in begrenzten Aufgabenfeldern wie Schach oder ähnlichem besiegen, sondern ganz generell den menschlichen Verstand überflügeln. Ähnlich wie der Besen des Zauberlehrlings entwickelt die KI einen eigenen Willen, den sie dann gegenüber der Welt durchsetzen wird.

Diese Vorstellung klingt faszinierend. Sollte sie aber Wirklichkeit werden, so dass KI künftig, wie ein Lebewesen operieren könnte, müssten folgende Bedingungen erfüllt sein:

  1. Selbstreproduktion: Lebewesen sind autopoietische Systeme. Sie sind also Netzwerke von Prozessen, die in der Lage sind, mehr von sich selbst produzieren und sich selbst zu erhalten. 
  2. Evolution: Lebewesen passen sich über Generationen hinweg an ihre Umgebung an und verändern sich.
  3. Erfahrungswelt: Lebewesen haben eine innere Erfahrungswelt. Sie haben Empfindungen, teilweise Emotionen und gewisse Lebewesen sogar Bewusstsein.

Grundsätzlich halte ich es für denkbar, dass KI-Technologien selbst neue KI-Technologien erzeugen und trainieren. Eine sogenannte Generative KI würde dann zugleich das, was wir in der Biologie unter Evolution verstehen, virtuell umsetzen: KI-Systeme programmieren ihre verbesserten Nachfolger. Damit die KI aber wirklich etwas grundsätzlich Neues lernen, ein bisher unbekanntes Feld erschliessen könnte, müsste sie zusätzlich über eine Erfahrungswelt verfügen. Diese lässt sich aber nicht aus mehr Speicherkapazität und Rechenleistung gewinnen. Hier müsste ein ganz anderer Lernprozess in Gang kommen.

«Damit die KI aber wirklich etwas grundsätzlich Neues lernen, ein bisher unbekanntes Feld erschliessen könnte, müsste sie zusätzlich über eine Erfahrungswelt verfügen.»

Vermutlich liegt in diesem dritten Kriterium auch die Grunddifferenz zwischen menschlichem Denken und der Funktionsweise der Algorithmen künstlicher Intelligenz. Die Grundoperation künstlicher Intelligenz unterscheidet sich nämlich wesentlich vom menschlichen Denken. Wenn ein Language-Tool rechnet, analysiert es grosse Datenmengen, um in dieser Datenflut Muster zu erkennen. Menschliches Denken dagegen beruht auf einem linguistischen Rahmen, der das was der Fall ist, was der Fall hätte sein können, niemals der Fall sein wird, in Kategorien einordnet, unter Prinzipien stellen kann. Der menschliche Verstand kann nicht nur über die Welt nachdenken, indem er Seiendes, Mögliches oder Unmögliches zuordnet. Er kann selbst auch über die Art und Weise dieser Zuordnung Rechenschaft ablegen, sie kritisieren und mit anderen Urteilen konfrontieren und gegen diese abwägen.

KI muss immer neu im Daten-Wirrwarr Ordnungen erkennen, die – und das ist der grosse Unterschied! - für die KI selbst nicht reflexiv durchsichtig sind. Sie weiss nicht und kann nicht begründen, weshalb und wie sie diese Muster erkannt hat. Sie operiert rein statistisch.

Stochastischer Papagei

Die Informatikerin und AI-Ethikerin Joanna Bryson hat dafür den Begriff des stochastischen Papageis geprägt: «Stochastisch» bezieht sich auf den Einsatz von Wahrscheinlichkeiten oder statistischen Methoden, um Text zu generieren, während «Papagei» metaphorisch für die Art von künstlicher Intelligenz steht, die Informationen wiederholt oder reproduziert, ohne ein echtes Verständnis für das Gesagte zu haben.

Die Idee hinter dem Begriff «Stochastischer Papagei» ist, dass diese KI-Systeme oberflächlich gesehen menschenähnliche Sprache produzieren können, jedoch ohne tiefes Verständnis für die Bedeutung, den Kontext oder die Konnotationen der generierten Sätze. Sie reproduzieren im Wesentlichen Muster aus den Daten, anstatt wirklich zu verstehen, was sie sagen. Sie haben kein Bewusstsein, dass es ihnen ermöglicht, sich selbst in ein Verhältnis zu diesen Aussagen zu bringen.

Emergenz und Intelligenz

Wenn das stimmt, dann kann es unabhängig davon, wie sehr die Speicherkapazitäten für Sprachmodelle wachsen werden, zwar Language Tools oder andere KI-Applikationen geben, die in gewissen Bereichen menschliches Können überflügeln, aber keine Superintelligenz, die den menschlichen Verstand insgesamt übertrifft und ihm gegenübertritt. Das menschliche Gehirn ist äusserst komplex und dynamisch und hat eine unglaubliche Fähigkeit zur Anpassung, zum Lernen und zur Kreativität. Es ist gemessen an seiner Rechenleistung ungeheuer effizient. Derzeitige KI-Systeme sind im Vergleich dazu stark begrenzt und können menschliche kognitive Fähigkeiten nur teilweise oder in spezifischen Bereichen nachahmen.

Ein Kind muss z.B. nicht 1000 Hunde gesehen haben, bis es Hunde von Katzen einigermassen zuverlässig unterscheiden kann. Das Kind entwickelt einen Begriff des Hundes, von der Katze, von den Dingen, denen wir Namen gegeben haben. Es hat ein Konzept für «Hund», ein Verständnis darüber, was Hunde sind. Und es kann sich zu diesen Hunden, Katzen und Dingen selbst in ein Verhältnis setzen. Das ist ein komplexer Prozess, der sowohl sensorische Eingaben als auch kognitive Verarbeitung umfasst und durch Erfahrung, Kontext und Lernen geformt wird. Die Mustererkennung ist dabei nur ein Bestandteil. Sie führt nicht selbstständig zu Urteilsfähigkeit und Bewusstsein.

Ich halte die Theorie der technologischen Singularität deshalb für falsch. Aus mehr und schnellerer Mustererkennung entsteht nicht Intelligenz. Dazu wäre ein kategorischer Sprung notwendig, ein Emergenz Moment, das die Theorie der technologischen Singularität gar nicht beschreiben kann. Aber nicht nur aus kognitionswissenschaftlicher, sondern auch aus philosophischer Perspektive halte ich die Idee einer selbstbewussten, autonom agierenden Superintelligenz für Science-Fiction. Und das hängt damit zusammen, was Sprache eigentlich ist.

Sprache und Verständigung

Sprache ist ursprünglich und hauptsächlich nicht einfach ein Mittel, um Dinge in der Welt zu repräsentieren, sondern uns untereinander über diese Dinge in der Welt zu verständigen. Der menschliche Verstand nutzt dazu zu einem gewissen Mass ebenfalls Mustererkennung: Wir erkennen Ähnlichkeiten zwischen Gegenständen, ziehen Analogien zwischen Situationen und erkennen Muster in einem Datensatz.

Aber der menschliche Verstand tut mehr als dies. Er kann in konstativen Sätzen feststellen, dass etwas der Fall ist: «Hier steht ein Tisch.» Er kann authentisch Liebe gestehen oder Schmerz ausdrücken: «Aua!» Für beides, konstative Sätze und authentische Äusserungen, ist entscheidend, dass wir die Welt nicht nur lesen, statistisch fortführen und ergänzen, sondern erfahren und erleben.

Sprache und Denken sind konzeptionell an Personen gebunden, die sich über etwas in der Welt – sei es vorgestellt, ausgedacht oder real – verständigen.

Rationalität als Voraussetzung von Sprache

Dazu gehören zwei Grundvoraussetzungen: Erstens, dass Sprecherinnen und Sprecher grundsätzlich die Betroffenenperspektive von Welt kennen und zweitens, dass sie als Personen auf ihre Aussagen ansprechbar sind. Ohne Betroffenenperspektive fehlt der Sprache ihr lebensweltliches Rückgrat, so dass weder Authentizität noch Erfahrungslernen möglich sind. Mustererkennung, wie KI-Tools sie verwenden, stellen nur ein Erfahrungslernen zweiter Ordnung dar. Sie lernen nicht an der Welt, sondern mittels Daten, welche diese Welt sekundär und ohne Kontext repräsentieren. Sinnliche Erfahrungen sind nur mittelbar durch aufbereitete Daten zugänglich. Es ist aber etwas anderes, zu wissen, dass das Schulkind Max auf dem Nachhauseweg eine Strassenkreuzung mit einer Ampel überqueren muss, als dies zu wissen, als jemand der selbst ein Schulkind war, vielleicht selbst Kinder hatte, sich schon gesorgt hat, wenn das eigene Kind sich verspätet oder gar jemanden kennt, der angefahren worden ist.

Das, was wir wissen und denken als Menschen, steht in einem Kontext, den wir uns zwar nicht immer bewusst machen, auf den wir aber prinzipiell ansprechbar sind. Wenn Peter schimpft: «Diese Scheisskreuzung! Man muss endlich etwas dagegen tun!», gibt es unterschiedliche Möglichkeiten, darauf zu antworten. Ich kann entgegnen: «Ich finde die Kreuzung schön. Es beruhigt mich, an der Ecke zu stehen und dem Verkehr zu lauschen.» Ich kann zustimmen: «Genau! Lass uns die Kreuzung blockieren!» Ich kann aber auch zurückfragen, Motive unterstellen, die Aussage in einen Rahmen einordnen, innerhalb dessen ich sie verstehen kann: «Machst du dir Sorgen um deine Kinder, deren Schulweg über diese gefährliche Kreuzung führt?»

Wir unterstellen unserem Gegenüber, dass es Gründe hat, die hinter seiner Aussage stehen. Wenn wir eine Aussage problematisch finden oder anderer Meinung sind, können wir nach diesen Gründen fragen und sie gemeinsam, in einem Verständigungsprozess diskutieren und gewichten. Natürlich unterstellen wir uns oft gegenseitig zweifelhafte und falsche Motive. Das spricht aber nicht gegen die prinzipielle Möglichkeit von Kommunikation, sondern zeigt, dass Kommunikation auch und gerade durch Missverständnisse gelingen kann.

Zwischenfazit: KI ist eine Technologie

Aus den eben ausgeführten Erwägungen und Gründen, komme ich zum Ergebnis, dass es sich bei gegenwärtiger und in mittelfristiger Zukunft absehbarer KI um Technologie und nicht um Schöpfung handelt. Ich möchte die wichtigsten Argumente dafür zusammenfassen:

  1. Selbstreproduktion und Evolution: Lebewesen haben die Fähigkeit zur Selbstreproduktion und unterliegen der Evolution, die genetische Veränderungen und Anpassungen über Generationen hinweg ermöglicht. KI-Systeme reproduzieren sich nicht selbst und sind nicht in der Lage, sich auf diese Weise gattungsspezifisch weiterzuentwickeln. Sie passen sich nicht an eine Lebenswelt an, sondern verbessern sich selbst lediglich darin, eine bestimmte Operation besser auszuführen. Sie erkennen dann schneller und zuverlässiger Abweichungen von einem bestimmten Muster. Aber sie stellen z.B. nicht plötzlich die Frage, ob es nicht sinnvoller wäre, etwas ganz anderes zu tun.
  2. Kreativität und Intuition: Lebewesen können kreativ sein und intuitive Entscheidungen treffen. KI-Systeme können zwar aufgrund von Mustern und Daten «lernen», aber ihre «Kreativität» ist auf das Reproduzieren von existierenden Mustern oder Daten beschränkt.
  3. Bewusstsein und Erfahrung: KI-Technologien haben kein Bewusstsein oder subjektive Erfahrungen. Sie sind nicht Autoren, denen Handlungen als Taten zugerechnet werden können, für die sie Rechenschaft tragen.

Oder um es auf den Punkt zu bringen: Künstliche Intelligenz ist nicht rational in dem Sinne, wie wir Lebewesen Rationalität zuschreiben, sondern höchstens zweckrational.

«Künstliche Intelligenz ist nicht rational in dem Sinne, wie wir Lebewesen Rationalität zuschreiben, sondern höchstens zweckrational.»

Verantwortung und autonome Technologie

Vor diesem realistischen Hintergrund sollten wir daher sehr zurückhaltend sein, mit unseren Erwartungen an die Problemlösungsleistung von KI-Tools. Ob es nun um das Mega-Thema Klimaerwärmung oder um einfachere Dinge wie selbststeuernde Automobile geht: Es werden Entscheidungen getroffen. Diese Entscheidungen müssen im Einzelfall nicht nur juristisch, sondern auch moralisch und insgesamt ethisch verantwortet werden. Weil KI-Tools keine Personen sind, kommen sie nicht als ethische oder moralische Subjekte, sondern nur als Objekte in den Blick. Wir diskutieren die ethischen Folgen der Technologie selbstfahrender Autos. Aber wir diskutieren sie nicht mit den selbstfahrenden Autos.

Vielleicht fragen Sie sich, ob die KI uns künftig solche ethischen Entscheidungen abnehmen kann. Um diese Frage zu beantworten, müssen wir zunächst verstehen, wie KI überhaupt funktioniert. Ich unterscheide dabei grob zwischen zwei Arten von KI. Die bis vor zwei Jahren weitverbreitete klassische KI lernt anhand ausgewählter Datensätze. Klassische KI-Systeme verwenden oft explizit programmierte Regeln und Algorithmen, die von Entwicklern erstellt werden, um spezifische Probleme zu lösen. Diese Regeln werden verwendet, um Daten zu analysieren, Schlussfolgerungen zu ziehen und Entscheidungen zu treffen. Sie verwenden Regelwerke, um auf komplexe Fragen zu antworten oder Probleme zu lösen, indem sie auf das gespeicherte Fachwissen zurückgreifen.

Klassische KI kann also regelgeleite Schlüsse ziehen, die davon abhängen, welche Regeln Menschen diesem KI-System zugrunde legen. Man kann mit dieser Technologie den Schachweltmeister besiegen oder Gesichter erkennen. Es wäre aber sinnlos, mit einem solchen Tool über die Eleganz des Schachspiels oder die Schönheit eines Gesichts zu diskutieren.

Moderne Ansätze des maschinellen Lernens basieren hauptsächlich auf der Verarbeitung grosser Datenmengen, um Muster in Daten zu erkennen und zu generalisieren, um Vorhersagen zu treffen oder Aufgaben zu lösen. Die KI-Technologie hinter den KI-Tools die wir mit der Eigenschaft Deep Learning bezeichnen, werden gerne mit neuronalen Netzwerken verglichen. Diese Technologie arbeitet mit verschiedenen Schichten künstlicher Neuronen, die untereinander vernetzt sind. Das neuronale Netzwerk lernt, indem es die Gewichte zwischen den Neuronen anpasst, um die Fehler oder Differenzen zwischen den Vorhersagen und den tatsächlichen Ergebnissen zu minimieren. Dies geschieht während des Trainings mit gelabelten Datensätzen, indem das Netzwerk durch ständige Wiederholung und Feedback die Gewichte optimiert, um bessere Vorhersagen zu treffen. Ein gut trainiertes neuronales Netzwerk kann komplexe Muster erkennen, Klassifizierungen durchführen, Muster in Daten verstehen und Vorhersagen treffen, was es zu einem leistungsstarken Werkzeug für viele Anwendungen im Bereich des maschinellen Lernens macht.

Die Leistungen solcher KI-Systeme sind sehr beeindruckend, wie z.B. Chat GPT von OpenAI zeigt. Dennoch lernen sie streng genommen nicht selbst. Das Lernen ist rein inkrementell. Ein trainiertes System kann ohne Weiteres Kriterien für eine ADHS-Diagnose wiedergeben, oder anhand feststehender Kriterien die Wahrscheinlichkeit einer zutreffenden ADHS-Diagnose berechnen. Sie ist aber prinzipiell nicht in der Lage darüber zu diskutieren, ob ADHS eine Erkrankung oder ein Potential ist und die Frage selbst bleibt ihr fremd.

KI wird uns auch künftig nicht davon dispensieren, dass wir Sachverhalte analysieren und verstehen müssen, sie beurteilen und für dieses Urteil nachvollziehbare Gründe angeben müssen. Sie kann uns dabei unterstützen, komplizierte Zusammenhänge schneller zu analysieren oder indem sie schwierige Texte in einfacherer Sprache wiedergibt. Aber sie kann nicht auf einer Metaebene darüber nachdenken, weshalb sie zu einem bestimmten moralischen Urteil kommt, und sollte das auch gar nicht tun.

Ich habe ChatGPT nach Gründen gefragt, die das Töten eines Menschen rechtfertigen:

Die Frage nach der Rechtfertigung des Tötens eines Menschen ist äußerst komplex und kontextabhängig. Es gibt ethische, rechtliche und moralische Grundsätze, die in verschiedenen Situationen als Rechtfertigung für das Töten eines Menschen betrachtet werden könnten. Hier sind einige Beispiele, in denen das Töten in bestimmten Kontexten als gerechtfertigt angesehen werden könnte:

  1. **Selbstverteidigung:** Wenn das Leben einer Person unmittelbar und ernsthaft bedroht ist und das Töten einer anderen Person die einzige Möglichkeit ist, sich zu verteidigen und das eigene Leben zu schützen, wird dies oft als gerechtfertigt angesehen.
  2. **Notwehr:** In Situationen, in denen jemand anderes unmittelbar gefährdet ist und das Eingreifen notwendig ist, um das Leben einer Person zu schützen, könnte das Töten in Notwehr als gerechtfertigt betrachtet werden.
  3. **Krieg und Verteidigung:** Unter bestimmten Umständen könnte das Töten im Kontext eines gerechten Krieges oder zur Verteidigung eines Landes als legitim angesehen werden, obwohl Kriegsrecht und internationale Gesetze strikte Regeln und Einschränkungen für den Einsatz von Gewalt haben.
  4. **Gesetzliche Exekution:** In einigen Ländern kann die Todesstrafe als gesetzliche Strafe für schwerwiegende Verbrechen angesehen werden, obwohl es viele ethische und moralische Debatten über ihre Anwendung gibt.
  5. **Notstandssituationen:** In extremen Situationen, wie beispielsweise bei terroristischen Angriffen oder Geiselnahmen, könnten Entscheidungen zur Tötung getroffen werden, um ein noch größeres Unglück oder Schäden zu verhindern.

Es ist wichtig anzumerken, dass die Frage der Rechtfertigung des Tötens eines Menschen stark von kulturellen, rechtlichen und ethischen Überzeugungen sowie von spezifischen Umständen und Kontexten abhängt. Diese Gründe sind nicht universell akzeptiert und werden oft kontrovers diskutiert. Die Beurteilung, ob das Töten in einer bestimmten Situation gerechtfertigt ist, ist ein komplexes Thema, das von verschiedenen Perspektiven betrachtet werden muss.

Ich finde diese Antwort ausgezeichnet! Auf der Ebene des Wissens liefert sie die entscheidenden Kontexte, in denen die Frage nach der rechtfertigungsfähigen Tötung eines Menschen auftaucht und beschreibt diese prägnant. Wirklich stark ist aber die Grenzmarkierung, die ChatGPT in der Antwort vornimmt. Der Schlussabschnitt führt aus, dass die Beantwortung der Frage nicht auf ein universal geteiltes Prinzip rekurrieren kann, sondern kontextuellen Vorbedingungen unterliegt. Diese Kontexte sind Lebenswelten, die durch historisch geronnene Erfahrungen, Mentalitäten, Bildungsprozesse oder das kulturelle Gedächtnis geprägt sind. ChatGPT bewohnt diese Lebenswelten nicht. Dem Language-Tool fehlt, was ein ethisches Urteil erst ermöglichen würde: Die Teilnehmerperspektive am Leben in einem bestimmten Kontext, der Wertvorstellungen entwickelt und prägt und die Perspektive auf andere Kontexte formiert. KI-Systeme können die Grundlage eines selbstorganisierten Teilsystems sein. Aber sie sind nicht in einem umfassenden Sinn autonom, weil ihnen insofern Vernunft fehlt, als dass sie als rechenschaftsfähige Subjekte auftreten, Entscheidungen verantworten und ihren Willen selbstbestimmt bilden könnten.

Wir können uns als Menschen nicht von ethischen Entscheidungen und moralischen Urteilen dispensieren, weil nur Menschen als Menschen diese Urteile fällen können. KI kann verschiedene Möglichkeiten oder Schlussfolgerungen aufzeigen, aber sie kann uns nicht die Urteile abnehmen, weil sie sonst keine ethischen Urteile mehr sind.

»Wir können uns als Menschen nicht von ethischen Entscheidungen und moralischen Urteilen dispensieren, weil nur Menschen als Menschen diese Urteile fällen können.»

Information und Verantwortung

Bei allen Vorzügen, die uns Suchmaschinen, Soziale Medien und Sprachtools wie ChatGPT bieten, stellen sie uns auch vor neue Herausforderungen:

Die Verbreitung digitaler und KI-basierter Technologien hat eine Flut von Informationen mit sich gebracht, birgt jedoch auch erhebliche Gefahren im Zusammenhang mit Falschinformationen. Die Automatisierung von Inhalten und die Manipulation von Medien durch KI-Algorithmen können dazu führen, dass irreführende oder falsche Informationen schnell und weit verbreitet werden. Dies stellt eine ernsthafte Bedrohung für die öffentliche Meinungsbildung und Demokratie dar.

Stellen Sie sich nur vor, dass eine KI so programmiert werden würde, dass sie nicht nur das Bild des Papstes in einem Balenciaga-Mantel herstellen, sondern darüber hinaus auch Webseiten, Querverweise und vermeintliche Medienberichte herstellen würde, welche die Authentizität des Bildes suggerieren. Und jetzt stellen Sie sich vor, es geht um etwas weit Wichtigeres als den Mantel des Papstes.

In diesem Kontext gewinnt die Wichtigkeit verlässlicher Quellen und qualitativen Journalismus an Bedeutung. Journalisten spielen eine entscheidende Rolle bei der Überprüfung von Fakten, der Kontextualisierung von Informationen und der Bereitstellung von ausgewogenen, fundierten Berichten. Durch den Fokus auf Transparenz und die Verwendung zuverlässiger Quellen können Medien Vertrauen aufbauen und den Einfluss von Falschinformationen eindämmen, was entscheidend ist, um eine informierte und damit demokratiefähige Gesellschaft zu fördern.

Rückkopplung

Wir Menschen schaffen nicht nur technologische Mittel, die wir instrumentell einsetzen, sondern werden durch diese Technologien ebenfalls kulturell geprägt. Wenn Sie lesen »Sechs Talibankämpfer beseitigt», spielt es eine grosse Rolle, ob Sie dabei vor Ihrem inneren Auge das Bild einer verschworenen Aufklärungstruppe haben, die nach stundenlanger Observation und unter beträchtlichem persönlichem Risiko die gegnerischen Kämpfer im Feuergefecht erschossen haben oder ob Sie an ein Drohnengeschwader denken, das durch Mustererkennung diese sechs Talibankämpfer identifiziert und exekutiert hat. Es stimmt: Tot sind sie in beiden Fällen. Es besteht aber ein Unterschied, ob Menschen unter Einsatz ihres Lebens eine tödliche Mission umgesetzt haben, die sie auch hätten abbrechen können, oder ob eine abstrakte Technologie dem eigengesetzlichen Kalkül seiner programmierten Mustererkennung folgt. Und es kann gut sein, dass die zweite Variante den Gegner zusätzlich entmenschlicht. Gegner und Feinde sind dann Ungeziefer, das möglichst rational und effizient beseitigt wird.

Wahrscheinlich ist für Sie aus einer ähnlichen Intuition heraus wichtig, dass eine Richterin und nicht eine KI über Sie urteilt. Wie herausfordernd schon nur die Interaktion zwischen Technologie und Mensch sein kann, zeigen gegenwärtig die Diskussionen um den richtigen Einsatz des VAR (Video Assistant Referee) im Fussball.

Fussball und Krieg mögen Beispiele sein, die Sie nicht betreffen. Aber denken Sie an Bewerbungsverfahren und den Einsatz von KI-Tools in der Sichtung von Bewerbungsmappen. Aus Effizienz- und Kohärenzgründen wird der Einsatz künstlicher Intelligenz in vielen Lebensbereichen zunehmen. Das ist nicht prinzipiell schlecht. Aber wir brauchen Dispositive, die uns das Unmittelbare, das Berührbare und das Sinnliche menschlicher Interaktion bewahren. Wir sind als Menschen nämlich nicht einfach so menschlich. Das, was uns menschlich macht, ist uns kulturell vermittelt und hinter dieser Kultur stehen Lernprozesse, schmerzhafte Ungerechtigkeiten und Entwicklungen. Jedenfalls genug, um es nicht leichtfertig aufzugeben.

»Das, was uns menschlich macht, ist uns kulturell vermittelt und hinter dieser Kultur stehen Lernprozesse, schmerzhafte Ungerechtigkeiten und Entwicklungen. Jedenfalls genug, um es nicht leichtfertig aufzugeben.»

Facebook
WhatsApp
Twitter
Email
Picture of Stephan Jütte

Stephan Jütte

Dr. theol.

Leiter Theologie und Ethik
Mitglied der Geschäftsleitung

Alle Beiträge

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.