Große Phänomene wie die Digitalisierung und Künstliche Intelligenz werfen die existentielle Frage auf: Wird der Mensch künftig von intelligenten Maschinen ersetzt? Der Philosoph Prof. Dr. Martin Booms zeigt Spannungsfelder zwischen Mensch und Künstlicher Intelligenz auf und ordnet ein. // von Melanie Kruse

In Zeiten großer Umbrüche sei die Philosophie gefragt, weil sie Antworten auf „Was-ist-Fragen“ gibt, erklärt Martin Booms in der Ringvorlesung. Die Phänomene der Künstlichen Intelligenz und der Digitalisierung werfen diese Fragen auf, ohne dass man genau wisse, worum es sich eigentlich handele. „Wir reden davon, als wäre völlig klar, was das ist“, sagt Booms, „als wäre KI oder Digitalisierung ein homogenes Ding“. Er unterscheidet nach starker und schwacher KI und warnt: „Die Angst vor der starken KI kommt zu spät.“ Vielmehr sollten wir uns Sorgen um die längst alltägliche, schwache KI machen. Die Frage sei nicht „Was kann die KI?“, sondern „Was machen wir damit?“ Seiner Meinung nach sollte eine Technologie, die auf Zahlen und Berechnungen basiert, nicht den Menschen ersetzen, denn für Booms ist die Würde des Menschen „unverzählbar.“

Stärkerer Fokus auf schwache KI notwendig

„Wir wissen nicht, was unsere digitalen Geräte in diesem Moment für Daten sammeln.“ Bild: Gülsen Güldal

Nach Booms lautet in der Öffentlichkeit meist die Frage: „Was wird aus dieser starken KI?“ „Wir haben Angst vor Vorstellungen aus der Science-Fiction“, sagt er. Seiner Meinung nach sei die schwache KI gefährlicher und erfordere einen stärkeren Fokus. Nach einem Blick in die Reihen der Zuhörenden erläutert er: „Wir wissen nicht, was unsere digitalen Geräte in diesem Moment für Daten sammeln.“ Im Hintergrund arbeite dieses Gerät an dem persönlichen digitalen Profil, das diverse gesammelte Aspekte zusammenführe. Die schwache KI greife bereits schwer in die Privatsphäre ein und „steht im Konflikt mit der gesellschaftlichen Grundordnung“.

Spannungsverhältnisse von Digitalisierung und Ethik

Booms erklärt zwei Dimensionen der Spannungsverhältnisse: Zum einen die Spannung zwischen Mensch und Technik und zum anderen die Spannung zwischen menschlicher Entscheidungsfreiheit und der Berechnung durch Algorithmen. In der ersten Dimension Mensch-Technik sei es problematisch, dass „Technik dem Menschen keine Sachen vorgibt, aber der Mensch sich von Technik beeinflussen lässt.“ Technik würde somit zum Selbstzweck. Zudem bestünde die Gefahr der Anthropomorphisierung: KI soll abbilden, was menschlich ist und der Mensch strebt nach dem Vorbild der Technik und wird zur Maschine. In der zweiten Dimension stünden mit der Entscheidungsfreiheit der Kern der Menschenwürde im Konflikt mit maschineller Berechnung. „Digitalisierung hat mit Zahlen und Zählen zu tun, doch die Menschenwürde ist unverrechenbar“, erläutert Booms, „Unser Wert Menschenwürde funktioniert diametral anders als das, was Digitaltechniken können.“

Technologie moralisch neutral

Die Studierenden lernen, dass der Mensch entscheidet, ob Technologie gut oder böse ist. Bild: Gülsen Güldal

Ein Zitat auf seinen Folien lautet: „Technik – auch Digitalethik – an sich ist prinzipiell weder eine Lösung noch ein Problem.“ Dazu erklärt er, die Zerstörung sei ein menschliches Phänomen, wodurch entwickelte Technologien Mittel zum Zweck des Menschen seien. „Dabei entscheidet der Mensch, ob der Zweck gut oder schlecht ist“, wirft er ein. Technik sei Ausdruck menschlicher Intentionen und die Treiber und Motive hinter diesen Intentionen seien nicht immer bekannt.

KI sollte nicht in privater Hand liegen

„KI kommt ursprünglich aus einem wissenschaftlich militärischen Projekt“, erklärt Booms. Die Hochschulen haben dabei die Entwicklungen maßgeblich vorangetrieben und diese wurden schlussendlich von privaten Unternehmen übernommen. „Digitale Tools sind nicht in der Welt für einen Gemeinnutzen“, behauptet er. Die Unternehmen würden ihre eigenen Interessen, meistens den Profit, verfolgen, weswegen es unabdingbar sei Technologien unter privater Führung zu stellen

Zukünftig können Geschäftsmodelle noch stärker auf Datensammlung basieren

Bild: Gülsen Güldal

KI wird besonders Anwendung in der Ökonomie finden. Dabei werde ein Wechsel von der jetzigen Empfehlungsökonomie zu einer Vorhersageökonomie vollzogen. „Wir hinterlassen Datenspuren bei Onlinekäufen und die Unternehmen dahinter wissen daher, wie wir ticken“, beschreibt Booms. Dabei könne der Umsatz verschiedener Unternehmen stark gesteigert werden. Bei dieser Entwicklung könne ein neues mögliches Spannungsfeld entstehen, da „Unvorhersehbares ausgeschlossen wird und eine Echokammer der Vorlieben entsteht.“

KI entscheidet passende Anzeige zu persönlichem Profil

Am Beispiel der Wahlwerbung zur Bundestagswahl 2021 zeigt Booms, was für Auswirkungen die persönliche Datensammlung haben können. „Anhand von persönlich zugeteilten Labels wird entschieden, welche Anzeige einer Partei angezeigt wird“, stellt er anschaulich anhand zweier Facebook-Anzeigen der FDP dar. Die KI präge dabei das persönliche Weltbild, da die eigenen Auffassungen durch die personalisierten Anzeigen bestätigt werden.

Einsatz von KI zur Überwachung der Sicherheit

Bild: Gülsen Güldal

Als abschließenden Debattenrunde wurde sich der Thematik „KI zur Sicherheitsüberwachung versus Datenschutz“ angenommen. Dazu wurde die Frage gestellt: „Würden Sie auf ein Public Viewing gehen, wo mittels KI-gestützter Kameras überwacht wird?“ Ein Studierender vertritt die Meinung, dass KI nicht für die Sicherheit bei einer Veranstaltung geeignet sei. Er begründet seine Aussage damit, dass auch KIs, die zum Zwecke der Sicherheitswahrung eingesetzt werden, eine diskriminierenden Datenlage aufweisen können.

 

Interessante Links

 

  • https://www.ibm.com/de-de/topics/ai-ethics
    Sichtweise der IBM zur Einhaltung von ethischen Richtlinien beim Einsatz von KI: Mittelpunkt der ethischen Diskussionen sind technologische Singularität, die Auswirkung auf Arbeitsplätze, der Schutz der Privatsphäre, die Unterbindung von Vorurteilen und Diskriminierung, sowie die Rechenschaftspflicht.

 

 

 

Written by 

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Mit Absenden des Formulars erkären Sie sich mit der Speicherung und Verarbeitung der darin eingegebenen personenbezogenen Daten einverstanden. Weitere Hinweise dazu finden Sie in unserer Datenschutzerklärung.