Prof. Corinna Bath sprach über Technik und Geschlechterforschung. Foto: Adrian Breuch

„Wie objektiv sind Algorithmen?“ hat Corinna Bath, Professorin für Gender, Technik und Mobilität an der Technischen Universität Braunschweig, in ihrem Vortrag erörtert. Gemeinsam mit den Studierenden diskutierte Bath im Rahmen der Ringvorlesung Technik- und Umweltethik über ethische Aspekte der Vergeschlechtlichung von Technik.// Von Victoria Wegmann

Zu Beginn des Vortrags warf Bath die Frage in den Raum, ob Technik neutral sei. Dazu nannte sie das Töten mit einer Waffe als Beispiel und fragte, wer dabei der Akteur und somit verantwortlich sei: die Waffe oder der Mensch? Durch lebhafte Diskussionen mit den Studierenden stellte sich heraus, dass der Mensch durch sein Handlungsvermögen der Akteur beziehungsweise die Akteurin und dementsprechend verantwortlich für sein oder ihr Handeln ist.

Soziales und Technisches beeinflussen sich gegenseitig

Wir tragen also Verantwortung für die Maschinen, die wir entwickeln. Gleichzeitig bringen uns unserer technischen Entwicklungen laut Bath immer wieder in ethische Dilemmata. Den Studierenden im Plenum fielen hierzu viele Beispiele wie die Genforschung oder Angriffe auf die Privatsphäre durch Kommunikationstechnologien ein. Problematisch wird es laut der Informatikerin immer dann, wenn nicht erkennbar ist, welche Werte in die Entwicklung von Techniken eingeflossen sind. Dies gelte zum Beispiel für die Algorithmen, die Menschen programmierten.

Algorithmen beinhalten die Wertvorstellungen ihrer Programmierer

Wenn man bei der Suchmaschine Google „Frauen sollten…“ eingibt, ergänzt sie automatisch „… keine Rechte haben“. Das ist ein Beispiel der UN Women-Kampagne aus 2013, die aufzeigt, welche Wertvorstellungen in der Suchmaschine hinterlegt sind. „Sexismus wird von Google widergespiegelt und verstärkt“, so Baths Überzeugung, Daraus resultiere aber eine Verantwortung auf Seiten der Informatik. In der sich daran anschließenden Diskussion mit den Studierenden kam die Frage auf, ob Autocomplete-Funktionen dann überhaupt noch sinnvoll seien, denn der Algorithmus basiere ja in der Regel auf den Häufigkeiten der Suchanfragen.

Geschlechterforschung als Ungleichheitsforschung

Eine Vergeschlechtlichung von technischen Artefakten stellt Bath aber bei vielen Geräten und Maschinen fest. Als ihr Lieblingsbeispiel nannte sie Rasierapparate: „Frauenrasierer sind meist rosa oder anders aufgehübscht, um das Technische zu verbergen.“ Über solche Geschlechterstereotype in technischen Produkten „werden wir aber zu Frauen und Männern gemacht“, so Bath. Sie betont allerdings, dass es Geschlechterstereotype nicht nur für Frauen sondern ebenso für Männer gibt: „Wenn wir Geschlechterforschung als Ungleichheitsforschung sehen, kommen noch andere Kategorien mit hinein, wie sexuelle Präferenzen oder die soziale Lage von Personen.“ Die erläuterte sie an einem weiteren Beispiel aus Googles Suchmaschine: Gibt man dort den Begriff „Hand“ ein, erscheinen überwiegend Hände von weißen Menschen.

Forschungsbedarf

Ihr Lösungsvorschlag wäre es, mehr Ausgewogenheit in die Autocomplete-Funktionen einzuprogrammieren. Doch auch hier stelle sich erneut die Frage, wer bestimme, was jeweils ausgewogen sei. Und genau auf diese Problematik möchte die Geschlechterforscherin und Informatikerin aufmerksam machen: „Ich wünsche mir einen gesellschaftlichen Diskurs darüber“, so Bath abschließend.

 Video-Interview mit Prof.’in Dr. Corinna Barth

 

 

 


Porträt: Aaron Heidingsfelder // Linkliste: Matthias Breuer // Fotos: Adrian Breuch

 

Written by 

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Mit Absenden des Formulars erkären Sie sich mit der Speicherung und Verarbeitung der darin eingegebenen personenbezogenen Daten einverstanden. Weitere Hinweise dazu finden Sie in unserer Datenschutzerklärung.