„Programmierte Ungerechtigkeit“ – Hat Künstliche Intelligenz dich schon mal diskriminiert?

Werde ich als Frau bei Jobinterviews, Kreditvergabe oder Wohnungssuche eigentlich benachteiligt? Das kann tatsächlich sehr gut sein!

ZDFzoom startet eine neue Doku-Reihe namens „Digital Empire“ und macht den Anfang mit einem Beitrag zu der teils diskriminierenden, anti-feministischen Programmierung Künstlicher Intelligenzen von Edith Löhle und Lena Nagel.

Dabei geht es natürlich nicht um die Angst vor der zukünftigen Weltherrschaft irgendwelcher Maschinen, sondern um alltägliche Vorgänge und Programme, die uns bereits jetzt begleiten! Eine bittere Erkenntnis aus der Dokumentation:

„Es gibt keine fairen Daten, denn wir leben nicht in einer fairen Welt.“

🙄

Genauer gesagt handelt es sich um Verzerrungen in Datensätzen, unethische Technik, fehlende Diversität in der IT-Branche und natürlich die Auswirkung auf uns Internet-Nutzer:innen… denn, was ja völlig Sinn macht: Wenn alte weiße Männer von ihrer Ansicht aus etwas erschaffen, dann ist es meistens eben auch nur für sie und in ihren Augen „effizient“ konzipiert.

Das bestätigt unter anderem auch Matthias Spielkamp, Gründer von „AlgorithmWatch“: „Die Daten sind auf jeden Fall vom Wissen alter weißer Männer geprägt, aber nur in dem Sinne, in dem unsere ganze Gesellschaft von alten weißen Männern geprägt ist.“

Hier mal ein Beispiel: Künstliche Intelligenzen müssen „trainiert“ werden. Es gab bei Amazon einen Fall, bei dem ihr programmiertes Bewerbungssystem so trainiert wurde, dass besonders der Typ Mensch für Stellen interessant war, der sich auch häufig bei dem jeweiligen Unternehmen bewerben würde. In diesem speziellen Fall ging es um ein IT-Unternehmen, bei dem sich stets sehr viele Männer beworben haben, einfach weil es in der Technischen Branche leider noch einen höheren Männeranteil gibt. Daher nahm die Künstliche Intelligenz an, dass Männer sich mehr für den Job begeistern würden und filterte Frauen einfach heraus…

So etwas passierte auch schon im Bezug auf Wohnorte, in denen viele Minderheiten wohnten und daher kategorisch ausgeschlossen wurden. Daher ist das richtige, nicht diskriminierende Training der KI auch so wichtig.

Das Ganze ist also keinesfalls eine einschichtige Problematik, sondern setzt an den Fragen und Diskussionen an, die auch andere diskriminierende Themen angehen. Auch Vorwürfe von Rassismus werden schon seit Jahren laut, besonders was die automatischen Gesichtserkennungsprogramme betrifft! Uninteressant sollte das Thema für dich und mich nicht sein, denn alles, was automatisierte Software enthält oder etwas mit Kundendiensten mit Spracherkennung, Sensorik oder sozialen Netzwerken zutun hat, kann dich unbewusst einschränken – einfach nur, weil du eine Frau bist. Es geht dabei ja wirklich um super wichtige und große Entscheidungen in unserem Leben! I mean – sogar bei der Kreditvergabe kann diese Thematik eintreten?… Einfach unfassbar.

Um herauszufinden, ob du auch schon mal Opfer von Benachteiligung durch Künstliche Intelligenz geworden bist und wie die Vorgänge genau funktionieren, schalte am 01. Juni 2022 beim ZDF um 22.45 Uhr ein oder streame „Programmierte Ungerechtigkeit“ schon jetzt in der Mediathek.

Wir sind wirklich gespannt auf deine Erfahrungen damit, denn wir in der Redaktion sind uns alle einig, dass das große Auswirkungen für unseren Alltag hat… 🤐 Absolute Watch-Empfehlung, Ladies! 🤫

Das wird dich auch interessieren

thumb_heidi_lijanapng

Vorwürfe gegen GNTM: „Einfach nur toxic Abfall“ – von dem wir schon längst wussten?

serena_thumb
by Très Click

Serena Goldenbaum erzählt, wie sie zu mehr Wohlbefinden und sich selbst gefunden hat

baby_thumb

„(Wann) will ich Kinder?“ – über Kiez-Kotzerei, die toxic 20er und wilde Brunch-Moms

thumbnailkardashian

Realtalk: Warum die ständige Gewichtsverlust-Spirale der Kardashians auch für uns toxisch ist

toxische-beziehung-hollywood

Macht Hollywood uns süchtig nach toxischen Beziehungen? Maybe.

nachricht-ignorieren-thumb

Was tun, wenn dein:e Freund:in deine Nachrichten ignoriert? Wir haben die Antwort

X