Werde ich als Frau bei Jobinterviews, Kreditvergabe oder Wohnungssuche eigentlich benachteiligt? Das kann tatsächlich sehr gut sein!
ZDFzoom startet eine neue Doku-Reihe namens „Digital Empire“ und macht den Anfang mit einem Beitrag zu der teils diskriminierenden, anti-feministischen Programmierung Künstlicher Intelligenzen von Edith Löhle und Lena Nagel.
Dabei geht es natürlich nicht um die Angst vor der zukünftigen Weltherrschaft irgendwelcher Maschinen, sondern um alltägliche Vorgänge und Programme, die uns bereits jetzt begleiten! Eine bittere Erkenntnis aus der Dokumentation:
„Es gibt keine fairen Daten, denn wir leben nicht in einer fairen Welt.“
🙄
Genauer gesagt handelt es sich um Verzerrungen in Datensätzen, unethische Technik, fehlende Diversität in der IT-Branche und natürlich die Auswirkung auf uns Internet-Nutzer:innen… denn, was ja völlig Sinn macht: Wenn alte weiße Männer von ihrer Ansicht aus etwas erschaffen, dann ist es meistens eben auch nur für sie und in ihren Augen „effizient“ konzipiert.
Das bestätigt unter anderem auch Matthias Spielkamp, Gründer von „AlgorithmWatch“: „Die Daten sind auf jeden Fall vom Wissen alter weißer Männer geprägt, aber nur in dem Sinne, in dem unsere ganze Gesellschaft von alten weißen Männern geprägt ist.“
Hier mal ein Beispiel: Künstliche Intelligenzen müssen „trainiert“ werden. Es gab bei Amazon einen Fall, bei dem ihr programmiertes Bewerbungssystem so trainiert wurde, dass besonders der Typ Mensch für Stellen interessant war, der sich auch häufig bei dem jeweiligen Unternehmen bewerben würde. In diesem speziellen Fall ging es um ein IT-Unternehmen, bei dem sich stets sehr viele Männer beworben haben, einfach weil es in der Technischen Branche leider noch einen höheren Männeranteil gibt. Daher nahm die Künstliche Intelligenz an, dass Männer sich mehr für den Job begeistern würden und filterte Frauen einfach heraus…
So etwas passierte auch schon im Bezug auf Wohnorte, in denen viele Minderheiten wohnten und daher kategorisch ausgeschlossen wurden. Daher ist das richtige, nicht diskriminierende Training der KI auch so wichtig.