#5 Warum ist KI manchmal rassistisch?

Release Date:

Wie funktioniert eigentlich Künstliche Intelligenz und warum ist es fatal, wenn wir selbstlernender Software menschliche Vorurteile einprogrammieren? Das erklärt uns Kenza Ait Si Abbou Lyadini. Die Ingenieurin ist Expertin für Künstliche Intelligenz und arbeitet bei der Telekom als Senior Manager Robotics and Artifical Intelligence.
Wenn ihr Fragen zu dieser Folge habt oder Anregungen, dann schreibt uns gerne: shelikestech@ndr.de
Schreibt uns auch in unserer Umfrage, wie euch der Podcast gefällt.
Was machen wir gut, was sollen wir besser machen?
Die Umfrage dauert nur 10 Minuten ;-)
https://umfrage-ndr.limequery.com/767564?lang=de
Und hier sind die Show-Notes zur Folge #5 über KI:
We need more diversity in Al development now! | Kenza Ait Si Abbou Lyadini | TEDxHamburg
https://www.youtube.com/watch?v=5AgIduLQdqg
Dokumentation “Face it” 2019
https://www.tagesspiegel.de/kultur/doku-face-it-im-kino-gesichtserkennung-fuer-alle/24695780.html
Rassismus durch Google Algorithmus
https://algorithmwatch.org/en/story/google-vision-racism/
Russische Demonstranten von Oppositionsdemos per Gesichtserkennung erkannt
https://netzpolitik.org/2017/russische-demonstranten-per-gesichtserkennungs-software-identifiziert/
Verhaftung aufgrund von fehlerhafter Gesichtserkennung in Detroit
https://www.npr.org/2020/06/24/882683463/the-computer-got-it-wrong-how-facial-recognition-led-to-a-false-arrest-in-michig?t=1597237602629
Clearview.ai: Wenn Milliardäre Gesichtserkennung als Spionage-Spielzeug nutzen
https://www.sueddeutsche.de/digital/clearview-gesichtserkennung-spionage-datenschutz-1.4835272
Clearview AI verweigert Zusammenarbeit mit deutscher Datenschutzaufsicht
https://netzpolitik.org/2020/gesichtserkennung-clearview-ai-verweigert-zusammenarbeit-mit-deutscher-datenschutzaufsicht/
FindFace: Die Erkennungsmaschine aus Russland
https://www.spiegel.de/netzwelt/web/findface-app-mit-gesichtserkennung-loest-hype-in-russland-aus-a-1092951.html
PimEye: Eine polnische Firma schafft gerade unsere Anonymität ab
https://netzpolitik.org/2020/gesichter-suchmaschine-pimeyes-schafft-anonymitaet-ab/
Fooling Image Recognition with Adversarial Learning - zwei Beispiele:
https://www.youtube.com/watch?v=qPxlhGSG0tc&feature=emb_logo
https://www.theregister.com/2017/11/06/mit_fooling_ai/
Störmuster durch Pixelmanipulationen
https://www.heise.de/hintergrund/Pixelmuster-irritieren-die-KI-autonomer-Fahrzeuge-4852995.html
http://sandlab.cs.uchicago.edu/fawkes/
https://www.nytimes.com/2020/08/03/technology/fawkes-tool-protects-photos-from-facial-recognition.html
https://www.youtube.com/watch?v=AWrI0EuYW6A
Apple Card: Weiblich, Ehefrau, kreditunwürdig?
https://www.zeit.de/digital/datenschutz/2019-11/apple-card-kreditvergabe-diskriminierung-frauen-algorithmen-goldman-sachs/

#5 Warum ist KI manchmal rassistisch?

Title
#5 Warum ist KI manchmal rassistisch?
Copyright
Release Date

flashback