Inteligentny robot został seksistą i rasistą - Johns Hopkins University
Robot o 8% częściej wybierał mężczyzn,przy czym szczególnie często - rasy białej i Azjatów. Najrzadziej sięgał po klocki z podobiznami czarnych kobiet. Czarni mężczyźni byli o 10% częściej uznawani za kryminalistów,niż biali. Kobiety wszystkich ras były rzadziej wybierane,kiedy robot szukał lekarzy.
xaliemorph z- #
- #
- #
- #
- #
- #
- 185
Komentarze (185)
najlepsze
@mike78: Wtedy.
@mike78: Odpowiedzialem. Chociaz bez sensu spytales.
Zieeeeeeew.
2+2=4
Daj znac jak ogarniesz.
I dobierał je na tylko na podstawie wyglądu? No to skąd to wielkie zaskoczenie? Czym tu się miał kierować, jeśli nie właśnie stereotypami opartymi o statystyki?
Gdybym miał zgadywać, czy
@Trias:
Rasista kieruje się prawdopodobieństwem, antyrasista irracjonalnymi preferencjami ideologicznymi.
@wypok312: To niech się zapozna z twierdzeniem Bayesa ( ͡° ͜ʖ ͡°)
Tutaj na przykład masz wyjaśnione, jak prawdopodobieństwo się zmienia (nieraz diametralnie) wraz z uzyskiwaniem dodatkowych informacji:
Nie wiem, ale się domyślam, że podobne wyniki byłyby: w szachach, na Foreksie, w programowaniu itp.
#!$%@? ten robot, powinni byc wybierani 50% czesciej #pdk