Amazon zarzuca narzędzie rekrutacyjne AL, bo nauczyło się dyskryminować kobiety

Algorytmy uczenia maszynowego służące do selekcji CV by wybrać najlepszych kandydatów, na podstawie 10-letnich doświadczeń nauczyły się dyskryminować kobiece koledże i aplikacje zawierające słowo "women's" w zawodach technicznych i IT j. angielski
- #
- #
- #
- #
- #
- #
- 194
- Odpowiedz







Komentarze (194)
najlepsze
@Dorth: Wydaje się, że właśnie tak, dodatkowo AL prawdopodobnie miało wbudowaną neutralność płciową i musiało dobrać sobie dodatkowe kryteria charakterystyczne dla kobiet żeby móc dyskryminować kobiety.
Ale tutaj rodzi się pytanie, czy w takim razie takie systemy rekrutacyjne w ogóle powinny być dopuszczone
Już pomijając kwestię dyskryminacji na osi mężczyzna/ kobieta.
Wyobraźmy sobie że pochodzisz z Pcimia dolnego i aplikujesz do firmy która
W każdym razie algorytmy nauczyły się dyskryminować kobiety ( ͡° ͜ʖ ͡°)
@notintine: Z tego co rozumiem analizie były poddawane aplikacje w formie pisemnej, zatem trzeba było umieć czytać i pisać. Myślę że nie było problemów z pamięcią ROM
@PC86 :Powinienem zakopać za informację nieprawdziwą. Nie "nauczyły się dyskryminować", tylko - jako algorytmy posługujące się niczym innym jak logiką i matematyką - nauczyły się rzetelnie oceniać wartość "kobiecych" studiów, wbrew lewackiej logice i politpoprawności.
źródło: comment_rhHHTEOuFAdgxEoVp558W4YH5nYEoMzo.jpg
Pobierz@tutkarz: AI nie zostało do niczego zaprogramowane, po prostu wrzucili do niego dane, nie chodzi wcale o to że dyskryminowało kobiety, tylko po prostu zatrudniało osoby do prac do których nie były wykwalifikowane.
źródło: comment_lwihRRoJfQCvOIJI2NBWrml4QEnUBUbP.jpg
PobierzKomentarz usunięty przez moderatora
Na stanowiska pojawiało się X razy więcej CV od mężczyzn i system uznał, że powodem są preferencje firmy, a nie kwestia rynkowa.
Na tej samej zasadzie mógłby się nauczyć w Chinach odrzucać kandydatur białych informatyków, bo większość CV byłaby z azji i wszystkie zawierałyby np. informację o rasie.
Seba z karyną już nic nie ukradną z wnętrza takiej klatki ( ͡° ͜ʖ ͡°)
źródło: comment_UHslxblQFHEBJz6uCBz49qtfwHf6PbKs.jpg
PobierzNie napisali jakimi kryteriami kierował się algorytm podczas uczenia.
Bo tego rodzaju algorytmy, jeśli mają się nauczyć oceniać CV, to poza dużą bazą CV w zbiorze uczącym, potrzebują jeszcze jakiejś arbitralnej oceny tych CV ze zbioru uczącego.
Czyli algorytm potrzebuje żeby ktoś mu najpierw pokazał jak wyglądają "złe" CV, a jak wyglądają "dobre" - i tu najważniejsze pytanie jest
@hellfirehe: Starczy sparować CV z wynikami oceny pracowniczej, a algorytm "nauczy się dyskryminować"
@hellfirehe: I niekoniecznie zły, metod jest wiele.