•  

    pokaż komentarz

    Dyskryminować? Czy po prostu dla systemu liczy się efektywność bez poprawnościowi politycznej itp.? (✌ ゚ ∀ ゚)☞

    •  

      pokaż komentarz

      Czy po prostu dla systemu liczy się efektywność bez poprawnościowi politycznej
      @Dorth: Wydaje się, że właśnie tak, dodatkowo AL prawdopodobnie miało wbudowaną neutralność płciową i musiało dobrać sobie dodatkowe kryteria charakterystyczne dla kobiet żeby móc dyskryminować kobiety.
      Ale tutaj rodzi się pytanie, czy w takim razie takie systemy rekrutacyjne w ogóle powinny być dopuszczone
      Już pomijając kwestię dyskryminacji na osi mężczyzna/ kobieta.
      Wyobraźmy sobie że pochodzisz z Pcimia dolnego i aplikujesz do firmy która taki system stosuje, i jej algorytm analizuje też miejsce pochodzenia kandydata.
      Nie wiesz o tym, ale przed Tobą było tam zatrudnionych 2 pracowników z Pcimia Dolnego, którzy lecieli w kulki, kradli albo coś podobnego i firma miała przez nich straty.
      AL już nigdy więcej nie zarekomenduje kandydata z Pcimia Dolnego do tej pracy.
      Czy taki system jest sprawiedliwy?

    •  

      pokaż komentarz

      @PC86: Myślę, że grupa 2 ludzie nie będzie miała wpływu a jak już to system jest na tyle ogarnięty, że nie kwalifukuje przez pryzmat miejscowości bo to nic nie znaczy. ( ͡° ͜ʖ ͡°) Prędzej odrzuci kandydatów jak mieli tak jak Ci dwaj po 35 lat, kawalerowie, wykształcenie podstawowe i max 0,5 roku w każdej pracy. ( ͡º ͜ʖ͡º)

    •  

      pokaż komentarz

      @Dorth: Ten moment kiedy sztuczna inteligencja zaczyna działać lepiej niż prawdziwa...

    •  

      pokaż komentarz

      @PC86: Zasadniczo to do czasu aż takie akcje dotyczą prywatnej firmy to mogą robić co chcą zanim zaczniesz dla nich pracować jedyne ryzyko jakie ponoszą to bankructwo jak będą to robić c$$%#wo, ich strata i ich akcjonariuszy. Jakby coś takiego wprowadzono na stanowiska urzędowe to poza analizą wiedzy, logiki i myślenia u kandydata każde inne powinno być zakazane.

    •  

      pokaż komentarz

      @Dorth: Dla rynku konsumenckiego jest to sygnał aby u tej firmy nie wybierać, ponieważ świadomi wybierają decyzje które nie maksymalizują postępu.

    •  

      pokaż komentarz

      @Dorth: jak bedziesz mial córkę to bedzie Cię to oburzac. I wy pierdlicie qykopki ze kobiety mają łatwiej( ͡° ͜ʖ ͡°)

    •  

      pokaż komentarz

      Myślę, że grupa 2 ludzie nie będzie miała wpływu

      @Dorth: może mieć wpływ, zwłaszcza jak próba będzie niewielka

    •  

      pokaż komentarz

      Ale tutaj rodzi się pytanie, czy w takim razie takie systemy rekrutacyjne w ogóle powinny być dopuszczone
      Już pomijając kwestię dyskryminacji na osi mężczyzna/ kobieta.
      Wyobraźmy sobie że pochodzisz z Pcimia dolnego i aplikujesz do firmy która taki system stosuje, i jej algorytm analizuje też miejsce pochodzenia kandydata.
      Nie wiesz o tym, ale przed Tobą było tam zatrudnionych 2 pracowników z Pcimia Dolnego, którzy lecieli w kulki, kradli albo coś podobnego i firma miała przez nich straty.
      AL już nigdy więcej nie zarekomenduje kandydata z Pcimia Dolnego do tej pracy.
      Czy taki system jest sprawiedliwy?


      @PC86: powinny, a nawet muszą być w przyszłości wprowadzone, żeby nie było obecnej dyskryminacji ze względu na płeć, tak jak to jest np. w Amazonie po wyłączeniu AL. Kwestie pochodzenia można wykluczyć i zaprogramować system tak, żeby analizował jedynie doświadczenie pracownika.

    •  

      pokaż komentarz

      AL już nigdy więcej nie zarekomenduje kandydata z Pcimia Dolnego do tej pracy.

      @PC86: I dobrze, zobacz kto tam mieszka ( ͡° ʖ̯ ͡°)

      źródło: Pcin Dolny.jpg

    •  

      pokaż komentarz

      Kwestie pochodzenia można wykluczyć i zaprogramować system tak, żeby analizował jedynie doświadczenie pracownika.

      @Ogau: Myślę że masz rację, że można tak zaprogramować algorytm, byłoby to całkiem proste i nie wymagało uczenia maszynowego. Tyle że w tym konkretnym przypadku celem Amazona na który wydali kupę pieniędzy była taka analiza CV kandydatów żeby preferować cechy, które charakteryzują najlepiej sprawdzających się w pracy specjalistów.
      Wyszła z tego dyskryminacja dla cech charakteryzujących kobiety, czy nawet po próbie jej zniwelowania- preferencja dla "bardziej męskiego" języka w CV.

    •  

      pokaż komentarz

      I dobrze, zobacz kto tam mieszka ( ͡° ʖ̯ ͡°)

      @hellsmash86: wykop w pigułce ( ͡° ͜ʖ ͡°)

    •  

      pokaż komentarz

      @PC86: AI, nie AL. Artificial Intelligence.

    •  

      pokaż komentarz

      @v-tec: Tak, masz rację, mój błąd.

    •  

      pokaż komentarz

      @PC86: Dlaczego zakladasz od razu dyskryminacje? Moze rzeczywiscie te cechy kobiece sprawiaja ze kandydaci sa "gorsi" w wykonywaniu prac fizycznych? ( ͡° ͜ʖ ͡°)

      Przeciez system nie wie co to dyskryminacja tylko uczciwie ocenia. ( ͡° ͜ʖ ͡°)

    •  

      pokaż komentarz

      @Dorth: A Twoje myślenie jest oparte na podstawie.. ?
      Jak @pilot1123: wspomniał, wpływ zależy od próby danych jakie algorytm posiada.
      Z tekstu wynika, że wykorzystane było uczenie pod nadzorem (Supervised learning) , czyli algorytm uczy sie wzorców na podstawie danego zbioru. AI to nic innego niż statystyka , w dużej mierze oparta na metodach opartych o regresję liniową, czyli dopasowywanie krzywej na podstawie dostępnych danych.

      Wyobraź sobie więc sytuację :

      Dokonujesz 1000 pomiarów, umieszczasz je na osi XY. Na podstawie tych pomiarów możesz wyznaczyć wzór prostej, który będzie przechodził przez te punkty (+ich odchylenia). Jeżeli 1/2 punkty leżałyby grubo ponad innymi, to mógłbyś je usunąć jako błąd gruby, lub też olać, bo znacząco nie zmienią wspolczynnika kierunkowego twojej prostej. W przypadku pomiaru dokonanego na 4 punktach, te 1/2 punkty mogą zmienić Ci bardzo znacząco przebieg prostej.

    •  

      pokaż komentarz

      @PC86: > Nie wiesz o tym, ale przed Tobą było tam zatrudnionych 2 pracowników z Pcimia Dolnego, którzy lecieli w kulki, kradli albo coś podobnego i firma miała przez nich straty.

      AL już nigdy więcej nie zarekomenduje kandydata z Pcimia Dolnego do tej pracy.

      ale przecież zmienna która wystąpi rzadko (np mniej niż 10 osób z danej miejscowości) nie zostanie użyta, zmienne mogą też być używane z wagami i tak np wykształcenie może być z wagą 10, a miejscowości 1

    •  

      pokaż komentarz

      @Balzat:

      @Dorth: Ten moment kiedy sztuczna inteligencja zaczyna działać lepiej niż prawdziwa...

      Singularity

    •  

      pokaż komentarz

      Prędzej odrzuci kandydatów jak mieli tak jak Ci dwaj po 35 lat, kawalerowie, wykształcenie podstawowe i max 0,5 roku w każdej pracy.

      @Dorth: Niekoniecznie. Systemy uczenia maszynowego mogą doszukać się nieoczywistych powiązań. Na tyle nietypowych, że będą się wydawały zupełnie przypadkowe.

    •  

      pokaż komentarz

      @Balzat: : ) inteligencja nie jest cechą wyłącznie ludzką, stąd nie ma sensu dzielenia na prawdziwą i inną. Inteligencja w różnych postaciach ma miejsce od cząstek elementarnych, bo megastruktury, bez znaczenia.

    •  

      pokaż komentarz

      @PC86:
      Wystarczy, ze sztuczna inteligencja nie bedzie stosowac bezprzeslankowych, bezeensownych kryteriów.
      Np. miejsca zamieszkania( ͡° ͜ʖ ͡°)

    •  

      pokaż komentarz

      Ale tutaj rodzi się pytanie, czy w takim razie takie systemy rekrutacyjne w ogóle powinny być dopuszczone
      Już pomijając kwestię dyskryminacji na osi mężczyzna/ kobieta.
      Wyobraźmy sobie że pochodzisz z Pcimia dolnego i aplikujesz do firmy która taki system stosuje, i jej algorytm analizuje też miejsce pochodzenia kandydata.
      Nie wiesz o tym, ale przed Tobą było tam zatrudnionych 2 pracowników z Pcimia Dolnego, którzy lecieli w kulki, kradli albo coś podobnego i firma miała przez nich straty.


      @PC86: Istnienie takiego systemu explicite nie rożni się od jego istnienia implicite. Na jedno wychodzi, czy robi to maszyna czy człowiek.

      A zatem pytanie jest szersze - czy HR powinien móc się komunikować z kandydatami?

    •  

      pokaż komentarz

      @PC86: takie systemy maja ubezpieczyciele i działa. Składki są wyliczane nawet z uwzględnieniem marki samochdu.

    •  

      pokaż komentarz

      @Dorth: Ale wiesz, ze mozesz przeczytac artykul i sie dowiedziec? Nie chodzilo tylko o kobiety zreszta:

      That is because Amazon's computer models were trained to vet applicants by observing patterns in resumes submitted to the company over a 10-year period. 
      Most came from men, a reflection of male dominance across the tech industry.
      In effect, Amazon's system taught itself that male candidates were preferable. It penalized resumes that included the word 'women's,' as in 'women's chess club captain.' 
      And it downgraded graduates of two all-women's colleges, according to people familiar with the matter.


      The algorithms learned to assign little significance to skills that were common across IT applicants, such as the ability to write various computer codes, the people said. 
      Instead, the technology favored candidates who described themselves using verbs more commonly found on male engineers' resumes, such as 'executed' and 'captured,' one person said.

    •  

      pokaż komentarz

      @PC86: AI ! ヽ( ͠°෴ °)ノ Artificial intelligence

    •  

      pokaż komentarz

      AL już nigdy więcej nie zarekomenduje kandydata z Pcimia Dolnego do tej pracy.
      Czy taki system jest sprawiedliwy?


      @PC86: Pewnie określi stopień prawdopodobieństwa danego zachowania i tyle.
      Skoro zatrudnieni z Pcimia Dolnego kradną statystycznie częściej, niż kandydaci z Pcimia Górnego, to nawet człowiek na dzień dobry będzie odrzucał CV tych z Pcimia Dolnego.
      Sprawiedliwość systemu nie ma tu nic do rzeczy, bo jeśli kandydatów (i CV) jest dużo, to żeby wybrać grupę najbardziej interesującą bazuje się na ocenie statystycznej. Inaczej rekrutacja by trwała sto lat (żeby rozmawiać indywidualnie z kilkuset kandydatami).

    •  

      pokaż komentarz

      @PC86: Z tym że artykuł zaznacza że algorytm działał ilościowo a nie jakościowo, co oznacza że dyskryminował te cechy które były rzadziej obecne w populacji. Mówimy tu o "męskich" zawodach gdzie z automatu reprezentacja kobiet jest więcej. Jeżeli algorytm patrzył na zatrudnienia i np na 10 nowych pracowników jeden tylko był kobietą to mógł dojść do wniosku że jest to cecha niepożądana. Analogicznie gdyby analizował kandydatów do zawodu gdzie pracuje więcej kobiet jak np opiekun dzieci to by dyskryminował mężczyzn. Chciałabym móc przeczytać więcej na ten temat, zobaczyć co faktycznie algorytm uznał za negatywne i pozytywne cechy, bo mogło by to być bardzo interesujące. Mogło by się np okazać że preferowała CV które miały słowo "potrafię" nad tymi z słowem "umiem" itp.

  •  

    pokaż komentarz

    Akurat to że AI nauczyła sie odrzucać absolwentów women's studies, jest bardzo spoko. I nie oznacza to wcale dyskryminowania kobiet ( ͡° ͜ʖ ͡°)

  •  

    pokaż komentarz

    nauczyły się dyskryminować
    @PC86 :Powinienem zakopać za informację nieprawdziwą. Nie "nauczyły się dyskryminować", tylko - jako algorytmy posługujące się niczym innym jak logiką i matematyką - nauczyły się rzetelnie oceniać wartość "kobiecych" studiów, wbrew lewackiej logice i politpoprawności.

    •  

      pokaż komentarz

      @zakowskijan72:
      1. tytuł i opis mają ograniczoną ilość znaków
      2. Ocenianie jednostki przez pryzmat grupy do której pochodzi- nawet jeśli ocena grupy jako całości jest poprawna- jest niedozwoloną w ramach prawa pracy dyskryminacją.

    •  

      pokaż komentarz

      grupy do której pochodzi
      @PC86:
      1. grupy do której należy.
      2. grupy od/z której pochodzi.
      Choose one.
      #grammarnazi

      jest niedozwoloną w ramach prawa pracy dyskryminacją
      Rekruter czy też algorytm rekrutacyjny ma z N zgłoszeń które do niego napływają wybrać te, które z największym prawdopodobieństwem zaspokoją potrzeby pracodawcy. Z doświadczeń wynikło, że osoby które wpisują sobie w CV gównokierunki tych potrzeb najczęściej nie zaspokajają. Ergo - ROZSĄDNIEJ jest zapraszać osoby nie po gównokierunkach. Nie jest to zatem żadna dyskryminacja, ale rozsądna relokacja zasobów, jakimi są czas i wynagrodzenie rekrutera.

      Jak to ktoś kiedyś trafnie podsumował dawanie dodatkowych punktów w ramach parytetów:
      "Jesteś niepełnosprawną kobietą? Świetnie! Dostań się na studia zamiast geniusza i projektuj zamiast niego samoloty!"

    •  

      pokaż komentarz

      ale rozsądna relokacja zasobów, jakimi są czas i wynagrodzenie rekrutera.

      @zakowskijan72: Zgadzam się z Tobą że z punktu widzenia ekonomii firmy niezapraszanie członków określonych grup mogłoby być po prostu uzasadnione, bo "to strata czasu"- czy to potwierdza doświadczenie algorytmów sztucznej inteligencji, czy nawet stereotypy (stereotypy zwykle są na czymś oparte) rozsądnie oceniającego rzeczywistość szefa/osoby odpowiedzialnej za rekrutację.
      Tylko że prowadzenie biznesu i zatrudnianie ludzi wiąże się również z przestrzeganiem prawa, a to w jakiejś części z dodatkowymi kosztami.
      Jeżeli traktujesz członka jakiejś grupy według typowych cech tej grupy i tylko przez to np nie zapraszasz go na rozmowę kwalifikacyjną, to może on słusznie poczuć się dyskryminowany i na tej podstawie wygra w sądzie odszkodowanie.

    •  

      pokaż komentarz

      @PC86: ale to brzmi śmiesznie to co zarzucić wymagania do wojska na przykład? Kopalni? Wyniki mogą dyskryminować przecież płcie.

    •  

      pokaż komentarz

      @Kaczypawlak: Nie wiem czy dobrze zrozumiałem pytanie. Jeśli spełnianie wymagań sprawdzasz indywidualnie w odniesieniu do konkretnego pracownika to tak właśnie powinno być.

    •  

      pokaż komentarz

      Jeżeli traktujesz członka jakiejś grupy według typowych cech tej grupy i tylko przez to np nie zapraszasz go na rozmowę kwalifikacyjną
      @PC86: Rozumiem, że wg Ciebie na stanowisko inżyniera/programisty zamiast człowieka po MIT powinienem na rozmowę zaprosić kogoś po Gender Studies, bo a nuż-widelec to zawołany matematyk, tylko poszedł na gównokierunek przez przypadek?
      Jeśli ktoś jest dobry, to dostaje się do dobrej szkoły. Szkoły z przedrostkiem "women's" zostały (i słusznie) zakwalifikowane jako inkubatory miernot, obwiniających za swoje niepowodzenia mityczny patriarchat.

    •  

      pokaż komentarz

      @PC86: Czyli jak szukasz pracownika magazynu to rozladowowywania dostaw z Tirów to wg Ciebie 35 letni mezczyzna i 35 letnia kobieta powinny miec taka sama szanse na zdobycie stanowiska bo przepisy mowia o rownosci? ( ͡° ͜ʖ ͡°) Czy czasem aby te same przepisy nie mówią ze kobieta moze dźwigać mniej? ( ͡° ͜ʖ ͡°) W takik razie jak pracodawca moze swiadomie i z ochota wybrać osobę z mniejsza efektywnoscia i wiekszymi obostrzeniami? ( ͡º ͜ʖ͡º)

    •  

      pokaż komentarz

      @zakowskijan72: Czytales ten artykul w ogole? Tam jest podane daczego algorytm odrzucal podania kobiet

    •  

      pokaż komentarz

      @zakowskijan72: Jesteś już drugim komentatorem który opacznie zrozumiał mój opis znaleziska, widocznie to mój błąd.
      Algorytm dyskryminował kobiece koledże (w sensie dysedukacyjne, ale prawdopodobnie w kierunku w którym kandydat aplikował, nie chodzi o żadne "gender studies") i (+, coś innego) aplikacje zawierające słowo woman's , jak np w "kapitan kobiecej drużyny szachowej"
      dodatkowo nawet po wyeliminowaniu tych cech algorytm dalej preferował CV-ki charakteryzujące się "bardziej męskim" językiem, do tego stopnia że takie cechy przedkładał nawet nad formalne kwalifikacje.

    •  

      pokaż komentarz

      @PC86: Ale przecież ten algorytm sprawdza to indywidualnie. Ot, jeśli (jak wspominałeś wcześniej o tym Pcimiu) jesteś z Pcimia dolnego i poprzednich 70 pracowników z tej miejscowości wylatywało na pysk, to system za pochodzenie odejmuje Ci powiedzmy 100pkt. Czy jest to niesłuszne? Skoro wszyscy pracownixy z tego regionu byli słabi, to coś z nim ewidentnie jest nie tak, czyli zatrudnienie pracownika z Pcimia wiąże się ze zwiększonym ryzykiem - co jest złgo w niwelowaniu ryzyka?
      System odejmuje Ci 100pkt, ale Cię NIE SKREŚLA. W CV masz napisane, że jesteś niepijący, więc dostajesz 80pkt i pracowałeś 6lat na odpowiedzialnym stanowisku w podobnej branży za co dostajesz 200pkt.

      Przecież tamten system też nie odrzucał kobiet. Ot, były mniej preferowane, ale to nie znaczy, że nie mogły "pokonać" męskich kandydatów, jeśli wyróżniały się czymś na plus.
      Kandydaci jak najbardziej są tu rozpatrywani jednostkowo.

    •  

      pokaż komentarz

      opisałem jak mogło dojść do takiego wyuczenia się sieci.

      @zakowskijan72: Ale w artykule jest dokladnie podane dlaczego tak sie stalo, nie musisz nic wymyslac. Ja tez myslalem ze chodzilo o korelacje kompetencji/brania urlopow/rodzenia dzieci etc, ale to nie ten przypadek.

      A chodzilo o to, ze to AI bylo zle skonstruowane. Mialo uczyc sie na podstawie CV ktore byly wyslane przez 10 lat wczesniej. Poniewaz ogromna wiekszosc byla wyslana przez facetow, AI uznalo ze kobiety trzeba odrzucac. Wiec tam gdzie znalazlo slowo "women", dawala nizsza range dla CV.

    •  

      pokaż komentarz

      Ale w artykule jest dokladnie podane dlaczego tak sie stalo
      @Haqim: Tak się tłumaczą, żeby ich nie roznieśli za głośne powiedzenie tego o czym wszyscy dokoła dobrze wiedzą ;)

    •  

      pokaż komentarz

      nauczyły się rzetelnie oceniać wartość

      @zakowskijan72: Gdzie jest ta rzetelność jeśli algorytm nie uwzględnia tego, że na danym rynku 90% to faceci więc siłą rzeczy większość przyjętych aplikacji będzie od mężczyzn? ( ͡° ͜ʖ ͡°)

    •  

      pokaż komentarz

      Tak się tłumaczą, żeby ich nie roznieśli za głośne powiedzenie tego o czym wszyscy dokoła dobrze wiedzą

      @zakowskijan72: To w ogole nie musieli mowic ze mieli taki algorytm.

    •  

      pokaż komentarz

      w ogole nie musieli mowic ze mieli taki algorytm
      @Haqim: Może chcieli udowodnić, że to mężczyźni dyskryminują kobiety, a czysta, obiektywna matematyka pomoże im tę dyskryminację wykazać. Tyle tylko, że wyniki eksperymentu nie pokryły się z założeniami ;)

    •  

      pokaż komentarz

      @zakowskijan72: Sam sie zakop jako informacja nieprawdziwa - moglbys choc przeczytac artykul to bys wiedzial o co chodzi.

      That is because Amazon's computer models were trained to vet applicants by observing patterns in resumes submitted to the company over a 10-year period. 
      Most came from men, a reflection of male dominance across the tech industry.
      In effect, Amazon's system taught itself that male candidates were preferable. It penalized resumes that included the word 'women's,' as in 'women's chess club captain.' 
      And it downgraded graduates of two all-women's colleges, according to people familiar with the matter.


      The algorithms learned to assign little significance to skills that were common across IT applicants, such as the ability to write various computer codes, the people said. 
      Instead, the technology favored candidates who described themselves using verbs more commonly found on male engineers' resumes, such as 'executed' and 'captured,' one person said.

    •  

      pokaż komentarz

      "Jesteś niepełnosprawną kobietą? Świetnie! Dostań się na studia zamiast geniusza i projektuj zamiast niego samoloty!"

      @zakowskijan72: taka osoba nie dostanie się zamiast geniusza, ale zamiast najsłabszego kandydata, który jednak jest od niej lepszy. Nie popieram tych praktyk, ale nie przesadzaj też w drugą stronę. Najlepsi jednak się dostaną. Można popatrzeć na to w taki sposób, że uczelnia ma 100 miejsc zamiast 120, bo 20 miejsc jest dla grupy "specjalnej"

  •  

    pokaż komentarz

    Czyli prosty skrypt jest bardziej spostrzegawczy i inteligentny od przeciętnego politycznie poprawnego lewaka. No kto by się spodziewał.

  •  

    pokaż komentarz

    Jesli czujesz sie bezuzyteczny, pomysl ze Amazon wydaje gore kasy na AI zeby analizowac CV-ki przy rekrutacji na stanowiska jak... operator magazynowy.

    źródło: i.imgur.com