•  

    pokaż komentarz

    O co chodzi z tą SI? Co dokładnie zablokowano?

    •  

      pokaż komentarz

      @orangeduke:

      W ubiegłym tygodniu, dokładnie 21 października, kierująca obecnie UE prezydencja niemiecka przedstawiła projekt unijnych wniosków, który w katalogu wartości w kontekście AI wymieniał pojęcie “równości płci” (ang. gender equality). Temu sprzeciwiła się Polska i w rezultacie dokument przyjęto, ale jako wnioski niemieckiej prezydencji, z poparciem 26 państw UE, a nie jako wnioski unijne Rady.

      Polsce jako jedynej nie spodobało się, że w tekście użyto słowa „gender”.

    •  

      pokaż komentarz

      AI wymieniał pojęcie “równości płci” (ang. gender equality).

      @pomidorowymichal1: co to ma znaczyć konkretnie? Bo jeśli AI ma mieć wymuszone wyniki po równo, to nigdy nie uzyska optymalnych i najlepszych wyników.

    •  

      pokaż komentarz

      @bregath:
      UE chce stworzyć jakieś ułomne AI, gdzie jeśli np. dojdzie do selekcji najlepszych kandydatów do pracy na danym stanowisku, to AI nie będzie mogło wskazać kilku kandydatów posiadających najbardziej wartościowe cechy, a będzie musiało uwzględnić płeć, orientację, rasę, żeby czasami kogoś nie urazić, a co z tym idzie, usunąć wartościowych kandydatów na rzecz ludzi z klucza światopoglądowego.

    •  

      pokaż komentarz

      @janusz0: nie do konca. AI to tylko skomplikowany algorymt (czesto tak duzy, ze jego ogarniecie przez jedna osobe jest niemozliwe).

      Algorytm w duzej mierze zalezy od programistow, i w duzej mierze zalezy tez od bazy danych na ktorej sie uczy.

      Jezeli dasz algorytmowi baze danych zlozona z tylko bialych mezczyzn, to algorytm wychwyci ze tylko biali mezczyzni zdarzali sie najlepszymi pracownikami, wiec z miejsca bedzie odrzucal kandydatow innej plcy/rasy.

      Wybuchlo juz pare skandali rasistowskiej AI, a ta rezolucja ma zapobiec przyszlym.

    •  

      pokaż komentarz

      AI to tylko skomplikowany algorymt ...

      @WiktorekS: po c@@#! się wypowiadasz na temat o którym EWIDENTNIE nie masz nawet bladego pojęcia!?
      Nawet nie chce pisać jak debilny i nie mający nic wspólnego z rzeczywistością ma ten twój komentarz.

    •  

      pokaż komentarz

      @janusz0:

      usunąć wartościowych kandydatów na rzecz ludzi z klucza światopoglądowego.
      Kiedyś już tak było, CCCP zafundowało to naszym boomerom. Mamy teraz pełno średnio ogarniętych "profesorów" z wystającą z butów słomą.

    •  

      pokaż komentarz

      @szopa123: dlaczego się znęcasz? Chciał zabłysnąć. Wystarczyłoby mu to:

      źródło: obywatelu.jpg

    •  

      pokaż komentarz

      @szopa123: @RokEndLol:

      https://panoptykon.org/sztuczna-inteligencja-non-fiction

      AI nie jest samodzielnie podejmującym decyzje podmiotem. To ludzie decydują, do czego chcą wykorzystać tę technologię i jak ma ona działać. Przede wszystkim powinniśmy pilnować – i takie aspiracje mamy w Fundacji Panoptykon – żeby była wykorzystywana w interesie społeczeństwa i z poszanowaniem praw człowieka.

      Według informatycznej definicji „sztuczna inteligencja” to określenie programu komputerowego, który zamiast wykonywać listę dokładnych instrukcji wykorzystuje zaawansowane modele statystyczne do tego, żeby rozwiązać zadanie. „Inteligencja” w tym przypadku oznacza, że program – na podstawie zbioru danych zawierającego przykłady zadań i poprawne odpowiedzi – sam znajduje występujące między nimi zależności (wzorce). Można powiedzieć, że program „inteligentnie” uczy się np. przypisywać obrazy psów i kotów do odpowiedniej kategorii zwierząt. Nie zmienia to faktu, że to ludzie piszą programy i dają im określone zadania do rozwiązania: czy to rozpoznawanie obiektów na zdjęciach, czy szacowanie ryzyka niespłacenia kredytu.

      Słowem, które najczęściej pojawia się w kontekście AI, jest algorytm – inaczej zbiór instrukcji. (..) Algorytm uczenia maszynowego różni się od zwykłego algorytmu tym, że w wyniku jego działania powstają nowe reguły. Zwykły algorytm podpowie, jak dokończyć słowo, które użytkownik zaczął wpisywać na klawiaturze telefonu. Inteligentny algorytm zaproponuje kolejne słowa w oparciu o to, co użytkownik już napisał i w jakich zestawieniach te słowa są używane przez inne osoby

      W założeniu ta sztuczna inteligencja miała korygować uprzedzenia (zwłaszcza uprzedzenia rasowe) w decyzjach podejmowanych przez sędziów, jednak ostatecznie algorytm, nakarmiony historycznymi danymi (które utrwalały nieproporcjonalny nadzór nad nie-białymi osiedlami i wynikające z niego częstsze areszty), odtworzył uprzedzenia sędziów i błędnie zawyżał ryzyko ponownego popełnienia przestępstwa właśnie w przypadku osób czarnych.

      I wiele innych, polecam caly artykul :)

      Polecam tez nastepnym razem bardziej rzeczowa krytyke, bede mogl wtedy jeszcze bardziej rzeczowo rozwiac wasze watpliwosci.

    •  

      pokaż komentarz

      @WiktorekS: weź jeszcze zamieść gówno źródło www.wiedzaZdupy.org, na poparcie tych bzdur, który napisałeś wcześniej. ( ͡°( ͡° ͜ʖ( ͡° ͜ʖ ͡°)ʖ ͡°) ͡°)

    •  

      pokaż komentarz

      @szopa123: rozumiem ze masz w temacie wieksze kompetencje niz ta pani, tak? Mozesie nimi pochwalisz?

      . . . kliknij, aby rozwinąć obrazek . . .

      źródło: Screenshot_2020-10-27-04-15-33-182_com.android.chrome.jpg

    •  

      pokaż komentarz

      @WiktorekS: no tak... TERAZ już to wszystko wyjaśnia. ( ͡° ͜ʖ ͡°)
      Jakaś doktoranta z 'computer science' czyli ogólnego przedmiotu. Napisała artykuł, więc na pewno musi być to sama prawda. ( ͡°( ͡° ͜ʖ( ͡° ͜ʖ ͡°)ʖ ͡°) ͡°)(。◕‿‿◕。)
      Nie brnij... bo tylko coraz bardziej się ośmieszasz.
      Tu masz w miarę ogarnięte informacje odnośnie AI. Polecam przeczytać uwżnie pierwszy akapit, a szczególnej uwadze ten fragment: "Using these technologies, computers can be trained to accomplish specific tasks..."
      słowo klucz to: TRAINED
      https://www.sas.com/en_us/insights/analytics/what-is-artificial-intelligence.html

      Sieci neuronowych się nie programuje tak jak programów. Je się UCZY i TRENUJE, a cały proces decyzyjny leży poza programistami czy innymi specjalistami, pracującymi przy AI.
      Wrzuć sobie na YT hasło: deepmind ai
      To będziesz miał, aż dosyć materiałow na temat sztucznej inteligencji i technologii jaka za nią stoi.
      A to co ty opisałeś, to SYSTEMY EKSPERCKIE. W pewnym sensie protoplasta sieci neuronowych i AI.
      Choć nie do końca, bo właśnie systemy ekspercie polegają na złożonych algorytmach i przetwarzaniu masy danych, dzięki którym 'wyciągają wnioski'. Co jest tak naprawdę kłamstwem, bo to nie są 'wnioski' sensu stricte. Tylko kolejna baza danych z przetworzonych danych. Przy odpowiednio dużej ilości różnorakich danych, takie systemy stają się BEZUŻYTECZNE. A sieć neuronowa może SAMA znaleźć pewne korelacji w tych danych. A później na podstawie danych wejściowych, wnioskować (przypuszczać) określony przebieg i/lub wynik.

    •  

      pokaż komentarz

      @szopa123: napisales ze zrodlem mojej wiedzy jest wiedza z dupy, to ci przekleilem kto jest zrodlem tego konkretnego artykulu. Podejrzewam ze masz mniejsze kompetencje w tym temacie, jako ze swoimi osiagnieciami jednak nie zdecydowales sie pochwalic.

      Dziekuje za ten link, szkoda tylko ze udalo ci sie dotrwac tylko do konca pierwszego akapitu. Nie szkodzi, ja przeczytalem wiecej i zacytuje czesc podanego przez ciebie zrodla zeby wykazac ze nie masz racji. Mam nadzieje ze wtedy juz zrodlo nie bedzie stanowilo problemu!

      AI works by combining large amounts of data with fast, iterative processing and intelligent algorithms, allowing the software to learn automatically from patterns or features in the data.

      Czekaj, czekaj. Widzisz tam to slowko. To nie mozliwe. Czy to "algorithms". Czyli koniec koncow AI dzis to baza danych plus wiele skomplikowanych algorytmow (w koncu przetwarzasz dane tez poprzez algorytm napisany przez czlowieka)?

      CZEKAJ CZY KTOS WYZEJ TEGO NIE NAPISAL? Musze to sprawdzic!

      nie do konca. AI to tylko skomplikowany algorymt (czesto tak duzy, ze jego ogarniecie przez jedna osobe jest niemozliwe). Algorytm w duzej mierze zalezy od programistow, i w duzej mierze zalezy tez od bazy danych na ktorej sie uczy.

      Brzmi to znajomo, zupelnie jakbym ja to napisal, co za przypadek!

      Postaram ci sie to wytlumaczyc jeszcze bardziej lopatologicznie. Ludzie tworza baze danych pod tytulem przeboje muzyczne.

      Pozniej tworza program ktory ucza jak porownywac zapis nutowy z bazy danych.

      Program porownuje te zapisy i szuka w nich jak najwiecej cech wspolnych (ktore rzeczy dokladnie porownuje i jak je wartosciuje to zalezy od programisty). Imwieksza baza danych tym wieksze pole do nauki.

      Skonczony program jest w stanie ocenic zapis nutowy pod katem bycia hita lub nie (na podstawie wczesniejszych hitow). I ot, cala sztuczna inteligencja.

      Zgadnij co sie stanie jak z bazy danych usuniesz wszystkie piosenki disco polo :). Dlategotez UE zajela sie ta sprawa i bardzo sobrze ze to zrobila :)

    •  

      pokaż komentarz

      i bardzo sobrze ze to zrobila :)

      @WiktorekS: no, no i nagle okaże się, że AI stwierdzi, że do większości zawodów, zwłaszcza operujących twórczymi koncepcjami, abstrakcyjnymi pojęciami i ogólnie naukami ścisłymi, totalnie nie nadają się czarnoskórzy czy latynosi oraz większość kobiet, zaś ta sama AI zacznie preferować mężczyzn rasy białej, ewentualne żółtej.
      I znowu zaczną się cyrki ze sztucznym dawaniem większych wag "mniejszościom", żeby biedni nie byli pokrzywdzeni.

    •  

      pokaż komentarz

      @WiktorekS: oburzeni wykopowcy nie rozumieja ze "sztuczna inteligencja" wykrywa tylko to, co my jej zapodamy. Smieszne ze minusuja.

      Pamietam przyklad jak uczyli siec do rozroniania WILK/PIES. Jak sie okazalo glownym fakorem w ocenie czy na zdjeciu jest wilk czy pies bylo to, czy na zdjeciu byl snieg.

      Dlatego wazne jest by dostarczac zroznicowane dane do sieci neuronowych, jesli tego dotyczy ten gender i o to wyszla gownoburza to rece zalamywac. Teraz tlumacz jaskiniowcowi ktory wybucha na kazde slowo gender a w zciu zajmowal sie tylko pierdzeniem w stolek, jak dziala uczenie maszynowe.

    •  

      pokaż komentarz

      @WiktorekS: nie próbuj manipulować fragmentami wyrwanymi z całości. Tym 'algorithms', bo tylko już słowo przed czyli 'intelligent' świadczy, że osoba która to napisała gówno wie. Bo co to jest inteligencja? I jak niby rozróżniamy 'inteligentny' algorytm od 'nie inteligentnego'? (。◕‿‿◕。)
      Nawet to cię przerasta w rozumowaniu, a chcesz się wypowiadać na temat o wiele bardziej złożony. Gdzie próbuje się za pomocą algorytmów i matematyki, symulować procesy zachodzące w ludzkim mózgu. I o ile można matematycznie i za pomocą algorytmu, symulować zachowanie synaps. Oraz stawarza się algorytm uczenia i korygowania. To cały proces decyzyjny jest stworzony w wyniku tych procesów. I nikt nie jest do końca w stanie stwierdzić, jaki jest przebieg/proces podjęcia przez AI konkretnej decyzji.

      I 'moje źródło' miało ci nakreślić ogólnie temat, gdyż jest tam zarys historyczny. Dzięki czemu można zapoznać się 'na szybko' z ewolucjami sieci neuronowych. Sam nawet tego dokładnie nie przejrzałem. Bo dla człowieka INTELIGENTNEGO i NIE ZAROZUMIAŁEGO, takie coś wystarczy. Aby sobie samemu sprawdzić 'jak jest naprawdę'. ( ͡° ͜ʖ ͡°)
      np. znaleźć sobie coś takiego... 5 min. szukania. No, ale jak ktoś WIE LEPIEJ, to po co ma szukać informacji, która by potwierdziła, że jednak się całkowicie myli. ( ͡°( ͡° ͜ʖ( ͡° ͜ʖ ͡°)ʖ ͡°) ͡°)(。◕‿‿◕。)

      "Mousavi said that with AI you, “would not tell the computer what to do because AI determines [what action to take based on the] data that says this is what people almost always do.”
      https://www.cmswire.com/information-management/ai-vs-algorithms-whats-the-difference/

      A systemy są bardziej złożone, gdyż poprzez iteracje, potrafią się uczyć, aby osiągnąć cel w najbardziej optymalny sposób. np. w filmiku masz pokazane, jak iteracja wpłynęła na zachowanie AI. Zarówno po jednej, jak i po drugiej stronie. Gdyby tam był algorytm (nawet ten 'intelygentny'(。◕‿‿◕。)), nigdy takie rzeczy by się w tej symulacji nie wydarzył. A na pewno twórcy nie byliby zaskoczeniu zachowaniem AI.

      jako ze swoimi osiagnieciami jednak nie zdecydowales sie pochwalic.
      i co by to zmieniło? Pewnie i tak byś 'wiedział lepiej' niż to co napisałbym. I cała praca poszła by przysłowiowo: psu w dupę. ( ͡° ͜ʖ ͡°)

      źródło: youtube.com

    •  

      pokaż komentarz

      @WiktorekS: ta wersja jest ciut lepsza, niż ta zamieszczona wyżej.
      https://youtu.be/n6nF9WfpPrA

    •  

      pokaż komentarz

      @vostok: nie rozumiesz istoty tego nad czym glosowal parlament. Tj. zeby sztuczna inteligencja nie skupiala sie na narodowosci, rasie, czy plci badanrgo elementu z bazy danych. Tylko zeby szukala innych cech wspolnych.

      Przeciez podalem fragment w calosci, nie ucialem tam niczego, niczego nie dodalem. Dotego w dyskusji jest tez link do calego zrodla.

      (delikatny offtop bo cos tam do ludzi porownywales, ludzie tez sa tylko algorytmami, tyle ze bio-chemicznymi)

      Przeciez oni mowia dokladnie o tym co ja wyzej. Dajesz programowi baze danych, ktora program analizuje. Zaprogramowales program tylko do porownywania obrazow. Wiec program porownuje pixel po pixelu, jak znajdzie zaleznosc to jakas ja nazywa i zapisuje.

      Programista nie wie ile takivh zaleznosci program znajdzie ani jak skomplikowane one beda, wiec nie wie jaki bedzie rezultat pracy algorytmu.

      Jedno jest pewne ze taki algorytm sam z siebie nie zacznie porownywac zapisu muzycznego. Botego nie umie

    •  

      pokaż komentarz

      @bregath: Właśnie w tym rzecz a opis na wykop manipuluje. SI w przeszłości nieraz okazywała się "rasistowska", a było tak wtedy gdy algorytm podejmował "decyzje" na podstawie rzetelnych danych. UE chce ukrócić "rasizm" i "homofobię" SI czyli sterować ręcznie ( ͡° ͜ʖ ͡°)

    •  

      pokaż komentarz

      @szopa123: nie dość, że nie masz racji, to jeszcze do tego jesteś niesamowicie arogancki i z twoich wypowiedzi wprost wylewa się bucowatość i potrzeba pokazania światu jaki to nie jesteś błyskotliwy.

      "Algorytm" jest bardzo szerokim pojęciem, które określa zbiór jasno określonych instrukcji służących rozwiązaniu problemu. I, skupiając się teraz na sieciach dla ustalenia uwagi, architektura sieci, sposób przepływu informacji w niej (modyfikowany przez wyuczalne parametry), reguły interpretacji danych ze zbioru testowego i sposób uczenia, czy to proste backpropagation sprzed 30 lat, czy adam optimization, czy dowolny inny, to wszystko są algorytmy.

      To, że dzisiejszy machinę learning nie jest stertą proceduralnych poleceń if-else pisanych z palca przez programistów jest oczywiste, i nikt nie twierdzi, że jest inaczej, poza tobą, co próbujesz insynuować, bo przedmówca użył słowa "algorytm". Równie dobrze można powiedzieć, że "sztuczna inteligencja" to przerośnięty blob algebry linowej.

      Wybór danych używanych w zbiorze testowym i ich preprocessing to też jest wybór człowieka i ma on kluczowy wpływ na sprawność systemu, jego zdolność generalizacji i kryteriów podejmowania decyzji, które nie zawsze mogą okazać się akceptowalne w branżach ubezpieczeniowych, medycznych, czy prawnych.

    •  

      pokaż komentarz

      @szopa123: O chuju złoty.

      SGD, forward-pass, backprog w NN, budowanie drzewa decyzyjnego, wnioskowanie bayesowskie to nie są algorytmy tylko czary, bo pobierają batch danych i przetwarzają w wagi/wyniki? Przecież to, że algorytm jest stochastyczny nie zmienia tego, że to dalej jest algorytm.

      Co do decyzji UE: przypuśćmy, że mój dataset składa się tylko z punktów: szopa123 to tępy chuj, a każdy inny to whatever. Jak dobrze wiemy, szopa123 tępym chujem nie jest, ale akurat skonstruowałem taki dataset, bo mam bias i mogłem to zrobić. Potem wdrożyłem to na produkcję i aplikacja - na przykład używana przez państwo - tego algorytmu używa. Czuje dobrze człowiek?

      Po trzecie, jak rozmawiamy - niezależnie czy z ludźmi w fachu czy poza nim - używajmy słów precyzyjnie. Algorytmy ML nie będą rozwiązywać problemów globalnie optymalnie. W problemach wypukłych będą szukały dobrego suboptymalnego rozwiązania i ogromną dziedziną MLa jest zapewnienie, by algo nie utknął w minimum lokalnym.

    •  

      pokaż komentarz

      @WiktorekS: ale brednie, chyba faktycznie nie wiesz o czym piszesz.

    •  

      pokaż komentarz

      nie rozumiesz istoty tego nad czym glosowal parlament. Tj. zeby sztuczna inteligencja nie skupiala sie na narodowosci, rasie, czy plci badanrgo elementu z bazy danych. Tylko zeby szukala innych cech wspolnych.

      @WiktorekS: wystarczy takich danych nie wprowadzać i nie będzie się "skupiała" xd ale wiadomo, nie o to chodzi by się nie "skupiała", tylko żeby skupiała się zgodnie z ideolololololo @szopa123 ci dobrze napisał, gówno macie pojęcie o tym jak systemy AI są tworzone.

    •  

      pokaż komentarz

      Polsce jako jedynej nie spodobało się, że w tekście użyto słowa „gender”.

      @pomidorowymichal1: XDDDD, niby to nie powinno być śmieszne lecz tragiczne ale z drugiej strony, "rząd" obraża się na słowo gender XD

    •  

      pokaż komentarz

      @szopa123: Przecież Ty człowieku nie masz bladego pojęcia o czym piszesz i jeszcze się kłócisz xD Panowie cierpliwie tłumacza na czym polega uczenie maszynowe (przez media nazwane AI), skorzystaj z tej okazji i uzupełnij braki w wiedzy zamiast sie pieklić.

    •  

      pokaż komentarz

      @szopa123: stary, computer science to jest kierunek a nie przedmiot. Oni nie maja slowa informatyka. Na computer science sklada sie wszystko co dotyczy komputerow: programowanie, procesowanie, modelowanie, symulacja, itp itd. Jak ktos ma PhD na Stanford z Computer Science to jest duze prawdopodobienstwo ze figuruje na liscie priorytetowych ludzi sluzb specjalnych do ochrony w wypadku ataku nuklearnego na USA.

    •  

      pokaż komentarz

      @WiktorekS: z drugiej strony algorytmy mogą być manipulowane tak, aby "pewnych grup nie pokazać" w złym świetle. Innymi słowy może dojść do sytuacji, gdzie w rzeczywistości mamy 13/51, a algorytm pokaże np. 13/25, bo tak zostanie zaprojektowany.
      Fakt, wszystko zależy od danych wejściowych i czego szukamy, jednak zbiory powinny być kompletne, a algorytm niezmanipulowany, aby uzyskać najlepsze wyniki.

  •  

    pokaż komentarz

    Dobra , dzbany dzbanami ale dlaczego w stanowisku o SI jest mowa o płci ?

  •  

    pokaż komentarz

    Skretyniały powód odrzucenia to jedno ale po cholerę równość płci jako wartość AI to nie mam zielonego pojęcia. Chętnie bym jakieś uzasadnienie tego usłyszał inne niż ogólniki bez żadnego znaczenia praktycznego o "prawach człowieka".

    •  

      pokaż komentarz

      @Herubin wyobraź sobie, że w Polsce powstaje AI do orzekania w sprawach sądowych, które nakarmione historycznymi danymi uznaje, że opiekę nad dzieckiem należy zawsze i bezwzględnie przekazywać matce ¯\(ツ)

    •  

      pokaż komentarz

      @Herubin: @TinkerCob: te 2 komentarze powinny być na samej górze. Jasno zadane pytanie o kontrowersję i orosta odpowiedź która dotrze do przeciętnego wykopka.

    •  

      pokaż komentarz

      @TinkerCob: To już nie będzie sztuczna inteligencja a algorytm, zaprogramowany algorytm.

    •  

      pokaż komentarz

      @Mam_cie_w_dupie: no tym właśnie jest sztuczna inteligencja. Algorytmem który nauczył się czegoś na podstawie zbioru danych :p

    •  

      pokaż komentarz

      @Mam_cie_w_dupie: każda sieć neuronowa / sztuczna inteligencja jest zaprogramowanym algorytmem matematycznym.

      @Herubin: bo sieć neuronowa jest tworzona przez ludzi. Jak wpuścisz jedną instancję AI na lewicowy twitter a drugą na prawicowy, w celu "nauki" to gwarantuje ci, że dostaniesz 2x mieszankę poglądów z totalnego skraju. Ludzie kompletnie nie rozumieją jak AI działa, więc wystawisz jeden dowolny wynik i ludzie będą się zakrzykiwać, że to niemożliwe żeby ai podjęło złą decyzję i tak faktycznie musi być.

    •  

      pokaż komentarz

      @skoruppa: Nauczył się a nie został ukierunkowany, poczytaj czemu zabraniają stosowanie tych sieci te swiry typu lewaki. W USA robili testy i czarni byli traktowani jak bandyci przez takie sieci ale to nie pasowało lewakom i zaprzestał eksperymentów.

    •  

      pokaż komentarz

      @Mam_cie_w_dupie: niezły fikoł xD To jest dokładnie tem sam przykład jak to podał @TinkerCob, tylko przepuszczony przez filtr prawacki. Jak sam zaznaczyłeś, algorytm się sam uczy, na podstawie danych, więc przez to że statystycznie czarni cześciej popełniali zbrodnie, z automatu byli traktowani jak bandyci. Nawet jeśli nimi nie byli. Jest to mimo wszystko niesprawiedliwe. Tak samo jak niesprawiedliwe było by gdyby z automatu opiekie nad dzieckiem zawsze dostawały kobiety, bo statystycznie to właśnie kobiety częściej wygrywają w sądzie takie sprawy.

      Taką stuczną inteligencje trzeba więc zaprogramować tak aby nie determinowała swoich wniosków na podstawie płci czy koloru skóry

    •  

      pokaż komentarz

      @skoruppa: Nie fikol, bo jak mu dajesz lekki zarys to sam wyciąga wnioski i się uczy i właśnie stwierdził że czarni są nie godni zaufania into się lewakom nie spodobało i wyłączył program. Ale nie pamiętam gdzie to było, czytałem gdzieś w usa o tym.

    •  

      pokaż komentarz

      @Mam_cie_w_dupie: Tak, fikoł, i robisz teraz pdwójne salto zgrabnie ignorująć drugą częsc komentarza dotyczącą rozwodów i opieki nad dzieckiem. To jest tylko algorytm, stworzyny tylko przez człowieka i tak jak on może wyciągać błędne wnioski. "Correlation does not imply causation".

      Przykładowo algorytm mógłby dojść do podobnych wniosków jak na załączonym obrazku. Im więcej kasy wydane na nauke, tym więcej samobójstw przez uduszenie, a skoro tak, trzeba wydawać mniej kasy na nauke. Głupię, prawda? Ale z perspektywy sztucznej inteligencji już nie całkiem bo nikt nie zaprogramował jej aby ignorowała takie korelacje

      źródło: unnamed.jpg

    •  

      pokaż komentarz

      @skoruppa: Tak, dlatego sztuczna inteligencja do czasu aż sama nie zacznie "myśleć" jest nic nie warta bo jest kalką poglądów osoby programujacej ją lub co gorsza bojacej się napisać prawdę i piszacą politycznie poprawnie.

    •  

      pokaż komentarz

      @Mam_cie_w_dupie: sigh. Tak, nic nie warta. Dlatego sami jesteśmy nic warci bo prawie każdy z nas to kalka poglądów innej osoby na podstawie swoich doświadczeń i nauki... Czy Ty w ogóle rozumiesz czym jest sztuczna inteligencja?

    •  

      pokaż komentarz

      @skoruppa: A czy ty chciał byś być np. oceniany przez automat na sprawie sądowej dajmy na to za jakieś wykroczenie w RD którego dokonałeś jadąc BMW gdy:

      -Sztuczna inteligencja ma zaprogramowany kodeks drogowy

      -sztuczna inteligencja ma zaprogramowany kodeks drogowy i statystyki że kierowcy BMW bardzo często łamią przepisy RD.

      W świetle tego że większość z nich nie używa no kierunkowskazów a ja znam 3 co mają BMW i używają bardzo poprawnie. Przykład z dupy ale mam nadzieję że ci naświetliło o co kaman z tym, i jaka by ona nie była to może być sterowana nieobiektywnie a tego raczej nie chce nikt normalny.

    •  

      pokaż komentarz

      @Mam_cie_w_dupie: I potrójne salto w tył! XD właśnie się że mną zgodziłeś, dokładnie o to chodziło. Sztuczna inteligencja może być uprzedzona, tak samo jak człowiek. Dlatego obowiązkiem twórców jest dbanie by ten algorytm ukierunkować tak aby był jak najmniej uprzedzony. Nie ważne czy przez płeć, kolor skóry czy markę auta którym jeździsz. Cieszę się że w końcu mnie zrozumiałeś :)

    •  

      pokaż komentarz

      @skoruppa: Ale ja się od początku zgadzam z tobą nie zgadzam się z taką sztuczna inteligencją która ma jakieś założenia stronnicze. Jednak prawo jest obiektywne i jakby sąd w postaci algorytmu miał skazywac to jest punkt o nadzwyczajnym złagodzeniu kary więc niekoniecznie musi zapaść wyrok skazujacy ale nie można jej ograniczać jak dojdzie do wniosku że murzyn popełniający przestępstwo prawie na pewno je popełni ponownie więc niekoniecznie powinno munsie nadzwyczajnie łagodzić karę i lewaki właśnie chciały by inteligencja nie mogła, nie łagodzić kary.

    •  

      pokaż komentarz

      @Mam_cie_w_dupie: nie. Prawo stara się być bezstronne ale oboje wiemy że często sędziowie nie są. Różne instancje potrafią wydać różne wyroki w tej samej sprawie. Znów dobrym przykładem są walki o opieki nad dzieckiem. Dlatego staramy się stworzyć jak najmniej stronniczy algorytm i dlatego "lewaki" chcą aby był jak najmniej uprzedzony. Bo to czy jest czarny czy nie, czy jest kobieta czy nie, nie powinno wpływać na wyrok

    •  

      pokaż komentarz

      @skoruppa: No właśnie a wplywalo i dlatego go wyłączyli, a żywy sędzia też będzie stronnicze i dobrze bo nie można dać za kradzież w sklepie takiego samego wyroku kobiecie która przymiera głodem i ukradła i facetowi który za kradzież jest już 12 raz skazywany.

    •  

      pokaż komentarz

      @Mam_cie_w_dupie: to chyba nie rozumiesz co znaczy bycie stronniczym. To o czym mówisz to jest branie okoliczności łagodzących pod uwagę I to jest sprawiedliwe. To ma też robić SI. Stronniczym by było gdyby tej kobiecie przymierającej głodem sędzia dał 10 lat więzienie bo jest czarna, a skoro ukradła chleb po raz pierwszy to na pewno ukradnie coś znowu, bo w końcu jest czarna.

  •  

    pokaż komentarz

    No dobra, j#$#ć PIS itd. bardzo się podnieciliście, ale niech mi ktoś k@#!a wytłumaczy po co w stanowisku na temat SI odniesienia do tzw. "gender"?