•  

    pokaż komentarz

    No mało kto o tym myśli, ale AI się uczy na podstawie masy danych, z których wyznacza reguły. To pokazuje jak daleko jeszcze jest AI za ludźmi. Np. dziecko wie z bajek, że chodzący krzak to kaczor donald ukryty w nim. Także człowiek też tak może, tak jak w jakiejś lekturze szkolnej. A dla AI to będzie chodzący krzak. Zbyt wiele niuansów człowiek wychwytuje. Dlatego sądzić zawsze powinien człowiek i jakaś automatyzacja identyfikacji przestępcy itp powinna być domeną ludzi. AI w Tesli będzie miało chronić człowieka, więc ominie rowerzystę wjeżdżając w człowieka na chodniku z drzewem na koszulce... Nie zastanawiałem się nad tym problemem do tej pory.

    •  

      pokaż komentarz

      @pozytrum: czy AI to zatem kwestia bardziej złożonego algorytmu? Przecież mozna dodać funkcje, ktora dostarczy argument, ze krzaki sie nie ruszają a na podstawie analizy postaci i fabuły (proste, nie?) uzna, ze tam musi byc kaczor Donald.

    •  

      pokaż komentarz

      To pokazuje jak daleko jeszcze jest AI za ludźmi. Np. dziecko wie z bajek, że chodzący krzak to kaczor donald ukryty w nim.

      @pozytrum: Sztuczna sieć neuronowa opisana w artykule (YOLO) to nie tyle "sztuczna osoba" co bardziej "sztuczna kora wzrokowa". Rozpoznaje i lokalizuje obiekty i nic poza tym. Sztuczna inteligencja w rozumieniu "sztuczna osoba" dysponowałaby dodatkowo zdolnością do wykrywania anomalii bo fakt że krzaki nie chodzą to wiedza empiryczna nabyta przez wielokrotną obserwacje normalnych, nieruchomych krzaków. Chodzący krzak wzbudza ciekawość i powoduje skupienie uwagi na nowym zjawisku, tworzone są hipotezy które próbują wyjaśnić, w oparciu o posiadaną wiedzę, dlaczego krzak się porusza.

      @pozytrum: Poza tym metoda przedstawiona na filmie to "adversarial examples" która polega na optymalizacyjnym generowaniu "złudzenia optycznego" przez obserwacje aktywności neuronów w badanej sieci neuronowej. Nie chodzi o to że człowiek schował się za obrazem i sieć neuronowa myśli że to chodzący obraz. To bardziej kamuflaż który sprawia że człowiek wygląda jak tło. Niewykluczone że i ludzkie mózgi są podatne na tego typu ataki tyle że nie dysponujemy jeszcze aparaturą pozwalającą monitorować pracę mózgu na tyle szybko i dokładnie aby wygenerować taki złośliwy obraz.

      Przecież mozna dodać funkcje, ktora dostarczy argument, ze krzaki sie nie ruszają

      @Kangur100: Nie podoba mi się to podejście. Jeżeli chcemy mówić o AGI to powinna się ona sama nauczyć tego że krzaki się nie ruszają. Ludzie się z tą wiedzą nie rodzą.

    •  

      pokaż komentarz

      @pozytrum: Na wykopie jesteś( ͡° ͜ʖ ͡°)

    •  

      pokaż komentarz

      @AdireQ: Ad 1. No dlatego mówię o tym, że jeszcze obecne AI jest jeszcze słabe. Po drugie ogólna idea chyba jest taka, że nie tworzymy sztucznych osób które wiedzą wszystko tak jak ludzie, a optymalizujemy i przecyzujemy zadania. To okazuje się w tym przypadku wadą.
      Ad 2. No wiadomo, ten film nic nie dowodzi, tylko uświadomił mi poruszone kwestie. Prawdopodobnie na przywołaną teslę ten obrazek nie zadziała, szczególnie, że tam chyba na podczerwień kamery też są itp.
      Co do ludzkich mózgów to też ciekawe, ale wg. mnie wątpliwe. My mamy też wiele różnych jednocześnie działających systemów. Może na ułamek sekundy da się oszukać w ten sposób, ale nie trwale. Poza wzrokiem działa też analiza tego co było przed chwilą, gdzie jesteśmy, co jest możliwe itp. Są znane pewne ograniczenia jak np. baardzo wolno poruszający się przedmiot na nagraniu jest w stanie opuścić kadr a my wciąż nie dostrzeżemy ruchu.

    •  

      pokaż komentarz

      @AdireQ: ludzie mają pewne cele, od dosyć pierwotnych (przeżyć) po bardziej abstrakcyjne (jakość i komfort życia). By osiągać te cele, u człowieka wykształciły się umiejętności, których brak zarzucamy AI. Czy AI bedzie zdolne je kiedykolwiek osiągnąć, jezeli ma postawione zupełnie inne cele? Czy w ogóle cele postawione przez człowieka (konstruktora i twórcę AI) sa właściwe dla „istoty” nie mającej biologicznego ciała ale za to obawiającej sie innych zagrożeń? (Np utrata zasilania, awaria podzespołu). Byc moze na początku „wmowimy” AI, ze my wiemy co jest dla niej dobre a co złe, jak dziecku. Ale zacznie jednak uczyć sie i odkrywać (jak dziecko), ze różnimy sie, co innego nas unicestwia, a co innego jest dla nas szansa na przetrwanie.

  •  

    pokaż komentarz

    Ja kiedyś wymyśliłem na potrzeby opowiadania, że w przyszłości ludzie chcący być anonimowi będą tatuować twarze w pstrokate wzory by uniknąć rozpoznania przez AI

  •  

    pokaż komentarz

    Kim jest Naniewidek i czym są jego pelery?