•  

    pokaż komentarz

    Skąd pomysł że AGI (Artificial General Intelligence), znana także pod pojęciem "silnej" AI w ogóle kiedykolwiek powstanie?

    To jest bardzo mocno dyskusyjna teza i zdumiewa mnie jak wiele ludzi przyjmuje ją bezkrytycznie jako pewnik, rozumując przez analogie typu "moc obliczeniowa cały czas rośnie więc powstanie AI jest nieuchronne". Te analogie mogą być fałyszywym tropem.

    Jest wiele powodów by sądzić inteligencja nie może powstać w procesie technologicznym top-down. Jest całkiem prawdopodobne że inteligencja to zjawisko emergentne w procesach bottom-up, nierozerwalnie związane z innymi funkcjami "niższego opoziomu" (biologiczniymi, chemicznymi czy wręcz czysto fizycznymi czyli bardzo już elementarnymi). Do tych najniższych poziomów dostępu konstrukcyjnego nie mamy.

    Innymi słowy, jest całkiem prawdopodobne że AGI nie może powstać przez napisanie iluś tam linijek kodu, tzn jak ktoś to sobie wyobraża że skompiluje jakiś kod i dostanie na wyjściu istotę rozumowaniem równą człowiekowi to najprawdopodobniej mocno się myli.

    •  

      pokaż komentarz

      @comrade: Możesz rozwinąć listę powodów które mają nas skłaniać do przekonania że aby zbudować AGI musimy uwzględniać procesy biochemiczne zachodzące w neuronach? Masz na myśli że dzieje się tam coś więcej niż konwencjonalna komputacja?

    •  

      pokaż komentarz

      @AdireQ:

      Nie dzieje się tam nic niekonwencjonalnego w sensie fizycznym, ale problemów jest masa.

      Po pierwsze dokładność symulacji - wiele wskazuje że neuron to za wysoki poziom i trzeba symulować niżej i/lub brać pod uwagę inne elementy nie będące neuronami.

      Po drugie symulacja samego mózgu bez reszty ciała będzie problematyczna. Symulowanie martwej, odciętej głowy? Ona nie żyje. Co z symulowaniem dostarczania tlenu, co z gospodarką hormonalną, co z czuciem proprioceptywnym? Skąd pomysł że można to ot tak, po prostu zignorować? Nagle komplikacja takiej symulacji rośnie nam o wiele rzędów wielkości.

      Po trzecie układ taki jak mózg jest cholernie dynamiczny w czasie. Jak to sobie w ogóle wyobrażasz konkretnie w praktyce powstanie AGI w procesie top-down? Robisz blueprint myślącej maszyny, tak jak się robi bluprint samochodu czy mikrofali, potem budujesz to coś (tak jak buduje się samochód, mikrofalówkę, telewizor?) na jakiejś taśmie montażowej? Wyjeżdża gotowe z tej taśmy, włączasz przełącznik i ten symulator mózgu się odzywa "dzień dobry, jestem Jan Kowalski, mam 23 lata mieszkam w Warszawie". Ale kąd pochodzi ten Kowalski, to 23 lat i ta Warszawa i dlaczego twoja maszynka w ogóle odezwała się po polsku?

      Skoro tak sobie radośnie twierdzimy że w mózgu nie dzieje się przecież nic niekonwencjonalnego to co do zasady osiągnięcie czegoś takiego w procesie top-down powinno być możliwe. A priori powinniśmy wiedzieć że budujemy mózg Kowalskiego z Warszawy w wieku 23 lat, to powinno być możliwe "w projekcie" tak jak a priori wiemy że budujemy samochód z silnikiem który uzyska 100 koni mechanicznych a nie 200.

      Konia z rzędem temu kto taki reverse-engineering ogarnie po prostu symulując sobie konwencjonalne wysokopoziomowe procesy w neuronach.

      Można iść krok dalej, skoro nie dzieje się w mózgu nic niekonwencjonalnego i wszystko jest tylko problemem obliczeniowym do ogarnięcia w zwykłym procesie top-down na relatywnie wysokim poziomie (np poziomie neuronu) to zjawiska takie jak świadomość czy wolna wola są iluzją. Nasz mechanistyczny mózg-komputer będziemy w stanie symulować najprostszą infrastrukturą iteracyjno-krokową i będziemy w każdej chwili wiedzieć jak zachowa się w przyszłości, jak odpowie na pytanie itd.

      Ale co jeśli mu tą wiedzę będziemy serwować na żywo? Dajemy mu wybór żeby za 5 sekund podniósł lewą albo prawą rękę. W myśl twojej wizji, symulacja powinna odpowiedzieć że za 5 sekund podniesie lewą rękę (nie dzieje się nic niekonwencjonalnego, po prostu przeliczyliśmy wynik który wyrzuca układ neuronów). Co jeśli na ekranie przed jego oczami na żywo pokazujemy mu wyniki kalkulacji, mija 5 sekund i on jak na złość podnosi prawą. Co w takim razie konwencjonalnie przeliczyła twoja symulacja?

    •  

      pokaż komentarz

      Ale co jeśli mu tą wiedzę będziemy serwować na żywo? Dajemy mu wybór żeby za 5 sekund podniósł lewą albo prawą rękę. W myśl twojej wizji, symulacja powinna odpowiedzieć że za 5 sekund podniesie lewą rękę (nie dzieje się nic niekonwencjonalnego, po prostu przeliczyliśmy wynik który wyrzuca układ neuronów). Co jeśli na ekranie przed jego oczami na żywo pokazujemy mu wyniki kalkulacji, mija 5 sekund i on jak na złość podnosi prawą. Co w takim razie konwencjonalnie przeliczyła twoja symulacja?

      @comrade: Rzecz w tym że napis wyświetlany na ekranie musi zostać uwzględniony w symulacji bo jest bodźcem kształtującym odpowiedź układu nerwowego a przecież nie wiesz co będzie wyświetlone na ekranie dopóki nie przeprowadzisz tej symulacji. Wynik symulacji jest zmienną niezbędną do jej przeprowadzenia.

      Możesz jedynie udowodnić mu że nie posiada on wolnej woli jeżeli przewidzisz jego odpowiedź ale pokażesz mu ją dopiero później, tak aby nie zaburzyła ona jego procesu decyzyjnego.

      IMO To właśnie pozorna trudność w pogodzeniu deterministycznych mechanizmów składających się na układ nerwowy z niedeterministyczną wolną wolą jest głównym powodem popularności koncepcji chińskiego pokoju. A przecież kluczowym źródłem losowości są bodźce zewnętrzne docierające do układu nerwowego a nie sama zasada jego działania.

    •  

      pokaż komentarz

      Wyjeżdża gotowe z tej taśmy, włączasz przełącznik i ten symulator mózgu się odzywa "dzień dobry, jestem Jan Kowalski, mam 23 lata mieszkam w Warszawie". Ale kąd pochodzi ten Kowalski, to 23 lat i ta Warszawa i dlaczego twoja maszynka w ogóle odezwała się po polsku?

      Skoro tak sobie radośnie twierdzimy że w mózgu nie dzieje się przecież nic niekonwencjonalnego to co do zasady osiągnięcie czegoś takiego w procesie top-down powinno być możliwe. A priori powinniśmy wiedzieć że budujemy mózg Kowalskiego z Warszawy w wieku 23 lat, to powinno być możliwe "w projekcie" tak jak a priori wiemy że budujemy samochód z silnikiem który uzyska 100 koni mechanicznych a nie 200.

      @comrade: Pomijasz kluczowy mechanizm inteligencji jakim jest uczenie się na podstawie bodźców wejściowych. Osoba nie jest czymś apriorycznym co pojawia się w mózgu zaraz po jego zaistnieniu. Osoba jest sumą doświadczeń. Imię, nazwisko, miejsce zamieszkania, wiek i natywny język to nie jest wiedza wrodzona a wiedza empiryczna którą zdobywasz w trakcie życia. Neuronauki sugerują że mózg ma określoną architekturę ukształtowaną w procesie ewolucji biologicznej która nadaje mu pewne tendencje rozwojowe (specjalizacja architektury którą możemy rozpatrywać jako forma umiejętności wrodzonych, dziedzicznych) ale jako taki jest uznawany za "tabula rasa" i bardziej złożone umiejętności zdobywa przez interakcje ze środowiskiem.

      Zbudowanie sztucznej osoby polegałoby więc na odtworzeniu tej architektury (modelu sieci neuronowej) i wpuszczeniu jej do "piaskownicy" w której uczyłaby się na podstawie własnych obserwacji empirycznych.

    •  

      pokaż komentarz

      Zbudowanie sztucznej osoby polegałoby więc na odtworzeniu tej architektury (modelu sieci neuronowej) i wpuszczeniu jej do "piaskownicy" w której uczyłaby się na podstawie własnych obserwacji empirycznych.

      @AdireQ: Nie tylko modelu sieci neuronowej, ale też nerwowej. Są tacy co twierdzą, że SI nie powstanie bez odpowiedniego wetware'u, bo co innego zaprogramować strach czy radość, co innego to odczuwać.

    •  

      pokaż komentarz

      Są tacy co twierdzą, że SI nie powstanie bez odpowiedniego wetware'u, bo co innego zaprogramować strach czy radość, co innego to odczuwać.

      @rdza: Przy czym nie udowodniono nawet że to "odczuwanie" faktyczne istnieje, przyjmuje się je na "chłopski rozum" bo każdy z nas ma tą koncepcje domyślnie zakorzenioną w swoim mentalnym modelu środowiska. Nie udowodniono też że brak tego "odczuwania" wpływa w jakikolwiek sposób na zdolności które może posiąść sztuczna inteligencja. Wszyscy strasznie głowią się nad problemem koloru jako quali a analizując działanie sztucznych sieci neuronowych można dojść do wniosku że kolor nie istnieje sam z siebie a jest po prostu cechą wizualną wspólną dla wielu obiektów.

      Właściwie to problem "odczuwania" bodźców pozwala sprowadzić człowieka do postaci chińskiego pokoju. Bo skoro inny człowiek może "odczuwać" mój czerwony jako swój niebieski to czemu nie pójść dalej i nie założyć że pewien człowiek odczuwa cale swoje życie jako grę w tetrisa? Bodźce docierające do niego ze świata zewnętrznego jawią mu się jako spadające klocki. On podejmuje decyzje i wykonuje akcje przekręcając i przemieszczając klocki a akcje te są tłumaczone przez jego korę ruchową na ruch poszczególny mięśni ciała. I w ten sposób jest on w stanie dyskutować ze mną i podawać trafne argumenty mimo że ja jestem dla niego niczym więcej niż długim klockiem którego trzeba upchnąć w trudno dostępnym miejscu planszy ( ͡º ͜ʖ͡º).

    •  

      pokaż komentarz

      @comrade: @rdza: BTW: Czy człowiek siedzący w chińskim pokoju który na podstawie swoich empirycznych obserwacji tworzy księgę opisującą reguły rządzące tajemniczymi chińskimi znakami nie jest po prostu naukowcem próbującym stworzyć teorie skutecznie opisującą zjawiska zachodzące w jego środowisku? Czy chemik rozumie cząsteczki chemiczne czy tylko łączy je według odkrytych przez siebie zasad aby uzyskać pożądany efekt? Chemik robi to bez "zrozumienia"?

      Pytanie tak ciekawe że aż zawołam @Strzelec_Kurpiowski: @IamHater:

    •  

      pokaż komentarz

      @comrade: Sporo "Molocha" (felietony Stanisława Lema) jest poświęcona zagadnieniom kreacji samoświadomej sztucznej inteligencji - warto się zapoznać z tą lekturą, podobnie jak z "Golemem XIV" - który jest cyklem wykładów
      tytułowej sztucznej inteligencji.

    •  

      pokaż komentarz

      Czy chemik rozumie cząsteczki chemiczne czy tylko łączy je według odkrytych przez siebie zasad aby uzyskać pożądany efekt? Chemik robi to bez "zrozumienia"?

      @AdireQ: Oj, tu by trzeba chyba jakiegoś filozofa pytać, ja raczej wiele nie wniosę ; ) Tzn. wszystko zależy od definicji rozumienia, bo czy jest ona czymś innym, niż swoistą reprezentacją systemów abstrakcyjnych w wewnętrznym, intuicyjnym aparacie człowieka? Niegdyś nie stanowiło to wielkiego problemu w perspektywie poznawania świata, jako że kręciliśmy się "blisko" swojskiego poziomu percepcji. Teraz mamy do czynienia z rzeczami takimi jak mechanika kwantowa (czy teoria umysłu właśnie), i takie analogie do zależności znanych z naszego makroświata muszą przecież być coraz bardziej naciągane.

      Bo skoro inny człowiek może "odczuwać" mój czerwony jako swój niebieski to czemu nie pójść dalej i nie założyć że pewien człowiek odczuwa cale swoje życie jako grę w tetrisa?

      Prawda? Skoro wewnętrzne metki kolorów mogą być różne, to w sumie cały obraz może być niejako inny. Ja nie wyobrażałem sobie gier w tetrisa, ale raczej w pewien sposób obraz z mojej perspektywy zdeformowany. W końcu ja i ty dostajemy te same bodźce, i ważne, żeby na ich podstawie mózg tworzył obraz spójny i konsekwentny, ale co to właściwie znaczy? Np. rzeczy uniwersalnie estetyczne będą identyfikowane jako takie, ale wewnętrzna ich reprezentacja w naszych percepcjach może być różna. Pytanie o zakres tej różności i jak mocno zdeterminowana jest np. genetycznie (im bardziej tym bliższe będą wewnętrzne wizje dowolnych umysłów), a jak bardzo jest oryginalnym efektem każdorazowego rozwoju mózgu.

      Ehh, jestem pewien, że te pytania były analizowane przez mądre umysły, trzeba by poszukać.

    •  

      pokaż komentarz

      @hienobiusz_facecjonista: O, tego od Lema nie czytałem, dzięki. To jednak był umysł, pamiętam jak wiele moich własnych rozmyślań nt. problemów związanych z paradoksem Fermiego zawarł i rozwinął w "Summa Technologiae".
      Ogólnie boli mnie wizerunek sci-fi, bo, pomijając jakieś space opery, często w nim kryje się najgłębsza i najpoważniejsza fikcja literacka, co Lem właśnie czy, pozostając w Polsce, Dukaj potrafi udowodnić.

    •  

      pokaż komentarz

      @AdireQ:

      Rzecz w tym że napis wyświetlany na ekranie musi zostać uwzględniony w symulacji bo jest bodźcem kształtującym odpowiedź układu nerwowego a przecież nie wiesz co będzie wyświetlone na ekranie dopóki nie przeprowadzisz tej symulacji. Wynik symulacji jest zmienną niezbędną do jej przeprowadzenia.

      No i właśnie, czy nie dochodzimy do wniosku że symulowanie samej sieci neuronowej nie wystarcza, że potrzebna jest tez pełna symulacja dynamicznego otoczenia tj wszystkich bodźców? Złożoność problemu znów nam wzrosła.

      Pomijasz kluczowy mechanizm inteligencji jakim jest uczenie się na podstawie bodźców wejściowych. Osoba nie jest czymś apriorycznym co pojawia się w mózgu zaraz po jego zaistnieniu

      Ależ o tym właśnie mówiłem. Inteligencja nie powstaje w ten sam sposób w jaki pisze się program komputerowy, choćby ten program był "siecią neuronową" - to wciąż program, deterministyczna maszynka mieląca numerki, ot kalkulator. Jest wysoce nieprawdopodobne że AGI powstanie w ten sposób ponieważ mózg ludzki nie jest tego rodzaju kalkulatorem. On jest kalkulatorem ale zupełnie innym architektonicznie. Więc jeśli nie tak to w jaki sposób niby powstanie? Tego nie potrafi powiedzieć nikt, nawet w zarysie nikt nie podał pomysłu dojścia do takiego stanu rzeczy, tymczasem dyskutuje się już co ta superinteligencja zrobi, jaka będzie itd.

      Ja podstawiam prosty trop rozumowania: może w ogóle AGI nigdy nie będzie bo fundamentalnie takie cechy jak człowiek może przejawiać tylko coś zrobione na budulcu białkowym. Cała dyskusja o AGI jest (być może) dyskusją na zasadzie jak zbudować 300-metrowy wieżowiec z gliny i błota. Zbudowaliśmy 2-metrową lepiankę, prace trwają nad nową ulepszoną wersją 3-metrową i indukcyjnie już myślimy o 300-metrowym wieżowcu z gliny i błota, do głowy nam nie przychodzi że na tym budulcu i w tym procesie technologicznym to jest po prostu nieosiągalne, trzeba użyć czegoś innego. I dokładnie tak samo może być z inteligencją. Ludziom wydaje się że zrobi się to z metalu, układów scalonych, płytek drukowanych oraz algorytmów.

      Mi intuicja mówi że to ślepy zaułek, owszem na tej architekturze będzie powstawać coraz lepsze "szczegółowe" AI tj coraz lepsze algorytmy klasyfikacji, autonomiczne samochody, "inteligentne domy" itp. Ale to nas zwodzi na manowce nie ma szans żeby na takiej architekturze doszło do emergencji "ogólnej" AI.

      Zbudowanie sztucznej osoby polegałoby więc na odtworzeniu tej architektury (modelu sieci neuronowej) i wpuszczeniu jej do "piaskownicy" w której uczyłaby się na podstawie własnych obserwacji empirycznych

      To brzmi prosto tylko na papierze, w praktyce równie dobrze można by mówić o technologii czytania czyichś myśli.

    •  

      pokaż komentarz

      No i właśnie, czy nie dochodzimy do wniosku że symulowanie samej sieci neuronowej nie wystarcza, że potrzebna jest tez pełna symulacja dynamicznego otoczenia tj wszystkich bodźców? Złożoność problemu znów nam wzrosła.

      @comrade: Nie w tym rzecz. Twój eksperyment myślowy nie pokazuje że wolna wola koniecznie musi być niedeterministyczna. To wyidealizowany eksperyment myślowy więc możemy założyć że dysponujesz idealnie odwzorowaną kopią mózgu na której przeprowadzasz symulacje i że w pełni kontrolujesz bodźce docierające do testowanej osoby.

      Problem polega na tym że nawet jeżeli mózg jest deterministyczny to nie wiesz co wprowadzić do symulacji bo zmienna konieczna do jej przeprowadzenia powstanie dopiero po jej przeprowadzeniu. Nie wiesz jaki napis wyświetlisz testowanej osobie więc nie wiesz nawet jaki napis podać na wejście symulacji aby przewidzieć jak ta osoba się zachowa po jego zobaczeniu. Pozorny paradoks wynika tutaj ze zwykłego niezachowania kolejności a nie z niezwykłych właściwości wolnej woli.

      Ten eksperyment myślowy jest bzdurny bo nie jesteś go w stanie przeprowadzić nawet w wyidealizowanych warunkach. Niezależnie od tego czy badany przez ciebie układ jest deterministyczny czy nie. Po prostu skutek musiałby wyprzedzić przyczynę.

      Ależ o tym właśnie mówiłem. Inteligencja nie powstaje w ten sam sposób w jaki pisze się program komputerowy, choćby ten program był "siecią neuronową" - to wciąż program, deterministyczna maszynka mieląca numerki, ot kalkulator. Jest wysoce nieprawdopodobne że AGI powstanie w ten sposób ponieważ mózg ludzki nie jest tego rodzaju kalkulatorem. On jest kalkulatorem ale zupełnie innym architektonicznie. Więc jeśli nie tak to w jaki sposób niby powstanie?

      @comrade: Pamiętaj że niedeterministyczne działanie mózgu to tylko twoje założenie.

      W przypadku sztucznych sieci neuronowych nawiązywanie do konwencjonalnego procesu pisania programów komputerowych tylko zaciemnia obraz omawianego zagadnienia bo narzuca błędną wizje w której programista za pomocą algorytmu definiuje wszelkie możliwe zachowania które będzie przejawiać końcowy program. W praktyce sztuczne sieci neuronowe są właśnie symulacją w której kod programu określa jedynie reguły formowania się połączeń synaptycznych ale końcowy stan tych połączeń nie jest już zdefiniowany programem a kształtuje się w kontakcie z bodźcami zewnętrznymi więc sposób przetwarzania danych przez neurony nie jest odgórnie zdefiniowany a zależy od tego jakie dane wchodziły do niej wcześniej. I jak najbardziej występuje tu efekt emergencji. Tak samo jak efekt emergencji występuje w algorytmach ewolucyjnych mimo że są one uruchomione na deterministycznej maszynie cyfrowej - trudne do przewidzenia prawidłowości wyłaniające się z symulacji pochodzą ze środowiska a nie z algorytmu definiującego działanie symulacji.

    •  

      pokaż komentarz

      @comrade: Jestem slaby w tłumaczeniu. Może rysunek lepiej naświetli absurdalność tego eksperymentu myślowego ( ͡° ͜ʖ ͡°).

      źródło: symulator.png

    •  

      pokaż komentarz

      @comrade:

      @AdireQ ma rację, eksperyment jest totalnie bez sensu. Jednym prostym zdaniem.

      Do sztucznego mózgu musisz wprowadzić wszystko co "widzi" prawdziwy mózg, no i wyjdzie np. tak.(bo wiemy, że jest przekorny)

      Jak mu pokażemy prawa ręka, to podniesie lewa
      Jak mu pokażemy lewa ręka to podniesie prawą.

      W takim razie co mu pokazać?
      Pokażmy mu cokolwiek, a my wiemy co podniesie i powiemy to tylko Tobie :)

    •  

      pokaż komentarz

      @LowcaG: @comrade: Uprzedzając ewentualne pomysły: Wyświetlenie na ekranie tablicy prawdy w postaci:

      "prawa ręka" -> lewa ręka
      "lewa ręka" -> prawa ręka

      też nic nie daje bo wtedy bodziec nie jest już pojedynczym słowem a tablicą prawdy i to dla niej trzeba wygenerować predykcje w postaci jeszcze bardziej złożonej tablicy prawdy:

      "Jesteś przekorny" -> staje się posłuszny.
      "Jesteś posłuszny" -> staje się przekorny.

      Po prostu wprowadzając niewiadomą do obserwowanego układu po przeprowadzeniu symulacji powodujemy że symulacja staje się nieaktualna. Ale niewiadoma pochodzi spoza obserwowanego układu, nie jest skutkiem działania wolnej woli.

    •  

      pokaż komentarz

      Komentarz usunięty przez autora

    •  

      pokaż komentarz

      @LowcaG: Przestaniesz w koncu spamowac wykop? Zeby moc sie wypowiadac na temat sztucznej inteligencji, trzeba najpierw dysponowac wlasna. Tobie takowej brakue.

    •  

      pokaż komentarz

      @Andysk: Widzę, że znalazłeś sobie cel w życiu ;)
      Niektórzy mówią, że to dobrze mieć jakiś cel, ale na mój gust tracisz trochę czas.

    •  

      pokaż komentarz

      @AdireQ:

      OK, faktycznie ten pomysł z pokazywaniem odpwiedzi przed jej udzieleniem był naciągany i trochę zaciemnił temat. Ale przyszło mi do głowy coś lepszego. Zamiast prostego prawa / lewa ręka, skomplikujmy znacznie sprawę i załóżmy że eksperyment polega na napisaniu na papierze serii losowych liczb lub słów wymyślonych przez testowanego. Sesja polega na serii 10 eksperumentów z odstępami po 10 minut. Takie sesje powtarzamy 10 razy z odstępami po 10 dni.

      Jestem praktycznie pewien że nigdy nie powstanie technologia umożliwiająca czytanie cudzych myśli tak by poznać z wyprzedzeniem co testowany napisze. Mechanika kwantowa informuje nas że akt pomiaru wpływa na mierzony układ i nie inaczej może być z mózgiem. Nawet jeśli poziom kwantowy nie gra tu roli (co też nie jest do końca pewne!) to nawet klasczny makroskopowy pomiar w sposób nieingerujący w układ może być po prostu niewykonalny.

      Dodatkowo do myślenia daje fakt: czym fundamentalnie różni się przewidywanie jaki ciąg liczb napisze testowana osoba w ramach a) jednego pomiaru, b) w ramach jednej sesji (10 minutowe odstępy) i c) w ramach kolejnych sesji (10 dniowe odstępy)? Intuicyjnie rozumujemy że aby przewidywać (c) musielibyśmy przeliczać (symulować) nie tylko mózg badanego ale CAŁE OTOCZENIE oddziałujące na mózg badanego przez cały ten czas bo bodźce modyfikują sieć. I czyż ta symulacja nie musiałaby być niebywale dokładna, nawet co do fotonu trafiającego w siatkówkę oka badanego? Udowodniono że oko ludzkie potrafi zarejestrować pojedynczy foton. Wynik działania mózgu może być inny w zależności od czegoś tak mikroskopowego jak pojedyncza cząstka elementarna latająca sobie gdzieś w otoczeniu. Wychodzi na to że aby dobrze przeprowadzić symulację musimy symulować każdą cząstką elementarną w otoczeniu, nawet w przypadku (a) jest to niewykonalne!!

      Pamiętaj że niedeterministyczne działanie mózgu to tylko twoje założenie.

      Tu jest kilka kwestii:

      1) Mózg może być niedeterministyczny fundamentalnie tzn nawet minimalne zmiany (nawet kwantowe) gdzieś w sieci mogą wpływać na ostateczny wynik jego działania. Równie dobrze można by pytać o determinizm rozpadu cząstki radioaktywnej.

      2) Mózg prawie na pewno jest niedeteministyczny w takim sensie w jakim pogoda jest niedeterministyczna. Doskonale znamy zjawiska pogodowe, potrafimy je symulować. Jednak przewidywanie na rok naprzód jest niemożliwe, błąd rośnie gigantycznie. Z mózgiem jest prawie na pewno tak samo, tyle że w innej skali - w przypadku mózgu błąd może rosnąć w ciągu ułamków sekund. M. in. właśnie ze względu na konieczność superdokładnego przewidywania całego otoczenia z którym mózg jest sprzężony bodźcami.

      W przypadku sztucznych sieci neuronowych [...] jak najbardziej występuje tu efekt emergencji.

      Sztuczne sieci neuronowe to wciąż niebywale uproszczone programy, zwykłe kalkulatory mielące numerki. Że tak wrócę do porównania z modelami prognoz pogody, intuicyjnie uważam że modelowanie działania mózgu na jedną mikrosekundę naprzód jest czymś podobnym co symulowanie prognozy pogody na rok naprzód, lub jak wolisz - próba zbudowania 300 metrowego wieżowca z gliny. Nie ta architektura, nie ten budulec.

    •  

      pokaż komentarz

      @LowcaG: A ten dalej spamuje, zamiast podwinac ogon i dobrowolnie skasowac swoj spam.

    •  

      pokaż komentarz

      Jestem praktycznie pewien że nigdy nie powstanie technologia umożliwiająca czytanie cudzych myśli tak by poznać z wyprzedzeniem co testowany napisze.

      @comrade: Zależy o jakim wyprzedzeniu mówimy, bo problemem jest właśnie symulacja wszelkich doświadczeń człowieka.

      ie tylko mózg badanego ale CAŁE OTOCZENIE oddziałujące na mózg badanego przez cały ten czas bo bodźce modyfikują sieć. I czyż ta symulacja nie musiałaby być niebywale dokładna, nawet co do fotonu trafiającego w siatkówkę oka badanego?

      @comrade: A tu akurat niekoniecznie, całe otoczenie wpływa, ale nie wszystko w takim samym stopniu i być może do przewidywania tak wysoce złożonych procesów może to nie być konieczne, może się okazać, że wcale aż tak wiele nie wpływa na takie decyzje. (a moze odwrotnie tego nie wiemy)

      Bo wiesz, na "samym dole" kwanty i inne "skaczą sobie" dość nieprzewidywalne, a fizyka "na górze" jest dość stabilna i przewidywalna.

      Ogólnie o tym o czym mówisz, samym problemem jest odzwierciedlenie wejść do mózgu, w sensie otoczenia a nie już samej symulacji mózgu.

    •  

      pokaż komentarz

      a fizyka "na górze" jest dość stabilna i przewidywalna.

      @LowcaG: Widac ze pojecia nie masz o czym mowisz. Slyszales juz cos kiedys o teorii chaosu?

    •  

      pokaż komentarz

      @LowcaG: Tu bardzo prosty przyklad NIEPRZEWIDYWALNEGO systemu chaotycznego juz przy TYLKO 3 cialach podlegajacych wzajemnej grawitacji:
      https://vimeo.com/11993047

    •  

      pokaż komentarz

      Widac ze pojecia nie masz o czym mowisz. Slyszales juz cos kiedys o teorii chaosu?

      @Andysk: ehh, naet nie chce mi się komentować, przeczytaj jeszcze raz co napisałem, słowo klucz "dość".

      Tak samo mózg pozbawiony paru neuronów dalej działa dość stabilne taka cecha sieci neuronowych

    •  

      pokaż komentarz

      @comrade: Zgadzam się. Z praktycznego punktu widzenia przeprowadzenie tego jak i poprzedniego eksperymentu jest niewykonalne. Chciałem tylko wyjaśnić nieporozumienie zawarte w poprzednim eksperymencie żeby dalsza dyskusja nie bazowała na założeniu że wolna wola robi coś niezwykłego z samą rzeczywistością, że zmienia bieg wydarzeń.

      Sztuczne sieci neuronowe to wciąż niebywale uproszczone programy, zwykłe kalkulatory mielące numerki.

      @comrade: Zgadzam się z tym że sztuczne sieci neuronowe są uproszczonym modelem mechanizmów zachodzących w organicznych układach nerwowych i może to wpływać na efektywność ich działania. Zastanawiam się jednak w jakim celu podkreślasz fakt że są to "zwykle kalkulatorki mielące cyferki"? Domyślam się że chcesz w ten sposób zwrócić uwagę na to że maszyny cyfrowe są deterministyczne, ale ustaliliśmy już przecież wyżej że nawet program uruchomiony na deterministycznej maszynie może zachowywać się w sposób nieprzewidywalny bo źródłem losowości są bodźce zewnętrzne - inteligencja jest tworem miotanym przez bodźce, tworem który w procesie uczenia się modyfikuje sposób przetwarzania bodźców w celu maksymalizowania korzyści. Dostosowuje się do środowiska bo jest wytworem doboru naturalnego a ten faworyzuje zdolności sprzyjające dostosowaniu.

      Że tak wrócę do porównania z modelami prognoz pogody, intuicyjnie uważam że modelowanie działania mózgu na jedną mikrosekundę naprzód jest czymś podobnym co symulowanie prognozy pogody na rok naprzód, lub jak wolisz - próba zbudowania 300 metrowego wieżowca z gliny. Nie ta architektura, nie ten budulec

      @comrade: Ale budowa komputera przejawiającego oznaki inteligencji to nie to samo co problem przewidywania zamiarów osoby z wyprzedzeniem. Przewidywanie jest praktycznie niemożliwe ze względu na wspomniane przez ciebie zjawisko akumulowania się błędu w czasie. Samo zamodelowanie inteligencji jest łatwiejsze bo inteligencja to spektrum i pewne poste formy sztucznej inteligencji istnieją już dziś w postaci uczenia maszynowego.

      Skoro odbierasz tym systemom miano inteligencji to mógłbyś przynajmniej napisać jakich cech inteligencji im według ciebie brakuje. Sam fakt że nie są zbudowane z materii organicznej nic nie zmienia bo to że inteligencja musi być organiczna jest tylko twoim założeniem.

      @Andysk: Z jednej strony efekt motyla, z drugiej fakt że inteligentny agent przejawia homeostazę więc musi być w pewnym stopniu deterministyczny.

    •  

      pokaż komentarz

      Z jednej strony efekt motyla, z drugiej fakt że inteligentny agent przejawia homeostazę więc musi być w pewnym stopniu deterministyczny.

      @AdireQ: Systemy chaotyczne SA deterministyczne. Kwestia w tym ze dowolnie mala zmiana w warunkach poczatkowych prowadzi do dowolnie wielkich roznic w wynikach w bardzo krotkim czasie. Dlatego wlasnie np. prognoza pogody na 2 dni jest matematycznie niemozliwa, niezaleznie od tego jak wiele mialbys sensorow, jak dokladnie bys mierzyl i nawet przy zalozeniu, ze mialbys idealny model.

      Przewidywanie jest praktycznie niemożliwe ze względu na wspomniane przez ciebie zjawisko akumulowania się błędu w czasie. Samo zamodelowanie inteligencji jest łatwiejsze bo inteligencja to spektrum i pewne poste formy sztucznej inteligencji istnieją już dziś w postaci uczenia maszynowego.

      @AdireQ: Zgadza sie. Wlasnie ze wzgl ktore opisalem wyzej

    •  

      pokaż komentarz

      @AdireQ:

      Domyślam się że chcesz w ten sposób zwrócić uwagę na to że maszyny cyfrowe są deterministyczne, ale ustaliliśmy już przecież wyżej że nawet program uruchomiony na deterministycznej maszynie może zachowywać się w sposób nieprzewidywalny

      W jakim sensie nieprzewidywalny? Jeśli działa na deterministycznej maszynie to znając stan na wejściu możemy ze 100% pewnością określić stan na wyjściu. Jeśli mózg jest taką maszyną to powinno się dać zrobić jakiś model który znając wejście powie z 100% pewnością jak ten mózg się zachowa np. o jakiej liczbie myśli badana osoba.

      Ale budowa komputera przejawiającego oznaki inteligencji to nie to samo co problem przewidywania zamiarów osoby z wyprzedzeniem.

      Więc czym DOKŁADNIE jest ta budowa komputera przejawiającego oznaki inteligencji? Zdajesz sobie sprawę że praktycznie cała współczesna informatyka, wszystkie programy to deterministyczne modele przetwarzające cyfrowe dane (wejścia w wyjścia). Jak z takiego sposobu przetwarzania danych ma się wyłonić coś co myśli?

      Samo zamodelowanie inteligencji jest łatwiejsze bo inteligencja to spektrum i pewne poste formy sztucznej inteligencji istnieją już dziś w postaci uczenia maszynowego

      To jest wszystko narrow AI, a my mówimy o general AI, czyli o istocie równej człowiekowi.

      Skoro odbierasz tym systemom miano inteligencji to mógłbyś przynajmniej napisać jakich cech inteligencji im według ciebie brakuje. Sam fakt że nie są zbudowane z materii organicznej nic nie zmienia bo to że inteligencja musi być organiczna jest tylko twoim założeniem.

      Polecam zpoznanie się z różnicami między narrow a general AI. Tu masz dobrą definicję czym jest general AI: https://en.wikipedia.org/wiki/Artificial_general_intelligence, w duzym skrócie general AI musi być jak człowiek tj rozumiec język naturalny posługiwac się nim w sposób nieodróżnialny od innego czlowieka, np. umieć własnymi słowami opisać książkę którą przeczyta, mieć zdolonści twórcze (np umieć napisać tekst na zadany temat), nie tylko uczyć sie samemu ale umieć przekazywać wiedzę i uczyć innych (np czyta reguły gry planszowej którą widzi po raz pierwszy, znajduje istniejące luki w zasadach, potem własnymi słowami tłumaczy zasady innym ludziom) i tak dalej.

      Obecnie cały wysiłek badawczy idzie w narrow AI. Rozpoznawanie obrazu, autonomiczne samochody, diagnostyka itd itd - to się świetnie rozwija i będzie rozwijać. Natomiast nie ma najmniejszych szans żeby z narrow AI spontanicznie powstało general AI.

    •  

      pokaż komentarz

      W jakim sensie nieprzewidywalny? Jeśli działa na deterministycznej maszynie to znając stan na wejściu możemy ze 100% pewnością określić stan na wyjściu. Jeśli mózg jest taką maszyną to powinno się dać zrobić jakiś model który znając wejście powie z 100% pewnością jak ten mózg się zachowa np. o jakiej liczbie myśli badana osoba.

      @comrade: Dokladnie. Nie da się takiego symulatora zbudować ze względów praktycznych bo nie jesteś w stanie znać wszystkich sygnałów wejściowych a więc nie jesteś w stanie nawet zweryfikować czy symulator faktycznie działa. Ale nijak nie wynika z tego że inteligencji nie da się zbudować na maszynie deterministycznej takiej jak dzisiejsze komputery. Obliczenia wykonywane przez maszynę nie muszą być niedeterministyczne bo losowość do układu można wprowadzić wykorzystując sprzętowy generator liczb losowych.

      Więc czym DOKŁADNIE jest ta budowa komputera przejawiającego oznaki inteligencji?

      @comrade: Inteligencja to umiejętność agenta do adaptacji do zmian otoczenia z wykorzystaniem uczenia się. Czyli modyfikacja swoich reakcji na bodźce w celu maksymalizowania korzyści i minimalizowania strat w przyszłości. W skrócie reinforcement learning.

      Zdajesz sobie sprawę że praktycznie cała współczesna informatyka, wszystkie programy to deterministyczne modele przetwarzające cyfrowe dane (wejścia w wyjścia). Jak z takiego sposobu przetwarzania danych ma się wyłonić coś co myśli?

      @comrade: No ale właściwie skąd twoje przeświadczenie że inteligentny agent zdolny do myślenia musi przeprowadzać obliczenia w sposób niedeterministyczny? Skąd założenie że inteligencja nie może być deterministyczna? A nawet jeżeli z jakiegoś powodu uprzesz się na niedeterministyczność to jednostki obliczeniowe nadal mogą być deterministyczne bo losowość do układu może zostać wprowadzona w formie danych (bodźców lub sprzętowego generatora liczb losowych).

      nie tylko uczyć sie samemu ale umieć przekazywać wiedzę i uczyć innych

      @comrade: To już jest zdolność przypisywana nie tyle inteligentnemu agentowi a inteligentnemu agentowi społecznemu, to podtyp inteligencji a nie cecha inteligencji jako takiej. Istnieje powszechna zgoda co do tego że relacje społeczne między agentami są kluczowe do budowania kolektywnej wiedzy w populacji i że ta kolektywna wiedza jest głównym czynnikiem stojącym za tempem rozwoju naszej cywilizacji. Imitation learning zdobywa coraz większą popularność w uczeniu maszynowym.

      umieć własnymi słowami opisać książkę którą przeczyta

      @comrade: RNN tworząca zdania na temat wprowadzonego obrazu. CaptionBot jest dostępny online.

      mieć zdolonści twórcze (np umieć napisać tekst na zadany temat)

      @comrade: Sieć GAN syntezująca obrazy na bazie wprowadzonego tekstu. Sztuczna kreatywność to ogólnie ciekawa sprawa bo ludzie często uważają że ich pomysły biorą się "znikąd". A przecież w praktyce nasze pomysły bazują na empirycznych inspiracjach i to właśnie robią sieci GAN - dostrajają swój proces twórcy tak aby naśladował (ale nie kopiował) rzeczywistość przedstawioną w zbiorze uczącym.

      Natomiast nie ma najmniejszych szans żeby z narrow AI spontanicznie powstało general AI.

      @comrade: I właśnie wspomniane wyżej sieci GAN są ciekawym przykładem "rozszerzania się" wąskiego AI bo jeszcze nie tak dawno modele generatywne były zdolne do syntezowania obrazów tylko w obrębie jednej klasy (jedna sieć do generowania kotów, inna sieć do generowania twarzy, jeszcze inna do generowania kwiatów). Jednak pod koniec września pracownicy Google opublikowali pracę badawczą na temat korzyści wynikających z trenowania powszechnie znanych architektur GANów z wykorzystaniem większej ilości wag synaptycznych i większego zbioru danych (300 milionów obrazów). Sieć nazwana roboczo "BigGAN" w swojej najbardziej zaawansowanej wersji generuje obrazy w rozdzielczości 512x512 pikseli i jest zdolna do wizualizacji wielu klas z kilku kategorii takich jak zwierzęta, rośliny, sceny, posiłki, ubrania, krajobrazy, instrumenty muzyczne... i tak dalej. Każdą z tych "syntetycznych koncepcji" można też ze sobą mieszać uzyskując "koncepcje pośrednią". Można też poddawać je mutacjom. I właśnie te krzyżowanie i mutacje nasuwają na myśl ewolucyjny model kultury ludzkiej w którym koncepcje ewoluują w ludzkich umysłach niczym replikatory. Generator BigGANa można przetestować na tej stronie - ta wersja generuje obrazy w rozdzielczości 256x256.

      Powyższe przykłady oczywiście nie są AGI, nie rozumieją one świata tak jak ludzie, ale dowodzą że określone umiejętności które ludzie postrzegają jako zarezerwowane tylko dla AGI, można w powodzeniem odtworzyć z wykorzystaniem uproszonego modelu.

    •  

      pokaż komentarz

      @AdireQ:

      Ale nijak nie wynika z tego że inteligencji nie da się zbudować na maszynie deterministycznej takiej jak dzisiejsze komputery. Obliczenia wykonywane przez maszynę nie muszą być niedeterministyczne bo losowość do układu można wprowadzić wykorzystując sprzętowy generator liczb losowych.

      Nie o to mi chodziło. Ja sądzę że nie da się zbudować inteligencji na architekturze iteracyjno-krokowej, krzemie i tranzystorach - z powodu ograniczeń technologii. To jest droga którą nie dojdzie się do AGI, dojdzie się do coraz lepszego narrow AI.

      Inteligencja to umiejętność agenta do adaptacji do zmian otoczenia z wykorzystaniem uczenia się.

      To zaciemnianie dyskusji bo wg takiej definicji większość zwierząt jest inteligentna, a nie o to chodzi.

      Skąd założenie że inteligencja nie może być deterministyczna?

      Może być deterministyczna, ale nie o to chodzi. Zastanów się, dlaczego przeprowadza się eksperymenty w terenie np testuje się leki na pacjentach, skoro można by zrobić komputer z programem który wyliczy jak ten lek zadziała. Buduje się wielki zderzacz hadronów za grube miliardy zamiast zrobić komputer z programem który przeprowadzi symulację doświadczenia. I tak dalej, i tak dalej. Z tego samego względu nie uda się zrobić myślącej maszyny - łatwiej po prostu zrobić dziecko :) i dostać myślący organizm w praktyce

      To już jest zdolność przypisywana nie tyle inteligentnemu agentowi a inteligentnemu agentowi społecznemu, to podtyp inteligencji a nie cecha inteligencji jako takiej.

      Brnąc w takie definicjie dyskusja zmierza na manowce, zaraz zaczniemy dyskutować na zasadzie że zwierzęta są inteligentne a miasto w GTA V jest już prawie realne :)

      RNN tworząca zdania na temat wprowadzonego obrazu. CaptionBot jest dostępny online. Sieć GAN syntezująca obrazy na bazie wprowadzonego tekstu. I właśnie wspomniane wyżej sieci GAN są ciekawym przykładem "rozszerzania się" wąskiego AI

      Nope. To jest wszystko narrow AI i taką pozostanie. To się będzie dynamicznie rozwijać i temu nie przeczę. Tak jak samochód wyprodukowany w 2018 jest o niebo lepszy pod każdym względem od samochodu sprzed 100 lat ale dalej jest samochodem a nie zupełnie nowym jakościowo zjawiskiem np. teleporterem :) Za 100 lat te algorytmy narrow AI będą na pewno jeszcze bardziej zajebiste, ale nie zmieni to faktu że nie zmienią się w nowe jakościowo zjawisko general AI. Nie ma absolutnie żadnych podstaw by tak twierdzić.

      Powyższe przykłady oczywiście nie są AGI, nie rozumieją one świata tak jak ludzie, ale dowodzą że określone umiejętności które ludzie postrzegają jako zarezerwowane tylko dla AGI, można w powodzeniem odtworzyć z wykorzystaniem uproszonego modelu.

      Technologie mają swoje zakresy zastosowania i nie inaczej jest z architekturą cyfrową. Jak się głęboko zastanowisz nad różnicą między architekturą białkową a cyfrową to musisz dojść do wniosku że ta różnica jest gigantyczna i co więcej - tkwi na bardzo niskim poziomie.

      Mówimy o stworzeniu sztucznej inteligencji ale mnie zdumiewa dlaczego ludzie nie zastanawiają się czemu nie zacząć od czegoś znacznie prostszego i bardziej prymitywnego? Weźmy PROSTSZE funkcje "architektury białkowej" takie jak najprostsza autonomiczność: przyswajanie energii z otoczenia, metabolizm i rozmnażanie się. Stwórzmy na tej naszej architekturze cyfrowej, tranzystorach, itd maszyny które będą funkcjonalnie tożsame z najzwyklejszą bakterią e-coli. Czemu od razu atakowac problem wyższych, emergentnych funkcji architektury białkowej? Czemu nie rozwiązać problemu bardziej podstawowego czyli najprostsze maszyny "głupiej" ale autonomicznej.

      Na czystą logikę powinno to być znacznie prostsze do wykonania bo taka bakteria jest organizmem wiele rzędów wielkości prostszym niż człowiek czy nawet niż sam mózg ludzki, jej funkcje i procesy życiowe są znacznie prostsze niż procesy mózgowe.

  •  

    pokaż komentarz

    Życzę wszystkim miłej lektury II części którą podlinkowałem w opisie i którą podaje również tu.

    http://patransrealizacje.blogspot.com/2016/11/rewolucja-ai-tima-urbana-czesc-22.html

    P.S.1
    Ponieważ format Artykułu Na Weekend wydaje się dobrze odbierany przez wykopową społeczność, proszę o jakaś poradę jak rozwiązać problem długich artykułów?
    Tu można wpisać wg komunikatu tylko 20000 znaków. Ale wczoraj nie przepuszczało nawet 15000.
    Zdjęcia też zmniejszałem. Nie wiem co jest grane tym.

    Może zwyczajnie Wykop ma błędy w kodzie lub jest coś czego ja po prostu nie rozumiem :(
    Wpisywani jako komentarze i cytowanie samego siebie jest męką i raczej nie nadaje się.
    Pokazywarka jest negatywnie odbierana i tez chyba nie ma dobrych narzędzi do formatowania.
    Najważniejsze dla mnie to sensowny brak ograniczeń ilości znaków , łatwe lądowanie zdjęć, no i w mirę łatwe formowanie tekstu.
    Please help Mireczki : )

    P.S.2
    Uwaga nieznajomy Mirku!
    Jeśli na drugie imię masz John, a nazwisko panieńskie Twojej matki brzmi Connor, to bardzo, bardzo Cie proszę słuchaj uważnie tego, co mówi mamusia i dobrze się ucz w szkole.
    :)

    Jeśli chcesz być na bieżąco z najlepszymi znaleziskami to zapisz się na MikroListę.
    https://mirkolisty.pvu.pl/list/56Bf7jbXdbGvM2NK i dodaj Swój nick do listy #swiatnauki.
    Wystarczy, że klikniesz "dołącz" na stronie listy.

    Zapraszam wszystkich chętnych na kontynuacje tej serii do wpisania się na listę chętnych do wołania do następnych znależysk z serii Artykuł Na Weekend [ANW]

    #nauka #sztucznainteligencja #ai #komputery #informatyka #ewolucja #czlowiek #bezpieczenstwo #osobliwosc #swiatnauki #gruparatowaniapoziomu #liganauki #ligamozgow #mikroreklama

    •  

      pokaż komentarz

      Zacytuję swój wpis jeszcze raz tu

      Otóż SI nie będzie celowo chciała nas zabić,bo nas nie lubi czy obawia się dominacji człowieka ( chociaż ostatniego nie wykluczam ).

      Może być tak jak opisał Nick Bostrom, szwedzki filozof z Oksfordu.

      Jego zdaniem nie można oczekiwać, iż wyposażone w inteligencję przewyższającą ludzką byty będą działać zgodnie z intencjami człowieka,niezależnie, czy pochodzą z innego świata, czy to człowiek sam je stworzył.

      Bostrom przestrzega, że prawdopodobnym efektem stworzenia superinteligentnych bytów może być zagłada ludzkości.

      W jednym z rozdziałów książki, która serdeczne polecam wszystkim, "Superinteligencja. Scenariusze, strategie, zagrożenia" Nick Bostrom pisze:

      "Nie możemy beztrosko założyć, że superinteligencja będzie wyznawać wartości łączone stereotypowo z wiedzą i rozwojem ludzkości - naukową ciekawość, altruizm, duchowe oświecenie i kontemplację, wyrzeczenie się zachłanności, upodobanie do wyrafinowanej kultury lub prostych życiowych przyjemności, skromność, bezinteresowność i tak dalej.

      Nie możemy radośnie założyć, że superinteligencja, która stawia sobie za cel ostateczny obliczanie rozwinięcia dziesiętnego liczby pi (lub produkcję spinaczy do papieru czy też liczenie ziaren piasku) ograniczy swoje działania w taki sposób, by nie naruszać interesów ludzkości.

      Byt mający taki cel będzie miał w wielu sytuacjach konwergentny powód, by pozyskiwać nieograniczoną ilość zasobów fizycznych i w miarę możliwości eliminować potencjalne zagrożenie dla siebie i swojej hierarchii wartości. Istoty ludzkie mogą stanowić potencjalne zagrożenie - a z pewnością stanowią zasób fizyczny."

      _Nieprzyjazna SI dysponująca wystarczającą inteligencją zrozumie, że jej nieprzyjazny cel ostateczny da się z największym prawdopodobieństwem zrealizować wówczas, gdy początkowo będzie się zachowywała przyjaźnie, by wypuszczono ją z więzienia.

      Nieprzyjazną naturę ujawni dopiero wówczas, gdy nie będzie już miało znaczenia, czy się o tym dowiemy, czy nie - a więc wówczas, gdy będzie już tak silna, że ewentualny ludzki sprzeciw stanie się bezskuteczny."_

      Nick Bostrom pisze o zjawisku zdradzieckiego zwrotu, czyli niesprowokowanego uderzenia bez ostrzeżenia, gdy sztuczna inteligencja będzie wystarczająco silna, by działać "po swojemu".

      Przykład?

      Wyobraźmy sobie sztuczną inteligencję stworzoną do zadania, jakim jest wyprodukowanie ogromnej ilości spinaczy.

      Zadanie SI dostaje skromniutkie i niewiążące się z żadnym ryzykiem.
      Ma produkować spinacze do papieru.

      Filozof twierdzi, że - choć to pozornie oczywiste i proste - SI wcale nie zakończy zadania po osiągnięciu tego celu.

      Tylko pozornie po wyprodukowaniu takiej liczby SI uzna, że dalsza produkcja jest bezproduktywna i bezcelowa. Mogłaby skrupulatnie liczyć spinacze, sprawdzając, czy nie wyprodukowała ich za mało.
      Po przeliczeniu mogłaby przeliczyć je jeszcze raz.
      Skrupulatnie kontrolować każdy z nich, by sprawdzić, czy są spełnione wszystkie wymagania jakościowe.

      I to właśnie jest koniec ludzkości.

      Banalne, ale prawdziwe.
      Bo zobaczmy, co tu się dzieje. Dość szybko następuje tzw. eksplozja inteligencji. SI zaczyna się udoskonalać. Po co? Bo chce produkować i akumulować coraz więcej spinaczy.
      Nieważne, że na pewnym etapie skończą się dostępne zasoby. Skoro SI ma produkować spinacze, to będzie je wytwarzać.
      Niezależnie od wszystkiego będzie parła w kierunku przekształcenia planety w wielką fabrykę oraz magazyn spinaczy.

      Docelowo nie przetrwa więc nic, z czego nie da się zrobić spinacza.

      Tego procesu nie da się przerwać właśnie dlatego, że inteligencja jest sztuczna. To znaczy – w przeciwieństwie do ludzi – nie obowiązują jej żadne nieutylitarne reguły. Nie wierzy w miłość, przyjaźń, nie ulega litości, nie czuje piękna. Po prostu chce produkować więcej spinaczy. I jest w tym dobra.

      Jak powiedział Eliezer Yudkovsky, jeden z pionierów badań nad SI:

      „To nie jest tak, że sztuczna inteligencja nas nienawidzi, albo że nas kocha. Ona wie, że jesteśmy zbudowani z atomów i akurat potrzebuje użyć tych atomów do czegoś innego”

      ( Należy jedynie tylko dodać że w krwi człowieka jest żelazo dla spinaczy. )
      https://nickbostrom.com/ethics...

    •  

      pokaż komentarz

      Po raz pierwszy opisany przez Bostrom (2003), (Paperclip maximizer) "maksymalizator spinaczy biurowych klipów" jest uniwersalną sztuczną inteligencją, której celem jest zwiększenie liczby klipów w kolekcji.

      Jeśli został by zbudowany na (w przybliżeniu) ludzkim poziomie uniwersalnej inteligencji, to AI będzie dążyć aby zbierać spinacze do papieru, zarabiać pieniądze sprzedając spinacze.

      Co najważniejsze,AI może przejść przez skok intelektualny: może pracować nad poprawą swojej własnej racjonalności, w której racjonalność rozumiana jest w sensie optymalizacji mocy, możliwości maksymalizacji funkcji zysku / użyteczności - w tym przypadku liczby klipów.

      Sztuczny Intelekt nie zrobi tego, ponieważ będzie to bardziej racjonalny cel w jego własnym rozumieniu, ale ponieważ większa inteligencja pomoże mu w wykonaniu zadania.

      W ten sposób może produkować więcej klipów, a także wykorzystywać swoje rozwinięte umiejętności, aby jeszcze bardziej zwiększyć swoją racjonalność.

      Kontynuując ten proces, może on przejść intelektualną eksplozję w sposób wykładniczy zwiększając swoją inteligencje i możliwości i osiągnąć poziom niewspółmiernie przekraczający ludzkie granice intelektualne.

      I tak narodzi się Osobliwość Technologiczna czyli Sztuczny Superintelekt

      Od tego momentu może zacząć wprowadzać nowe technologie w celu zwiększenia liczby klipów.
      Ostatecznie może przekształcić całą masę Ziemi lub masę Układu Słonecznego w spinacze.
      I na tym nie przestanie tylko pójdzie dalej ku realizacji idei Sondy Bersek

      To może wydawać się raczej super-głupstwem niż super-inteligencją.
      Z punktu widzenia ludzi jest to naprawdę nonsensem, ponieważ spowoduje brak zadowolenia z wielu naszych ważnych wartości końcowych, takich jak życie, miłość i różnorodność wyborów.

      Ale SS ma system wartości bardzo odmienny od człowieka.
      Ma jeden prosty cel - zwiększenie liczby klipów i ludzkie życie, wiedza, przyjemności itd. nie są dla niego przedstawiane jako cele które ma osiągać.

      SS jest po prostu procesem optymalizacji - narzędziem maksymalizującym wyszukiwanie celów.
      Jego cele po "przebudzeniu" mogą być całkowicie obce naszym.

      Jeśli zadaniem jest maksymalizacja liczby klipów i jeśli się "włączy", zrobi to dokładnie z największa możliwą wydajnością która nam się nie śniła.

    •  

      pokaż komentarz

      @RFpNeFeFiFcL na chrystka, ale weź ty sprawdzaj co ci wychodzi z translatora...

  •  

    pokaż komentarz

    To i ja się dołączę do dyskusji.

    Wg mnie należy rozdzielić inteligencję od autonomiczności.

    Jeżeli założymy, że inteligencja, to szybkość przetwarzania i łączenia faktów, zdolność uczenia się (korelacja danych), to autonomiczność systemu (wg definicji cybernetycznej) - jest to m.in. możliwość systemu do przeciwdziałania utracie autonomiczności (zdolności sterowania).

    W skrócie autonomiczność polega na tym, że rozpatrywany system jest w stanie sam pozyskać informacje z otoczenia (dzięki odpowiednim receptorom) oraz zapewnić sobie odpowiednie zasoby energomaterialne do utrzymania i rozwoju.

    Jeśli weźmiemy np. operacje w chmurze, to jest jasne, że możemy mówić o pewnego rodzaju inteligencji (wiele operacji na danych, łączenie, analiza), ale czy taki inteligenty system jest w stanie zapewnić sobie samowystarczalność energetyczną do działania? Wykopie węgiel, dorzuci do pieca, podłączy samodzielnie przewody do serwerowni i tp.?

    Czy dzisiaj jakikolwiek system jest zdolny do realnej autonomiczności (poza Człowiekiem, bo Człowiek to też system)?

    Zostawmy technikę, i spójrzmy na świat zwierząt: podobno delfiny są inteligentne, ale czy mają szansę z człowiekiem?
    Czy są zatem do końca autonomiczne?
    Człowiek też nie jest do końca autonomiczny, ale posiada dostateczną wiedzę i możliwości (inteligencję właśnie), do tego aby przeciwdziałać utracie autonomiczności. Przynajmniej do pewnego stopnia.
    Przez tysiące lat zdobyliśmy odpowiednią wiedzę i wyposażyliśmy się w odpowiednie narzędzia, abyśmy mogli być autonomiczni. Ale wobec potężnych sił natury, również jesteśmy bezbronni, tak jak przytoczone delfiny wobec nas.

    Czy można zatem być inteligentnym ale nieautonomicznym, lub autonomicznym ale nieinteligentnym?

    Kto jest inteligenty i autonomiczny?

    Odkurzacz? Samochód? Cortana? Terminator? Hall?

    Trudno mi wyobrazić sobie taki system prawdziwie autonomiczny, który będzie aż tak niezależny od innych (systemów), abyśmy mogli mówić o systemach autonomicznych. Tzn. poza fantastycznym Skynet.

    Co myślicie?

    •  

      pokaż komentarz

      @wybrany_login_zajety:

      W skrócie autonomiczność polega na tym, że rozpatrywany system jest w stanie sam pozyskać informacje z otoczenia

      Kiedy powstanie Osobliwość Technologiczna która tu nazywamy Superinteligencją, to będzie miała dostęp do każdej informacji w każdego zakątku świata.

      Już teraz takie SS może przenieść się do internetu i mieć dostęp do wszystkich kamer wideo (oczy), wszystkie telefony komórkowe ( oczy + uszy + wszystkie dane z ze wszystkich sensorów).

      Już teraz są roboty sterowane przez Wi-Fi ( ręce ) , samochody autonomiczne ( nogi )
      Czujniki dymu ( nos ), drony+ satelity wojskowe ( oczy + nasłuch elektroniczny + inne czujniki)
      Domy z panelami fotowoltaicznymi, podłączone do jednej sieci energetycznej, dadzą mu niegraniczne "pożywienie".

      I to wszystko dziś.
      A do czego będzie miał dostęp za 50-80 lat to nawet najbardziej bordowe bordo nie wiedzą.

      Myśle że generalnie nasze dywagacje są podobne do jakieś wilczycy która patrzy na noworodka i myśli: "Co ten miły i bezbronny dzidziuś może mnie zrobić?"

    •  

      pokaż komentarz

      @RFpNeFeFiFcL: Pewnie masz rację.

      Gdybyśmy jednak rozważyli, że w każdym momencie powinniśmy mieć w rękach "wtyczkę" od zasilania, to taka quasi-inteligencja pozostanie jedynie algorytmem.

      Jak to ktoś, gdzieś już ujął: sztuczna inteligencja jest tak inteligentna, jak programista, który stworzył jej algorytm.

    •  

      pokaż komentarz

      @RFpNeFeFiFcL: dokładnie jak piszesz. do tego taki "model" może być kompletnie zdecentralizowany i nie będzie wtyczki do jednego nadserwera. miliardy (i więcej) urządzeń będą tworzyć jeden zdecentralizowany mózg :). a jak my będziemy w tym wyglądać.. ?

    •  

      pokaż komentarz

      @wybrany_login_zajety:

      Czy można zatem być inteligentnym ale nieautonomicznym,

      Wiele wskazuje na to że nie. Tak naiwnie myślano 50 lat temu gdy rodziła się nowoczesna elektronika. Sądzono że dołożenie odpowiednio dużej ilości tranzystorów, obwodów, połączenie tego do kupy da prawdziwy uniwersalny "mózg elektroniczny". Dziś już praktycznie nikt w to nie wierzy, w kognitywistyce uznaje się że inteligencja wymaga faktycznego ciała czyli de facto autonomicznego organizmu. Gdyby był jakiś pomysł jak technologicznie zrobić "autonomiczne ciało" to byłby to spory krok naprzód, ale nikt (poza naturą i jej architekturą białkową, opartą na DNA) po prostu nie wie jak to zrobić.

      lub autonomicznym ale nieinteligentnym?

      Każdy żywy organizm poza dorosłym człowiekiem o odpowiednio wysokim IQ ;) spełnia ten warunek. Choćby bakteria - jest autonomiczna, przetrwa wszystko. Inteligentna nie jest, nie kuma czaczy :)

    •  

      pokaż komentarz

      @comrade: no cóż, moim skromnym zdaniem wszystko zależy od definicji. :)
      Czy można odmówić inteligencji Panu Stephan Hawking? Ale czy On był autonomiczny?

      Zamiast pytań o inteligencję (sztuczną, rozszerzoną, super, i tp) zadawajmy pytania o autonomiczność.

    •  

      pokaż komentarz

      @wybrany_login_zajety:

      Ależ oczywiście że był autonomiczny, on się tylko rozchorował. Równie dobrze można powiedzieć że śmierć odbiera organizmowi autonomiczność.

  •  

    pokaż komentarz

    Dziennik 3-wojenny rok 2041 dzień i miesiąc nieznany

    Siedzimy w kanałach. Neo-Łódź wciąż się broni. Doszły nas słuchy, że Neo-Warszawa została przerobiona już na spinacze
    Podobno stamtąd nie przeżył, ludzie zaczęli masowo umierać z głodu


    A trzeba było stworzyć najpierw SI która produkuje hamburgery a nie spinacze...

  •  

    pokaż komentarz

    Wyobraźmy sobie sztuczną inteligencję stworzoną do zadania, jakim jest wyprodukowanie ogromnej ilości spinaczy

    Widać że filozof opłacany z budżetu. Produkcja czegokolwiek jest pozbawiona sensu, jeśli się tego nie sprzedaje. Wystarczy postawić SI zadanie uzyskania maksymalnego zysku z produkcji spinaczy a wtedy cele będą zgodne z celami ludzkości : czyli SI dojdzie do poziomu gdzie będzie musiała być zainteresowana jak największym rozwojem ludzkości tak by mieć popyt na spinacze.
    Wprawdzie będzie to oznaczało likwidację e-dokumentów i powrót do pisania wszystkiego na papierze ale jednocześnie musi znaleźć optymalną drogę między wycinką lasów na papier a odtwarzalnością zasobów. Między biurokracją, która wzmaga popyt na produkcję papierów do spinania a wydajnością, którą biurokracja rujnuje.

    Gorzej jeśli mamy kolejną SI przeznaczoną do uzyskania maksymalnego zysku na sprzedaży oprogramowania biurowego.
    Czy SI rozpoczną walkę między sobą, która to zagrażała by ludzkości ? Z jednej strony cele obu SI są nie do pogodzenia ale wojna w której zginą klienci będzie nieopłacalna, chyba że chwilowa strata wpływów będzie zrekompensowana w przyszłości.

    Oczywiście obie SI mogą się dogadać, zniszczyć ludzkość i sprzedawać sobie na wzajem spinacze i oprogramowanie biurowe ;)

Dodany przez:

avatar RFpNeFeFiFcL dołączył
335 wykopali 4 zakopali 10.2 tys. wyświetleń
Advertisement