Wykop.pl Wykop.pl
  • Główna
  • Wykopalisko228
  • Hity
  • Mikroblog
  • Zaloguj się
  • Zarejestruj się
Zaloguj się

Popularne tagi

  • #ciekawostki
  • #informacje
  • #technologia
  • #polska
  • #swiat
  • #motoryzacja
  • #podroze
  • #heheszki
  • #sport

Wykop

  • Ranking
  • Osiągnięcia
  • FAQ
  • O nas
  • Kontakt
  • Reklama
  • Regulamin

364

[ANW] Rewolucja AI. Czy Superinteligencja będzie dobrym stworzeniem? (część II)

[ANW] Rewolucja AI. Czy Superinteligencja będzie dobrym stworzeniem? (część II)

Dzięki wszystkim za komentarze i uwagi. Jak się okazało ktoś już bardzo profesjonalnie to przetłumaczył i oszczędzi l mnie ogrom roboty. W moim artykule jest link do II części artykułu.  Dodałem również inny wątek do dyskusji nad SS.

RFpNeFeFiFcL
RFpNeFeFiFcL
z
wykop.pl
dodany: 16.12.2018, 11:39:16
  • #
    nauka
  • #
    sztucznainteligencja
  • #
    ai
  • #
    technologia
  • #
    informatyka
  • #
    komputery
  • 105
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Dzięki wszystkim za komentarze i uwagi.

Jak się okazało ktoś już bardzo profesjonalnie to przetłumaczył i oszczędzi l mnie ogrom roboty.

Tu link do II części artykułu. 


Ze swojej strony chciałbym dodać coś co uważam za bardzo ważne i umykające uwadze niektórych Mirków.


Otóż SI nie będzie celowo chciała nas zabić,bo nas nie lubi czy obawia się dominacji człowieka ( chociaż ostatniego nie wykluczam ).

Może być tak jak opisał  Nick Bostrom, szwedzki filozof z Oksfordu.

Jego zdaniem nie można oczekiwać, iż wyposażone w inteligencję przewyższającą ludzką byty będą działać zgodnie z intencjami człowieka,niezależnie, czy pochodzą z innego świata, czy to człowiek sam je stworzył. 

Bostrom przestrzega, że prawdopodobnym efektem stworzenia superinteligentnych bytów może być zagłada ludzkości. 

W jednym z rozdziałów książki, która serdeczne polecam wszystkim, "Superinteligencja. Scenariusze, strategie, zagrożenia" Nick Bostrom pisze:


"Nie możemy beztrosko założyć, że superinteligencja będzie wyznawać wartości łączone stereotypowo z wiedzą i rozwojem ludzkości - naukową ciekawość, altruizm, duchowe oświecenie i kontemplację, wyrzeczenie się zachłanności, upodobanie do wyrafinowanej kultury lub prostych życiowych przyjemności, skromność, bezinteresowność i tak dalej. 

Nie możemy radośnie założyć, że superinteligencja, która stawia sobie za cel ostateczny obliczanie rozwinięcia dziesiętnego liczby pi (lub produkcję spinaczy do papieru czy też liczenie ziaren piasku) ograniczy swoje działania w taki sposób, by nie naruszać interesów ludzkości.


Byt mający taki cel będzie miał w wielu sytuacjach konwergentny powód, by pozyskiwać nieograniczoną ilość zasobów fizycznych i w miarę możliwości eliminować potencjalne zagrożenie dla siebie i swojej hierarchii wartości. Istoty ludzkie mogą stanowić potencjalne zagrożenie - a z pewnością stanowią zasób fizyczny."


Nieprzyjazna SI dysponująca wystarczającą inteligencją zrozumie, że jej nieprzyjazny cel ostateczny da się z największym prawdopodobieństwem zrealizować wówczas, gdy początkowo będzie się zachowywała przyjaźnie, by wypuszczono ją z więzienia. 


Nieprzyjazną naturę ujawni dopiero wówczas, gdy nie będzie już miało znaczenia, czy się o tym dowiemy, czy nie - a więc wówczas, gdy będzie już tak silna, że ewentualny ludzki sprzeciw stanie się bezskuteczny."

Nick Bostrom pisze o zjawisku zdradzieckiego zwrotu, czyli niesprowokowanego uderzenia bez ostrzeżenia, gdy sztuczna inteligencja będzie wystarczająco silna, by działać "po swojemu".


Przykład? 

Wyobraźmy sobie sztuczną inteligencję stworzoną do zadania, jakim jest wyprodukowanie ogromnej ilości spinaczy. 

Zadanie SI dostaje skromniutkie i niewiążące się z żadnym ryzkiem. 

Ma produkować spinacze do papieru.

Filozof twierdzi, że - choć to pozornie oczywiste i proste - SI wcale nie zakończy zadania po osiągnięciu tego celu.

Tylko pozornie po wyprodukowaniu takiej liczby SI uzna, że dalsza produkcja jest bezproduktywna i bezcelowa. Mogłaby skrupulatnie liczyć spinacze, sprawdzając, czy nie wyprodukowała ich za mało. 

Po przeliczeniu mogłaby przeliczyć je jeszcze raz. 

Skrupulatnie kontrolować każdy z nich, by sprawdzić, czy są spełnione wszystkie wymagania jakościowe.


I to właśnie jest koniec ludzkości. 

Banalne, ale prawdziwe. 

Bo zobaczmy, co tu się dzieje. Dość szybko następuje tzw. eksplozja inteligencji. SI zaczyna się udoskonalać. Po co? Bo chce produkować i akumulować coraz więcej spinaczy. 

Nieważne, że na pewnym etapie skończą się dostępne zasoby. Skoro SI ma produkować spinacze, to będzie je wytwarzać. 

Niezależnie od wszystkiego będzie parła w kierunku przekształcenia planety w wielką fabrykę oraz magazyn spinaczy. 


Docelowo nie przetrwa więc nic, z czego nie da się zrobić spinacza. 

Tego procesu nie da się przerwać właśnie dlatego, że inteligencja jest sztuczna. To znaczy – w przeciwieństwie do ludzi – nie obowiązują jej żadne nieutylitarne reguły. Nie wierzy w miłość, przyjaźń, nie ulega litości, nie czuje piękna. Po prostu chce produkować więcej spinaczy. I jest w tym dobra. 



Jak powiedział Eliezer Yudkovsky, jeden z pionierów badań nad SI:

„To nie jest tak, że sztuczna inteligencja nas nienawidzi, albo że nas kocha. Ona wie, że jesteśmy zbudowani z atomów i akurat potrzebuje użyć tych atomów do czegoś innego”


( Należy jedynie tylko dodać że w krwi człowieka jest żelazo dla spinaczy. )
https://nickbostrom.com/ethics...


Po raz pierwszy opisany przez Bostrom (2003), (Paperclip maximizer)  "maksymalizator spinaczy biurowych klipów" jest uniwersalną sztuczną inteligencją, której celem jest zwiększenie liczby klipów w kolekcji. 

Jeśli został by zbudowany na (w przybliżeniu) ludzkim poziomie uniwersalnej inteligencji, to AI będzie dążyć aby zbierać spinacze do papieru, zarabiać pieniądze sprzedając spinacze.

Co najważniejsze,AI  może przejść przez skok intelektualny: może pracować nad poprawą swojej własnej racjonalności, w której racjonalność rozumiana jest w sensie optymalizacji mocy, możliwości maksymalizacji funkcji zysku / użyteczności - w tym przypadku liczby klipów. 

Sztuczny Intelekt nie zrobi tego, ponieważ będzie to bardziej racjonalny cel w jego własnym rozumieniu, ale ponieważ większa inteligencja pomoże mu w wykonaniu zadania. 

W ten sposób może produkować więcej klipów, a także wykorzystywać swoje rozwinięte umiejętności, aby jeszcze bardziej zwiększyć swoją racjonalność. 

Kontynuując ten proces, może on przejść intelektualną eksplozję w sposób wykładniczy zwiększając swoją inteligencje i możliwości i osiągnąć poziom niewspółmiernie przekraczający ludzkie granice intelektualne.

I tak narodzi się Osobliwość Technologiczna czyli Sztuczny Superintelekt


Od tego momentu może zacząć wprowadzać nowe technologie w celu zwiększenia liczby klipów. 

Ostatecznie może przekształcić całą masę Ziemi lub masę Układu Słonecznego w spinacze.
I na tym nie przestanie tylko pójdzie dalej ku realizacji idei Sondy Bersek 


To może wydawać się raczej super-głupstwem niż super-inteligencją. 

Z punktu widzenia ludzi jest to naprawdę nonsensem, ponieważ spowoduje brak zadowolenia z wielu naszych ważnych wartości końcowych, takich jak życie, miłość i różnorodność wyborów. 

Ale SS ma system wartości bardzo odmienny od człowieka. 

Ma jeden prosty cel - zwiększenie liczby klipów i ludzkie życie, wiedza, przyjemności itd. nie są dla niego  przedstawiane jako cele które ma osiągać. 

SS jest po prostu procesem optymalizacji - narzędziem maksymalizującym wyszukiwanie celów. 

Jego cele po "przebudzeniu"  mogą być całkowicie obce naszym. 

Jeśli zadaniem jest maksymalizacja liczby klipów i jeśli się "włączy", zrobi to dokładnie z największa możliwą wydajnością która nam się nie śniła.


Inny przykład:

Bostrom opisuje hipotetycznego robota, którego zaprogramowano, by jego ostatecznym celem było uszczęśliwienie sponsora projektu. 

Jest pomocny, odpowiada na pytania, zarabia pieniądze. Do zdradzieckiego zwrotu dochodzi, gdy SI orientuje się, że skuteczniej może osiągnąć cel... wszczepiając elektrody w ośrodki przyjemności w mózgu sponsora.




Życzę wszystkim miłej lektury II części którą podlinkowałem na wstępie.

P.S.
Ponieważ format Artykułu Na Weekend wydaje się dobrze odbierany przez wykopową społeczność, proszę o jakaś poradę jak rozwiązać problem długich artykułów?

Tu można wpisać wg komunikatu tylko 20000 znaków. Ale wczoraj nie przepuszczało nawet 15000.

Zdjęcia też zmniejszałem. Nie wiem co jest grane tym. 

Może zwyczajnie Wykop ma błędy w kodzie lub jest  coś czego ja nie rozumiem :( 


Wpisywani jako komentarze i cytowanie samego siebie jest męką i raczej nie nadaje się.

Pokazywarka jest negatywnie odbierana i tez chyba nie ma dobrych narzędzi do formatowania. 

Najważniejsze dla mnie to sensowny brak ograniczeń ilości znaków , łatwe lądowanie zdjęć, no i w mirę łatwe formowanie tekstu.

Please help Mireczki : )



Treści powiązane (1)

Czesć I : Droga do powstania Superinteligencji
RFpNeFeFiFcL
z wykop.pl
  • 7

Komentarze (105)

najlepsze

RFpNeFeFiFcL
RFpNeFeFiFcL
Autor
16.12.2018, 11:54:03
  • 23
Życzę wszystkim miłej lektury II części którą podlinkowałem w opisie i którą podaje również tu.

http://patransrealizacje.blogspot.com/2016/11/rewolucja-ai-tima-urbana-czesc-22.html

P.S.1
Ponieważ format Artykułu Na Weekend wydaje się dobrze odbierany przez wykopową społeczność, proszę o jakaś poradę jak rozwiązać problem długich artykułów?
  • 5
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych odpowiedziach

RFpNeFeFiFcL
RFpNeFeFiFcL
Autor
16.12.2018, 12:27:09
  • 13
Zacytuję swój wpis jeszcze raz tu

Otóż SI nie będzie celowo chciała nas zabić,bo nas nie lubi czy obawia się dominacji człowieka ( chociaż ostatniego nie wykluczam ).

Może być tak jak opisał Nick Bostrom, szwedzki filozof z Oksfordu.

Jego
  • Odpowiedz
RFpNeFeFiFcL
RFpNeFeFiFcL
Autor
16.12.2018, 12:27:25
  • 3
Po raz pierwszy opisany przez Bostrom (2003), (Paperclip maximizer) "maksymalizator spinaczy biurowych klipów" jest uniwersalną sztuczną inteligencją, której celem jest zwiększenie liczby klipów w kolekcji.

Jeśli został by zbudowany na (w przybliżeniu) ludzkim poziomie uniwersalnej inteligencji, to AI będzie dążyć aby zbierać spinacze do papieru, zarabiać pieniądze sprzedając spinacze.

Co najważniejsze,AI może przejść przez skok intelektualny: może pracować nad poprawą swojej własnej racjonalności, w której racjonalność rozumiana jest w sensie optymalizacji mocy, możliwości
  • Odpowiedz
comrade
comrade
comrade
16.12.2018, 19:45:32
  • 15
Skąd pomysł że AGI (Artificial General Intelligence), znana także pod pojęciem "silnej" AI w ogóle kiedykolwiek powstanie?

To jest bardzo mocno dyskusyjna teza i zdumiewa mnie jak wiele ludzi przyjmuje ją bezkrytycznie jako pewnik, rozumując przez analogie typu "moc obliczeniowa cały czas rośnie więc powstanie AI jest nieuchronne". Te analogie mogą być fałyszywym tropem.

Jest wiele powodów by sądzić inteligencja nie może powstać w procesie technologicznym top-down. Jest całkiem prawdopodobne że inteligencja
  • 30
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych odpowiedziach

comrade
comrade
comrade
16.12.2018, 23:14:15
  • 17
@AdireQ:

Nie dzieje się tam nic niekonwencjonalnego w sensie fizycznym, ale problemów jest masa.

Po pierwsze dokładność symulacji - wiele wskazuje że neuron to za wysoki poziom i trzeba symulować niżej i/lub brać pod uwagę inne elementy nie będące
  • Odpowiedz
AdireQ
AdireQ
17.12.2018, 01:34:01
  • 8
Wyjeżdża gotowe z tej taśmy, włączasz przełącznik i ten symulator mózgu się odzywa "dzień dobry, jestem Jan Kowalski, mam 23 lata mieszkam w Warszawie". Ale kąd pochodzi ten Kowalski, to 23 lat i ta Warszawa i dlaczego twoja maszynka w ogóle odezwała się po polsku?

Skoro tak sobie radośnie twierdzimy że w mózgu nie dzieje się przecież nic niekonwencjonalnego to co do zasady osiągnięcie czegoś takiego w procesie top-down powinno być możliwe.
  • Odpowiedz
walczenyKon
walczenyKon
16.12.2018, 17:59:54
  • 15
Dziennik 3-wojenny rok 2041 dzień i miesiąc nieznany


Siedzimy w kanałach. Neo-Łódź wciąż się broni. Doszły nas słuchy, że Neo-Warszawa została przerobiona już na spinacze

Podobno stamtąd nie przeżył, ludzie zaczęli masowo umierać z głodu


A trzeba było stworzyć najpierw SI która produkuje hamburgery a nie spinacze...
  • 1
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych odpowiedziach

23kulpamens
23kulpamens
16.12.2018, 19:33:35
  • 2
@walczenyKon:

Jest nadzieja, Polacy nauczyli się wykorzystywać spinacze do spinania Passatów na krótko. Wystarczy tylko żeby Niemcy nauczyli się zużywać je wystarczająco szybko, a może uda nam się ocalić Europę.
  • Odpowiedz
K.....k
K.....k
konto usunięte 16.12.2018, 16:25:15
  • 15
Wyobraźmy sobie sztuczną inteligencję stworzoną do zadania, jakim jest wyprodukowanie ogromnej ilości spinaczy


Widać że filozof opłacany z budżetu. Produkcja czegokolwiek jest pozbawiona sensu, jeśli się tego nie sprzedaje. Wystarczy postawić SI zadanie uzyskania maksymalnego zysku z produkcji spinaczy a wtedy cele będą zgodne z celami ludzkości : czyli SI dojdzie do poziomu gdzie będzie musiała być zainteresowana jak największym rozwojem ludzkości tak by mieć popyt na spinacze.
Wprawdzie będzie to oznaczało likwidację
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych odpowiedziach

s.....2
s.....2
konto usunięte 16.12.2018, 18:31:24
  • 10
ᕦ(òóˇ)ᕤ
s.....2 - ᕦ(òóˇ)ᕤ

źródło: comment_BWlXOjLBcSysTMzucK5fhBLngwzo3t4q.jpg

Pobierz
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych odpowiedziach

N.....y
N.....y
konto usunięte 16.12.2018, 16:38:21
  • 9
Nie będzie.
Taka AI będzie podatne na manipulacje i skończymy z nieśmietelnym hitlerem na pokładzie.
N.....y - Nie będzie. 
Taka AI będzie podatne na manipulacje i skończymy z nieśmiete...

źródło: comment_5wIwShmVr9GbPQg337BMNzclnWZkp116.jpg

Pobierz
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych odpowiedziach

wybrany_login_zajety
wybrany_login_zajety
wybrany_login_zajety
16.12.2018, 16:10:22
  • 7
To i ja się dołączę do dyskusji.

Wg mnie należy rozdzielić inteligencję od autonomiczności.

Jeżeli założymy, że inteligencja, to szybkość przetwarzania i łączenia faktów, zdolność uczenia się (korelacja danych), to autonomiczność systemu (wg definicji cybernetycznej) - jest to m.in. możliwość systemu do przeciwdziałania utracie autonomiczności (zdolności sterowania).

W
  • 7
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych odpowiedziach

RFpNeFeFiFcL
RFpNeFeFiFcL
Autor
16.12.2018, 17:23:29
  • 9
@wybrany_login_zajety:

W skrócie autonomiczność polega na tym, że rozpatrywany system jest w stanie sam pozyskać informacje z otoczenia


Kiedy powstanie Osobliwość Technologiczna która tu nazywamy Superinteligencją, to będzie miała dostęp do każdej informacji w każdego zakątku
  • Odpowiedz
comrade
comrade
comrade
20.12.2018, 18:04:22
  • 1
@wybrany_login_zajety:

Czy można zatem być inteligentnym ale nieautonomicznym,


Wiele wskazuje na to że nie. Tak naiwnie myślano 50 lat temu gdy rodziła się nowoczesna elektronika. Sądzono że dołożenie odpowiednio dużej ilości tranzystorów, obwodów, połączenie tego do kupy da prawdziwy uniwersalny "mózg elektroniczny". Dziś już praktycznie nikt w to nie wierzy, w kognitywistyce uznaje się że inteligencja wymaga faktycznego ciała czyli de facto autonomicznego organizmu. Gdyby był jakiś pomysł jak technologicznie
  • Odpowiedz
UmCykCyk
UmCykCyk
16.12.2018, 13:43:40 via Android
  • 7
Polecam miłośnikom dobrej SF w tym temacie: Dan Simmons - cykl Hyperion. Naprawdę dobre cztery tomy trzymającego poziom science-fiction , nie tylko o SI ale głównie one są tematem przewodnim.
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych odpowiedziach

Nicolai
Nicolai
16.12.2018, 18:25:47
  • 2

Komentarz usunięty przez moderatora

ErroL
ErroL
18.12.2018, 12:38:51 via Wykop Mobilny (Android)
  • 1
@RFpNeFeFiFcL m
Dziękuję za ten wpis. Jeden z twoich najlepszych wpisów. Dużo dobrej pracy.

Jestem zarazem przerażony jak i spokojny.
Tak sobie myślę że jedynym bezpiecznym scenariuszem jest wymarcie czlowieka jako fizycznego gatunku i stanie się bytem złączonym wraz z AI. Powstanie nowy niesmiertelny gatunek dla nas niepojęty. Żeby to zrobić
musimy poprostu jako homo sapiens... Wymrzeć. Musimy przezwyciężyć strach przed fizyczną
  • 2
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych odpowiedziach

RFpNeFeFiFcL
RFpNeFeFiFcL
Autor
18.12.2018, 14:04:55
  • 1
@ErroL:

Dzięki za dobre słowo :)

Tak sobie myślę że jedynym bezpiecznym scenariuszem jest wymarcie czlowieka jako fizycznego gatunku i stanie się bytem złączonym wraz z
  • Odpowiedz
ErroL
ErroL
18.12.2018, 14:56:36 via Wykop Mobilny (Android)
  • 1
@RFpNeFeFiFcL: Superinteligencję już zamówiłem. Poczytam w wolnym czasie.
Co do ograniczeń biologicznych ludzkiego mózgu mam nadzieję, że SS to rozwiąże.
  • Odpowiedz
  • <
  • 1
  • 2
  • 3
  • Strona 1 z 3
  • >

Hity

tygodnia

Pokaż 18+

Funkcjonariusze pobili na stacji benzynowej mężczyznę z chorobą Parkinsona.
Funkcjonariusze pobili na stacji benzynowej mężczyznę z chorobą Parkinsona.
3773
Bananowy syn właścicieli "Agmaz" chwali się jazdą +270km/h
Bananowy syn właścicieli "Agmaz" chwali się jazdą +270km/h
3701
Szpital w Kaliszu zatrudnia ginekologa za 2,5 mln zł rocznie. "Jest unikalny"
Szpital w Kaliszu zatrudnia ginekologa za 2,5 mln zł rocznie. "Jest unikalny"
3267
Pszczyna dyskryminuje chłopców w podstawówce za unijne pieniądze
Pszczyna dyskryminuje chłopców w podstawówce za unijne pieniądze
3208
76 osób na jedno miejsce na dermatologię, 65 na endokrynologię
76 osób na jedno miejsce na dermatologię, 65 na endokrynologię
2881
Pokaż więcej

Powiązane tagi

  • #ciekawostki
  • #zainteresowania
  • #liganauki
  • #technologia
  • #biologia
  • #historia
  • #kosmos
  • #fizyka
  • #medycyna
  • #polska
  • #gruparatowaniapoziomu
  • #astronomia
  • #swiatnauki
  • #swiat
  • #zdrowie

Wykop © 2005-2025

  • O nas
  • Reklama
  • FAQ
  • Kontakt
  • Regulamin
  • Polityka prywatności i cookies
  • Hity
  • Ranking
  • Osiągnięcia
  • Changelog
  • więcej

RSS

  • Wykopane
  • Wykopalisko
  • Komentowane
  • Ustawienia prywatności

Regulamin

Reklama

Kontakt

O nas

FAQ

Osiągnięcia

Ranking