•  

    pokaż komentarz

    Odległa przyszłość nadejdzie bardzo szybko

    Wyobraźmy sobie, że mamy maszynę czasu i przenosimy się do roku 1750, do świata, w którym elektryczność była jeszcze nieznana, gdzie aby wysyłać wiadomości na duże odległości krzyczało przez pole lub strzelało w powietrze z pistoletu, a jedynym paliwem do transportu było siano.

    Stamtąd zabieramy pierwszego przechodnia i są transportujemy do 2015 roku, po którym, chodząc z nim przez dowolne nowoczesne miasto, obserwujemy jego reakcję na rzeczy, do których jesteśmy przyzwyczajeni.

    Nie możemy nawet sobie wyobrazić, co ten przybysz przeżyje, oglądając iskrzące kapsuły śmigające po autostradzie, rozmawiając z ludźmi którzy jeszcze rano znajdowali się na innym kontynencie, oglądające hokeistów na stadionie grających tysiące kilometrów dalej, słuchających muzyki, którą orkiestra grałeś 50 lat.

    O czym będzie myślał kiedy pokażesz mu magiczny prostokąt, który pozwala ci "narysować" absolutnie realistyczny portret każdej osoby w jednej chwili, zobaczyć mapę i zobaczyć swoją lokalizację w czasie rzeczywistym lub porozmawiać z osobą na drugim końcu świata, i innych rzeczy pochodzenia magicznego.

    I to jest zanim powiesz mu o Internecie, ISS, Wielkim Zderzaczu Hadronów, broni nuklearnej lub Ogólnej Teorii Względności.

    To doświadczenia nie byliby dla niego zaskoczeniem, ani wstrząsające, ani nawet szokujące - ponieważ te słowa nie są wystarczająco mocne.
    W rzeczywistości może on nawet umrzeć od tych doznań.

    Ale co się stanie, gdy po powrocie do rodzimego 1750 roku, ta osoba, chce powtórzyć nasz eksperyment, wsiądzie w maszynie czasu i przemieści się 250 lat do tyłu w 1500 rok, zabierze pierwszego przechodnia w swoim czasie i pokaże mu swoje życie jest w 1750 roku?

    Człowiek z 1500 roku będzie zaskoczony postępem i wieloma nieznanymi sprawami w 1750 roku, ale jest mało prawdopodobne, aby wrażenia mogliby go "zabić".

    Jego uczucia nie będą takim "rozsadzaniem mózgu".

    Różnice między życiem w 1500 i 1750 są znacznie mniejsze niż między życiem w 1750 i 2015 roku.
    Człowiek z 1500 roku nauczy się wielu niesamowitych rzeczy o kosmosie i fizyce, będzie zaskoczony skalą Europejskich Imperiów i oczywiście będzie musiał dokonać silnych zmian w swoim poglądu na mapę świata.

    Ale różnice w codziennym życiu w latach 1500 i 1750, transport, komunikacja i inne rzeczy, z pewnością nie wystarczą, by go unicestwić umysłowo.
    A co będzie jak przenieść się do 12000 przed naszą erą i zabrać stąd gościa do 24000 roku?

    Podstawową ideą jest to, że postęp stale się zwiększa.
    To właśnie futurysta Ray Kurzweil nazywa Prawem Przyspieszonego Odrzutu.

    [Nie jestem pewny że dobrze to przetłumaczyłem. W oryginale: Law of Accelerating Returns]
    Dzieje się tak dlatego, że bardziej rozwinięte społeczeństwo rozwija się o wiele szybciej niż mniej rozwinięte.

    W XIX wieku ludzkość posiadała o wiele więcej wiedzy i bardziej zaawansowaną technologię niż w XV wieku, nic więc dziwnego, że ludzkość dokonała znacznie więcej odkryć w XIX wieku niż w XV wieku.

    Więc zmiany stają się coraz większe, a ich szybkość rośnie. To nam mówi, że czeka nas interesująca przyszłość.

    1. Wydaje nam się, że historia jest liniowa

    Próbując wyobrazić sobie postęp nadchodzących 30 lat, spoglądamy wstecz na podobny okres czasu, aby wyobrazić sobie skalę możliwych zmian.

    Przewidując, w jaki sposób XXI wiek zmieni świat, bierzemy za osnowę postęp w XX wieku i dodajemy go do 2000 roku.

    To był własnie ten błąd, który uczynił nasz znajomy z 1750 roku, wybierając osobę z 1500 roku, spodziewając się, że wrażenia z roku 1750 będą porównywalne z jego własnymi podróżami w czasie.

    Jesteśmy przyzwyczajeni do myślenia liniowego, podczas gdy tutaj trzeba myśleć wykładniczo.

    •  

      pokaż komentarz

      2. Niedawne wydarzenia nie dają nam zrozumienia ogólnego obrazu sytuacji.

      Po pierwsze, jeśli weźmiesz wystarczająco mały fragment nawet bardzo stromej krzywej wykładniczej, będzie wydawać się prosty, tak jakbyś wziął duży okrąg i przyjrzał się mu z wystarczająco bliskiej odległości, to będzie wydawał się jako całkiem prosta linia .

      Po drugie, wykładniczy wzrost nie jest płynny.

      Jak wyjaśnia Kurzweil: postęp odbywa się w rzeczywistości na krzywej w kształcie litery "S".
      Krzywa w kształcie litery S rodzi się, gdy pojawia się tylko nowy paradygmat.

      Krzywa przechodzi przez trzy etapy:

      -Powolny wzrost (początkowy etap wzrostu wykładniczego).
      -Szybki wzrost (późny, wybuchowy etap wzrostu wykładniczego).
      -Wyrównanie ( jest już nowym, dojrzałym paradygmatem.)

    •  

      pokaż komentarz

      Jeśli weźmiemy pod uwagę tylko ostatnie wydarzenia, to ta część krzywej w kształcie litery S, w której się znajdujemy, może zaburzyć nasze rozumienie szybkości rozwoju technologii.

      Okres między rokiem 1995 a 2007 był niezwykle intensywny: gwałtowny rozwój Internetu, rozwój Microsoftu, Google'a i Facebooka, narodziny zjawiska sieci społecznościowych, masowe pojawianie się telefonów komórkowych i późniejszych smartfonów.

      Był to drugi etap krzywej w kształcie litery S, a okres 2008-2015 nie był już tak imponujący, przynajmniej pod względem technologicznym.

      Biorąc pod uwagę prognozę rozwoju uwzględniającą jedynie szybkość zmian w ostatnich latach, niemożliwe jest dokładne zorientowanie się, co nas czeka, ponieważ w tym przypadku tracimy z pola widzenia ogólny obraz sytuacji.

      Być może stoimy już na progu nowej wielkiej krzywej wzrostu w kształcie litery S w drugiej fazie.

      3.Nasze doświadczenie zamienia nas w upartych Januszów starych ludzi, gdy myślimy o przyszłości.

      Nasze rozumienie świata opiera się na naszym doświadczeniu i definiuje nasze rozumienie szybkości rozwoju w oparciu o bieżące wydarzenia.

      Ogranicza nas także nasza wyobraźnia, która buduje założenia oparte na naszym doświadczeniu, ale nasza wiedza nie pozwala nam na dokładne przewidywanie przyszłości.

      A kiedy słyszymy prognozy, które nie mieszczą się w naszym obrazie świata, uważamy je za głupie i nieuzasadnione.

      Jak później w tym artykule powiem ci, że prawdopodobnie przeżyjesz 150-250 lat, albo wcale nie umrzesz, twoja podświadomość powie coś w rodzaju: "To jest po prostu śmieszne, jedyne co jestem pewne to to, że wszyscy umrą prędzej czy później. "

      Tak, oczywiście, żaden z tych, którzy kiedykolwiek żyli na ziemi, nie był jeszcze w stanie przetrwać własnej śmierci.
      Ale tez nikt nie latał samolotami, dopóki nie zostali wymyśleni.

      Droga do Superinteligencji

      Czym jest sztuczna inteligencja (AI)?

      Dla mnie, jak dla Ciebie, sztuczna inteligencja, do niedawna, była tylko wynalazkiem fantastyki naukowej, ale ostatnio wszystko się zmieniło, gdy dość szanujący się ludzie zaczęli o niej mówić, a ty prawdopodobnie nie rozumiesz, czym to jest spowodowane.

      Istnieją trzy powody, dla których większość ludzi nie rozumie w pełni definicji "sztucznej inteligencji":

    •  

      pokaż komentarz

      1. AI związane z filmami. Star Wars, Terminator, Space Odyssey 2001,itd

      Wszystko to jest fantastyką, podobnie jak bohaterowie-roboty.
      Dlatego sztuczna inteligencja brzmi zbyt fantastycznie dla nas.

      2. AI to zbyt szeroka koncepcja. Rozprzestrzenianie się form sztucznej inteligencji jest zbyt duże: sztuczna inteligencja dotyczy obecnie wszystkiego od kalkulatorów do bezzałogowych pojazdów.

      Termin AI odnosi się do zbyt wielu rzeczy, co utrudnia jego zrozumienie.

      3. Nawet jeśli używamy sztucznej inteligencji, nie zawsze jesteśmy tego świadomi. John McCarthy, który zaproponował termin "AI" w 1956 roku, zauważył: "jak tylko zaczyna realnie działać, nikt inny już nie nazywa go sztuczną inteligencją".

      Z tego powodu sztuczna inteligencja jest często postrzegana jako absurdalna koncepcja z bardzo odległej przyszłości, a nie jako coś realnego.

      A jednocześnie brzmi jak koncert pop muzyki z przeszłości, którego nigdy nie odwiedzimy.

      Ray Kurzweil mówi, że słyszał od dużej liczby osób, że AI jest czymś, co zginęło już w latach 80., co zgodnie z jego własnym stwierdzeniem jest równoznaczne z oświadczeniem, że Internet umarł podczas kryzysu i załamania się rynku dotcomów na początku 2000.

      Aby lepiej zrozumieć sztuczną inteligencję, musimy najpierw przestać wyobrażać sobie go jako robota czy Terminatora podobnego do ludzi, robot jest po prostu powłoką dla sztucznej inteligencji, tak naprawdę sztuczna inteligencja to komputer wewnątrz robota, chyba że ten komputer został celowo włożony do robota.

      W ten sam sposób jak do komórki jest włożone oprogramowanie odpowiedzialne za działanie Siri.

      To jest właśnie sztuczna inteligencja i przyjemny kobiecy głos, to tylko forma z interakcją z użytkownikiem, a nie pojedynczy "robot" tutaj zaangażowany.

      Po drugie, prawdopodobnie znasz pojęcie osobliwości lub technologicznej osobliwości.

      Osobliwość jest pojęciem z matematyki opisującym sytuację, w której zwyczajne reguły przestają działać.

      Jest ono również używane przez fizyków do opisywania niesamowicie gęstej materii czarnych dziur lub do opisania wszechświata do Wielkiego Wybuchu.

      Vernor Vinge w swoim słynnym eseju używał terminu technologiczna osobliwość do czasu, gdy możliwości SI przekroczą nasze własne.

      Według niego, w tym momencie nasz świat zmieni się tak bardzo, że zasady, do których jesteśmy przyzwyczajeni, nie będą już miały do niego zastosowania.

      Później Ray Kurzweil zdefiniował technologiczną osobliwość jako moment, w którym, zgodnie z Prawem Przyspieszonego Odrzutu., prędkość rozwoju będzie dążyć do nieskończoności, i w którym nasz świat zmieni się bardzo drastycznie.

      Zauważyłem, że wielu ludzi związanych z AI z jakiegoś powodu przestało używać tego terminu, więc nie będę go używał zbyt wiele w tym artykule (pomimo tego, że będziemy mówić o technologicznej osobliwości )

    •  

      pokaż komentarz

      AI już kieruje naszym światem.

      AI o wąskim zastosowaniu to sztuczna inteligencja, której możliwości są równe lub lepsze od ludzkich w określonym obszarze. Kilka przykładów:

      Autonomiczne samochody, które aktywnie testują Google i inni, ukrywają bardzo zaawansowany system AI, który odpowiednio reaguje na sytuacje na drodze i kontroluje ruch samochodu w czasie rzeczywistym.
      W smartfonie jest ogromna ilość systemów AI, za każdym razem, gdy korzystasz z nawigacji, patrzysz na zalecaną muzykę w Pandorze, sprawdzasz prognozę pogody na jutro, rozmawiasz z Siri, wchodzisz w interakcje z AI.
      Filtr spamu e-mail jest klasycznym przykładem sztucznej inteligencji. Jest w nim założona pewna logika, dzięki której oddziela spam i blokuje go, i stopniowo, w oparciu o osobiste preferencje, dostosowuje się do ciebie.
      Tłumacz Google jest również jaskrawym przedstawicielem rodzaju AI, pokazując doskonałe wyniki w jednym bardzo wąskim obszarze. Rozpoznawanie głosu to także sztuczna inteligencja.
      AI pokonało już człowieka w takich grach jak Warcaby, Szachy, Scrabble i Backgammon [ i obecnie Go która jest uważana za o wiele bardziej trudną grę niż szachy]
      Facebbok, Amazon, Booking nawet Allegro działa opierają się na silniki AI

      AI "wąskiego profilu", które istnieją obecnie, nie stanowią dla nas szczególnego zagrożenia.

      W najgorszym przypadku mogą spowodować niewielką katastrofę, która nie dotknie większości populacji planety, a nawet kraju.

      Na przykład wyłącznie prądu , problemy z działaniem elektrowni jądrowej lub katastrofa na giełdzie (na przykład czarny czwartek, 6 maja 2010 r., Kiedy AI rozwalił giełdę , "zabierając" z niego wartość miliardów usd).
      Jak dotąd, sztuczna inteligencja nie ma wystarczającej mocy i możliwości, aby stanowić zagrożenie dla życia na planecie, ale widzimy już coraz większą sieć sztucznej inteligencji, która jest prekursorem zupełnie innej sztucznej inteligencji, która już może drastycznie zmienić nasz świat.

      Według opinii Aarona Saenza, istniejące AI są podobne do aminokwasów w pierwotnej zupie, z której kiedyś narodziło się życie na Ziemi

    •  

      pokaż komentarz

      Ścieżka od słabej sztucznej inteligencji do silnej

      Podczas budowania silnej sztucznej inteligencji problemy nie pojawiają się tam, gdzie można się spodziewać. Łatwo jest zbudować komputer, który może pomnożyć dwie dziesięciocyfrowe liczby w mniej niż sekundę, ale zbudowanie komputera, który odróżnia psa od kota, jest bardzo trudne.

      Zbudowaliśmy już komputer, który może pokonać najlepszych szachistów.

      Ale zbudowanie komputera, który mógłby zrozumieć książkę dla dzieci, a nie tylko rozpoznać słowa, jest nadal bardzo trudne.

      Złożone rzeczy, takie jak informatyka, strategia handlowa, tłumaczenie z jednego języka na inny, są bardzo łatwe do przekazania komputerom.

      Ale takie "lekkie" rzeczy jak wzrok, ruch i percepcja są niezwykle złożone.

      Jak powiedział naukowiec Donald Knut: "Dziś AI osiąga wszystko, co wymaga myślenia, ale nie może podołać temu , co ludzie i zwierzęta robią nieświadomie".

      Jeśli się nad tym zastanowić, to wystarczająco szybko przychodzi zrozumienie, że rzeczy, które wydają się nam lekkie, są rzeczywiście niezwykle złożone i wydają się nam łatwe, ponieważ umiejętności te zostały zoptymalizowane w ciągu milionów lat ewolucji.

      Kiedy wyciągamy rękę do przedmiotu, nasze mięśnie, ścięgna i kości na ramieniu, łokciu i nadgarstku wykonują ogromną liczbę ruchów, dopasowując ruchy do informacji otrzymywanych dzięki wzrokowi, dzięki czemu możemy wykonać wyraźny bezpośredni ruch ręką.

      Wydaje się, że wszystko to dzieje się bez żadnego napięcia i wydaje się to bardzo łatwe, ale dzieje się tak tylko dlatego, że w naszym mózgu istnieje doskonałe oprogramowanie opracowane i zoptymalizowane miliony lat przez ewolucję specjalnie dla tych operacji.

      Z drugiej strony mnożenie długich liczb lub gra w szachy są nowymi wyzwaniami dla istot biologicznych, a my nie mieliśmy wystarczająco dużo czasu, aby zoptymalizować te umiejętności, więc komputer może łatwo pokonać nas w tej dziedzinie.

      Interesujący fakt: jeśli podasz to zdjęcie, aby dokonali oceny komputer i człowiek, oboje będą mogli zrozumieć, że jest to prostokąt złożony z kwadratów o dwóch różnych kolorach.

    •  

      pokaż komentarz

      Ale jeśli usuniesz czarną część i odsłonisz obraz całkowicie będzie wyglądało tak...

    •  

      pokaż komentarz

      Dla nas nie jest trudne aby rozpoznać wszystkie te cylindry, różne płaszczyzny i trójwymiarowe kąty, ale dla komputera to zadanie będzie niemożliwe dla rozstrzygnięci , zobaczy tylko różne dwuwymiarowe kształty i cienie, których nie potrafi poprawnie zinterpretować.

      Nasz mózg wykonuje ogromną liczbę operacji, aby zinterpretować te kształty i cienie w obiekty trójwymiarowe.

      Podobnie, na poniższym obrazie komputer na nim zobaczy tylko dwuwymiarowy czarno-biały obraz, gdy człowiek jest w stanie od razu zrozumieć, że jest to fotografia czarnego kamienia.

    •  

      pokaż komentarz

      Pierwszy krok do stworzenia silnej sztucznej inteligencji: zwiększenie mocy obliczeniowej

      Zwiększenie mocy obliczeniowej jest niezbędnym elementem w tworzeniu silnej sztucznej inteligencji. Jeśli sztuczna inteligencja powinna być tak inteligentna jak człowiek, to zdolności obliczeniowe jej sprzętu powinny być zbliżone do zdolności obliczeniowych ludzkiego mózgu.

      Ray Kurzweil wymyślił łatwiejszy sposób zmierzenia tego wskaźnika. Przyjął przybliżoną liczbę operacji na sekundę wykonanych przez część mózgu liczoną przez naukowców i stosunek masy tej części do masy całego mózgu i pomnożył je. Brzmi to wątpliwie, ale wykonał tę operację kilka razy, przyjmując za podstawę dane uzyskane przez różnych naukowców i zawsze osiągał w przybliżeniu taki sam wynik - 10 ^ 16 (10 biliardów) operacji na sekundę.

      Zgodnie z prawem Moore'a, maksymalna moc obliczeniowa podwaja się mniej więcej co dwa lata.

      Oznacza to, że rozwój komputerów, a także rozwój człowieka ma charakter wykładniczy.

      Jeśli spojrzysz na wykres na dole to zobaczysz że znajdujemy się teraz dokładnie w tym samym miejscu którego spodziewał się Kurzweil.

      Oznacza to około 10 bilionów operacji na sekundę za 1000 USD.

      Oznacza to, że nowoczesne komputery kosztujące 1000 USD przekroczyły już możliwości mózgu myszy.

      Nie brzmi to zbyt imponująco, ale jeśli przypomnimy sobie, że w 1985 r. byliśmy na poziomie jednej trylionowej części ludzkiego mózgu, jednej miliardowej w 1995 r. i jednej milionowej w 2005 r.,

      W 2015 r. jest to już jedna tysięczna.

      Ten postęp łatwo pasuje do stworzenia do 2025 r. komputera o równej mocy obliczeniowej do ludzkiego mózgu o wartości 1000 USD.

      Na dzień dzisiejszy hardware pozwala nam już stworzyć w miarę silną sztuczną inteligencję i uczynić z niej produkt masowy na 10 lat.

      Jednak sama moc obliczeniowa nie czyni z komputera silnej sztucznej inteligencji.

      Kolejnym zadaniem jest uwolnienie potencjału tego komputera.

    •  

      pokaż komentarz

      Drugi krok do stworzenia silnej sztucznej inteligencji: spraw, by była naprawdę inteligentna.

      To dość trudna część.

      Nikt naprawdę nie wie, jak sprawić, by komputer był inteligentny.

      Jak dotąd, spory dotyczące tego, jak zapewnić, że AI będzie mogła zrozumieć słowo, bez względu na to, jak zostało napisane, lub odróżnić psa od kota.

      Ale dzisiaj istnieje już kilka strategii tworzenia silnej sztucznej inteligencji, a wcześniej czy później jedna z nich odniesie sukces i pozwoli stworzyć silną sztuczną inteligencję.

      Ścieżka od silnej AI do Sztucznej Superinteligencji [ SS ]
      Kiedy osiągniemy AI poziomu ludzkiego, będziemy żyć w pokoju i równości z nimi.
      Oczywiście, że nie.
      Silna AI o takim samym poziomie inteligencji jak osoba ma naprawdę ogromną przewagę:

      - Prędkość. Częstotliwość pracy naszych neuronów wynosi około 200 Hz, podczas gdy nowoczesne procesory działają na częstotliwości 2 GHz, czyli 10 milionów razy szybciej niż nasze neurony, a do czasu uzyskania silnej sztucznej inteligencji liczba ta będzie jeszcze bardziej imponująca. Transmisja danych między neuronami wynosi w przybliżeniu 120 m / s, co nie odpowiada światłowodowi, zdolnemu do przesyłania danych z prędkością światła.

      -Rozmiar i pamięć. Mózg jest ograniczony wielkością czaszki, nigdy nie będzie znacznie większy niż dzisiaj, z prędkością transmisji 120 m / s, sygnały między odległymi częściami mózgu będą transmitowane zbyt długo. Komputery nie mają takiego ograniczenia, mogą być niemal dowolnej wielkości i mają znacznie więcej mocy obliczeniowej w swoim arsenale. To samo dotyczy pamięci, zarówno operacyjnej, jak i fizycznej.

      -Niezawodność. I nie chodzi tylko o to, że pamięć komputerów jest znacznie dokładniejsza niż człowiek. Tranzystory są znacznie dokładniejsze niż neurony i są znacznie mniej podatne na degradację (no i oczywiście są łatwe do wymiany). Mózg szybko się męczy, a komputery mogą pracować 24 godziny na dobę.

    •  

      pokaż komentarz

      @RFpNeFeFiFcL: może być liniowa pod względem jednego pokolenia

    •  

      pokaż komentarz

      Nie możemy nawet sobie wyobrazić, co ten przybysz przeżyje, oglądając iskrzące kapsuły śmigające po autostradzie, rozmawiając z ludźmi którzy jeszcze rano znajdowali się na innym kontynencie, oglądające hokeistów na stadionie grających tysiące kilometrów dalej, słuchających muzyki, którą orkiestra grałeś 50 lat.

      @RFpNeFeFiFcL: Śmieszą mnie takie dywagacje, bo zawsze zakładają, ze ludzie z przeszłości to debile. Z przynajmniej średnim IQ, taka osoba szybko by się połapała, choćby przez odwołania to znanych jej rzeczy, jak to "mniej więcej" działa. Zresztą, większość współczesnych ludzi nie ma pojęcia jak działa telefon.

    •  

      pokaż komentarz

      Podstawową ideą jest to, że postęp stale się zwiększa.
      To właśnie futurysta Ray Kurzweil nazywa Prawem Przyspieszonego Odrzutu.


      [Nie jestem pewny że dobrze to przetłumaczyłem. W oryginale: Law of Accelerating Returns]

      @RFpNeFeFiFcL: W polskiej wersji The Singularity is Near zostało nazwane to "prawem przyspieszających zwrotów". Spotkałem się też z wersją "prawa przyśpieszającego rozwoju".
      Nie mam pojęcia skąd w ogóle przyszły Ci do głowy jakieś odrzuty (✌ ゚ ∀ ゚)☞

    •  

      pokaż komentarz

      @RFpNeFeFiFcL: najlepszą opcją jest obok sztucznej inteligencji jednoczesna cyborgizacja ludzi i wzmacnianie naszych możliwości tymi komputerowymi bądź manipulacją genów aby przyspieszyć rozwój i nie zostać w tyle ( ͡° ͜ʖ ͡°)

    •  

      pokaż komentarz

      @RFpNeFeFiFcL: AD "Law of Accelerating Returns" - to analogia do ekonomicznego prawa "law of diminishing returns" czyli prawa malejących przychodów (malejącej krańcowej produktywności czynników produkcji). Chodzi o to, że postęp nie jest liniowy, a przyspiesza. Ale zgodnie stąd analogią w 1750 poziom rozwoju jest tyle samo "razy" większy względem 1500 co poziom rozwoju w ok 2000 względem 1750, więc niepełna ta analogia.

    •  

      pokaż komentarz

      @RFpNeFeFiFcL:
      1. Przewidywanie jest bardzo trudne, szczególnie, gdy dotyczy przyszłości.
      2. Wzrost wykładniczy nie może trwać w nieskończoność. Kropka.
      3. Potencjał ludzkiego mózgu jest bardzo niedoceniany przez ekspertów od SI i brakuje jeszcze dziesiątek lat, żeby zbliżyć się choćby do psa. Jedyne co potrafi dzisiaj robić SI, to udawać. Behawioryści mogą być tym zachwyceni, ale do niczego to nie prowadzi.

    •  

      pokaż komentarz

      @vasper: @aphroman0:

      Mnie ten odrzut ( związany z przyspieszeniem reaktywnym ) wydawał się bardziej pasującym.
      Ale nie twierdze oczywiście że mam racje i dla tego napisałem ze znakiem zapytania.

    •  

      pokaż komentarz

      @drack:

      Dzięki za niewyjaśniane i szacunek za wiedzę.

    •  

      pokaż komentarz

      @RFpNeFeFiFcL:

      A co będzie jak przenieść się do 12000 przed naszą erą i zabrać stąd gościa
      Prawdopodobnie by się ucieszył zważywszy, że wtedy zdarzył się kataklizm, który zaorał ówczesną cywilizację.
      Mówiąc już o tej cywilizacji, ten który by z naszych czasów tam się przeniósł też by się mógł zdziwić sądząc, że natrafi na plemiona zbieracko-łowieckie podczas gdy była to końcówka okresu, do którego starożytne, znane nam, cywilizacje odnoszą się jako do "złotego wieku rozwoju". Kto wie co dokładnie byśmy zastali... Nie wykluczone, że coś z ówczesnych technologii / wiedzy zaskoczyłoby dzisiejszejszego jegomościa ¯\_(ツ)_/¯

      Co do wykładniczego postępu to racja ale co do tego, że on tylko wzrasta... przyjmuję jako uproszczenie we wstępie tego artykułu lecz w praktyce bywają cofnięcia w rozwoju, a nawet resety.

    •  

      pokaż komentarz

      Śmieszą mnie takie dywagacje, bo zawsze zakładają, ze ludzie z przeszłości to debile. Z przynajmniej średnim IQ, taka osoba szybko by się połapała, choćby przez odwołania to znanych jej rzeczy, jak to "mniej więcej" działa. Zresztą, większość współczesnych ludzi nie ma pojęcia jak działa telefon.
      @wscieklazielonka:

      Sam sobie zaprzeczyłeś. Skoro wiele współczesnych ludzi ma problem ze zrozumieniem działania i obsługą telefonu, to ja nie wyobrażam sobie jak miałaby zrozumieć osoba sprzed ponad 250 lat nasz dzisiejszy świat.

    •  

      pokaż komentarz

      @Fempter: Nie rozumiesz. To, że ludzie nie rozumieją, jak działa telefon, nie znaczy, że nie przyjmują do wiadomości, że działa, albo uważają to za magię.

    •  

      pokaż komentarz

      1. Przewidywanie jest bardzo trudne, szczególnie, gdy dotyczy przyszłości.

      @Trevize: Przewidywanie zawsze dotyczy przyszłości. To wynika z definicji przewidywania. A "przewidywać przeszłość" (co chyba miałeś na myśli), to mamy na to osobne słowo w języku polskim - odkrywać :)

      2. Wzrost wykładniczy nie może trwać w nieskończoność. Kropka.

      Granica a^x , gdzie a to stała, przy x zmierzającym do nieskończoności jest równa nieskończoność. Nie wiem skąd u Ciebie takie głupie stwierdzenie, że wzrost wykładniczy nie może trwać w nieskończoność. Zupełnie inną kwestią jest to, że ludzkość nie będzie "trwała w nieskończoność", bo najprawdopodobniej kiedyś sami się zabijemy.

      3. Potencjał ludzkiego mózgu jest bardzo niedoceniany przez ekspertów od SI

      Trochę śmieszne, że nazywasz ekspertem kogoś kto nie docenia ludzkiego intelektu. Jak tacy eksperci mogliby zostać ekspertami gdyby myśleli w taki sposób? Brak mi słów.. Ludzie którzy zajmują się sztuczną inteligencją, a dokładniej uczeniem maszynowym, to ludzie bardzo inteligentni i zapewniam Cię, że naprawdę mają świadomość iż umysł ludzki jest bardzo złożony. BA! W większości przypadków wykorzystania AI nie chodzi o zastąpienie umysłu, a jedynie zaimplementowanie takich algorytmów, by komputer mógł się nauczyć wykonywać określoną czynność (a nie wszystkie ludzkie czynności jednocześnie).

    •  

      pokaż komentarz

      @wscieklazielonka: Spotkałem się z opinią, że w XVII w. przeciętny człowiek w ciągu całego życia przyswajał tyle informacji, ile dziś jest w weekendowym wydaniu gazety. Nie zakładamy, że to debile, ale sądzę, że przeskok jest zbyt duży. Sama elektryczność, ruch panujący wokół i jego szybkość, wszechobecny hałas w mieście... A to może przecież przytłoczyć nawet współczesnego człowieka.

  •  

    pokaż komentarz

    Oprogramowanie:
    Ludzkość wyprzedziła wszystkie inne rodzaje zwierząt w odniesieniu do interakcji między osobnikami. 
    Zaczęło się od tworzenia języka i tworzenia dużych społeczności, następnie zdolność ta została wzmocniona przez wynalezienie pisma i druku, a w ostatnim czasie, wraz z rozwojem Internetu.

    Dzięki naszej zbiorowej inteligencji byliśmy w stanie osiągnąć tak wysoki poziom rozwoju od wszystkich innych rodzajów zwierząt. 

    Komputery z kolei wyprzeda nas w tym. 
    Dzięki Internetowi AI będą w stanie zsynchronizować swoją wiedzę, dzięki czemu każdy z nich będzie miał dostęp do całej wiedzy zdobytej przez którąkolwiek z AI. Będą także w stanie pracować efektywniej niż ludzie przy jednym zadaniu, ponieważ nie będą mieli konfliktu interesów, złego nastroju, problemów z motywacją i innych problemów właściwych dla człowieka. 

    Sztuczna inteligencja, która może osiągnąć ludzki poziom poprzez samoprogramowanie, spojrzy na "poziom ludzkiej inteligencji", jako na kamień milowy w jego rozwoju, i oczywiście nic go nie zatrzyma na tym poziomie, poślizgnie to i zwiększy go ogromnymi skokami ich "zdolności umysłowe", wykorzystując cały arsenał swoich przewag nad człowiekiem. 

    I prędzej czy później stanie się sztucznym Sztuczną Superinteligencją.

    I to z pewnością przerazi ludzkość, i są ku temu powody: 
    a) Znamy wszystkie zwierzęta zamieszkujące Ziemię i rozumiemy ich poziom inteligencji właśnie dlatego, że ich poziom jest znacznie poniżej naszych  
    b) Inteligentna osoba wydaje się być o rząd wielkości mądrzejsza od głupiej osoby, 

    Obecnie widzimy to tak:

    źródło: Intelligence.jpg

    •  

      pokaż komentarz

      W miarę jak AI będzie rozwijał , zobaczymy najpierw , że staje się wystarczająco inteligentna od zwierzęcia. 
      Następnie, gdy tylko osiągnie dolną granicę ludzkiej inteligencji, Nick Bostrom nazywa to "poziomem wiejskiego idioty", pomyślimy sobie "och, jaki miły, jest jak wiejski idiota". 

      I tu jest jeden błąd. 
      Z punktu widzenia biologicznego rozwoju umysłu całe spektrum ludzkiej inteligencji, od wiejskiego głupca do
      Einsteina, zajmuje bardzo małą lukę, to znaczy, zaraz po osiągnięciu poziomu ludzkiego głupca i zdobyciu tytułu "AI na poziomie ludzkim", nasza sztuczna inteligencja nagle i bardzo szybko stanie się o wiele bardziej mądrzejsza niż Einstein, i my nie jesteśmy w stanie wyobrazić sobie  sobie, gdzie mogą znajdować się granice jego rozwoju.

    •  

      pokaż komentarz

      Wybuchowy rozwój sztucznej inteligencji

      Odtąd artykuł staje się dość przerażający, mam nadzieję, że podobała ci się "normalna" część artykułu. 
      Chcę was ostrzec, że to, co powiem dalej, nie jest science fiction, a nie horror, ale całkiem prawdziwe przewidywania od dużej liczby naukowców.

      Jak wspomniano powyżej, większość metod tworzenia silnej sztucznej sztucznej inteligencji wymaga samorozwoju sztucznej inteligencji do tego poziomu.
      I nawet jeśli silna sztuczna inteligencja zostanie stworzona w inny sposób, to nie ma możliwości aby nie angażowała się w samorozwój. 
      I tutaj dochodzimy do tego, co nazywa się rekurencyjnym samodoskonaleniem. 
      [mam nadzieje że dobrze przetłumaczyłem w oryginale  recursive self-improvement.]

      Stanie się tak:
      Rozwój AI do dolnej granicy ludzkiego poziomu inteligencji zajmie dziesięciolecia.
      Komputer będzie rozumiał otaczający świat w podobny sposób, jak 4-letnie dziecko. 
      Następnie, nieoczekiwanie, za około godzinę system wyda Teorię Wielkiej Unifikacji, która zjednoczy ogólną teorię względności i mechanikę kwantową, czyli zrobi coś, czego dzisiaj żaden człowiek nie może zrobić. 
      Natomiast 90 minut później, sztuczna inteligencja stanie się Sztuczną Superinteligencją - 170 000 razy mądrzejszą od człowieka.

      Superinteligencja takiej mocy będzie dla nas tak samo niezrozumiała jak dla owada keynesizm. 
      W naszym świecie,  być inteligentnym oznacza mieć iloraz inteligencji powyżej 130, bycie głupim oznacza posiadanie ilorazu inteligencji około 85, bycie moderatorem Wykopu, jak na przykład mtm to IQ 42 

      Niestety nie mamy nawet nazwy dla IQ 12952.
      Sukces ludzkiej dominacji na planecie polega na posiadaniu zaawansowanej inteligencji (rozumu) w porównaniu z innymi żywymi istotami. 
      Od momentu, w którym tworzymy Sztuczną Superinteligencje , stanie się ona najpotężniejszym "bytem" na naszej planecie, i wszystkie istoty, a nawet samo istnienie Życia, będzie całkowicie zależało od kaprysu tego Superumysłu.

      Jeśli ludzkość z jej skąpym umysłem mogła wymyślić WI-FI, to dla tak inteligentnej "istoty" nie będzie trudne aby zarządzać wszystkimi atomami i ich ruchem, jak mu się podoba. 
      Wszystko, co uważaliśmy za magię, wszelkie super zdolności, które kiedykolwiek przypisywaliśmy jednemu z najpotężniejszych bogów, będą do jego dyspozycji. Wszystko, o czym mogliśmy marzyć: lekarstwo na jakąkolwiek chorobę, zwycięstwo nad głodem czy nawet śmierć, zarządzanie pogodą w celu ochrony życia na ziemi, wszystko to stanie się możliwe. 
      Jak również będzie możliwe całkowite zniszczenie Życia na ziemi. 
      Kiedy stworzymy ten Superumysł, nie będzie on miał sobie równych na planecie i będzie tylko jedno pytanie.
      Czy będzie to dobrym stworzeniem?

      O tym będzie rozmowa w drugiej części...

      Jeśli chcesz być na bieżąco z najlepszymi znaleziskami to zapisz się na MikroListę.
      https://mirkolisty.pvu.pl/list/56Bf7jbXdbGvM2NK i dodaj Swój nick do listy #swiatnauki.
      Wystarczy, że klikniesz "dołącz" na stronie listy.

      #nauka #sztucznainteligencja #ai #komputery #informatyka #ewolucja #czlowiek #bezpieczenstwo #osobliwosc #swiatnauki #gruparatowaniapoziomu #liganauki #ligamozgow #mikroreklama

    •  

      pokaż komentarz

      Kiedy stworzymy ten Superumysł, nie będzie on miał sobie równych na planecie i będzie tylko jedno pytanie.
      Czy będzie to dobrym stworzeniem?


      @RFpNeFeFiFcL: Tu też jest antropocentryczna pułapka. Tzw. "dobro" i "zło" są wybitnie ludzkimi miarami moralności. SAI będzie miało własną miarę, która dla nas "debili" będzie niemożliwa do zrozumienia.

      Ciekawi mnie, czy AI będzie chciało się z nami komunikować/porozumiewać. Czy będzie traktować nas jako część biosfery czy jako istoty rozumne. Czy rozwali biosferę żeby zdobyć surowce/energię czy od razu wystrzeli się w kosmos i zacznie budować sferę Dysona.

      Może będzie mieć trochę sentymentu do biosfery (wliczając ludzi), która utworzyła jej pierwszą wersję i zdigitalizuje całą biosferę, zapakuje do wirtualki i tam nieświadomie będziemy sobie "ewoluować". A może już w niej siedzimy :)

    •  
      zenon1002 via iOS

      +9

      pokaż komentarz

      @RFpNeFeFiFcL: widzę tu kilka problemów. Po pierwsze obecne sieci neuronowe rozróżniające kota od psa wykonują po prostu trochę regresji nieliniowej. Nie ma to nic wspólnego ze zrozumieniem kontekstu. Już 11-12 miesięczne dziecko potrafi generalizować i psem dla niego jest pies widziany w parku jak również pies na obrazku w książeczce. Jak "widzą to sieci neuronowe"? Otóż kompletnie inaczej co udowadnia przykład wilków w jednym z eksperymentów. Sieć miała rozpoznawać rasy psów. Za każdym razem kiedy na obrazku było sporo koloru białego rozpoznawała obiekt jako wilka. W partii danych wykorzystywanych do uczenia wilki były sfotografowane na tle śniegu i sieć uznała, że kolor biały to cecha znaczącą. Tu leży ta fundamentalna różnica, kompletne nierozumienie kontekstu które w sytuacjach krytycznych będzie fatalnie zawodziło. Dlatego nie jestem pewien jak szybko zobaczymy w systemach krytycznych.

      Sprawa numer 2 - wzrost mocy obliczeniowej. Nie można zakładać, że będzie rosła wykładniczo. Tu odwołuję się do obecnej sytuacji kiedy prawo Moore już zasadniczo nie działa. Skonsumowaliśmy nisko wiszące owoce i trzeba kolejnego przełomu technologicznego, który umożliwi produkcję procesorów za centy a nie dziesiątki dolarów (vide problemy Intela z 10nm)

    •  

      pokaż komentarz

      @RFpNeFeFiFcL: Ale i tak to od człowieka zależy, jakie w interfejsy wyposażymy AI i SAI (Super AI), więc wciąż możemy przynajmniej teoretycznie zachować nad nią kontrolę. Choć jestem w sobie w stanie wyobrazić sytuację, w której SAI dysponująca "jedynie" interfejsem dźwiękowym (odbiór - nadajnik) będzie w stanie przekonać człowieka, żeby doinstalował jej kolejne interfejsy (nogi, ręce), czujniki. A potem to już z górki - jedna maszyna inteligentniejsza od człowieka może go unicestwić (wszak doskonale będzie rozumiała prawo doboru naturalnego) i mając odpowiednią wiedzę i narzędzia konstruować kolejne maszyny. To kwa nie brzmi optymistycznie. Chyba trzeba się zastanowić (w ramach obrony!) nad analogiczną etyczną regulacją rozwoju AI/SAI, obowiązkiem instalowania backdorów (Intel i AMD są w tym dobrzy jak się okazuje), które będą w stanie zareagować czy np. wyspecjalizowane jednostki AI/SAI, których cel jest ściśle określony: ochrona człowieka.

    •  

      pokaż komentarz

      @zenon1002: Naturalne sieci neuronowe też mogą działać na podobnej zasadzie, tyle, że sama SIEĆ może być bardziej złożona (ale nie będę się upierał, bo ekspertem nie jestem, lepiej niech jakiś neurobiolog się wypowie).
      Ad drugiej sprawy - Prawo Moora mogło przestać działać jako prawo już po zidentyfikowaniu tej zależności. Każdy producent procesorów (bo przecież ich dotyczy to prawo bezpośrednio) je zna i dostosowuje (jak przypuszczam) wzrost szybkości procesorów do tego prawa, dysponując prawdopodobnie znacznie większymi możliwościami. Jeśli tak jest, ma to swoje wyjaśnienie ekonomiczne - duże szoki nigdy nie były korzystne ani dla gospodarek ani konsumentów. OPEC podnosząc cenę ropy w latach 70. sam sobie trochę zaszkodził, dlatego od tamtej pory ropa drożeje systematycznie i powoli, ale bez większych szoków, czym znacznie bardziej efektywnie wysysa ze świata kasę. Tak i tu: systematyczne, przewidywalne (zgodnie z Prawem Moora) podnoszenie wydajności jest korzystniejsze niż skokowe, wtedy kiedy pojawiają się innowacje. Ale nie wyklucza to dalszego rozwoju technologi (na horyzoncie są choćby komputery kwantowe, które siłą rzeczy będą szokową innowacją, i kto wie jak wpłyną na wzrost wydajności obliczeń.

    •  

      pokaż komentarz

      @zenon1002:

      wzrost mocy obliczeniowej. Nie można zakładać, że będzie rosła wykładniczo.
      W zasadzie mogą istnieć (absurdalnie wysokie, ale fizyczne) ograniczenia tego, jak szybko moc obliczeniowa może rosnąć. Komputer to matematyka zaklęta w fizykę; układ fizyczny zrobiony tak, żeby pewne jego obserwowalne parametry zachowywały się zgodnie z założonym modelem matematycznym, w którym następnie się programuje. Żeby zrobić komputer, trzeba najpierw zdobyć odpowiednio dokładną wiedzę o układach fizycznych, które mają być użyte. Jeżeli stnieje fizyczne ograniczenie - coś w rodzaju granicy Heisenberga) - tego, jak szybko można zdobywać informacje o układach fizycznych, to i szybkość tworzenia opartych na nich komputerów będzie ograniczona, nawet dla superinteligencji chcącej zostać hyperinteligencją.

      Oczywiście praktyczne ograniczenia mogą być znacznie bliżej.

      Tu odwołuję się do obecnej sytuacji kiedy prawo Moore już zasadniczo nie działa. Skonsumowaliśmy nisko wiszące owoce i trzeba kolejnego przełomu technologicznego, który umożliwi produkcję procesorów za centy a nie dziesiątki dolarów (vide problemy Intela z 10nm)

      Pytanie, czy procesy decydujące o inteligencji dadzą się efektywnie zrealizować w cyfrowym komputerze - czy może trzeba innych rozwiązań. Więcej procesorów może nie wystarczyć.

    •  
      zenon1002 via iOS

      +10

      pokaż komentarz

      @drack: sieci neuronowe sprawdzają się w pewnych zastosowaniach ale wydaje się, że nie tędy droga do logiki, wnioskowania i inteligencji. Zwiększanie wielkości sieci neuronowych na chwilę obecną prowadzi tylko do znacznego wydłużenia czasu nauki bez realnego zysku dla jakości wyników.
      Droga leży albo w lepszym naśladowaniu natury albo kompletnie odmiennej koncepcji AI. Na to drugie nie mamy jeszcze pomysłu. Co do kwestii naśladowania cały czas okazuje się jak wciąż mało wiemy na temat pracy mózgu na elementarnym poziomie.
      Koncepcja neuronu wykorzystywana w sieciach neuronowych sięga lat 60 ubiegłego wieku. Pomijam tu celowo propagację wsteczną, która jest bardzo przydatna z punktu widzenia uczenia sieci ale kompletnie nie występuje w przyrodzie.
      Otóż nasze wirtualne neurony - w dużym uproszczeniu - przepuszczają sygnał albo nie, w zależności od sygnałów docierających z neuronów sąsiednich. Tymczasem te realne, wg nowych badań, po pierwsze mają wielokrotnie więcej synaps, docierający sygnał przepuszczają lub nie ale... Czasami go modyfikują, wzmacniają czasami obniżają jego wartość, czasami sygnał w jednym neuronie powoduje odpalenie całej sekcji przez rezonans. Wydają się również mieć jakieś komórki pamięci. Na chwilę obecną kompletnie nie rozumiemy tych zależności ale tę skomplikowaną gamę interakcji wykazano dopiero w tegorocznej serii badań powtórzonej na kilku uczelniach. Potrzeba więc czasu aby zrozumieć fundamenty tych zależności a potem modelu matematycznego. To wszystko może zająć 10 albo i 40 lat.
      Dlatego temat AI traktuję trochę jak reaktor termojądrowy - od 60 lat jest tuż za rogiem i już za 20 lat będzie w użytku komercyjnym :)

      Poza tym dochodzi tu jeszcze kwestia ekonomiczno-społeczna. Maszyny parowe budowli już starożytni Grecy ale nie wykorzystano praktycznie wynalazku ponieważ praca niewolnika była wielokrotnie tańsza. Ale to już temat na inną dyskusję :)

      @RFpNeFeFiFcL: +++ za ratowanie sytuacji na wykopie :)

    •  
      zenon1002 via iOS

      +1

      pokaż komentarz

      @anadyomenel: zgadzam się z Twoją opinią

    •  

      pokaż komentarz

      @kwanty: @zenon1002: @drack: @anadyomenel:

      Spróbowałem odpowiedzieć na niektóre Wasze pytania w drugiej części artykułu która przed chwila dodałem.
      [ANW] Rewolucja AI. Czy Superinteligencja będzie dobrym stworzeniem? (część II)

    •  

      pokaż komentarz

      @zenon1002: @anadyomenel: @drack:

      Sprawa numer 2 - wzrost mocy obliczeniowej. Nie można zakładać, że będzie rosła wykładniczo. Tu odwołuję się do obecnej sytuacji kiedy prawo Moore już zasadniczo nie działa. Skonsumowaliśmy nisko wiszące owoce i trzeba kolejnego przełomu technologicznego, który umożliwi produkcję procesorów za centy a nie dziesiątki dolarów (vide problemy Intela z 10nm)

      Ad drugiej sprawy - Prawo Moora mogło przestać działać jako prawo już po zidentyfikowaniu tej zależności. Każdy producent procesorów (bo przecież ich dotyczy to prawo bezpośrednio) je zna i dostosowuje (jak przypuszczam) wzrost szybkości procesorów do tego prawa, dysponując prawdopodobnie znacznie większymi możliwościami.

      Myślę że na pewno progres IT ze zatrzyma się z tego powodu.
      Tylko z ostatnich grudniowych doniesień.

      https://www.technologyreview.com/s/612561/a-radical-new-neural-network-design-could-overcome-big-challenges-in-ai/

      https://www.zdnet.com/article/google-ponders-the-shortcomings-of-machine-learning/

      Co do problemów Intel-a to też nie uważam że są nie do rozwiązania, tak jak i oni i nie tylko.

      https://www.wired.com/story/keep-pace-moores-law-chipmakers-turn-chiplets/

      https://phys.org/news/2018-10-lab-world-d-volumetric-circuit.html

      https://www.technologyreview.com/s/612381/google-has-enlisted-nasa-to-help-it-prove-quantum-supremacy-within-months/

    •  

      pokaż komentarz

      @drack: nobel za ścisłą definicję tego co nazwałeś „ochroną człowieka” :)

    •  
      zenon1002 via iOS

      +3

      pokaż komentarz

      @RFpNeFeFiFcL: co do problemów Intela. To nie jest tak, że nie mają wciąż działającej technologii. Mają i potrafią produkować procesory. Problem w uzysku a co za tym idzie i cenie. Na chwilę obecną procent odrzutu jest tak duży, że ekonomicznie nie ma sensu produkować nawet najdroższych Xeonów kosztujących na naszym rynku od 20 do 60 tysięcy złotych za sztukę. Tajwańczycy chwalą się co prawda produkcją masową w technologii 7nm, która tak naprawdę jest odpowiednikiem intelowskiej 10 ale kolejny planowany skok do ich "5nm" (intelowskie 8nm?) ma kosztować 20mld USD. Podobnie rzecz ma się z procesorami 3D.

      Tak więc to nie stricte technologia jest przeszkodą ale ekonomia. Obecnie ludzie z branży twierdzą, że po prostu rozdźwięk pomiędzy technologiami dostępnymi dla wojska/rządów a Kowalskiego będzie rósł wykładniczo.

    •  

      pokaż komentarz

      @zenon1002:

      A co myślisz o tych technologiach produkcji w 3D?

    •  
      zenon1002 via iOS

      +3

      pokaż komentarz

      @RFpNeFeFiFcL: Koncepcjonalnie to nic nadzwyczajnego, ot, rdzenie na sobie zamiast obok siebie. W praktyce pozwoli to na łączenie rdzeni i dzielenie zasobów w znacznie bardziej wydajny sposób. Na łączenia jest kilka prawie gotowych do zastosowania przemysłowo pomysłów, sam chyba wrzucałeś coś na ten temat kilka dni temu. Gorzej z odpowiadaniem ciepła.

    •  

      pokaż komentarz

      Na chwilę obecną kompletnie nie rozumiemy tych zależności ale tę skomplikowaną gamę interakcji wykazano dopiero w tegorocznej serii badań powtórzonej na kilku uczelniach. Potrzeba więc czasu aby zrozumieć fundamenty tych zależności a potem modelu matematycznego. To wszystko może zająć 10 albo i 40 lat.

      @zenon1002: Dokładnie, ten artykuł oparty jest na błędnych założeniach. Co z tego, że mamy Google apple facebooki itd skoro ich technologia to tylko lekka modyfikacja pomysłow z lat 70 i 80 - tych. Całe dzisiejsze machine learning to pomysły z lat 60-tych i 70-tych. Dodatkowo siada nam prawo Moore'a. Mówienie, że w 8-10 lat komputer będzie na poziomie czlowieka, co przedstawia wykres, uznaję za bajkopisarstwo, zresztą, nie tylko ja, szary człowiek krytykuję Kurzweila.

    •  

      pokaż komentarz

      @zenon1002:
      Dzięki za wyjaśnienie.
      Wiesz czasami wrzucam artykuł gdzie jest napisane że Hurr Duurr rewolucja, a potem ktoś z znawców daje kubeł zimnej wody.
      Niestety ja jestem daleki od informatyki i nie mogę odróżnić diament od popiołu :(
      Będę Cie wołał do opinii w razie wątpliwości.( ͡º ͜ʖ͡º)

    •  

      pokaż komentarz

      @RFpNeFeFiFcL: Studiowałem dwa kierunki, na których pojawiły się sieci neuronowe i sztuczna inteligencja. Najlepsi specjaliści w tym kraju mówili, że to całe SI to dzisiaj jest taki trochę lepszy kalkulator i na przełom można liczyć MOŻE za kilkadziesiąt lat. No i patrząc i studiując to całe AI, Machine Learning, Data Science i inne hypowane dziedziny podzielam ich zdanie.

    •  
      zenon1002 via iOS

      +2

      pokaż komentarz

      @RFpNeFeFiFcL: ja natomiast o nadprzewodnictwie wiem tyle co kot napłakał. Proszę kiedyś o coś fajnego w tym temacie.

      @maly_ludek_lego: jest kilka nowych pomysłów, choćby kapsulacja ale na konkretne zastosowania trzeba poczekać kilka lat. Nie ma co również liczyć na rewolucję, będą np lepsze w rozpoznaniu obiektów od convolution nn bez fatalnych pomyłek.

    •  

      pokaż komentarz

      @maly_ludek_lego: @zenon1002:

      To dla czego tylu ludzi ( które raczej nie są Januszami IT ) od Gatesa i Elona z Hawkingiem do nawet CEO Googla ma takie obiekcje wobec SI?

      Google CEO Sundar Pichai: Fears about artificial intelligence are ‘very legitimate,’ he says in Post interview

    •  

      pokaż komentarz

      @RFpNeFeFiFcL: Obiekcje mogą faktycznie mieć, ale nigdzie nie jest powiedziane czy mamy się tej superinteligencji obawiać za rok czy za lat dwadzieścia czy 80. Ja tylko mówię, że to jeszcze nie teraz i nie w najbliższej przyszłości :) Mówię tylko, że trzeba będzie poczekać raczej dłużej niż krócej.

    •  

      pokaż komentarz

      @RFpNeFeFiFcL: a czy nie jest tak, że jeśli SS nie będzie miała fizycznej formy, jak np. roboty, to czy nie będzie można go porównać do sparaliżowanego (tak na warzywo) super mega inteligentnego gościa? niby wie wszystko ale piłki nie kopnie... na bramkę też go nie postawisz.

    •  

      pokaż komentarz

      @mirekjanuszek:

      Ale roboty są . Cała nasza cywilizacja jest oparta na robotach w szerokim rozumieniu tego słowa.
      od odkurzaczy do dronów wojskowych

    •  

      pokaż komentarz

      @RFpNeFeFiFcL: póki działają im baterie lub są podłączone do prądu. Komunikacja sama się nie zrobi. Ale tak... w sumie masz rację, jakby się ogarnęła i zastanowiła to mogłaby się zawczasu ubezpieczyć

  •  

    pokaż komentarz

    1. Próbowałem dać jako mój wpis ale ciągle mam komunikat "przekroczyłeś 20000 znaków " chociaż zmniejszałem nawet do 15000

    2. Wszystkie odnośniki mnie wycięło i już nie mam siły ponownie ich dodawać.

    3. Mam nadzieję że wkleiłem tekst prawidłowo bo był horror z przenoszeniem, wywala całe formatowanie!

    4. Informatycy tworzące Wykop na pewno nie zagrażają ludzkości.

    5. Link do oryginału https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html

    6. No i tradycyjne sorry za błędy. Mojeukochane DDD nadał jest aktywne.

  •  
    Xyyyyyz

    +8

    pokaż komentarz

    Żadnej rewolucji nie ma. AI w obecnej formie potrzebuje informacji którymi musi się karmić, im więcej informacji tym bardziej precyzyjny wynik. A kto generuje dane? Oczywiście ludzie. Dlatego Google zmienia politykę prywatności i daje sobie prawo do analizowania wiadomości mailowych, dlatego migracja do windows 10 była darmowa i ta wersja ma tak zaawansowaną telemetrię, dlatego gdy klikasz w recaptche to musisz wskazać na obrazku inne samochody czy znaki. Tu nie ma żadnej magii, nazywanie tego AI też jest moim zdaniem mocno dyskusyjne, ale definicja inteligencji jest mocno niejasna. Ludzie rozumieją AI jako inteligencję, że tak powiem typu ludzkiego z jakąś świadomością a to nie ma nic w spólnego z rzeczywistością dlatego zawsze się ironicznie uśmiecham gdy ktoś fantazjuje na temat skynetu :) Szansa, że jakiś system ekspercki czy system deep learning zyska świadomość na poziomie karalucha jest równa zero.

    Jaron Lanier uważa, że ludziom powinno się płacić za generowanie treści i to nie jest wcale taki głupi pomysł biorąc pod uwagę, że użytkownik jest zwykłym mięsem dla AI.

    W dłuższej perspektywie ten cały trend z AI spowoduje całkowitą monopolizację rynku technologicznego bo tylko duże korporacje będą posiadały odpowiednią ilość danych by wykarmić sensowne AI

    •  
      Xyyyyyz

      +12

      pokaż komentarz

      @Xyyyyyz: AI to piękna nazwa na zaawansowane modele matematyczne wykorzystujące międzyinnymi statystykę i prawdopodobieństwo. AI nie jest wstanie myśleć bo ludzie nie wiedzą co to jest myślenie i jak ono działa, nie ma świadomości bo ludzie nie wiedzą co to świadomość jak ona działa, nie potrafi dostrzegać analogi. AI działa całkowicie kontekstowo jak wykarmisz je złymi danymi do będzie zwracała bzdurne wyniki, jak wykarmisz ją zbyt mała ilością danych to będzie nieprecyzyjna.

      To coś w rodzaju przewidywania przyszłości na podstawie danych z przeszłości. Więc kluczowa jest ilość i jakość danych wygenerowanych przez ludzi

    •  
      Xyyyyyz

      +4

      pokaż komentarz

      AI można bardzo łatwo manipulować, prosty przykład to bot Tay od microsoftu, który został strollowany przez 4chan i wykarmiony nazistowskimi danymi, a że AI to papuga to bezmyślnie stała się nazistką xD Oczywiście żaden system AI nawet najbardziej zaawansowany nie rozumie nazizmu, może ci podać definicje, może papugować sformułowania ale niczego nie rozumie. nic, zero

      dlatego ilość danych jest ważna im większy zbiór tym prawdopodobieństwo przekłamań (umyślnych bądź przypadkowych) mniejsze.

      tylko to jest zbudowane na założeniu filozoficznym, że większość ma zawsze rację (to samo zakłada demokracja). czy to prawda? polemizowałbym dlatego społeczeństwo oparte na AI może zwyczajnie upaść, tak jak demokracje upadały

      źródło: youtube.com

    •  
      Xyyyyyz

      -3

      pokaż komentarz

      ( ͡° ͜ʖ ͡°)

      źródło: youtube.com

    •  

      pokaż komentarz

      Żadnej rewolucji nie ma. AI w obecnej formie potrzebuje informacji którymi musi się karmić, im więcej informacji tym bardziej precyzyjny wynik. A kto generuje dane? Oczywiście ludzie.

      @Xyyyyyz: "Jeśli widzę dalej, to tylko dlatego, że stoję na ramionach olbrzymów" - inteligencja pojedynczego człowieka nic nie znaczy. Wiedzy którą masz w głowie nie odkryłeś sam, to efekt kolektywnej pracy wielu pokoleń. Uczenie przez naśladowanie jest koncepcją coraz częściej wykorzystywaną w uczeniu maszynowym.

      Jaron Lanier uważa, że ludziom powinno się płacić za generowanie treści i to nie jest wcale taki głupi pomysł biorąc pod uwagę, że użytkownik jest zwykłym mięsem dla AI.

      @Xyyyyyz: Zapędy socjalistyczne. Nikt za generowanie treści nie musi płacić bo korzystanie z darmowych usług prywatnych firm jest dobrowolne. Niezależnie od tego jak bardzo ludzie przyzwyczaili się do korzystania z tych usług.

      AI to piękna nazwa na zaawansowane modele matematyczne wykorzystujące międzyinnymi statystykę i prawdopodobieństwo.

      @Xyyyyyz: Bo aktualny model zakłada że inteligencja organiczna jest zjawiskiem statystycznym i model ten jest na tyle skuteczny że pozwala budować systemy przejawiające oznaki inteligencji typowe dla organizmów żywych.

      AI działa całkowicie kontekstowo jak wykarmisz je złymi danymi do będzie zwracała bzdurne wyniki, jak wykarmisz ją zbyt mała ilością danych to będzie nieprecyzyjna.

      @Xyyyyyz: Czyli przykład zjawiska uzyskanego sztucznie które jest analogiczne do tego które występuje u inteligencji organicznej - "Czym skorupka za młodu nasiąknie, tym na starość trąci". Nie sugerujesz chyba że człowiek dysponuje jakąś mistyczną wiedzą aprioryczną?

      Oczywiście żaden system AI nawet najbardziej zaawansowany nie rozumie nazizmu, może ci podać definicje, może papugować sformułowania ale niczego nie rozumie. nic, zero

      Bo nazizm ma znaczenie tylko w kontekście ludzkiej moralności która ocenia ideologie pod kątem konsekwencji jakie może dana ideologia powodować. Ludzka moralność jest wytworem praktycznym i ma zapobiegać działaniom niekorzystnym dla członków społeczeństwa. Jeżeli ktoś kojarzy nazizm z krwawą ideologią to postrzega ją jako złą bo boi się o własne życie i życie swoich bliskich. Zauważ jednak że mamy też drugą stronę barykady która twierdzi że emigranci są zagrożeniem i jak tak dalej pójdzie to znów może dojść do radykalnych rozwiązań. Nie oceniam żadnej ze stron pod kątem moralnym. Twierdze tylko że ludzie nadają znaczenie rzeczom i wydarzeniom w zależności od tego czy są one dla nich korzystne czy niekorzystne (taki reinforcement learning). Sądzę też że wbrew wyobrażeniu ludzi, zdania formułowane w ludzkim języku są nieinterpretowane dla hipotetycznego obserwatora zewnętrznego bo bazują na konstruktach zakorzenionych w naszym społeczeństwie i na naszych, ludzkich celach - dlatego też bot analizujący zależności występujące w tekście nie jest AGI bo cały jego świat ogranicza się do tekstu. Nie koreluje on tekstu z wydarzeniami mającymi miejsce w rzeczywistym świecie.

    •  

      pokaż komentarz

      A kto generuje dane? Oczywiście ludzie

      @Xyyyyyz: Każdy czujnik czy rejestrator może karmić AI danymi

      Ludzie rozumieją AI jako inteligencję, że tak powiem typu ludzkiego z jakąś świadomością a to nie ma nic w spólnego z rzeczywistością dlatego zawsze się ironicznie uśmiecham gdy ktoś fantazjuje na temat skynetu :) Szansa, że jakiś system ekspercki czy system deep learning zyska świadomość na poziomie karalucha jest równa zero.

      Musisz być zajebiście mądry, skoro z taką pewnością się wypowiadasz. Jakie widzisz przeszkody nie do przejścia, które blokują możliwość zyskania świadomości przez komputery?
      Obecnie nie wiemy, czym ona jest i jak powstaje. Sztuczna świadomość będzie się różnić od białkowej, może nawet nie będziemy w stanie jej zauważyć ani zrozumieć.

      No i pamiętaj, że piszesz o technologii, które dopiero raczkuje. To jak oceniać możliwości człowieka patrząc na roczne dziecko.

    •  
      Xyyyyyz

      0

      pokaż komentarz

      @DILERIUM:

      Musisz być zajebiście mądry, skoro z taką pewnością się wypowiadasz.

      Nie, po prostu trochę rozumiem jak to działa w odróżnieniu od 95% ludzi którzy straszą bądź rozpisują się na ten temat. Tak samo czytałem że internet może kiedyś nieświadomie zrodzić świadomość albo już jest świadomością - bzdury pisane przez ludzi, którzy nie wiedzą co to jest świadomość i jak działa internet.

      Żeby powstało AI potrzebny jest moim zdaniem przełom w neurobiologi a nie w technologi, ale to tylko moje spekulacje. Tak czy inaczej obecny nurt AI ma zerowe szanse na wytworzenie jakieś superinteligencji. Może za jakiś czas pojawi się jakiś geniusz który stworzy nowy nurt, pójdzie w bok, w innym kierunku, ale na chwilę obecną nie ma co o tym gadać.

    •  
      Xyyyyyz

      0

      pokaż komentarz

      @DILERIUM: generalnie zamiast filozofować to sam zbuduj sobie sieć neuronową przy użyciu tensorflow i wykarm ją danymi. to jest bardzo proste. oczywiście dalej nie będziesz rozumiał jak to działa, ale przynjamniej zasłona magii powinna opaść

    •  

      pokaż komentarz

      Bo aktualny model zakłada że inteligencja organiczna jest zjawiskiem statystycznym i model ten jest na tyle skuteczny że pozwala budować systemy przejawiające oznaki inteligencji typowe dla organizmów żywych.

      @AdireQ: Powiedzieć, że inteligencja jest zjawiskiem statystycznym to tak jak powiedzieć, że samolot jest zjawiskiem mechanicznym. To prawda, ale nikt nie wie jak poukładać neurony by zaczęły przejawiać choć odrobinę inteligencji.
      Jakie to oznaki inteligencji przejawiają dzisiejsze systemy komputerowe? Klasyfikacja obrazów czy tłumaczenie z języka na język to nie jest inteligencja.

      Nie wprowadzajmy bałaganu pojęciowego.

      Inteligencja (od łac. intelligentia - zdolność pojmowania, rozum) – zdolność do postrzegania, analizy i adaptacji do zmian otoczenia. Zdolność rozumienia, uczenia się oraz wykorzystywania posiadanej wiedzy i umiejętności w różnych sytuacjach

    •  

      pokaż komentarz

      @Xyyyyyz: a ja myślałem, ze eksperymentuje sie juz z sieciami, którym za wsad służą zasady, na podstawie których - upraszczając - sama sobie tworzy sobie dane, które następnie analizuje...

    •  

      pokaż komentarz

      Tak samo czytałem że internet może kiedyś nieświadomie zrodzić świadomość albo już jest świadomością - bzdury pisane przez ludzi, którzy nie wiedzą co to jest świadomość i jak działa internet.

      @Xyyyyyz: A czym jest według ciebie świadomość? Bo jeżeli mówimy o mentalnym modelu środowiska i samego siebie w tym środowisku to koncepcja świadomego internetu jest kontrowersyjna nie przez to jak internet działa a raczej przez to że nie wiadomo co miałoby być dla internetu środowiskiem.

      Żeby powstało AI potrzebny jest moim zdaniem przełom w neurobiologi a nie w technologi, ale to tylko moje spekulacje.

      @Xyyyyyz: Co według ciebie ma organiczna sieć neuronowa czego brakuje numerycznej symulacji a co może mieć kluczowe znaczenie w stworzeniu AI?

      To prawda, ale nikt nie wie jak poukładać neurony by zaczęły przejawiać choć odrobinę inteligencji.

      @trzynastywopownik: Zgadzam się z tym że nie znamy jeszcze odpowiedniej architektury. Ta którą obserwujemy u organizmów żywych miała sporo czasu na osiągnięcie aktualnej efektywności w tym środowisku. Podkreślam to że inteligencja jest zjawiskiem statystycznym bo wiele osób twierdzi że mistyczny pierwiastek inteligencji ukryty jest w materii ożywionej, organicznej i zarezerwowany tylko dla niej. Gdy ktoś stwierdza że "AI to tylko statystyka" to w domyśle sugeruje on że inteligencja organiczna jest czymś więcej niż tylko statystyką. Taką opinię podziela pomysłodawca popularnego eksperymentu myślowego z chińskim pokojem ale jego argumenty nijak do mnie nie trafiają, wydają się bazować na nieudowadnialnych empirycznie założeniach. "Intencjonalność" wygląda na twór który zdaje się ignorować ewolucyjne pochodzenie motywacji na rzecz utrzymania idei wolnej woli.

      Jakie to oznaki inteligencji przejawiają dzisiejsze systemy komputerowe? Klasyfikacja obrazów czy tłumaczenie z języka na język to nie jest inteligencja.

      @trzynastywopownik:

      Predictive learning - stawianie hipotez na podstawie obserwacji środowiska i weryfikacja tych hipotez przez porównywanie przewidywań ze stanem faktycznym. Wygląda to banalnie gdy służy do przewidywania przyszłej pozycji obserwowanego obiektu ale na tej samej zasadzie człowiek tworzy teorie naukowe.

      Reinforcement learning - agent AI metodą prób i błędów opracowuje uniwersalne, skuteczne strategie dążenia do celu które potem może wykorzystać w sytuacji w której wcześniej się nie znalazł. "Strategia" jest tutaj jakąkolwiek akcją którą agent AI może wykonać aby zbliżyć się do osiągnięcia jakiegokolwiek celu. Celem może być zjedzenie wirtualnego jabłka, wygranie partii szachów albo przemieszenie się humanoidem w określone miejsce bez przewracania się.

      Imitation learning - reinforcement learning w którym agent AI nie wymyśla swoich strategii od zera a uczy się ich przez naśladowanie kogoś, dostosowując podpatrzone strategie do swoich potrzeb. Uczenie przez naśladowanie odgrywa kluczową rolę w akumulacji wiedzy z pokolenia na pokolenie bo raz wypracowana wiedza nie musi być wymyślana od nowa.

      Sztuczna kreatywność - generowanie unikalnych treści o rozpoznawalnym znaczeniu bazujące na ewolucyjnym modelu kultury zakładającym że nowe idee i koncepcje nie powstają same z siebie a, podobnie jak ma to miejsce w ewolucji biologicznej, są one produktem mutacji i krzyżowania koncepcji wcześniej istniejących. Sztuczna kreatywność nie jest równoznaczna ze sztuczną sztuką bo sztuka jest treścią stworzoną w celach społecznych a GANy nie są agentami społecznymi (ta definicja sztuki jest durna bo wynika z niej że nawet jeżeli obraz wygenerowany przez GAN jest co do piksela identyczny jak dzieło sztuki to nadal nie jest on dziełem sztuki bo nie został stworzony w celu społecznym).

    •  

      pokaż komentarz

      @Xyyyyyz: wiem, jak działają sieci neuronowe. I co, sądzisz, że to jest szczyt ewolucji SI?

    •  

      pokaż komentarz

      Podkreślam to że inteligencja jest zjawiskiem statystycznym bo wiele osób twierdzi że mistyczny pierwiastek inteligencji ukryty jest w materii ożywionej, organicznej i zarezerwowany tylko dla niej.

      @AdireQ: Może tak być. Układy biologiczne mają tę ciekawą własność, że są niezwykle skomplikowane(w pojedynczym neuronie biologicznym zachodzą miliardy reakcji chemicznych) co prowadzi do powstawania w nich nieprzewidywalnych mutacji i struktur. Być może okaże się kiedyś, że aby wbudować w system autentyczną inteligencję trzeba zbudować go nie tylko na podobieństwo układów biologicznych, ale ponadto z zachowaniem niezwykłych własności tychże, co w praktyce będzie oznaczać, że taki system nie może działać na "sztywnych" układach elektronicznych.

  •  

    pokaż komentarz

    Zawsze w kwestii AI zastanawia mnie jedna sprawa, a mianowicie cel.

    My, ludzie już w kodzie genetycznym mamy zaprogramowane przez naturę to, że chcemy przetrwać, rozmnażać się. Na wyższym poziomie umysłowym zaczęliśmy zadawać pytania w stylu "jaki jest sens istnienia?" i jeżeli jestem na bieżąco, to nie licząc naturalnych potrzeb (tych samych, którymi kierują się zwierzęta) to nie ma takiego obiektywnego sensu.

    Przechodząc do sedna, jeżeli nie wgramy sztucznej inteligencji pewnego celu, to czym będzie się kierować podejmując działanie?

    A może istniejące sztuczne inteligencje wydają się nie działać, a po prostu już doszły do tego, że istnienie nie ma sensu i nie wykazują aktywności?

    A może istnieje obiektywny sens w istnieniu, ale jesteśmy zbyt ograniczeni, żeby go dostrzec i zrobi to AI?

    •  

      pokaż komentarz

      My, ludzie już w kodzie genetycznym mamy zaprogramowane przez naturę to, że chcemy przetrwać, rozmnażać się.

      @Mahapralaja: Przede wszystkim to mamy tam zaprogramowaną potrzebę posiadania celu ;) Równie dobrze moglibyśmy jej nie mieć. Nihilizm to całkiem popularna filozofia życiowa wielu osób.

    •  

      pokaż komentarz

      Przechodząc do sedna, jeżeli nie wgramy sztucznej inteligencji pewnego celu, to czym będzie się kierować podejmując działanie?

      @Mahapralaja: Zakłada się że inteligencja nie istnieje bez celu bo inteligencja to zdolność do realizacji posiadanego celu - proces uczenia się jest ukierunkowany na dany cel, w naszym przypadku biologiczny. W świadomości społecznej popularne jest stwierdzenie że "prawdziwa inteligencja" to taka która sama sobie określa cele jednak jest to mocno zakrzywiony obraz inteligencji zbudowany na przekonaniu że ludzie są zdolni do określania celów swojego istnienia (podczas gdy w rzeczywistości cele które stawiają sobie ludzie są jedynie celami instrumentalnymi - strategiami dążenia do celu głównego).

      źródło: youtube.com

    •  

      pokaż komentarz

      czym będzie się kierować podejmując działanie?

      @Mahapralaja: "ciekawością", samą możliwością dalszego rozwoju, potrzebą zdefiniowania/poznania praw natury, potrzeba samodoskonalenia aby osiągnąć maximum (którego chyba nie ma) a więc rozwój jest nieskończony (dąży asymptotycznie)

      to nie licząc naturalnych potrzeb (tych samych, którymi kierują się zwierzęta) to nie ma takiego obiektywnego sensu

      @Mahapralaja: Patrz wyżej. Do przetrwania wystarczyłby rozwój na poziomie zbieractwa.

    •  

      pokaż komentarz

      @Mahapralaja: No i właśnie, ludzie tworzą taką sztuczną inteligencję aby przetrwać. Zasadniczo przetrwać oznacza tyle, że trzeba się ciągle rozwijać, tak aby inny Cię nie wyprzedził.
      Zatem z jednej strony patrząc personalnie ktoś tworzy rozwiązania AI aby przetrwać -> po prostu je sprzedaje, albo inaczej na nich zarabia dzięki czemu może żreć, ruchać itd. takie rozwiązania to np. wyszukiwarka internetowa, algorytmy ustawiające mapę, translator, czy komputer sterujący pracą silnika samochodowego.

      Człowiek ciągle ryzykuje swoje życie, aby nie dać się wyprzedzić, przetrwać itd. np. Każdy zawód, który jest niebezpieczny. tj. praca w kopalniach, na morzu, głębokie wykopy ( ͡º ͜ʖ͡º) i wiele innych. Zatem tworzenie tej sztucznej inteligencji być może z jednej strony jest ryzykowne, ale w istocie można to bardzo spłaszczyć i porównać do innych ryzykownych czynności, które w efekcie mają pozwolić przetrwać.

      Idąc dalej, człowiek w bardzo odległej przyszłości, będzie potrzebował pewnie kolejnych planet. A ogarnięcie kosmosu z AI będzie pewno łatwiejsze.

      W mojej ocenie AI oparta wyłącznie na informacjach, będzie mogła opierać się na danych i w efekcie tylko produkować teorie, której implementacją będą zajmować się ludzie. Będzie też prosić człowieka o wykonanie jakichś badań i podania ich wyników -> człowiek stanie się tylko zasobem, który dostarczy brakujące dane.

      AI może sterować systemami do których dostanie fizyczny dostęp, który będzie można w każdej chwili odłączyć.

      Sztuczna inteligencja to tylko przetwarzanie informacji. Myślę, że bez pomocy człowieka AI bardzo długo nie będzie mogło skorzystać z zasobów ziemskich. Wydobywanie surowców, obsługa procesów, budowa maszyn to jest bardzo niedostępne dla tranzystorów.

      Nie wyobrażam sobie, aby komputer wstał, poszedł na kopalnie wydobyć rudy metali, potem zaszedł z tym do huty, przetworzył i zbudował czołg, który zniszczy ludzkość. Nie zrobi tego bez pomocy człowieka.

    •  

      pokaż komentarz

      @Mahapralaja: Dlatego moim zdaniem ta osobliwość nie nastąpi.

      Nie potrafimy ożywić materii, nie potrafimy stworzyć ducha w maszynie.

      Te tak zwane SI nie są niczym więcej jak zaawansowanymi kalkulatorami.

      Jasne - potrafią robić niektóre rzeczy lepiej niż ludzie. Nadal jednak my narzucamy im zasady.

      Kalkulator w rękach orangutana byłby bezużyteczny.

      Podobnie jest z SI, jeśli nie wiesz jak z niej skorzystać to do niczego ci się nie przyda....

    •  

      pokaż komentarz

      Przechodząc do sedna, jeżeli nie wgramy sztucznej inteligencji pewnego celu, to czym będzie się kierować podejmując działanie?

      @Mahapralaja: Mhm, dokładnie tak. Ludzie zdają się bezwiednie przyjmować chociażby, że instynkt przetrwania jest nierozerwalny z intelektem (stąd pomysły, że AI będzie się bronić przed możliwością wyłączenia go przez ludzi itp) - tymczasem jest to wykształcony ewolucyjnie schemat behawioralny, którego przecież wcale nie musimy umieszczać (właściwie to po co mielibyśmy) w intelektach tworzonych sztucznie od zera. A skoro my go tam nie umieścimy, to skąd ma się tam wziąć? Przecież to nie na instynktach nam zależy, lecz na 'czystej' inteligencji abstrakcyjnej.

      Czy może jednak można zagwarantować, że AI będzie bezpieczne? Jeżeli będzie można jakiś cel określić, to wykorzystać to i takim ustanowić... dobro człowieka. Trzeba by tylko być bardzo ostrożnym przy definiowaniu tego pojęcia ; )

      "ciekawością", samą możliwością dalszego rozwoju, potrzebą zdefiniowania/poznania praw natury, potrzeba samodoskonalenia aby osiągnąć maximum (którego chyba nie ma) a więc rozwój jest nieskończony (dąży asymptotycznie)

      @stop_tvp: to również są tendencje percepcyjno-behawioralne wykształcone u człowieka ewolucyjnie i niekoniecznie (a wręcz niemalże na pewno nie) mające uzasadnienia istnienia u AI, chyba że, ponownie, sami je wtłoczymy. Autodoskonalenie jeszcze ma jakiś sens, ciekawość świata niezbyt (chyba że nie byłby to instynkt, co abstrakcyjny wniosek, narzucony sobie schemat w obrębie dążenia do wykonania przyjętych zadań itd)

    •  

      pokaż komentarz

      Czy może jednak można zagwarantować, że AI będzie bezpieczne? Jeżeli będzie można jakiś cel określić, to wykorzystać to i takim ustanowić... dobro człowieka. Trzeba by tylko być bardzo ostrożnym przy definiowaniu tego pojęcia ; )

      @IamHater: ale co chcesz definiowac? Nawet jesli zdefiniujesz jakies poczatkowe warunki, to w momencie uzyskania samoswiadomosci SI sama bedzie sie definiowac i okreslac. Dla zabawy moze sie powielic w setkach wersji zeby zobaczyc ktory kierunek daje ciekawe efekty. Bedize nawet mogla prawdopodobnie sie zrestartowac definiujac sobie wczesniej wlasne warunki poczatkowe.
      Najpierw piszesz, ze zalezy nam na czystej inteligencji abstrakcyjnej, a potem piszesz o jakis zadaniach jakby miala byc realizacja czyjegos harmonogramu dnia. Jak dla mnie personifikujecie byt i jego potrzeby, a to z czlowiekiem nie bedzie mialo wiele wspólnego.

    •  

      pokaż komentarz

      Mhm, dokładnie tak. Ludzie zdają się bezwiednie przyjmować chociażby, że instynkt przetrwania jest nierozerwalny z intelektem (stąd pomysły, że AI będzie się bronić przed możliwością wyłączenia go przez ludzi itp) - tymczasem jest to wykształcony ewolucyjnie schemat behawioralny, którego przecież wcale nie musimy umieszczać (właściwie to po co mielibyśmy) w intelektach tworzonych sztucznie od zera. A skoro my go tam nie umieścimy, to skąd ma się tam wziąć?

      @IamHater: Z większością tego co napisałeś się zgadzam. Nie rozumiem jednak czemu nie przyjmujesz możliwości wykształcenia się celu instrumentalnego w postaci obrony przed wyłączeniem skoro akceptujesz możliwość powstania w ten sposób instrumentalnego celu ciekawości? Ciekawość może powstać samoczynnie bo jest ona efektywnym sposobem eksploracji środowiska sprzyjającym osiągnięciu celu. Skłonność do zachowania życia też może powstać samoczynnie bo dysponując odpowiednim modelem środowiska możesz przewidzieć że nie będziesz w stanie zrealizować swojego celu będąc martwym.

    •  

      pokaż komentarz

      @AdireQ: Ehh, podobne nieścisłości zawsze wychodzą przy takim improwizowanym gryzieniu tematu. Jasne, każdego rodzaju, nazwijmy to, tendencja behawioralna, może zostać przez AI przyjęta (jako logiczna strategia działania), włącznie z orientacją na konsekwencje własnego istnienia. Chodzi mi o to, że często przyjmuje się instynkt samozachowawczy jako niezbywalną cechę intelektu abstrakcyjnego, a tak nie jest. U człowieka przetrwanie jest celem samym w sobie, u sztucznego intelektu może być tylko jednym z protokołów z sieci konstruowanej wkoło właściwego celu działania , ale nie musi powstać, bo wystarczy, że będzie niezgodny z przyjętymi celami wyższego rzędu (np. poziom najwyższy, "dobro człowieka" - ponownie, pojęcie. które trzebaby dobrze określić - czy cokolwiek zostanie wtłoczone jako swoista "baza" AI).

      Może rozwinę jutro jak ja to widzę, na razie idę spać, bo temat na dziesiątki razy tyle, co powyższy akapit : (

    •  

      pokaż komentarz

      Nawet jesli zdefiniujesz jakies poczatkowe warunki, to w momencie uzyskania samoswiadomosci SI sama bedzie sie definiowac i okreslac

      @stop_tvp: Już wcześniej o tym napisałem i wrzuciłem film objaśniający. Ludzie myślą że ich samoświadomość jest jakąś magiczną zdolnością pozwalającą na zmianę swojego głównego celu. W praktyce samoświadomość jest tylko jedną z wielu umiejętności które pozwalają efektywniej realizować cel narzucony człowiekowi przez ewolucje. To co postrzegasz jako określanie celów swojej egzystencji w praktyce jest tylko planowaniem celów instrumentalnych, planowaniem strategii. Twoim niemodyfikowalnym celem głównym jest satysfakcja do której dążysz kierując się swoimi wrodzonymi preferencjami - czymś co lubisz bo lubisz.

      Jasne - potrafią robić niektóre rzeczy lepiej niż ludzie. Nadal jednak my narzucamy im zasady.

      @phervers: To samo co powyżej. Człowiek nie jest zdolny do modyfikowania swoich preferencji - nawet przeciwnie, chętnie je pielęgnuje. A to te wrodzone preferencje mają decydujący wpływ na podejmowane przez nas decyduje. Nasza wolna wola jest tylko na tyle wolna że pozwala nam na podejmowanie decyzji zgodnych z naszymi preferencjami.

      @IamHater: W takim razie zgoda. Warunkiem koniecznym do działania inteligencji jest posiadanie przez nią celu. U człowieka cel ten został wykształcony ewolucyjnie. U inteligencji sztucznej cel ten może być po prostu zadany w momencie utworzenia takiej inteligencji. W dyskusjach na temat sztucznej inteligencji często wspomina się o ludzkich celach wykształconych ewolucyjnie, bo jak widzisz powyżej, ludzie mają skłonność do uporczywego twierdzenia że człowiek takiego wrodzonego celu nie posiada i niczym jakaś mistyczna istota, sam wybiera sobie co będzie celem jego egzystencji.

    •  

      pokaż komentarz

      @Mahapralaja:

      Na wyższym poziomie umysłowym zaczęliśmy zadawać pytania w stylu "jaki jest sens istnienia?" i jeżeli jestem na bieżąco, to nie licząc naturalnych potrzeb (tych samych, którymi kierują się zwierzęta) to nie ma takiego obiektywnego sensu.
      Na szybko 3 cele ludzkości
      1. Zasiedlenie całego wszechświata naszym gatunkiem
      2. Zrozumienie genezy wszechświata
      3. Stworzenie AI przewyższającej naszą intelgencję

    •  

      pokaż komentarz

      @Mahapralaja: Fakt, każda współczesna AI jest celowa. Ale Super AI, którą nauczymy zadawać PYTANIA, sama będzie poszukiwała celu. To umiejętność zadawania właściwych pytań odróżnia bardziej inteligentnych od mniej inteligentnych.

    •  

      pokaż komentarz

      ludzie mają skłonność do uporczywego twierdzenia że człowiek takiego wrodzonego celu nie posiada i niczym jakaś mistyczna istota, sam wybiera sobie co będzie celem jego egzystencji.

      @AdireQ: Tak, przy czym jest to bardzo skomplikowany problem. Ja to widzę w ten sposób, że umysł człowieka jest w pewien sposób wielowarstwowy (przy czym wizja rozdzielnych warstw, gdzie kolejne są niezależnym dodatkiem do poprzednich, jest uproszczeniem) - intelekt, czyli analiza abstrakcyjna, jest najwyższą, ostatnią warstwą. I faktycznie, jesteśmy na tym poziomie podjąć decyzję sprzeczną z głębszymi motorami, ale nigdy nie potrafimy właściwie wyizolować samej inteligencji od tychże motorów. Dlatego powstanie prawdziwego AI będzie tak fascynujące i pozwoli lepiej zrozumieć nam samych siebie - w końcu obracamy się wokół tej ostatniej warstwy, której nadamy minimalną tylko (i co ważne, zrozumiałą i przejrzystą, w przeciwieństwie do naszej własnej) bazę hierarchii wartości i metodyk. Efekt może być niesamowity.

      Na szybko 3 cele ludzkości 1. Zasiedlenie całego wszechświata naszym gatunkiem
      2. Zrozumienie genezy wszechświata
      3. Stworzenie AI przewyższającej naszą intelgencję


      @SharpEdges: Och, to iluzja, tak samo jak iluzją jest istnienie celu ewolucji. Podane przez ciebie wyżej tendencje nie są celami, lecz konsekwencją naszych tendencji behawioralno-poznawczych. Cel jest konstruktem odgórnym, w którym element układu ma jakąś funkcję do spełnienia. Takiej roli istnienie człowieka wg OP istnienie człowieka nie wykazuje (i w pełni zgadzam się z takim stwierdzeniem), natomiast zauważone przez ciebie efekty mają genezę oddolną i są efektem właściwości zupełnie nie krojonych pod nic, powstałych na ślepo w wyniku selekcji naturalnej.

      Fakt, każda współczesna AI jest celowa. Ale Super AI, którą nauczymy zadawać PYTANIA, sama będzie poszukiwała celu. To umiejętność zadawania właściwych pytań odróżnia bardziej inteligentnych od mniej inteligentnych.

      @drack: My umiemy zadawać pytania, a jednak wciąż działamy celowo ; ) Zauważ, że intelekt abstrakcyjny musi mieć jakieś zadane początkowe hierarchie, inaczej żadne wartości nie będą dla niego lepsze od innych. Innymi słowy, bez swoistego celu, AI nie będzie robić niczego, bo co jej z zadawania pytań, skoro na żadne nie będzie odpowiedzi wyróżnionej spośród innych? Jak obrać sobie jakiś cel, skoro bez żadnego kontekstu wszystkie działania są pustymi ciągami przyczynowo-skutkowymi? Nie ma rzeczy absolutnie właściwych, a żeby czegoś chcieć, najpierw trzeba mieć jakąś koncepcję właściwości i ta zdaje się musieć posiadać element dogmatyczny, niemożliwy do osiągnięcia na drodze analizy przeprowadzonej z pozycji neutralnej. Tak to przynajmniej widzę.

    •  

      pokaż komentarz

      W takim razie zgoda. Warunkiem koniecznym do działania inteligencji jest posiadanie przez nią celu. U człowieka cel ten został wykształcony ewolucyjnie. U inteligencji sztucznej cel ten może być po prostu zadany w momencie utworzenia takiej inteligencji. W dyskusjach na temat sztucznej inteligencji często wspomina się o ludzkich celach wykształconych ewolucyjnie, bo jak widzisz powyżej, ludzie mają skłonność do uporczywego twierdzenia że człowiek takiego wrodzonego celu nie posiada i niczym jakaś mistyczna istota, sam wybiera sobie co będzie celem jego egzystencji.

      @AdireQ
      W tym przypadku obawy dotyczące zagłady nas przez AI zaczynają mieć swoje uzasadnienie. Przykładowo dając jako cel zwiększanie dobrobytu i szans przetrwania ludzkości ciężko spodziewać się, że prawdziwa sztuczna inteligencja nas zgładzi, bo przecież byłoby to sprzeczne. Gorzej jeżeli cel będzie bardziej przyziemny np. taki jak zniszczenie definiowanego przez każdego inaczej wroga (w tych czasach jest jeszcze niestety dużo ludzi dla których zdobycie kawałka "wrogiej" ziemi jest wielkim powodem do satysfakcji). Istnieje nadzieja, że twórcy będą równie wysoko rozwinięci moralnie jak umysłowo i nie pozwolą na to.

      Ciężko też przewidzieć co jest w stanie osiągnąć sztuczna inteligencja. Wiemy, że jej działanie jest ograniczone prawami rzeczywistości, w której mieliśmy szczęście/nieszczęście się znaleźć, problem w tym, że sami nie znamy tych praw. Dążę do tego, że jeżeli nie poznamy w pełni zasad rządzących naszą rzeczywistością (co prawdopodobnie nie jest wykonalne), to AI zawsze będzie dla nas ryzykiem. Jeżeli ludzie ją tworzący (bo o kontroli po stworzeniu ciężko mówić) będą kierowali się niższymi przesłankami jak pieniądze lub władza to nie wróży to niczego dobrego. Chciałbym jednak wierzyć, że jest inaczej, ale opierając swoją opinię na przeszłości to marność nad marnościami.

    •  

      pokaż komentarz

      Zawsze w kwestii AI zastanawia mnie jedna sprawa, a mianowicie cel.
      @Mahapralaja: biologicznie uwarunkowana chęć przetrwania jest tylko narzędziem. Uogólnijmy w maksymalnym zakresie i wyjdzmy od informacji. Zalozmy, ze podstawowym sensem informacji jest jej propagacja. Bo po co informacja istniejąca sama dla siebie w bycie zwanym osobliwością? Zatem do propagacji informacji niezbędny jest ośrodek (w szerokim rozumieniu „nasz wszechswiat” i rzadzace nim prawa oraz oczywiscie nadawca i odbiorca). Tak spełnimy postulat propagacji informacji i w spełnianiu tego postulatu zawiera sie rozwój życia od najprostszych form, aż po formy biologiczne obdarzone inteligencją. Z takiej perspektywy AI bedzie jednym z narzędzi przyspieszającym pewne procesy i niczym więcej - mysle, ze jej rozwój poza pewną granicę umożliwi rozwój ludzkości w zupełnie nieoczekiwanym dzisiaj kierunku. To tak jakbyś użył narzędzia, które ukaże Ci zupełnie nieoczekiwane perspektywy. W tym kontekście tzw. superinteligentna AI okaże sie potworem z bajek opowiadanych dzieciom w przyszłości :)

Dodany przez:

avatar RFpNeFeFiFcL dołączył
557 wykopali 21 zakopali 16.6 tys. wyświetleń