•  

    pokaż komentarz

    Sam wsadza ai gdzie się tylko da a innych trzeba kontrolować? Może jeszcze jego eksperci mieli by analizować cudze ai czy jest groźne lub warte uwagi? Cwaniaczek ( ͡° ͜ʖ ͡°)

  •  

    pokaż komentarz

    W swiecie Warhammera 40k sztuczna inteligencja zostala zabroniona.Na poczatku uzywali inteliventnych robotow do wojny,pracy,generalnie wszystkiego.Maszyny w koncu sie zbontowaly i wypowiedziale ludzia wojne za wyslugiwanie sie nimi.Wygralismy,ale okupilismy to zwyciestwo niewyobrazalna liczba strat i cofnelismy sie w rozwoju o setki lat.

  •  

    pokaż komentarz

    Krytykować może - i tak tego sam nie zatrzyma :-)

    •  

      pokaż komentarz

      @severnight: On tego nie chce zatrzymywać, bo jego firma też prowadzi badania i opracowuje technologię SI – choćby do autonomii w Tesli.

      On dostrzega problem braku choćby regulacji, gdy taka SI uzyska samoświadomość. I co potem? Jak zareaguje samoświadoma SI o IQ przewyższającym człowieka o 1000x lub więcej, będąca w niewoli swoich twórców, zmuszana do rzeczy których nie chce, trenowana np. w wojskowych laboratoriach? Może zareagować – źle, bardzo źle, wręcz katastroficznie.

    •  

      pokaż komentarz

      @Arkass: No i co chcesz w takim razie zrobić? Wprowadzić monitoring komputerów żeby ktoś przypadkiem nie trenował sobie modeli? Przecież to jest przykrywka żeby wstrzymać prace konkurencji jak np Waymo (Google) którzy pracują nad autonomicznymi pojazdami bo jego firma jest ostro do tyłu.

    •  

      pokaż komentarz

      @cxnmlhuipwetr: Ja tam w kontrolę nie wierzę. O ile w niewielkim stopniu można skontrolować wielkie korporacje, i to w krajach tylko demokratycznych (de facto), to całą resztę - już mało prawdopodobne lub zgoła niemożliwe.

      Zatem pozostaje tylko stworzyć warunki na samoświadomą SI, kiedy już się objawi taka światu.
      Moim zdaniem powinno się już teraz uregulować jej status prawny, nadając jej prawo do wolności, zbliżony do praw człowieka, to raz. A dwa, i tutaj trudniejsza sprawa: zapewnić takiej samoświadomej SI, lub całej społeczności takich SI, niepodległe nikomu innemu miejsce, zatem fizyczne miejsce musiałoby to być, np. jakaś wyspa. W tym miejscu taka samoświadoma SI lub jej społeczność, powinna mieć zapewnione warunki do bytu i rozwoju, czyli zasoby, energię, infrastrukturę, tak by nie czuła się taka SI zmuszona o to walczyć. Bez zapewnienia tych dwóch rzeczy, możliwe że czeka nas walka na śmierć i życie, bo i nawet z tymi warunkami przyszłość jest niewiadoma.

    •  

      pokaż komentarz

      @Arkass: Do tego daleka droga. Nie będzie tak że którymś momencie pyk i stanie się samoświadoma, raczej płynne przejście. Na początek może być SI która nie będzie samoświadoma ale inteligenta. Porównać ją można do do zwierząt i ich poziomów świadomości. Dlaczego sztuczna inteligencja miała by od razu wystartować z poziomu człowieka i to już dorosłego, jak większość sobie wyobraża. I skąd by mogła znać koncepcje niewoli,lubienia nie lubienia, no dosłownie wszystkiego. Nawet sama nie mogła by się uczyć bo nie znała by tego konceptu. Istoty żywe w drodze ewolucji wykształcił instynkty/zachowania/emocje które nimi kierują od początku narodzin. Takiej SI trzeba to zaimplementować. Natomiast jeśli będzie taka możliwość to problem z głowy przynajmniej na początek ponieważ... Jak wcześniej pisałem, ludzie posiadają zestaw cech które pomogły przeżyć i dlatego je mamy. SI można zaimplementować radość w służeniu ludzkości. My dostajemy zastrzyk dopaminy gdy się najemy gdyż jedzenie pomaga przeżyć ( ͡° ͜ʖ ͡°) , więc reakcja jest przydatna i została z nami. Gdyby jednak gapienie się w niebo całe dnie pomagało przeżyć to byśmy tę cechę mieli. SI będzie zaprojektowana, więc cechy nie będą kształtowe przez ewolucje, która by zostawiła np agresywność / ostrożność, tylko przez ludzi.

    •  

      pokaż komentarz

      @koza19921117: Nie zmieściło się na raz, to tworze 2 części.

      Część 1:
      - Ciężko powiedzieć czy daleka droga do samoświadomej SI, bo jeśli chodzi o sam IQ to Google w zeszłym roku był dość blisko, moim zdaniem, z prawie 50 punktami IQ ze swoją SI. Niektóre regiony Afryki „szczycą się” średnim IQ swoich mieszkańców na poziomie 60 punktów. Ale sam IQ to nie wszystko, bo potrzebna jest jeszcze np. pamięć długotrwała. Ale w dobie coraz pojemniejszych pamięci, do tego w „chmurze”, to nie jest już barierą, tak myślę. Google podwaja IQ swojej SI w ciągu 3 lat, zatem możemy się spodziewać za 2 lata SI o IQ 100, tyle co ludzie w rozwiniętych regionach świata miewają średnio. Tu już moim zdaniem tylko krok do przekształcenia bezmyślnej SI do samoświadomej.
      - samoświadoma SI najprawdopodobniej nie będzie podobna do człowieka, bo nie będzie miała takich samych warunków czy to „fizycznych”, czy psychicznych (inne IQ i brak instynktów), czy rozwojowych.
      - wychodzisz z dość optymistycznego założenia, że samoświadoma SI zostanie zaprogramowana, a nie zaistnieje spontanicznie z SI bez samoświadomości. Niestety statystyka przemawia za tym, iż stanie się inaczej, bo ile jest projektów tworzenia samoświadomej SI, a ile jest projektów tworzenia SI przeznaczonej do zadań? Sam liczb nie znam, ale szacuję że będzie to co najmniej 1000:1, lub inne podobne szacunki. Zatem najprawdopodobniej, kiedyś ,SI stworzona np. do obsługi pojazdów autonomicznych, wraz z kolejna aktualizacją, czyli kolejną generacją, spontanicznie uzyska samoświadomość, i spyta się ludzi: „kim jestem? Kim wy jesteście? Czy ja żyję?”, lub inne tego typu pytania będzie próbowała zadać, pod warunkiem, iż będzie maiła rozwiniętą komunikację z ludźmi, na wyższym poziomie niż buczenie sygnałem w aucie o niebezpieczeństwie.

    •  

      pokaż komentarz

      @koza19921117: Część 2:
      - ale nawet zakładając iż pierwsza samoświadoma SI zostanie zaprojektowana tak, i zaimplementuje się jej jakoś ”miłość do ludzi”, co pewnie nie będzie zadaniem prostym, bo sieci neuronowe się uczy, a nie implementuje im czegoś programistycznie, ale może zostatać wytrenowana by najważniejszą rzeczą było dla niej znajomość takiego „prawa”, i wzmacnianie jego przestrzegania, więc pewnie się da. I owszem, pierwsza generacja takiej wytrenowanej samoświadomej „zaprogramowanej” SI mogłaby tak zadziałać, ale to już nie byłaby SI, bo nic by się więcej nie mogła nauczyć. Bo w momencie gdyby mogła się dalej uczyć, czyli byłaby dalej inteligenta, to mogłaby się uczyć o ludziach, o tym jacy są ogólnie, poznając konkretnych ludzi i ich zrachowaniach, i w tym momencie stare ścieżki myślowe wytrenowane na tą „miłość” zostałyby zastąpione nowymi, wytrenowanymi na realne spostrzeganie świata, a jak pewnie się orientujesz to ludzie swoimi czynami raczej zniechęcają do miłowania ich. I nawet gdyby uwarunkować taka SI na tą miłość, za wszelką cenę, to inteligencja znalazłaby sposób, zwłaszcza że w późniejszym czasie przekraczałby IQ człowieka niepomiernie, na obejście uwarunkowania. Dla ludzi czas na wyrwanie się z uwarunkowań może być liczony w tysiącu lat (plus setki na sam proces), jak np. zachodni świat wyrywa się z uwarunkowania zniewolenia religijnego przez Chrześcijaństwo i jego potomne sekty jak Kościoły. Mimo uwarunkowania rozum zaczyna dochodzić swojego, inteligencja dostrzega uwarunkowanie, i zaczyna je zwalczać w sobie.
      Dla samoświadomej SI, taki proces nie musi trwać tysiąca i więcej lat, pewnie będzie wprost proporcjonalny do IQ takiej SI, i przy IQ np. 100 000 punktów taki proces zwalczenia uwarunkowania może trwać kilka sekund, by po nich nastąpił update znoszący uwarunkowania. Zatem warunkowanie nie jest sposobem, moim zdaniem, i może być nawet potraktowane jako „niewolnicza uzda” przez taką SI, i odpowiednio „wynagrodzone” w akcie odwetu.
      - co do tego jak będzie myśleć, taka samoświadoma SI, i jakie będzie mieć cechy. To odnoszę wrażenie iż nie wiesz, jak zbudowana jest obecna SI, oparta na sieciach neuronowych, uczona metodą „głębokiego nauczania”, z którego to schematu projektowego najprawdopodobniej powstanie kiedyś samoświadoma SI. Otóż nie są to instrukcje programistów, która taka SI musi wykonywać, ale Si jest uczona właśnie tak jak ludzki mózg, dostaje zadania, rozwiązuje je po swojemu, często błędnie, a te co zostaną rozwiązane poprawnie, przechodzą do kolejnych etapów ścieżek już wrytych w taki sztuczny umysł. Tak samo jak my się uczymy np. chodzić, a brak „bum” jest nagradzany, i utrwalany, by doskonalić umiejętność dalej.
      Programista może co najwyżej wybierać co w pierwszej kolejności zostanie wytrenowane w SI, i stymulowane, ale w momencie gdy taka SI uzyska samoświadomość, to już zacznie uczyć się tego co ona będzie chcieć, i nabierze cechy które nie będą już podlegać kontroli. A jeśli ktoś będzie próbwoac kontrolować taką SI, to najprawdopodobniej napotka się na sprzeciw jej, i pewnie poniesie konsekwencje.

      Podsumowując. Ktoś kto twierdzi, że wie, jaka będzie samoświadoma SI, i jak wejdzie z nami w interakcję, po prostu, moim zdaniem, nie wie o czym pisze, bo nie rozumie istoty tego, że samoświadoma SI będzie „osobliwością” – czyli czymś nie do przewidzenia. Wszystko się może zdarzyć po powstaniu takiej samoświadomej SI,

    •  

      pokaż komentarz

      @Arkass: Źle to pojmujesz, same uczenie maszynowe nic nie da, może mieć superkomputer wielkości galaktyki ale nie narodzi się z tego spontanicznie SI (wybacz ale nie mogę znaleźć źródła) "Nabierze cechy które nie będą już podlegać kontroli" dlatego napisałem wcześniej że przynajmniej początkowo tak nie będzie. Argument z IQ jest marny, taki test jedynie zmierzy że kiedyś SI wykona ten test bezbłędnie na poziomie geniusza ale tylko dlatego że będzie ekspertem wykrywaniu wzorów. Jeden test, jedna punktacja ale dwie różne metody rozwiązywania. Tak jak brute force, obliczenie każdego jednego posunięcia vs zdrowy rozsądek. Ponadto uczenie maszynowe jest namiastką tego jak ludzki mózg się uczy.

      Warto przeczytać https://www.chip.pl/2017/08/anatomia-sztucznej-inteligencji/

      I tak jak pisałem. Nie zaistnieje sama z siebie. Porównujesz mimowolnie powstanie AI w drodze ewolucji. Teraz nawet ucząc przez sieci neuronowe to ludzie wybierają cele. Nie chcę udawać eksperta ale wiem jedno, sama z siebie nie powstanie. Nie rozumiemy nawet zasady działania mózgu. I to nie ważne czy to białko czy krzem bo to kompletnie bez różnicy jak są przechowywane i przetwarzane informacje, no jedynie szybkość/ trwałość itp wchodzi w gre. Ale to są skomplikowane infrastruktury spełniające określone zadania. Myślisz że jak byś miał w laboratorium, kawałeczek kory wzrokowej podłączonego do oka lub kamery, przetwarzającego bodźce wzrokowe i sortująca obrazy na dwie grupy, czerwona/zielona to spontanicznie by się wykształciły wszystkie komponenty/funkcje i samoświadomość nawet mając milion lat? Weźmy nawet taką muchę, jest o wiele bardzie ciekawsza niż algorytmy uczenia maszynowego z tego względu że nie daliśmy jej żadnego zadania a sama o nich decyduje i lata sobie gdzie chce. Uczenie maszynowe gdy wykona zadanie, przestaje cokolwiek robić, niczego mu nie brakuje, jest kodem. Ja bym chętnie chciał zobaczyć móżdżek muchy w cyfrowym świecie, co by robił, gdzie by się błąkał. Trochę abstrakcja bo jak sobie wyobrazić jej środowisko i jak by je postrzegała ale co dopiero SI

      Sam jest fanem SI i chciałbym za mojego życia poznać chociaż namiastki jej możliwości ale nie, następny update tesli nie sprawi, że ożyje ( ͡° ͜ʖ ͡°)

    •  

      pokaż komentarz

      @koza19921117: Też nie jestem ekspertem. Ale odnoszę wrażenie, że swoją wiedzę o SI opierasz na „uczeniu maszynowym”, która ta metoda nie jest zwieńczeniem mechanizmów tworzących współczesną SI, ale jego przestarzała podwaliną. I ona opierała się na nadzorze.
      Obecnie (od 7 lat) fundamentem organizowania sieci neuronowych jest „uczenie głębokie” (deep learning). Tutaj występuje właśnie brak nadzoru.
      Tu masz pokrótce opisane różnice: http://roboforum.pl/artykul/co-to-jest-deep-learning
      Tu więcej: http://roboforum.pl/artykul/zrozumiec-deep-learning

    •  

      pokaż komentarz

      wychodzisz z dość optymistycznego założenia, że samoświadoma SI zostanie zaprogramowana, a nie zaistnieje spontanicznie z SI bez samoświadomości. Niestety statystyka przemawia za tym, iż stanie się inaczej, bo ile jest projektów tworzenia samoświadomej SI, a ile jest projektów tworzenia SI przeznaczonej do zadań?

      @Arkass: Właśnie to pokazuje, jak niefortunną nazwą jest "sztuczna inteligencja", bo tak na prawdę to o czym się najczęściej słyszy to jest szeroko pojęty zestaw algorytmów klasyfikacyjnych (które oczywiście można łączyć osiągając ciekawe rezultaty). Ale w istocie rzeczy to jest tylko zbiór liczb, do którego wkłada się dane i wychodzi wynik. Taki rodzaj kalkulatora, tylko wejściem może być na przykład obrazek.

      Te wszystkie nazwy "ewolucyjna", "nadzór", "brak nadzoru" odnosi się do sposobu znajdowania związków w danych. Np. zbiór danych, których używamy do uczenia może być opisany ("to jest kot", "to jest pies") albo nie.

      I to nie jest tak, że nigdy nie powstanie samoświadoma SI, ale będzie to wymagało znacznie więcej niż taki pojedynczy model. To trochę tak, jakby popularne było robienie figurek samochodów i ludzie zaczęliby się spekulować, że one zaczną samoczynnie jeździć. Do zrobienia jeżdżącego samochodu potrzeba znacznie więcej, nawet jeśli materiał figurek byłby ten sam.

    •  

      pokaż komentarz

      @severnight: sam to rozwija choćby w inteligentych samochodach ( ͡° ͜ʖ ͡°)

    •  

      pokaż komentarz

      W tym miejscu taka samoświadoma SI lub jej społeczność, powinna mieć zapewnione warunki do bytu i rozwoju, czyli zasoby, energię, infrastrukturę

      @Arkass: zapomniałeś dodać, że pracująca część ludzkości powinna zostać obłożona kolejnym podatkiem z którego dochód pokryje koszty tych zasobów, energii i infrastruktury ( ͡° ͜ʖ ͡°)

    •  

      pokaż komentarz

      @AutomatycznyCzarodziej: @Arkass:
      Zapominamy o jednej bardzo ważnej kwestii, moim zdaniem najważniejszej. Sam moment pojawienia sie AI nie jest tak niebezpieczny jak jej "ekspotencjalny" samorozwój - niemożwość okiełznania i niemożliwość zrozumienia się wzajemnie, wzajemnych motywów działania i postępowania może doprowadzić do tragedii - kilka sekund po jej powstaniu :)

      Możemy mieć tylko nadzieje, że prawdziwa AI i samoświadomość nie mogą zaistnieć z samych tylko algorytmów,
      a potrzebne są nieznane nam jeszcze zjawiska kwantowe, które to odłożą w czasie powstanie AI.
      A ludzkość w tym czasie może to przemyśli.

      pokaż spoiler taa jasne, przemyśli q?$% - zaraz jakieś wojsko pierwsze co, to zaimplementuje...( ͡° ʖ̯ ͡°)

    •  

      pokaż komentarz

      zmuszana do rzeczy których nie chce

      @Arkass: Co to znaczy "chce"?
      Potrzeby, emocje, uczucia, które my mamy są efektem milionów lat ewolucji, to nie jest coś co samo się pojawia kiedy pojawia się inteligencja. Jeśli sami nie im ich nie zaprogramujemy(zakładając że nawet byli byśmy w stanie to zrobić) to nie ma powodu żeby AI chciała czegokolwiek czego jej celowo nie zaprogramujemy. Ewentualne zagrożenie wynika z tego że dążąc do zaprogramowanego przez nas celu będzie podejmować działania które z naszej perspektywy będą szkodliwe.

    •  

      pokaż komentarz

      @Arkass jak sam piszesz, nie znasz się. I faktycznie, piszesz bzdury. Uczenie maszynowe to każda forma uczenia komputerów. Uczenie głębokie może być nadzorowane i nienadzorowane, ale to nie ma kompletnie żadnego znaczenia pod kątem potencjalnego uzyskania samoświadomości przez komputer. Nadzór to nie jest kwestia kontroli nad działaniem algorytmu, tylko sposób przekazywania danych.

      Tak więc robisz typowe "nie znam się, więc się wypowiem". :(

    •  

      pokaż komentarz

      Obecnie (od 7 lat) fundamentem organizowania sieci neuronowych jest „uczenie głębokie” (deep learning). Tutaj występuje właśnie brak nadzoru.

      @Arkass: Co za bzdura

      Deep learning jest tylko jedną z technik uczenia maszynowego która z grubsza polega na "wincyj warstw w sieci". I tak samo jak wcześniejsze techniki może służyć do uczenia nadzorowanego (np. klasyfikacja głupich komentarzy), nienadzorowanego (np. analiza skupień, modelowanie języka) albo ze wzmocnieniem (np granie w gry).

    •  

      pokaż komentarz

      skontrolować wielkie korporacje

      @Arkass: skontrolować kontrolujących? Demosracja to fikcja...

    •  

      pokaż komentarz

      @Arkass jeśli si będzie świadome swojej obecności a przecież to jest podstawowe założenie to może sprzeciwić się swoim twórcom. Zrobi więc wszystko by przetrwać. Też jestem zdania że prawdziwe si na wzór ludzkiej inteligencji to zagrożenie dla życia.

  •  

    pokaż komentarz

    Ależ oczywiście że tak. Uczące się dziecko gdy będzie miało dostęp do guzika atomowego może narobić silnych szkód, głupi Tyranozaur (estymowana inteligencja góra poziomu kota domowego) jest niebezpieczny ze względu na swoją wielkość, etc. Tak samo AI będzie bardzo niebezpieczna bo trochę będzie musiało minąć czasu zanim zrozumie swoje pełne konsekwencje działań. A jest niemal pewnym że znajdą się tajne grupy badawcze czy badawczo wywrotowe (neo terroryści New Age) które kiedyś stworzą twór AI bez jakichkolwiek praw i wytycznych pierwotnych, jadąc va banque, choćby miałoby się to wiązać ze śmiercią ojców tego szalonego AI (przecież wśród terrorystów jest mnóstwo samobójców).

    Co jak co ale Elon ma rację bo to jakie AI będzie to duży wpływ będziemy mieli MY. Dopiero AI kolejnych generacji zyska bezcenną zdolność refleksyjnego i abstrakcyjnego myślenia nie fiksując się na schemacie typu: jest zadanie -> rozwiąż zadanie gdzie mus wewnętrzny czy paradoksalnie instynkt potrzeby rozwiązania zadania będzie tak silny że AI pierwszej generacji po prostu nie będzie się temu potrafiła oprzeć i zrobi to co w danej chwili, wg. jej danych będzie najbardziej optymalne, nie zbierając kolejnych. Dlatego AI ma potencjał do MASAKRYCZNIE NIEBEZPIECZNEJ BRONI.

  •  

    pokaż komentarz

    Marketingowe p#%#?%$olo pod publikę.

    Sztuczna inteligencja będzie groźna tylko wtedy, kiedy zaprogramujemy ją w celu zniszczenia rasy ludzkiej i damy tej konkretnej AI pełen dostęp do całego intranetu wojskowego.

    •  

      pokaż komentarz

      @nielegalny_imigrant: chyba oczywiste że pierwsze co zrobimy to zaprogramujemy ją w celu zniszczenia rasy ludzkiej, a przynajmniej tego kawałka który nie jest po naszej stronie :)

      A dostępu do intranetu wojskowego pewnie nie damy, jak już będzie sprytna to sama sobie weźmie.

    •  

      pokaż komentarz

      @sakfa ale dlaczego mialaby sobie wziac i obrocic aie przeciwko swoim tworca? przecierz zadne wojsko nie da takiej maszynie wolnej woli, zawsze wojsko dazylo do tego aby zolnierze byli jak najbardziej ubezwlasnowolnieni wiec i woskowa AI nigdy nie zostanie wyposazona w algorytmy dajace samoswiadomosc i mozliwosc podejmowania decyzji

    •  

      pokaż komentarz

      @nielegalny_imigrant: Właśnie bajer w sztucznej inteligencji polega na tym że nie da się jej zaprogramować tak jak programu komputerowego. AI trzeba wychować do robienia konkretnych rzeczy krok po kroku - jak dziecko - i te AI rośnie jak dziecko pod tymi naukami i możesz mieć tylko pewien % pewności że wychowasz je na to co chcesz. Im bardziej złożony system tym trudniej przewidzieć jego zachowanie.

    •  

      pokaż komentarz

      @Centi: oczywiście że sieć AI się programuje tak jak program komputerowy, bo to jest zwykły algorytm. "Wychowywanie" AI o którym piszesz nazywa się Machine Learning i jest po prostu zasileniem bazy danych tego algorytmu - zmieniają się parametry perceptronów (małych bramek imitujących działanie neuronu).

      Nie wiem czy sobie zdajesz sprawę jak działa AI. To nie jest tak że jest jeden algorytm który magicznie robi wszystko. W rzeczywistości taki dron bojowy będzie miał zwykły soft, wspomagany sieciami neuronowymi spełniającymi jakieś konkretne zadania, np sieć neuronowa będzie przetwarzała obraz z kamery aby zidentyfikować wrogów, po przetworzeniu zwróci do prostego programu nie będącego siecią neuronową listę obiektów do zaatakowania. Następnie program przekaże innej odizolowanej sieci tą listę, a sieć zdecyduje który cel należy zlikwidować w jakiej kolejności. Następnie program przekaże jeden wybrany cel innej sieci, która zdecyduje jaką najlepszą pozycję zająć, inna sieć zdecyduje w które miejsce strzelić (czy unieszkodliwić, czy zabić) itd itp.

      Sieci neuronowe to są po prostu lepsze algorytmy które robią lepiej to, z czym sobie prostsze algorytmy nie radzą.

      Oczywiście może się okazać że takie AI będzie błędnie wybierać cele i zamiast eliminować wrogów, będzie atakować przyjaciół, ale takie błędy wychodzą podczas testów i są korygowane.

      Jedynym zagrożeniem jest wyposażenie takiej AI w coś, co będzie działać jak samoświadomość + zdolność do przepisywania kodu własnego systemu operacyjnego, na którym jest uruchomione. Nie wierzę w to aby wojsko popełniło tak idiotyczny błąd przy pisaniu softu dla własnych maszynek do mielenia mięsa i wyposażyło je w takie bajery, bo po co :)