•  

    pokaż komentarz

    Dobrze, że się nie nauczyły budować ogrodzeń dookoła poszukiwaczy

  •  

    pokaż komentarz

    Przy odpowiednio sprawnym komputerze SI zawsze wygra z człowiekiem. Przerobi miliard miliardów możliwości, wyselekcjonuje najlepsze, a potem tę wiedzę wykorzysta. Człowiek nie ma takich możliwości.

    Inna sprawa, że to oszustwo z punktu widzenia człowieka. Bo SI przerabia więcej materiału, czyli jakby miała więcej czasu na naukę, a u człowieka ten czas jest mocno ograniczony.

    Ciekawie wygląda rywalizacja tego typu, że człowiek i SI przerabiają ten sam materiał, a potem rywalizują. Czyli taki test sprawności uczenia się dla SI i porównanie tego z predyspozycjami ludzkimi.

    •  

      pokaż komentarz

      @Tolstoj-kot:
      Przy odpowiednio sprawnym komputerze SI zawsze wygra z człowiekiem
      Taaa, SI sie kończy jak trzeba iść do sklepu po chleb i pól kilo mielonego.

    •  

      pokaż komentarz

      @Tolstoj-kot:

      SI zawsze wygra z człowiekiem

      Póki mamy TO, nic nam nie grozi ( ͡° ͜ʖ ͡°)

      źródło: Przechwytywanie.PNG

    •  

      pokaż komentarz

      @Tolstoj-kot: W społeczeństwie zawsze są sprzedajne jednostki. Człowiek zostanie zdeklasowany do pozycji zwierzęcia produkującego energie lub pilnującego stabilności energii. Bedą walki o bycie przy energii. Niestety człowiek w porównaniu z robotem będzie w tej roli niezastąpiony. Bo wystarczy że wgra mu się do głowy soft o walkę dla jakiegoś dobra zaoferuje rośliny i wode, bedzie to działać. Roboty wszystkiego nie są w stanie zrobić i będzie je trzeba ładować.

    •  

      pokaż komentarz

      Komentarz usunięty przez moderatora

    •  

      pokaż komentarz

      @NeverOn: Chodzi o zdolność "uczenia się" rozwiązywania nowych problemów, tzn. zdolności adaptacyjne, nauka pomysłowości w takich sytuacjach. Nie o to, kto ile przeczyta i na jakim poziomie zapamięta tekst. XD

    •  

      pokaż komentarz

      Komentarz usunięty przez moderatora

    •  

      pokaż komentarz

      @NeverOn: Nadal się nie rozumiemy. Mi chodzi o test sprawności SI, ale polegający na tym:

      Masz symulator samolotu F-16. Człowiek uczy się latać przez 10 godzin. SI uczy się przez 10 godzin. W tym samym tempie tzn. bez metody miliona prób. I porównanie zdolności. Bo do tego to jeszcze daleko, żeby była lepsza.

      Póki co to masz algorytm i metodę prób i błędów, tworzącą kolejne generacje, coraz to lepsze. To jest taki brutal force, że przerabia milion możliwości, rezygnując z tych prowadzących do błędu. A mi chodzi o taki test sprawności SI, że bez brutal force, że uczy się, ale na zasadzie wyobraźni i przewidywania, a nie miliarda powtórzeń. XD

    •  

      pokaż komentarz

      @Tolstoj-kot: a powiem że tak nie jest, AI ma przewagę tylko w grach skończonych, jednocześnie w grach takich jak minecraft czy innych sandboxach niemal na pewno by zwariowało i się gliczowało

    •  

      pokaż komentarz

      @NeverOn 2 letnie dziecko potrafi sie nauczyć wierszyka o "jedzie pociąg", wiec nie p!@?!!$

    •  

      pokaż komentarz

      Póki co to masz algorytm i metodę prób i błędów, tworzącą kolejne generacje, coraz to lepsze. To jest taki brutal force, że przerabia milion możliwości, rezygnując z tych prowadzących do błędu.

      A mi chodzi o taki test sprawności SI, że bez brutal force, że uczy się, ale na zasadzie wyobraźni i przewidywania, a nie miliarda powtórzeń

      Człowiek uczy się latać przez 10 godzin.

      @Tolstoj-kot: Nie wiesz o czym piszesz, a skad czlowiek ma te przewidywania i wyobraznie? wprowadz czlowieka z afrykanskiego buszu, posadz przed linuxem i odpal starcrafta nie mowiac mu nawet ze jedzenie dostanie dopiero jak wygra mecz
      zobaczymy jakie bedzie mial przewidywania i wyobraznie

      Problem twojego rozumowania polega na tym, ze scierasz maszyne ktora ma 0 danych na temat tego co ma robic, jak, czym i po co

      z czlowiekiem ktory siada do tego samolotu, wie ze to samolot, ze kolorowe kulki to przyciski i przelaczniki, zna podstawy fizyki i idee samolotu, wie ze chce sie nauczyc to pilotowac itp

      bo czlowiek zbieral doswiadczenie przez 20 lat zeby wsiadajac do samolotu na 1 lekcji zrobic to z instruktorem, wiedzac o podstawach fizyki, podstawach obslugi urzadzen, komputera itp

      gdyby cie tryzmac 10 lat w piwnicy a pozniej wpuscic do samolotu to tez wciskal bys wszystko byle jak bo bys nawet nie wiedzial co ktos od ciebie chce

    •  

      pokaż komentarz

      @Tolstoj-kot: A kto ją do tej selekcji zaprogtamuje?

    •  

      pokaż komentarz

      @Tolstoj-kot:

      Ciekawie wygląda rywalizacja tego typu, że człowiek i SI przerabiają ten sam materiał, a potem rywalizują. Czyli taki test sprawności uczenia się dla SI i porównanie tego z predyspozycjami ludzkimi.

      Tylko wówczas aby bylo w pelno uczciwie SI powinna mieć dostępną także wiedzę którą czlowiek zdobył przez całe życie przed eksperymentem. Albo odwrotnie - wykasować u człowieka całą pamięć sprzed eksperymentu. Oczywiście to abstrakcyjne ale jak widać trudno znalezc coś w pelni obiektywnego.

    •  

      pokaż komentarz

      Taaa, SI sie kończy jak trzeba iść do sklepu po chleb i pól kilo mielonego.

      @ShamblerWykop: Skąd pomysł że mając odpowiednio sprawny komputer SI nie będzie w stanie pójść do sklepu po chleb i pół kilo mielonego?

    •  

      pokaż komentarz

      Problem twojego rozumowania polega na tym, ze scierasz maszyne ktora ma 0 danych na temat tego co ma robic, jak, czym i po co

      @3mortis: czy aby na pewno? maszyna ma już sporo danych, wie że przedmioty można przesuwać, blokować, obracać i trzeba się ukryć przed wzrokiem tych czerwonych. Mając takie same dane człowiek nie potrzebuje marnować czasu na coś co już wie, że nie zadziała i skupi się na możliwościach których nie jest pewien. Komputer natomiast żadnej możliwości nie odrzuci, wpisał ja sobie na listę wiec musi ją sprawdzić, a to jest brutal force jak napisał @Tolstoj-kot

      O SI byśmy mogli mówić gdyby od razu odrzuciła część możliwości jako takie których nie warto sprawdzać i skupiła się na tych których nie jest pewna. To co widzimy na filmiku wg mnie nie ma nic wspólnego ze sztuczną inteligencją, to zwykły program który prostu szuka optymalnego rozwiązania sprawdzając każdą głupotę zamiast ją odrzucić bez sprawdzania.

    •  

      pokaż komentarz

      Nie wiesz o czym piszesz, a skad czlowiek ma te przewidywania i wyobraznie? wprowadz czlowieka z afrykanskiego buszu, posadz przed linuxem i odpal starcrafta nie mowiac mu nawet ze jedzenie dostanie dopiero jak wygra mecz

      @3mortis: #jprdl Przecież to co napisałeś wynika z tego, co ja napisałem, bo siłą rzeczy jest tam takie założenie. Patrz:

      A mi chodzi o taki test sprawności SI, że bez brutal force, że uczy się, ale na zasadzie wyobraźni i przewidywania, a nie miliarda powtórzeń

      Bo żeby użyć wyobraźni trzeba przecież mieć podstawy i stosowną wiedzę. A nie tak, że SI wzięte z buszu, gołe

      A Ty wmawiasz mi, że ja chcę konfrontować SI bez podstaw z człowiekiem.

      Mi chodzi o test odnajdywania się w nowych sytuacjach. Taką już mocno zaawansowaną formę SI, a nie o obecne algorytmy brutal force, niepotrafiące myśleć abstrakcyjnie.

      XD

      To polemizuj z tym, co ktoś napisał, a nie z przekręconym na swoją modłę słowem.... jeszcze ubliżając, że ktoś nie wie o czym pisze.

      De facto Ty nie wiesz na co odpowiadasz. XD

    •  

      pokaż komentarz

      Przewaga PC jest taka, że raz wprowadzone dane, zostają nienaruszone przez lata, pamięć ludzka zawodzi.

      @NeverOn: To chyba nie słyszałeś o patchu w kernelu linuksowym przeciw promieniowaniu kosmicznemu ( ͡° ͜ʖ ͡°)

    •  

      pokaż komentarz

      Mi chodzi o test odnajdywania się w nowych sytuacjach. Taką już mocno zaawansowaną formę SI, a nie o obecne algorytmy brutal force, niepotrafiące myśleć abstrakcyjnie.

      @Tolstoj-kot: Chodzilo mi o to, ze kazda inteligencja w obliczu calkowicie nowej sytuacji bedzie zachowywac sie jak brute force

      dopiero pozniej mozesz budowac taktyki jak wiesz cokolwiek, tak samo zachowuje sie czlowiek i tak samo te proste algorytmy uczace

      to ze czlowiek odnajduje sie w nowej sytuacji tak a nie inaczej to tylko wynikowa tego, ze w zyciu spotkal sie juz z masa sytuacji, uczyl sie o innych sutuacjach itp i albo zastosuje cokolwiek poprzez jakeis analogie itp albo tez zachowa sie "bruteforcem"

      Dlatego nie ma i nie bedzie czegos takiego jak test "ze bez brutal force bierze i sie uczy". Bo nie majac zadnych danych pierwsze x akcji zawsze bedzie losowe, bo nie masz skad ich wydedukowac

    •  

      pokaż komentarz

      O SI byśmy mogli mówić gdyby od razu odrzuciła część możliwości jako takie których nie warto sprawdzać

      maszyna ma już sporo danych, wie że przedmioty można przesuwać, blokować, obracać i trzeba się ukryć przed wzrokiem tych czerwonych.

      @Zielony_Ogr: pytanie tylko czy AI na prawde to wie od poczatku? ty jako czlowiek po 1 rzucie okiem wiesz co sie dzieje, bo ogladales X filmow, grales w Y gier, widziales Z animacji 3d itp

      po 2, juz po tytule odcinka wiedziales ze bedzie to gra w chowanego, a nauczony doswiadczeniem z setek gier, ze czerwoni to wrogowie, ze postacie widza przed siebie, ze nie widza przez sciany....

      a maszyna nic nie wie, autor nie uczyl AI wczesniej o polu widzenia, o fizyce przedmiotow, o tym ze przedmioty zatrzymuja pole widzenia itp ty to wiesz od 20 lat, ale autor nie programowal wczesniej zadnej "wiedzy ogolnej" dla danego AI

      oczywiscie silnik animacji, silnik swiata w ktorym to sie odbywa tez to wie, ale przeciez jednostki poruszajace sie zgodnie ze swoim AI tego nie sa swiadome

    •  

      pokaż komentarz

      @ShamblerWykop:

      Pan tu nie stał, pan nie jest w ciąży ( ͡° ͜ʖ ͡°)

      źródło: x3.wykop.pl

    •  

      pokaż komentarz

      @Tolstoj-kot: @3mortis: czym dla AI jest myślenie abstrakcyjne?

      Człowiek może wyobrazić sobie jakąś sytuację (zasymulować w głowie) i jej nie robić w rzeczywistości. Ale w umyśle ją wykona.

      Jak ktoś napisał program, to ma dostęp do całości tego co on "myśli". Dlatego pokazywane są nawet te próbne symulacje. Po prostu nie dano mu możliwości ukrycia tego co myśli.

      Można by taki program zrobić tak:
      - rób 100 prób "w głowie" (tzn. nie pokazuj tych prób),
      - co 100 prób wybierz jedną i ja pokaż.

      Wtedy byłoby widać, że każda próba jest przemyślana. Mógłbyś mówić, że myśli abstrakcyjnie.

      Po prostu trzeba by dać AI dwa środowiska: symulacyjne i "prawdziwe". W symulacyjnym by się uczył, a nam pokazywał tylko to "prawdziwe".

      I w robotach, które będą poruszały się w rzeczywistym świecie tak będzie. Jak robot ma coś przenieść w nowym środowisku, to robi sobie wiele symulacji "w głowie" i w rzeczywistym środowisku wykonuje to najlepsze rozwiązanie.

      Nie możemy zajrzeć do głowy człowieka, żeby pokazać wszystkie próby i to jak do tego doszedł w głowie.

      W AI mamy taką możliwość i robi się to, żeby lepiej zrozumieć jak działa. Jak wiemy jak działa, to wydaje się to banalne. Jakbyśmy wiedzieli jak działa nasz mózg to też by cię wydawało banalne. Zawsze skomplikowane i zaczarowane wydaje się to co nie wiemy jak działa.

      Jak to się mówi:
      - AI to jest tylko na prezentacjach,
      - w rzeczywistości to optymalizacyjne programy komputerowe.

    •  

      pokaż komentarz

      Człowiek może wyobrazić sobie jakąś sytuację (zasymulować w głowie) i jej nie robić w rzeczywistości. Ale w umyśle ją wykona.

      @mk321: owszem, ale czlowiek ma dane na ten temat, bez znajomosci fizyki, skutkow pewnych rzeczy itp nie bedzie w stanie nic symulowac

      po 2 czlowiek ma srodowisko w pewnym sensie jednorazowe, jak cos zepsuje to na stale
      po 3 ai zwykle nie jest swiadome, nie jest to cos co sie uczy od lat i akurat teraz gra w chowanego, tylko byt powstaly do gry w chowanego i umierajacy zaraz po grze, wiec dla ai nie bylo by sensy symulowania zachowania, bo juz w pewnym sensie proces nauki ktory byl na filmie to tego rodzaju symulowanie

      tylko ze w takim wypadku symulacja programu dzialajacego tylko w pamieci komputera tak zeby sobie symulowal kolejne rzeczy to juz przesada, caly film powstal zeby obejzec ten proces wlasnie
      rownie dobrze autor mogl olac grafike, odpalic uczenie i pokazac nam ostateczny wynik "bo sie zastanawialo"

      jak grasz 1 raz np w jakas gre to tez czesto robisz rzeczy na odp@$@@!? "bo ciekawe czy tak sie da"

      ale w zyciu 99% rzeczy juz wiesz czy sie da czy nie

    •  

      pokaż komentarz

      Inna sprawa, że to oszustwo z punktu widzenia człowieka. Bo SI przerabia więcej materiału, czyli jakby miała więcej czasu na naukę, a u człowieka ten czas jest mocno ograniczony.

      @Tolstoj-kot: Nieprawda. Człowiek dysponuje ogromną wiedzą poprzednich pokoleń. Nasi przodkowie przekazali nam w genach tendencje do konkretnych, sprzyjających przetrwaniu, zachowań. Dodatkowo dysponujemy wiedzą przekazywaną z pokolenia na pokolenie. Nie uczymy się od zera. Dane były drążone przez miliony osobników na przestrzeni milionów lat.

      "Jeśli widzę dalej, to tylko dlatego, że stoję na ramionach olbrzymów” - Isaac Newton

    •  

      pokaż komentarz

      @Tolstoj-kot: Nie wiem za co te minusy przecież masz racje. Widać to już było w słynnym meczu szachowym Kasparowa

    •  

      pokaż komentarz

      Taką już mocno zaawansowaną formę SI, a nie o obecne algorytmy brutal force, niepotrafiące myśleć abstrakcyjnie.

      Komputer natomiast żadnej możliwości nie odrzuci, wpisał ja sobie na listę wiec musi ją sprawdzić, a to jest brutal force jak napisał @Tolstoj-kot. O SI byśmy mogli mówić gdyby od razu odrzuciła część możliwości jako takie których nie warto sprawdzać i skupiła się na tych których nie jest pewna.

      @Zielony_Ogr: @Tolstoj-kot: Optymalizacja to nie brute force. Optymalizacja nie sprawdza wszystkich możliwych rozwiązań. Optymalizacja polega właśnie na tym że algorytm bada "najbliższe otoczenie" (rozwiązania podobne do aktualnego) i na tej podstawie decyduje w którą stronę powinien dalej podążać, odrzucając wszystkie pozostałe możliwości (nawet jeżeli te odrzucone mogłyby się po pewnym czasie okazać lepsze).

      Sugerowanie że optymalizacja jest równoznaczna z brute force to ten sam chwyt którego kreacjoniści używali i dalej używają do negowania teorii ewolucji biologicznej! Optymalizacja nie jest nieskończoną ilością małp piszących na maszynie bo w przeciwieństwie do małp, mechanizm optymalizacyjny dąży do maksimum dostosowania i zapamiętuje skuteczne rozwiązania opracowane w poprzedniej iteracji.

    •  

      pokaż komentarz

      Póki mamy TO, nic nam nie grozi

      @jabolsy: Już dawno tego nie mamy, jeżeli takie AI dostanie się do sieci to żaden kabel zasilania już nie pomoże.

    •  

      pokaż komentarz

      @jabolsy: Chyba że popełnimy klasyczny błąd i za późno wyciągniemy ( ͡° ͜ʖ ͡°)

      źródło: marxianmatrix.files.wordpress.com

    •  

      pokaż komentarz

      @jabolsy: Poczekaj aż AI bedzie zdolne żeby dowiedzieć sie takich rzeczy ( ͡° ͜ʖ ͡°)

  •  

    pokaż komentarz

    Szkoda tylko że nie wie po co to robi.

    •  

      pokaż komentarz

      @alex512: Zeby zminimalizowac funkcje bledu ( ͡° ͜ʖ ͡° )つ──☆*:・゚

    •  

      pokaż komentarz

      @alex512 a ty wiesz po co robisz co robisz xD? Jaka twoja akcja w kontekście końca świata ma znaczenie? Żadna. A jednak żyjesz. Wykonujesz strumień poleceń pod losowo wybraną funkcje celu (uwarunkowaną kulturowo).

    •  

      pokaż komentarz

      @lunaexoriens: Zabawa w chowanego jest jedynie częścią twojego życia, dla AI jest wszystkim. Czy ty wiesz po co żyjesz?

    •  

      pokaż komentarz

      @illustratum-monachus: oby wiecej fakich Mirkow jak Ty zabieralo glos na wypoku.
      Szanuje za kulturę i podejscie do tematu.

    •  

      pokaż komentarz

      @illustratum-monachus: Wiadomo że jesteśmy robakami mieszkającymi na ziarnku gruzu pędzącym bez celu w czarnej pustce. I ta pustka też kiedyś podobno przestanie istnieć. Ale my to wiemy, a kod jest kodem i nic ponadto.

    •  

      pokaż komentarz

      @alex512: Istnieje hipoteza, że my też jesteśmy kodem. Należy ją traktować tak samo poważnie jak inne teorie odnośnie powstania życia, ponieważ obecnie nie wiemy zbyt wiele na ten temat. Domyślamy się i szukamy dowodów.

    •  

      pokaż komentarz

      @dolOfWK6KN: Hipoteza jest tylko nieudowodnionym przypuszczeniem a teoria naukowa jest faktem, te dwa zwroty nie mogą być używane na przemian.

    •  

      pokaż komentarz

      Wiadomo że jesteśmy robakami mieszkającymi na ziarnku gruzu pędzącym bez celu w czarnej pustce. I ta pustka też kiedyś podobno przestanie istnieć. Ale my to wiemy, a kod jest kodem i nic ponadto.

      @alex512: Kod też może to wiedzieć.

      Naleciałości kulturowe zakrzywiają naszą percepcje i wydaje nam się że badamy gwiazdy z czystej ciekawości, bez żadnego powodu. Istnieją jednak silne hipotezy sugerujące że nasza ciekawość wyewoluowała w konkretnym celu. Ciekawość motywuje istoty do badania środowiska w którym żyją a znajomość środowiska daje wymierne korzyści i przekłada się na zdolność przetrwania w nim. Prawdą jest że ciekawość może prowadzić do bezsensownych z ewolucyjnego punktu widzenia działań ale nie jest to nic więcej jak tylko artefakt. Artefakty zdarzają się również w sztucznych algorytmach heurystycznych.

      Buduje się systemy sztucznej inteligencji które osiągają lepsze wyniki dzięki zaimplementowaniu mechanizmu "sztucznej ciekawości". Co zabawne - taka sztuczna inteligencja jest podatna na uzależnienie od telewizji bo ekran telewizora jest o wiele ciekawszy niż monotonne ściany z których zbudowane jest jej środowisko - ot taki artefakt ( ͡º ͜ʖ͡º).

    •  

      pokaż komentarz

      @AdireQ: Maszyny z duszą ( ͡° ͜ʖ ͡°)

    •  

      pokaż komentarz

      @illustratum-monachus: Cóż, to retoryczne pytanie, które zadałeś sugeruje tożsamość pomiędzy ludzkimi działaniami, a działaniem algorytmu. Czy aby na pewno taka tożsamość istnieje? Jeżeli założymy, że tak, czy nie należałoby przyjąć, że każda ludzka jednostka - w swym codziennym bytowaniu - jest niczym więcej niż emanacją jakiegoś algorytmu? Takie stwierdzenie dryfuje chyba w stronę kreacjonizmu...? ;)

    •  

      pokaż komentarz

      @PanKaraluch jeżeli wierzysz, że twój mózg to coś więcej niż deterministyczna fizyko chemiczna maszyna reagująca na bodźce to już wychodzisz poza świat fizyki ;)

      Konsekwencji tego jest wiele i podważają sens... wszystkiego, ale to już zupełnie inna dyskusja.

    •  

      pokaż komentarz

      @illustratum-monachus: chyba się nie zrozumieliśmy :) Mam wrażenie, że w pierwotnej wypowiedzi wyprowadziłeś analogię pomiędzy działaniem algorytmu (tutaj sterującego bytami grającymi w chowanego), a działaniami ludzi (...wykonujesz strumień poleceń pod losowo wybraną funkcje celu...). Taka zaś analogia prowadzi niebezpiecznie blisko możliwość o której napisałem. Mówiąc inaczej - zakładanie, że "...deterministyczna fizyko chemiczna maszyna reagująca na bodźce..." może być tożsama z niebieskim i/bądź czerwonym bytem z eksperymentu, prowadzi raczej w kierunku, którego chciałbyś uniknąć ;)

    •  

      pokaż komentarz

      Takie stwierdzenie dryfuje chyba w stronę kreacjonizmu...? ;)

      @PanKaraluch: Czemu kreacjonizm? Algorytm nie musi być dziełem inteligentnej istoty.

    •  

      pokaż komentarz

      @AdireQ: Masz rację. Chodziło mi o kreacjonizm rozumiany szeroko, nie tylko o długobrodego starca ;)

      Jeżeli zakładamy, że jakikolwiek element obserwowalnej rzeczywistości (nie ma znaczenia czym taki element jest, może być bytem, rzeczą, procesem, nie ma znaczenia), no więc, jeżeli taki element jest "dziełem", oznacza to, że musi być i "twórca", bez względu na definicję tegoż i to czy tenże "twórca" przejawia to, co obecnie określane jest jako inteligencja.

      Mniejsza z tym, bo tego typu rozważania prowadzą w/g mnie na manowce. Warto być natomiast ostrożnym w tworzeniu analogii pomiędzy tym, co obserwujemy w działaniu coraz bardziej skomplikowanych algorytmów, a złożonością zjawiska życia (w szczególności tego inteligentnego ;) i jego wpływu na rzeczywistość. W/g mnie takiej analogii obecnie nie ma i nie będzie do momentu nazwijmy to "ucieleśnienia" algorytmów i wyprowadzenia z tego faktu informacji zwrotnej do jego (algorytmu) działania.

      Mówiąc obrazowo i nieco filozoficznie - w przyszłości może okazać się, że z mnogości metodyk rozwoju silnej AI pozostanie ta tylko, która prowadzi do próby stworzenia ucieleśnionego, biologicznego mózgu, którego niedoskonałość będą jego największą zaletą i warunkiem ekspansji. Po prostu jedyna silna i zdolna do przetrwania w układzie wszechświata inteligencja okaże się nie być "sztuczna" ;)

    •  

      pokaż komentarz

      W/g mnie takiej analogii obecnie nie ma i nie będzie do momentu nazwijmy to "ucieleśnienia" algorytmów i wyprowadzenia z tego faktu informacji zwrotnej do jego (algorytmu) działania.

      @PanKaraluch: Reinforcement learning nie spełnia tych kryteriów? Agent posiada ciało, wchodzi w interakcje ze środowiskiem, obserwuje skutki swoich działań i uczy się które jego działania są dla niego korzystne.

      w przyszłości może okazać się, że z mnogości metodyk rozwoju silnej AI pozostanie ta tylko, która prowadzi do próby stworzenia ucieleśnionego, biologicznego mózgu, którego niedoskonałość będą jego największą zaletą

      @PanKaraluch: Dlaczego niedoskonałości miałyby być zaletą i dlaczego akurat nośnik organiczny miałby być optymalny?

    •  

      pokaż komentarz

      @PanKaraluch tożsama nie ale analogiczna być może. Tożsamość wymaga identyczności a tu mamy kilka rzędów różnicy w skomplikowaniu procesu. I dlaczego chciałbym uniknąć? Czego uniknąć. Nie rozumiem.

    •  

      pokaż komentarz

      W/g mnie takiej analogii obecnie nie ma i nie będzie do momentu nazwijmy to "ucieleśnienia" algorytmów i wyprowadzenia z tego faktu informacji zwrotnej do jego (algorytmu) działania.

      @PanKaraluch: Reinforcement learning nie spełnia tych kryteriów? Agent posiada ciało, wchodzi w interakcje ze środowiskiem, obserwuje skutki swoich działań i uczy się które jego działania są dla niego korzystne.

      @AdireQ: W/g mnie nie spełnia do momentu w którym Agent nie wykazuje samoświadomości. Mam wrażenie, że to właśnie skopień skomplikowania "organicznego nośnika" może być elementem powodującym ewolucję mózgu i prowadzić do wyodrębniania samoświadomości. Ta zaś wydaje się być kluczowa. Inaczej mówiąc ucieleśniony mózg staje się coraz bardziej doskonały w miarę wzrostu stopnia skomplikowania nośnika - a ten organiczny jest i długo będzie niedoścignionym wzorcem.

      "Dlaczego niedoskonałości miałyby być zaletą i dlaczego akurat nośnik organiczny miałby być optymalny?

      @AdireQ: Bo błędy wynikające z niedoskonałości (począwszy od tych najbardziej fundamentalnych, powodujących śmierć biologiczną), a przede wszystkim informacja zwrotna z ich popełnienia, są jak napisałem wyżej kluczowe do wystąpienia samoświadomości. Tylko nośnik organiczny w swojej ewolucji jest w swej niedoskonałości (paradoksalnie), najbardziej doskonałym narzędziem do wyodrębnienia tejże.

    •  

      pokaż komentarz

      @PanKaraluch tożsama nie ale analogiczna być może. Tożsamość wymaga identyczności a tu mamy kilka rzędów różnicy w skomplikowaniu procesu. I dlaczego chciałbym uniknąć? Czego uniknąć. Nie rozumiem.

      @illustratum-monachus: odnosiłem się do Twojego pierwotnego stwierdzenia (wklejam niżej), którego konkluzją jest - o ile dobrze zrozumiałem - wyprowadzenie analogii pomiędzy działaniem jakiegoś algorytmu do działań człowieka w ogólności. Zobacz:

      > @alex512 a ty wiesz po co robisz co robisz xD? Jaka twoja akcja w kontekście końca świata ma znaczenie? Żadna. A jednak żyjesz. Wykonujesz strumień poleceń pod losowo wybraną funkcje celu (uwarunkowaną kulturowo).

      Jeżeli dobrze to zrozumiałem, to taka analogia prowadzi niebezpiecznie blisko stwierdzenia, że działania ludzi są zdeterminowanej przez jakiś algorytm, plan, jakkolwiek to nazwiesz... chodzi o szeroko rozumiany kreacjonizm. A takiego wniosku - jak rozumiem dalsze twoje wypowiedzi - chciałbyś uniknąć.

      Pozdrawiam.

    •  

      pokaż komentarz

      @PanKaraluch wiesz co znaczy kreacjonizm? Bo nie ma to nic wspólnego z determinizmem wszechświata.

      Jeżeli dobrze to zrozumiałem, to taka analogia prowadzi niebezpiecznie blisko stwierdzenia, że działania ludzi są zdeterminowanej przez jakiś algorytm, plan, jakkolwiek to nazwiesz...
      Tak

      chodzi o szeroko rozumiany kreacjonizm
      Nie

      Kreacjonizm to pogląd w którym świat stworzył Bóg a skoro stworzył go Bóg to posiada wymiar meta-fizyczny i nasza dusza naprawdę steruje decyzjami w sposób wolny. Deterministyczny mózg to wykluczenie meta-fizyki.

    •  

      pokaż komentarz

      W/g mnie nie spełnia do momentu w którym Agent nie wykazuje samoświadomości.

      @PanKaraluch: A jakie przesłanki świadczą o tym że agent posiada zalążki samoświadomości? Bo tu jest duże pole do nadużyć. Można pokazać sztuczną sieć neuronową która wie że jest paletką odbijającą piłkę a jakiś sceptyk stwierdzi że nie jest ona samoświadoma dopóki nie rozpozna się w lustrze. Można pokazać sztuczną sieć neuronową która rozpozna swoje odbicie w lustrze i wykorzysta je w praktyce a i tak znajdzie się jakiś sceptyk który stwierdzi że nie jest ona samoświadoma dopóki nie pisze poezji na temat swoich wewnętrznych odczuć. I tak powoli definicja samoświadomości będzie zbiegać do definicji bycia człowiekiem (bo w domyśle żeby być samoświadomym trzeba być człowiekiem ;) )

      Bo błędy wynikające z niedoskonałości (począwszy od tych najbardziej fundamentalnych, powodujących śmierć biologiczną), a przede wszystkim informacja zwrotna z ich popełnienia, są jak napisałem wyżej kluczowe do wystąpienia samoświadomości.

      @PanKaraluch: I właśnie informacja zwrotna na temat popełnianych błędów jest podstawą działania algorytmów genetycznych i algorytmów uczenia maszynowego. Te algorytmy stopniowo modyfikują sztucznego agenta tak aby popełniał on coraz mniej błędów co przekłada się na jego dostosowanie do środowiska.

      Tylko nośnik organiczny w swojej ewolucji jest w swej niedoskonałości (paradoksalnie), najbardziej doskonałym narzędziem do wyodrębnienia tejże.

      @PanKaraluch: Komputer cyfrowy jest teoretycznie niepodatny na błędy a mimo to da się na nim symulować procesy błądzenia w poszukiwaniu efektywnych rozwiązań.

    •  

      pokaż komentarz

      @PanKaraluch: Zgadzam się że nośnik biologiczny jest o rzędy wielkości bardziej złożony od współczesnych systemów komputerowych ale jednocześnie zwrócić trzeba uwagę na to że duża część tej złożoności jest oddelegowana do innych aspektów funkcjonowania komórek. Przetwarzanie informacji ze środowiska zewnętrznego jest czymś co komórki robią tylko przy okazji innych, starszych ewolucyjnie procesów. Sztuczne neurony mogą być prostsze bo koncentrują się jedynie na przetwarzaniu informacji.

      Być może biosynteza litego kryształu krzemu wewnątrz czaszki byłaby o wiele efektywniejszym rozwiązaniem niż znana nam tkanka nerwowa ale po prostu nie było w dziejach ewolucji biologicznej żadnej prostej ścieżki która mogłaby doprowadzić do powstania takiego krzemowego rozwiązania. Coś jak długi nerw w szyi żyrafy - na pierwszy rzut oka widać że dałoby się to zrobić lepiej ale najwyraźniej dolina krótkiego nerwu była oddzielona zbyt wysoką przełęczą i ewolucja poszła inną drogą.

    •  

      pokaż komentarz

      @AdireQ: to, co obecnie nazywa się samoświadomością występuje w umysłach odpowiednio skomplikowanych organizmów (ciał) i właśnie jedynie dzięki tym ciałom mózgi niektórych organizmów (nie tylko człowiek, bo i psy, czy naczelne) doświadczają samoświadomości i kreują emocje oraz umysł zdolny do podejmowania jakichkolwiek decyzji.

      Obecne algorytmy, chociażby najbardziej skomplikowane i ubrane w jakąkolwiek formę niebiologiczną, nie prezentują tego samego, a symptomy to tylko symptomy. Kto wie co będzie w przyszłości, jednak w tym momencie nie możemy mówić o tym, że jakikolwiek algorytm zbliżył się chociażby do fenomenu świadomego działania. Po prostu brak w ich działaniu czegoś, co możemy nazwać "chceniem, by coś się zadziało" ;)

      Czym innym więc jest "najbardziej logiczne" działanie algorytmu na wyjściu z jakiego procesu o zadanym celu, a czym innym działanie "jakiekolwiek" podejmowane przez świadomy umysł "bo tak chcę" (wbrew przesłankom i jakiejkolwiek analizie) bądź zaprzestanie lub nie podejmowanie działania wbrew wszelkiej logice.

      Ewoluujące ciało, coraz bardziej skomplikowane, a jednocześnie tak ułomne, może być więc warunkiem koniecznym do wytworzenia samoświadomości. Ucieleśniony umysł może być kluczem, a zarazem ograniczeniem nie do przejścia do osiągnięcia przez algorytmy stanu tzw. silnej AI.

    •  

      pokaż komentarz

      @PanKaraluch: Zgadzam się że nośnik biologiczny jest o rzędy wielkości bardziej złożony od współczesnych systemów komputerowych ale jednocześnie zwrócić trzeba uwagę na to że duża część tej złożoności jest oddelegowana do innych aspektów funkcjonowania komórek. Przetwarzanie informacji ze środowiska zewnętrznego jest czymś co komórki robią tylko przy okazji innych, starszych ewolucyjnie procesów. Sztuczne neurony mogą być prostsze bo koncentrują się jedynie na przetwarzaniu informacji.

      @PanKaraluch: właśnie o ten zwrot informacji ze środowiska zewnetrznego chodzi. Nie jednak w zrozumieniu rodzaju i wolumenu danych i ich dostarczaniu do algorytmu, tylko w zrozumieniu, że istotny jest właśnie "biologiczny nośnik" - w jaki sposób przetwarza informacje i co tak naprawdę przekazuje do mózgu. Przetwornik okazać się może więc dużo ważniejszy, niż nam się wydaje.

      Być może biosynteza litego kryształu krzemu wewnątrz czaszki byłaby o wiele efektywniejszym rozwiązaniem niż znana nam tkanka nerwowa ale po prostu nie było w dziejach ewolucji biologicznej żadnej prostej ścieżki która mogłaby doprowadzić do powstania takiego krzemowego rozwiązania. Coś jak długi nerw w szyi żyrafy - na pierwszy rzut oka widać że dałoby się to zrobić lepiej ale najwyraźniej dolina krótkiego nerwu była oddzielona zbyt wysoką przełęczą i ewolucja poszła inną drogą.

      @PanKaraluch: to ciekawe spostrzeżenie, jednak trudno mi się do niego odnieść :)

    •  

      pokaż komentarz

      @PanKaraluch: Czyli znów dyskusja o AGI sprowadza się do koncepcji wolnej woli. Tylko jaki sens ma w takim razie mówienie o ewolucji biologicznej która kształtuje zachowania organizmów pod kątem dostosowania do środowiska skoro i tak akceptujemy możliwość istnienia platońskiego ducha który niezależnie wpływa na zachowanie organizmu i tym samym sprawia że organizmy przechodzą przez filtr doboru naturalnego niezależnie od tego jakie geny posiadają?

      symptomy to tylko symptomy

      @PanKaraluch: Jak nie po zachowaniu to po czym mamy stwierdzić że coś jest samoświadome? Bo mam wrażenie że zazwyczaj ludzie rozumują po prostu na zasadzie analogii: "jestem człowiekiem i jestem samoświadomy więc wszyscy ludzie są samoświadomi" ewentualnie "jestem organizmem biologicznym i jestem samoświadomy więc wszystkie organizmy biologiczne są samoświadome".

      Po prostu brak w ich działaniu czegoś, co możemy nazwać "chceniem, by coś się zadziało" ;)

      @PanKaraluch: Chcenie jesteś w stanie zaobserwować tylko u samego siebie. To że inni czegoś chcą wywnioskowujesz pośrednio po ich zachowaniu. I akurat w reinforcement learinigu, przy odpowiedniej oprawie wizualnej, bardzo łatwo wywnioskować jakie są motywacje sztucznych agentów i do czego dążą, czego chcą. Po prostu z założenia takie eksperymenty uznaje się za "jarmarczne sztuczki" bo od dawna przyzwyczajeni jesteśmy do różnego rodzaju kukiełek które tylko udają że czegoś chcą.

      Czym innym więc jest "najbardziej logiczne" działanie algorytmu na wyjściu z jakiego procesu o zadanym celu, a czym innym działanie "jakiekolwiek" podejmowane przez świadomy umysł "bo tak chcę" (wbrew przesłankom i jakiejkolwiek analizie) bądź zaprzestanie lub nie podejmowanie działania wbrew wszelkiej logice.

      @PanKaraluch: To nie tak. Sztuczna inteligencja nie jest algorytmem który zwraca optymalne, "najbardziej logiczne" rozwiązanie. Sztuczna inteligencja wyszukuje rozwiązania przybliżone (o ograniczonej skuteczności) ale równie dobrze może zbłądzić i zachowywać się nieracjonalnie i po prostu głupio.

      @PanKaraluch: Poza tym powinieneś być ostrożny w wygłaszaniu tez o tym że inteligencja biologiczna jest w jakiś sposób nieracjonalna albo sprzeczna bo najbardziej szanowany wśród filozofów argument próbujący udowodnić niealgorytmiczność biologicznego umysłu bazuje na założeniu że biologiczny umysł człowieka jest niesprzeczny. Ewentualna sprzeczność ludzkiego umysłu powodowałaby że twierdzenia Godla pozostają spełnione i nie ma zupełnie żadnych przesłanek aby uważać że mózg ludzki robi coś więcej niż zwyczajny komputer. Hipoteza kwantowego umysłu by się rozsypała ( ͡~ ͜ʖ ͡°).

    •  

      pokaż komentarz

      @AdireQ:

      @PanKaraluch: Czyli znów dyskusja o AGI sprowadza się do koncepcji wolnej woli. Tylko jaki sens ma w takim razie mówienie o ewolucji biologicznej która kształtuje zachowania organizmów pod kątem dostosowania do środowiska skoro i tak akceptujemy możliwość istnienia platońskiego ducha który niezależnie wpływa na zachowanie organizmu i tym samym sprawia że organizmy przechodzą przez filtr doboru naturalnego niezależnie od tego jakie geny posiadają?

      Raczej nie o to chodzi. Nie zdryfowaliśmy w stronę dyskusji o wolnej woli. Obracamy się jak rozumiem wokół pytania, czy czynnik organiczny (ciało), oczywiście podlegające ewolucji, jest niezbędne do wytworzenia inteligencji, a przede wszystkim samoświadomości takiej jaką znamy. Moim zdaniem tak.

      symptomy to tylko symptomy

      @PanKaraluch: Jak nie po zachowaniu to po czym mamy stwierdzić że coś jest samoświadome? Bo mam wrażenie że zazwyczaj ludzie rozumują po prostu na zasadzie analogii: "jestem człowiekiem i jestem samoświadomy więc wszyscy ludzie są samoświadomi" ewentualnie "jestem organizmem biologicznym i jestem samoświadomy więc wszystkie organizmy biologiczne są samoświadome".

      To prawda. Odwieczny problem interpretacji zjawisk, które nie są nieodłączną częścią przeżycia obserwatora tychże. Myślę jednak, że dzisiejsze metody oceny zachowań organizmów żywych, jak i najbardziej nawet zaawansowanych algorytmów, umożliwiają stwierdzenie, że dany byt/twór jest samoświadomy bądź nie. I co ciekawe, można sobie wyobrazić moment, w którym to właśnie specjalizowane algorytmy będą narzędziem wspomagającym taką dokonywanie takich ocen :)

      Po prostu brak w ich działaniu czegoś, co możemy nazwać "chceniem, by coś się zadziało" ;)

      @PanKaraluch: Chcenie jesteś w stanie zaobserwować tylko u samego siebie. To że inni czegoś chcą wywnioskowujesz pośrednio po ich zachowaniu.

      Zgoda. I tak też najpewniej pozostanie. Nie ma obecnie innej możliwości i tak, jak napisałem wyżej, możemy tylko wspomagać się w takim wnioskowaniu coraz bardziej zaawansowanymi procedurami i algorytmami. Na dzisiaj takie wnioskowanie jest skuteczne (i najpewniej w przyszłości będzie takie również).

      I akurat w reinforcement learinigu, przy odpowiedniej oprawie wizualnej, bardzo łatwo wywnioskować jakie są motywacje sztucznych agentów i do czego dążą, czego chcą. Po prostu z założenia takie eksperymenty uznaje się za "jarmarczne sztuczki" bo od dawna przyzwyczajeni jesteśmy do różnego rodzaju kukiełek które tylko udają że czegoś chcą.

      Nie zgadzam się, że w przypadku sztucznych agentów mamy do czynienia z motywacjami - te są moim zdaniem nieodłącznie związane z emocjami (to jest właśnie to "chcenie by zechciało się zachcieć" ;)). A emocje to chemia, a chemia, to ciało... Działania agentów wynikają nie z motywacji, a z zadanego celu. Zatem cały czas brak tutaj "chcenia się" takiego, jaki reprezentują byty samoświadome napędzane emocjami i motywacjami ucieleśnionego umysłu :)

      Czym innym więc jest "najbardziej logiczne" działanie algorytmu na wyjściu z jakiego procesu o zadanym celu, a czym innym działanie "jakiekolwiek" podejmowane przez świadomy umysł "bo tak chcę" (wbrew przesłankom i jakiejkolwiek analizie) bądź zaprzestanie lub nie podejmowanie działania wbrew wszelkiej logice.

      @PanKaraluch: To nie tak. Sztuczna inteligencja nie jest algorytmem który zwraca optymalne, "najbardziej logiczne" rozwiązanie. Sztuczna inteligencja wyszukuje rozwiązania przybliżone (o ograniczonej skuteczności) ale równie dobrze może zbłądzić i zachowywać się nieracjonalnie i po prostu głupio.

      To, co nazywasz zbłądzeniem, może wyglądać na działanie nieracjonalne z punktu widzenia obserwatora o ile obserwator będzie w stanie takie działanie zaobserwować. Inaczej mówiąc - o ile dostęp do zasobów będzie odpowiedni dla osiągnięcia zadanego celu, o tyle każde działanie AI budujące scenariusz zbliżający do celu będzie racjonalne.

      @PanKaraluch: Poza tym powinieneś być ostrożny w wygłaszaniu tez o tym że inteligencja biologiczna jest w jakiś sposób nieracjonalna albo sprzeczna bo najbardziej szanowany wśród filozofów argument próbujący udowodnić niealgorytmiczność biologicznego umysłu bazuje na założeniu że biologiczny umysł człowieka jest niesprzeczny. Ewentualna sprzeczność ludzkiego umysłu powodowałaby że twierdzenia Godla pozostają spełnione i nie ma zupełnie żadnych przesłanek aby uważać że mózg ludzki robi coś więcej niż zwyczajny komputer. Hipoteza kwantowego umysłu by się rozsypała ( ͡~ ͜ʖ ͡°).

      No cóż, dobiłeś nie tym ostatnim stwierdzeniem ;) Prześpię się z tym i w miarę wolnego czasu chętnie podyskutuję. Może jutro :)

      Pozdrawiam.

  •  

    pokaż komentarz

    na czym sie opiera ta cała sztuczna inteligencja? To jakiś kod programowania ktore stworzyło google, czy jak?

    •  

      pokaż komentarz

      @lastro: Oto wielka tajemnica wiary.

      źródło: miro.medium.com

    •  

      pokaż komentarz

      @lastro: Upraszczając - AI to tylko suma prostych wyborów logicznych zaprojektowanych przez człowieka. Nic ponadto.

    •  

      pokaż komentarz

      Co to znaczy?

      @lastro: To znaczy, że osoba wrzucająca ten mem nie ma pojęcia o metodach sztucznej inteligencji, a samą koncepcję sztucznej inteligencji rozumie poprzez pryzmat AI w strzelankach pierwszoosobowych, gdzie faktycznie decyzje npców są else-ifowe.

    •  

      pokaż komentarz

      @CXLV: Tak, bo na niższej warstwie abstrakcji wcale nie ogranicza się to do podstawowych operacji logicznych...

    •  

      pokaż komentarz

      To Ty mi wytłumacz

      @lastro: model matematyczny sztucznego neuronu tzw. neuron McCullocha-Pittsa dokładnie odwzorowuje działanie neuronu biologicznego. Sama koncepcja wag sygnałów wejściowych oraz funkcji aktywacji powoduje, że działania takiego sztucznego neuronu nie można w żadnym wypadku porównywać z układami logicznymi. Jeżeli naprawdę cię to interesuje, to polecam pooglądać jakieś filmiki na yt.

    •  

      pokaż komentarz

      Tak, bo na niższej warstwie abstrakcji wcale nie ogranicza się to do podstawowych operacji logicznych...

      @Anawa73: działania arytmetyczne na liczbach binarnych =/= operacje logiczne.

    •  

      pokaż komentarz

      @CXLV: A w jaki sposób komputer dokonuje działań arytmetycznych?

    •  

      pokaż komentarz

      @lastro: perceptron o którym mówi @CXLV: to dość stary model, który potrafi przyjąć stan aktywacji 0/1 lub -1/1 (kwestia tworzenia architektury i doboru funkcji) i działa na zasadzie rozróżnienia dwóch stanów np podziału prostą ludzi na płcie (operacja logiczna).

      Sęk w tym, że sieci poszły mocno do przodu przez możliwość wykonywania obliczeń równoległych i zwiększenia mocy obliczeniowej, co było skutkiem zwiększenia głębokości ilości warstw ukrytych w ich konstrukcjach, a jednocześnie przenosi dany problem na większy poziom abstrakcji. W przypadku uczenia takich modeli, gdzie nie ma konkretnego oczekiwanego stanu wyjściowego raczej stosuje się sieci rekurencyjne, które są w stanie same zapewnić sobie feedback pętlą zwrotną z wyjścia na wejście neuronu, bądź warstw. Ogólnie rzecz biorąc, stan neuronu wynikający z procesu uczenia podlega już bardziej pod teorię liczb losowych i zagadnienia ze statystyki niż pod typowe algorytmy else-ifowe, o których wspomniał @RezuNN, bo stan neuronów nie jest tak prosty do przeanalizowania jak to było podczas zmiany wartości wag funkcją wstecznej propagacji błędu, co można było analitycznie policzyć na kartce (choć ilość obliczeń zniechęca ( ͡° ͜ʖ ͡°)).

      Do czego dążę? Właśnie do tego, że obecnie sieci samouczące się bardziej przypominają algorytmy heurystyczne oparte na przypadkowości i radzeniu sobie w danym problemie niż podejście deterministyczne z konkretnym algorytmem wykonywanym krok po kroku.

    •  

      pokaż komentarz

      działania arytmetyczne na liczbach binarnych =/= operacje logiczne.

      @CXLV: kazde dzialanie arytmetyczne mozna przedstawic jako sekwencje operacji logicznych. Procesory to tylko skomplikowane uklady NANDo

    •  

      pokaż komentarz

      A w jaki sposób komputer dokonuje działań arytmetycznych?

      @Anawa73: w jednostce arytmetyczno-logicznej, która jak sama nazwa wskazuje podzielona jest na część arytmetyczną i na część logiczną. Wiem dokąd zmierzasz. Tak, na niższym poziomie będziesz miał swoje ANDy i NOTy, a na jeszcze niższym potencjały elektryczne i elektrony. Podobnie z resztą jak w biologicznym mózgu, ale to ad hocem.

      Tylko, że w cale nie trzeba schodzić do tak niskiego poziomu abstrakcji, bo neuron biologiczny nie jest sam w sobie aż tak bardzo skomplikowany. Mem jest bez sensu, bo sugeruje, że zaglądając pod maskę sieci neuronowej ujrzelibyśmy jakiś algorytm, którego logikę dałoby się zrozumieć. Jest to bardzo trudne w najprostszych przypadkach i niemożliwe w bardziej skomplikowanych. Bo wprawdzie do zdeterminowania co uzyskamy na wyjściu takiej sieci wystarczy znać współczynniki wagowe, to bez akwizycji wszystkich danych wejściowych przy których dana sieć się uczyła, nie będziemy w stanie dociec dlaczego sieć ma takie, a nie inne współczynniki.

      Czy równie śmieszny byłby mem, gdyby zamiast SSN był ludzki mózg, a pod maską proces elektro-chemiczny? Nie, bo to by nie miało sensu, gdyż jest oczywiste, że neuron biologiczny sam w sobie jest prosty. Zadziwiające i niezrozumiałe jest natomiast emergentne zjawisko świadomości i współpracy neuronów ze sobą.

    •  

      pokaż komentarz

      @Anawa73: Prostych wyborów tak (zachowanie wyuczonej AI) Ale nie zaprojektowanych przez człowieka tylko znalezionych algorytmem zaprojektowanym przez człowieka.

    •  

      pokaż komentarz

      @mojemirabelki: tyle, że to dotyczy raczej sposobu "zdobywania wiedzy" przez algorytm, a nie jego wynikowego działania, które jest oparte o wybory else-ifowe działające na zestawie danych opracowanym metodami ststystycxnymi.

    •  

      pokaż komentarz

      na czym sie opiera ta cała sztuczna inteligencja? To jakiś kod programowania ktore stworzyło google, czy jak?

      @lastro: Ja Ci wytłumaczę w wersji uproszczonej dla debili (to nie przytyk do Ciebie, żeby nie było ale będzie po prostu bardzo uproszczone i trochę skrótów myślowych) , bo koledzy wyżej trochę się kupili nie na tym co trzeba ;)

      Podejście klasyczne, że tak powiem polegało na tym, że twórcy, przewidywali możliwe scenariusze, określone dane wejściowe i oprogramowywali jak ma się program zachować przy określonych scenariuszach, tak bardzo pobieżnie.
      I może to być bardziej lub mnie zaawansowane.

      Jednak to nie działa wszędzie tak zajebiście, weźmy np. takie rozpoznanie obrazów, niech będzie detekcja twarzy i uśmiechu. Aby to klasycznie napisać (oczywiście da się) trzeba by było się nie lada namęczyć. najpierw wyodrębnianie twarzy, czy ma oczy (ciemniejsze na tle twarzy) potem detekcja ust (zależy czy bliżej czy dalej zdjęcie) no w trzy dupy roboty.

      Jednak, darując sobie już historię i detale, wymyślono tworzenie programu (To skrót myślowy) od drugiej strony. Czyli od strony danych, całą robota polega na dostarczeniu do programu odpowiednich danych, czyli np. zdjęć z zaznaczeniem gdzie jest głowa, z uśmiechem. Reszta dzieje się już automatycznie, program dostaje tysiące (ba nawet i miliony) opisanych zdjęć i na podstawie nich uogólnia wiedzę (to brzmi tak inteligentnie, ale całość ot tylko pochodne i mnożenie macierzy, <--też uprościłem ale głównie tak jest) i teraz będzie potrafił znajdować uśmiechniętą twarz nawet takiej której nie było w przykładach.

      Oczywiście to najprostszy przypadek, potem wymyśla się różnego rodzaju wariacje tego czego by tu uczyć. I w takie jgrze chowanego jak domyślam się, jest reinforcement learning (uczenie ze wzmocnieniem). I tym czego się sieć (sieci?) wyucza to czy dobrze zrobił czy nie, i sieć się uczy zachowań (a zachowanie jest zakodowane w wejściu) któe są karane a które nagradzane i jest tak zaprogramowana aby wybiejrała te nabardziej nagradzane.

      I w tym powyższym przypadku chowajacy się dostają tym więcej punktów im dłużej się ukryją a drudzy tym więcej punktów im szybciej znajdą.

      No i to tyle w wersji dla debili bez matematyki i detali

  •  

    pokaż komentarz

    Tysiąc pokoleń SI później

    źródło: 1234.jpg

Dodany przez:

avatar RETROWIRUS dołączył
955 wykopali 3 zakopali 15.3 tys. wyświetleń
Advertisement