•  

    pokaż komentarz

    Jakby kto pytał to oczywiście gówno prawda.

    •  

      pokaż komentarz

      @Daleki_Jones: Mógłbyś rozwinąć tę myśl?

    •  

      pokaż komentarz

      @artos: w doświadczeniu nie wizualizowali tego co mózg "widzi" tylko wyuczyli AI że takie-i-takie fale to prawdopodobnie to-i-to, więc AI na podstawie wcześniej wyuczonych filmów próbowało przerobić fale na obraz. Jakby babka spojrzała na coś co AI nie miało wyuczone to by była dupa. Do szpiegowania ciągle się nie nadaje, ale progres jest ( ͡° ͜ʖ ͡°)

    •  

      pokaż komentarz

      @dzafel: @artos: Blisko, ale nie do końca tak jak piszesz.

      było 5 kategorii filmów. I tego wyuczali siec.
      Potem puścili filmy których wcześniej sieć (i człowiek) nie widzieli, ale jednak z tych kategorii i sieć odgadywała tę kategorię i do tej kategorii tworzyła obraz.

      Czyli jak by puścili filmik z całkiem innej kategorii to by nie pykło.

    •  

      pokaż komentarz

      @LowcaG: no tak, o to mi chodziło, nawet to samo miałem napisane w swoim komentarzu, ale przed publikacją usunąłem zbędne zdania, bo chciałem jak najkrócej ( ͡° ͜ʖ ͡°)

    •  

      pokaż komentarz

      @Daleki_Jones: Podpiąć Tuska i takiego Adanowicza pod to i zaraz wszystko by się wyjaśniło na przesłuchaniu, kto z kim i gdzie.

    •  

      pokaż komentarz

      @Herron niestety to tak nie działa¯\(ツ)

    •  

      pokaż komentarz

      @LowcaG No ale przecież to są początki tej technologii. Z czasem baza będzie znacząco rozszerzona, a mechanizmy interpretacji ulepszone.

    •  

      pokaż komentarz

      @dzafel: @LowcaG: a orientujecie się jak wygląda kwestia zgodności pomiędzy falami mózgowymi różnych osób? tj. czy algorytm wyuczony na falach jednego człowieka, prawidłowo zinterpretuje fale mózgowe drugiego człowieka? Lub inaczej - czy fale mózgowe dwóch osób widzących to samo będą miały podobną charakterystykę?

    •  

      pokaż komentarz

      a orientujecie się jak wygląda kwestia zgodności pomiędzy falami mózgowymi różnych osób?

      @spacetraveler: To już pytanie bardziej do neurobiologów. Ale domniemam, że odpowiedź jest że pewnie częściowo są zgodne a częściowo nie. Wiadomo, że mózg dla wielu ma podobną budowę, jednak np. domniemam (ale domniemam) że np. leworęczny może mieć trochę inną budowę mózgu w niektórych strefach. Ba, ucząc się czegoś przebudowujesz swój mózg i jeżeli druga osoba uczy się tego samego mimo wszystko układa się to inaczej.

      Pytanie czy dla wzroku układa się to na tyle podobnie aby dało się to wprost użyć. Myślę, że nie, ale mogę się bardzo mylić ;) (może wystarczyło by "trochę" przemapować na poziomie bierzącego widoku, w końcu wiedzą kto teraz coś widzi i mogą zobaczyć jak reaguje jego mózg)

    •  

      pokaż komentarz

      @Henio_Zloczynca: za 10 lat bedzie sie mozna logować myślami do smartfona xiaomi

    •  

      pokaż komentarz

      @Daleki_Jones: @dzafel: @LowcaG: I nie ma w tej metodzie nic złego. Tak działa zarówno nasz mózg jak i sieci splotowe. Na pewnych warstwach ukrytych poszczególne neurony odpowiadają za rozpoznawanie specyficznych kształtów, wzorców, kolorów, etc...

      Można w zbiorze uczącym wskazać dla jakich fragmentów obrazów poszczególne neurony mają bardzo wysoki stan i w ten sposób zrobić mapowanie co za co odpowiada. Tu jest fajna prezentacja: https://www.youtube.com/watch?v=ChoV5h7tw5A

      Domyślam się że w tym przykładzie zrobili podobnie. Wykrywali stan pobudzeń i robili syntezę tego w jakim stanie sieć może się znajdować.

      Wyszły śmieszne rzeczy, np. w 2:19 samochód zrekonstruowany przez sieć ma kierownicę po lewej stronie i widoczne lusterko wsteczne a w rzeczywistości gościu patrzy na samochód z kierownicą po prawej stronie i z niewidocznym lusterkiem wstecznym :)

    •  

      pokaż komentarz

      sieć odgadywała tę kategorię i do tej kategorii tworzyła obraz

      @LowcaG: Ale w końcu obraz był budowany w oparciu o zbiór uczący, czy o interpretację fal mózgowych?

      Bo te obrazy w artykule "reconstructed" są jednak bardzo podobne do obrazów źródłowych.
      Jeśli algorytm nie znał obrazu źródłowego (nie występował w zbiorze uczącym), a odgadł go z taką precyzją - to jednak brzmi całkiem nieźle.

      Pytanie tylko czy osoba badana miała tylko patrzeć na obraz i komputer już kombinował, czy jednak badany był uczestnikiem projektu i po prostu nauczył się te obrazy rekonstruowane w pewien sposób malować falami mózgowymi.

    •  

      pokaż komentarz

      @hellfirehe: W podpiętym materiale rysowana jest ta sama twarz w odpowiedzi na różne osoby. Jedno ujęcie z samochodu powraca gdzie tylko może, nawet w 1:40 podczas podróży kulki.

    •  

      pokaż komentarz

      @dzafel:

      Właściwie to ciekawe czemu nie pociągnęli tego eksperymentu dalej - mogli by poprosić osobę żeby zamknęła oczy i WYOBRAŻAŁA sobie wedle uznania jakiś obraz należący do jednej z tych kategorii.

      Byłoby ciekawe czy wtedy te sieci neuronowe by odtworzyły coś sensownego.

    •  

      pokaż komentarz

      W podpiętym materiale rysowana jest ta sama twarz w odpowiedzi na różne osoby. Jedno ujęcie z samochodu powraca gdzie tylko może, nawet w 1:40 podczas podróży kulki.

      @embrion: Też to widzę.

      I to wygląda wtedy tak, że algorytm powiedzmy że w miarę jest w stanie zgadnąć jakiego rodzaju jest to materiał - odróżnia filmy z pojazdów, widok twarzy i film ze spadającą kulką.

      Natomiast rekonstrukcja obrazu to już po prostu jakiś na "chybił-trafił" miks filmów ze zbioru uczącego.
      Powiedziałbym że ten drugi etap rekonstrukcji raczej jest do niczego - nie wydaje się być lepszy niż losowy dobór klatek ze zbioru uczącego.

    •  

      pokaż komentarz

      @hellfirehe: to ja bym dodał, że trochę dziwi mnie występowanie opóźnienia nawet do kilku sekund, jakby sygnały były bardzo mocno uśredniane przed interpretacją albo podczas niej.

    •  

      pokaż komentarz

      @embrion: trzeba pamiętać że sygnał który oni przetwarzają to EEG, z falami około kilkudziesięciu Hz.
      Nawet mierzony w wielu punktach, tak naprawdę jest sygnałem o stosunkowo małej entropii i zapewne po prostu nie da się z niego odczytać obrazu jako takiego, bo sygnał o obrazie przekazywany jest między neuronami, których stanu raczej nie da się odtworzyć elektrodami przyczepionymi na zewnątrz głowy.

      Co do opóźnienia, to zgaduję że algorytm "trzyma się" poprzednio sklasyfikowanego obrazu i zmienia go dopiero gdy sygnał odjedzie już daleko od wzorca.
      Czyli ogólnie w czasie kiedy sygnał jest nie wiadomo czym, to pokazywane jest to co zostało sklasyfikowane wcześniej.

      Sądzę że wbrew pozorom ten algorytm jak i cały sprzęt jest bardzo prosty.
      Jest wzorcowy obraz EEG przypisany do danych obrazów uczących i potem jakaś interpolacja między tymi obrazami na podstawie współczynników odczytanych z sygnału EEG podczas badania.

    •  

      pokaż komentarz

      @LowcaG niestety nie masz racji wszyscy z naszego gatunku mamy takie same neurony i budowa oka jest taka sama dla lewo czy prawo ręcznego, tak jak implanty słuchu/ślimaka działają tak samo dla lewego czy prawo ręcznego człowieka, natomiast są różnice w aktywności i szybkości działania różnych obszarów mózgów dla każdego człowieka, np. taki snajper ma lepszy obszar odpowiedzialny za skupienie czy oddech, tak jak nurek, a kanapowy Mirosław co piwo popija ma papkę w głowie xDD

    •  

      pokaż komentarz

      @hellfirehe ciekawie prawisz o tym EEG, ale ja to widzę tak że człowieka i AI idzie wytresować nawet na zmiany napięcia mięśni czy drgania powieki albo zmiany oddechu.
      Np. Człowiekowi pokazują jak biegnie tygrys, reakcja organizmu ucieczka, Al wie że widziałeś tygrysa.
      Człowiek widzi jedzenie to zaczynasz ślinic się, AI wie że widzisz jedzenie itp...

    •  

      pokaż komentarz

      Człowiek widzi jedzenie to zaczynasz ślinic się, AI wie że widzisz jedzenie itp...

      @Natsu9: tak I to jak widać na filmie w miarę się udaje.
      Ale faktyczne odtworzenie obrazu na podstawie EEG pewenie się nie uda.

      AI sterowana EEG niskiej czestotliwosci zgadnie że się slinisz na jedzenie, ale nie zgadnie co to za jedzenie ani jakiego jest koloru ani na jakim talerzu.

    •  

      pokaż komentarz

      @Daleki_Jones: @dzafel: @LowcaG: Dla ludzi którzy rozumieją AI/ML to chyba nie jest zaskoczenie xD

    •  

      pokaż komentarz

      w doświadczeniu nie wizualizowali tego co mózg "widzi" tylko wyuczyli AI że takie-i-takie fale to prawdopodobnie to-i-to, więc AI na podstawie wcześniej wyuczonych filmów próbowało przerobić fale na obraz. Jakby babka spojrzała na coś co AI nie miało wyuczone to by była dupa. Do szpiegowania ciągle się nie nadaje, ale progres jest ( ͡° ͜ʖ ͡°)

      @dzafel: Moim zdaniem to zbytnie uproszczenie sprawy. Mózg ludzki również nauczyło się, że taki i taki obraz na siatkówce to to i to, zwłaszcza, że m.in. w rzeczywistości spostrzegamy świat do góry nogami.
      Poza tym nie, żadne AI tylko sieci neuronowe i nic nie stoi na przeszkodzie aby zwiększyć ilość wzorców do trenowania sieci. Więc imo jak najbardziej wizualizowali to co mózg "widzi". Chyba, że uważasz, że człowiek jest w stanie 1:1 "rozkodować" EEG. Jeżeli kiedykolwiek rozwinie się to na większą skalę to tylko w oparciu o głębokie SN.

    •  

      pokaż komentarz

      niestety nie masz racji wszyscy z naszego gatunku mamy takie same neurony i budowa oka jest taka sama dla lewo czy prawo ręcznego, tak jak implanty słuchu/ślimaka działają tak samo dla lewego czy prawo ręcznego człowieka, natomiast są różnice w aktywności

      @Natsu9: hm... ale ja nigdzie nie pisalem ze mamy różną budowę neuronów tylko właśnie pisalem o ich aktywnościach. Gdzie w przypadku operacji na mózgu indywidualnie szukaja strefy odpowoadającej za "coś".

    •  

      pokaż komentarz

      @dzafel:

      @LowcaG: no tak, o to mi chodziło, nawet to samo miałem napisane w swoim komentarzu, ale przed publikacją usunąłem zbędne zdania, bo chciałem jak najkrócej ( ͡° ͜ʖ ͡°)

      Pewnie wyczytałeś z jego fal mózgowych :-)

    •  

      pokaż komentarz

      @Daleki_Jones: ale taki autoencoder mógłby na bazie tych obrazów nauczyć się "przepisywanie" impulsów na obraz już bez nauki

    •  

      pokaż komentarz

      @Daleki_Jones: mamy kable podpięte pod mózg i ekran który wyświetla to o czym myślimy, tylko to się liczy, reszta jest już tylko kwestią czasu... Jestem pewien że kiedyś będziemy mogli przekazywać sobie wyobrażone obrazy, figury a nawet dźwięki.

    •  

      pokaż komentarz

      @Daleki_Jones: dodajmy jeszcze, że to żadne AI tylko zwykłe ML

    •  

      pokaż komentarz

      dodajmy jeszcze, że to żadne AI tylko zwykłe ML

      @zarowka12: ML zawiera się w AI. Można by się było czepiać gdyby w tytule było napisane AGI ( ͡~ ͜ʖ ͡°).

  •  

    pokaż komentarz

    Trochę przerażające. Z drugiej strony nauka dogania SF szybciej niż moglibyśmy przypuszczać.

    •  

      pokaż komentarz

      @xandra: Może być bardzo przydatne. Mózg człowieka nie odróżnia czy obraz pochodzi z pamięci czy jest „live”. Gdy zostanie to dopracowane to portret pamięciowy będzie w ułamku sekundy z dużą dokładnością.

    •  

      pokaż komentarz

      Mózg człowieka nie odróżnia czy obraz pochodzi z pamięci czy jest „live”

      @beliar_ttl: zaciekawiłeś mnie, możesz rozwinąć jak to działa lub podrzucić jakieś źródło?

    •  

      pokaż komentarz

      @xandra: @xandra: Takie rozwiązanie ma niesamowicie wiele zastosowań. Oby to poszło naprawde w pozytywnym kierunku. To swoja drogą...
      At eraz pytanie wi fi może zakłuwając ludzkie fale mózgowe czy nie? :)

    •  

      pokaż komentarz

      @xandra: rownie przerazajacy jest fakt, ze skoro moga odczytywac obrazy na podstawie fal mozgowych, to znaczy, ze za jakis czas beda rowniez mogli przesylac obrazy do mozgu. A to oznacza, ze niektore urojenia tak naprawde nie beda urojeniami, lecz swiadomym dzialaniem obcych ludzi

    •  

      pokaż komentarz

      @1234AQ: ta, żebyśmy się nie zdziwili, że to pójdzie w pozytywnym kierunku. Już służby się zastanawiają jak to dopracować, żeby wcisnąć wspomnienia potencjalnym świadkom.
      Skoro można odczytać obraz z fal mózgowych to może również można tak zmodulować fale ofiary, by wydawało jej się, że wchodzi na pustą jezdnię a nie pod TIR-a.

    •  

      pokaż komentarz

      @beliar_ttl: wariografu już nikt nie oszuka

    •  

      pokaż komentarz

      @baronio

      A to oznacza, ze niektore urojenia tak naprawde nie beda urojeniami, lecz swiadomym dzialaniem obcych ludzi

      źródło: i0.wp.com

    •  

      pokaż komentarz

      @xandra: Bo prawdziwe Sci-Fi mocno oparte jest na nauce a opowiada tylko o rzeczach których jeszcze nie posiadamy ale są teoretycznie możliwe

    •  

      pokaż komentarz

      Niedługo zapraszam na seans moich snów

    •  

      pokaż komentarz

      @malyalewarjat: oczywiście że sie da, przecież podczas 2 wojny usa tego używało.

    •  

      pokaż komentarz

      @xandra czy ja wiem czy przerażające, przynajmniej zobaczymy coś fajnego za naszego życia. Postęp jest nieunikniony, tylko pytanie jak będzie wykorzystany, teraz to urządzenie razem z komputerem kwantowym i przekaz w drugą stronę i mamy prawdziwa wirtualna rzeczywistość. Nie pamiętam jak się nazywa ta wanna z wodą z dużą ilością soli, dająca wrażenie lewitacji i voilà. Mogę być kim chce.

    •  

      pokaż komentarz

      @1234AQ:

      . . . kliknij, aby rozwinąć obrazek . . .

      źródło: Screenshot_20191108-121424_Drive.jpg

    •  

      pokaż komentarz

      @xandra: długo jeszcze nie dogoni. Trzeba pamiętać, że to są algorytmy, a nie "rozumowanie".

    •  

      pokaż komentarz

      @xandra: czekac tylko jak bedzie mozna odczytywac mysli. Te eksperymenty duzo moim zdaniem pokazuja w kwesti filozoficznej - nasze mysli i przezycia to jednak tylko impulsy, ktore mozna odczytac a nie jakies zaklete neiwidzialne dusze.

    •  

      pokaż komentarz

      @przekret512: Wcześniej udało się, choć trochę na mniejszą skale odczytać obrazy ze snów... Oczywiście, że nie ma duszy, jest za to samoświadomość.

    •  

      pokaż komentarz

      Trzeba pamiętać, że to są algorytmy, a nie "rozumowanie".

      @marilyn92: Każdy mechanizm niezawierający w sobie niewyjaśnionej magii jest algorytmem. Nawet inteligencja.

    •  

      pokaż komentarz

      @AdireQ: baaardzo mocno generalizujesz.

      Weźmy na przykład AI które namalowało obraz. Czy to oznacza, że komputery zostały artystami? Niekoniecznie. Ich „twórczość” to tak naprawdę efekt matematycznej analizy tysięcy dzieł stworzonych wcześniej przez ludzi. W przypadku muzyki – do zapisów nutowych można dodać dane o emocjach, jakie określone układy melodyczne wywołują u ludzi. Nie trzeba już zdolnego muzyka, by napisać chwytającą za serce melodię. Tutaj kolejne „ale” – algorytm nie rozumie emocji, które sam wywołuje, bo reakcje słuchaczy traktuje zero-jedynkowo: płacze / nie płacze.

      Ostatecznie więc to nie algorytm jest artystą, ale człowiek, który go stworzył, dał mu bazę danych do nauki, a następnie wybrał te efekty pracy AI, które mogą uchodzić za sztukę.

      Tak samo nie ma sie co bać utraty pracy. Te same obawy podnoszono, gdy w XIX wieku manufaktury zastępowały fabryki, a potem w XX wieku, gdy przy taśmach produkcyjnych ludzi zastępowały roboty. Pracownicy banków bali się bezrobocia, gdy upowszechniały się bankomaty, a na księgowych padł blady strach, gdy na rynku pojawił się Microsoft Excel. Nowoczesne technologie wyręczają ludzi w powtarzalnych czynnościach. Algorytmy już teraz pozwalają firmom ograniczać zatrudnienie w działach zajmujących się buchalterią, bo AI lepiej radzi sobie z dokumentami niż przemęczona księgowa. Techników medycznych zastąpią w końcu algorytmy, bo są skuteczniejsze w diagnozowaniu zmian nowotworowych.

      Roboty nie będą w stanie budować relacji w firmach, miękko motywować pracowników, wymyślać konceptów kreatywnych ani – jeszcze długo – wyciągać konstruktywnych wniosków. Nie będą w stanie też zachęcić menedżerów do jakiejś pomysłowej idei. Spośród wielu obszarów przemysłu, tak naprawdę tylko kilka będzie mogło skorzystać z szansy, jaką daje robotyzacja.

      Liźnij trochę tematu, bo widać, że nie masz o nim pojecia :P

  •  

    pokaż komentarz

    Rosjanie już nie takie rzecz konstruowali i pokazywali ¯\_(ツ)_/¯

    źródło: boris.jpg

  •  

    pokaż komentarz

    Potwierdzone info. Kolejny przykład z życia. ( ͡° ͜ʖ ͡°)

    źródło: fresk.jpeg

  •  

    pokaż komentarz

    Na obecnym etapie, to zwykła ciekawostka. Gorzej będzie, kiedy za pare, parenaście lat dopracują te metodę.
    Wtedy wystarczy umieścić urządzenie potrafiące odczytywać fale mózgowe w telefonie, albo nawet w jakimś chipie wszczepianym pod skórę i nasze oczy staną się kamera dla... no właśnie, kogo? Korporacji? Rządu?

    •  

      pokaż komentarz

      @tuberculosisis: kiedyś systemy do monitorowania ludzi, też były ciekawostką.

    •  

      pokaż komentarz

      @tuberculosisis: Chyba nie wierzysz w to, ze pomysl wszczepienia czegokolwiek kazdemu przejdzie.
      - protesty obywateli to oczywista sprawa
      - ale pomysl o
      - protestach opozycji
      - i protestach partii rzadzacej
      bo jak kazdemu to kazdemu. Moze kotopchacz sie uchroni ale czy jego slugusy tez? Watpie. Wiec potencjalnie bedzie mozna zebrac na ta zgraje debili mase hakow. Myslisz ze kicikiciwdupkelubie sie na to zgodzi? No chyba zeby to nie dotyczylo poslow. Ale wtedy protesty (mam nadzieje) beda ogromne. Sam zapowiadam ze na takim bede i nie bede taki grzeczny jak przy ACTA mimo ze spokojnym czlowiekiem jestem.

    •  

      pokaż komentarz

      @verul: Nie ma potrzeby ludzi do tego zmuszać, wystarczy zachęcać a jeszcze będą płacili. Większość z nas codziennie chodzi z podsłuchem i lokalizatorem.

    •  

      pokaż komentarz

      @verul: XDDDDDD ktoś tu wierzy, że obywatele mają cokolwiek do powiedzenia XDDDD O ile w ogóle się o tym dowiedzą ( ͡° ͜ʖ ͡°)
      każde przypuszczenie będzie przerabiane na teorie spiskowe, a nawet jeśli pojawią się niezbite dowody, to przecież bydło i tak nic nie zrobi - patrz sprawy typu Snowden - i co k@!!a? I gówno. Bydło nadal albo się rucha, albo wp$%!%$$a i ogląda seriale. Dziękuje, do widzenia

    •  

      pokaż komentarz

      @verul: brak Ci wyobraźni, wszystko traktujesz dosłownie, ludzie nie będą czipowani jak bydło pod przymusem, ludzie będą sobie wszczepiać różne rzeczy tak jak dziś robią tatuaże i jeszcze za to płacić grube hajsy, masz smartfon który zbiera mnóstwo danych, masz f b czy insta na który trafiaja twoje zdjęcia filmy czy rozmowy.

    •  

      pokaż komentarz

      @tuberculosisis: nie zgodzę się z Tobą, wszystko co jest na prąd wytwarza fale elektromagnetyczne które powodowały by ogromne zakłócenia, a nasze mózgi działają na bardzo niskich falach, więc żeby to dobrze odczytać elektroda musiała by być blisko mózgu lub w nim. No więc skoro telefon łatwiej jest użyć do podsłuchiwania dźwięku niż do odczytywania fal mózgowych to po co kombinować.

    •  

      pokaż komentarz

      @verul: przecież już niektórzy się czipują, by dokinywać płatności bez noszenia karty, by monitorować miejsce pobytu (miliinerzy z doliny krzemowej podobno tak "szczepią" swoje dzieci, bo często dostają pogróżki z motywem porwania najbliższych i okupu).

    •  

      pokaż komentarz

      @balrog84: Nie mam ani insta ani fb ani innego syfu. Smartfona co prawda mam ale widze roznice pomiedzy danymi zbieranymi przez smartfona a jakis implant ktory rejestruje to co widze.

    •  

      pokaż komentarz

      @verul: O tym właśnie mówiłem, wszystko traktujesz dosłownie lub do siebie. Nie chodzi o Ciebie i o to czy masz FB, chodzi o to, że używa go kilkaset milionów ludzi i nikt ich do tego nie zmusił. Chciałem tylko wskazać podobieństwo. Piszesz, że nie masz jednego czy drugiego, ale od technologii nie sposób dziś uciec - niestety.

    •  

      pokaż komentarz

      @balrog84: Traktuje do siebie bo jezeli mnie bedzie dotyczyc to jak to inaczej traktowac? To czy wszczepia chipy innym dobrowolnie mnie nie obchodzi. Jak beda chcieli innym wszczepiac pod przymusem to wtedy mnie zacznie obchodzic.

Dodany przez:

avatar SkrytyZolw dołączyła
636 wykopali 41 zakopali 26.9 tys. wyświetleń