•  

    pokaż komentarz

    A przeprowadzono test porównawczy z żywym kierowcą? Bo łatwo zarzucać niedoskonałość oprogramowaniu samochodów automatycznych, ale generalnie pytanie brzmi: czy są bezpieczniejsze niż żywi kierowcy?

    •  

      pokaż komentarz

      @singollo: Cóż...

      źródło: paczaizm.pl

    •  

      pokaż komentarz

      @singollo:

      Żaden żywy kierowca, nawet mając 1 promil we krwi, nie zmieni pas ruchu w powodu kilku białych plastrów naklejonych nieregularnie na asfalcie.

      Fig 30. Left picture shows we add some patch around the left lane line in digital level, and right
      picture shows the result

      źródło: 23243242424.jpg

    •  

      pokaż komentarz

      @singollo: A jak miałby wyglądać ten test? Zdecydowanie na tego typu ataki kierowcy są mniej podatni (to wyświetlenie znaku z 3:05 ciężko człowiekowi zauważyć, a co dopiero się do niego zastosować), a mylenie ludzi innymi metodami byłoby z kolei nieporównywalne z tym co zrobiono na nagraniu. Do tego w przypadku autopilota w danych warunkach można z góry przewidzieć jak się on zachowa, w przypadku kierowcy można co najwyżej stworzyć statystykę opartą na jakiejś odpowiednio dużej próbce.

      Celem tego testu nie było raczej pokazanie, że autopilot "jest be", czy mniej skuteczny niż człowiek, tylko że można go stosunkowo prostymi środkami oszukać. Biorąc pod uwagę, że dokonali tego naukowcy z Izraela i Rosji aż się dziwię, że dzielą się wynikami, zamiast wykorzystywać w pracy wywiadów, bo to wygląd na niezły sposób na zamach w białych rękawiczkach ( ͡º ͜ʖ͡º)

    •  

      pokaż komentarz

      @motokate: @RFpNeFeFiFcL: na "Polskich Drogach" na youtubie są dziesiątki przykładów kierowców niewidzących czerwonego światła czy samochodu przed maską. Wydawałoby się, że "nie da się nie zauważyć"... pierwszy przykład z brzegu: https://youtu.be/wTAxJiDzsic?t=239

      Tak więc nie chodzi o to, czy AI jest nieomylna, tylko czy myli się częściej od człowieka.

    •  

      pokaż komentarz

      Tak więc nie chodzi o to, czy AI jest nieomylna, tylko czy myli się częściej od człowieka.

      @singollo: dokładnie, a wszystkie dotychczasowe dane wskazują na to, że myli się rzadziej niż człowiek.

    •  

      pokaż komentarz

      Żaden żywy kierowca, nawet mając 1 promil we krwi, nie zmieni pas ruchu w powodu kilku białych plastrów naklejonych nieregularnie na asfalcie.

      @RFpNeFeFiFcL: ale zdajesz sobie sprawę, że jest to w zasadzie wersja beta i nadal jest aktywnie rozwijana?

    •  

      pokaż komentarz

      @Jan_K:

      Celem tego testu nie było raczej pokazanie, że autopilot "jest be", czy mniej skuteczny niż człowiek, tylko że można go stosunkowo prostymi środkami oszukać.

      Właśnie tego wiele fanbojów TESLA chyba nie potrafi zrozumieć.

      Biorąc pod uwagę, że dokonali tego naukowcy z Izraela i Rosji aż się dziwię, że dzielą się wynikami, zamiast wykorzystywać w pracy wywiadów

      Bez wapienia coś zostawili dla siebie na zapas.

    •  

      pokaż komentarz

      wyświetlenie znaku z 3:05 ciężko człowiekowi zauważyć

      @Jan_K: ale ten "fantom" z 1:30 na pewno skłoniłby mnie do zwolnienia i dokładnego przyjrzenia się drodze.

    •  

      pokaż komentarz

      @singollo: podstawowa różnicą w błędach człowieka i maszyny jest to, że człowieka ukarzesz i ewentualnie ściągniesz z niego hajs. A kogo ukarzesz i z kogo ściągniesz hajs w przypadku błędu komputera?

      Z tego też powodu, mimo, że rozwój idzie w oczach, nie wydaje mi się, żeby prawo, zwłaszcza w Europie, prędko dopuściło do ruchu full autonomiczne pojazdy. Jeszcze długo będzie musiał być ktoś w roli kozła ofiarnego za kierownicą "do nadzorowania", w praktyce do udupienia "w razie w"

    •  

      pokaż komentarz

      Bez wapienia coś zostawili dla siebie na zapas.
      @RFpNeFeFiFcL xD.
      Ile osób, które chciałby zabić wywiad porusza się teraz autonomicznymi samochodami?

    •  

      pokaż komentarz

      @RFpNeFeFiFcL: Prosze, nie uzywaj takich argumentow, bo historia ludzi jako kierowcow juz jest bardzo dluga i - nie wiem czy uwierzysz - ale zywi kierowcy nawywijali juz trochę glupszych rzeczy niz "zmiana pasa ruchy z powodu kilku bialych plastrów naklejonych nieregularnie na asfalcie"

    •  

      pokaż komentarz

      @singollo: akurat w Polsce jest pełno nie do końca przemyślanych sygnalizacji świetlnych (jak się jedzie chowają się za drzewem, słupem innym znakiem).

      źródło: 4e406be94b07f_o,size,933x0,q,70,h,28caf6.jpg

    •  

      pokaż komentarz

      @RFpNeFeFiFcL: kolego na wykopie o Tesli mówi się dobrze albo wcale. Tak jak kibicuje Muskowi to moim zdaniem, przynajmniej na wykopie, Tesla ma najbardziej toksyczna społeczność. Co jeszcze bardziej śmieszy biorąc pod uwagę, że może 2-3 wykopków ma Teslę.

    •  

      pokaż komentarz

      @singollo: To nie ma większego znaczenia, bo istnieje takie coś jak przykłady antagonistyczne (adversarial samples), czyli wzorce, które mają dla człowieka wyglądać niewinnie, a dla współczesnych AI wyglądają jak coś zupełnie innego. Tu masz filmik z żółwiem, który pod każdym niemal kątem wg AI jest karabinem: https://www.youtube.com/watch?v=piYnd_wYlT8

      źródło: researchgate.net

    •  

      pokaż komentarz

      @Piastan:

      kolego na wykopie o Tesli mówi się dobrze albo wcale. Tak jak kibicuje Muskowi to moim zdaniem, przynajmniej na wykopie,

      Ależ ja jestem też zwolennikiem Muska (nie tym ortodoksyjnym oczywiście) bardzo go lubię i szanuję.
      Ten temat nie jest skierowany na hejtowanie Tesly, tylko wskazuję na niedoskonałość funkcji Autopilot którą można w tak prymitywny sposób zhakować.

    •  

      pokaż komentarz

      @vytah: Ach, to pokazuje jak daleko jesteśmy od prawdziwej sztucznej inteligencji na poziomie choćby głupiego zwierzątka.

    •  

      pokaż komentarz

      Tu masz filmik z żółwiem, który pod każdym niemal kątem wg AI jest karabinem

      @vytah: @RFpNeFeFiFcL: Ale trzeba zauważyć, że to jest dla tej konkretnej sieci. Której znamy strukturę itd.
      Dla innej sieci to będzie dalej żółw.

      Z budową mózgu jest podobnie, nie znamy co prawda jego struktury (jak byśmy dość dobrze znali to też moglibyśmy tak robić) ale mamy za to złudzenia optyczne i założe się, że można znaleźć setki sposobów aby człowieka zmylić.

    •  

      pokaż komentarz

      @LowcaG: 1. Nie trzeba znać struktury sieci, by przygotować przykład antagonistyczny. https://arxiv.org/pdf/1805.07820.pdf https://arxiv.org/abs/1810.00470 http://proceedings.mlr.press/v97/guo19a/guo19a.pdf
      2. Są metody tworzenia przykładów antagonistycznych, które po przygotowaniu zadziałają dla większości podobnych sieci trenowanych na podobnym zbiorze danych. https://arxiv.org/pdf/1803.06978.pdf
      3. Konkretny model auta ma jeden model sieci, tak więc atak działający na jedną teslę zadziała też na pozostałe – a i tak łatka zmieniająca model na lepiej poduczony może nie pomóc.

    •  

      pokaż komentarz

      @vytah:
      1. Ok faktycznie można algorytmami genetycznymi itp.
      2. Dzięki za linka, wydaje się interesujący. Kwestia co to znaczy "podobne sieci" i "podobne zbiory danych".
      3. I tak to jest problem. Pierwszym z brzegu rozwiązaniem wydaje się budowanie kliku sieci "niepodobnych" działających w systemie. Dodatkowo, sieć wykrywająca antagonistyczne przykłady dla danych sieci. To może tak rozszerzyć przestrzeń do przeszukania, że stanie się to nieopłacalne.

      hm... w sumie jak tak myślę, można było by zrobić dodatkową sieć weryfikującą która jest każda inna dla danego modelu.

      Wg. nie problemem nie jest to, że można oszukać bo każdego można oszukać, ale własnie na powtarzalności, że znając sposób na jednego znasz na wszystkich.

    •  

      pokaż komentarz

      @RFpNeFeFiFcL: jedyne co wynika z tego filmiku to to, że programiści zrobili kawał dobrej roboty, bo ai działa jak należy

  •  

    pokaż komentarz

    W dużym skrócie:

    W trakcie eksperymentów nanoszono dodatkowe oznaczenia drogowe, obrazy pieszych i samochodów na drogę, a także rzutowano (w dużej rozdzielczości) znaki drogowe na ściany budynków.

    Jako urządzenia modelowe wykorzystali Tesla Model X z systemem Autopilot, a także Renault Captur, wyposażony w modułowy system Mobileye 630 Pro, który realizuje funkcje ADAS. Naukowcy wykazali, że oba systemy można oszukiwać poprzez rzutowanie na drzewa lub ściany znaków drogowych, a w jednym z eksperymentów urządzenie Mobileye zostało oszukane poprzez rzutowanie z drona - czyli w razie potrzeby oszust może zaatakować konkretny samochód.

    Badacze znaleźli najbardziej niebezpieczne luki w autopilocie Tesla, ponieważ, w przeciwieństwie do Mobileye, prowadzi on samochód, a nie wysyła ostrzeżenia. Za pomocą projektora umieszczonego na skraju drogi, rzutowali obraz pieszego na asfalt i modyfikowali oznaczenia drogowe. W obu przypadkach algorytmy zadziałały nieprawidłowo: w przypadku pieszego, samochód przejechał go, rozpoznając w ostatniej chwili, a fałszywe oznakowanie spowodowało, że samochód skręcił w kierunku krawężnika.

    Jako obronę przed takimi atakami, naukowcy sugerują, aby twórcy systemów wspomagających sterowanie nauczyli sieci neuronowe filtrowania obiektów i obliczania fałszywych obiektów w oparciu o ich kontekst lokalizacji, względny rozmiar, oświetlenie i teksturę. Naukowcy wysłali swoje wyniki do Tesli i Mobileye z wyprzedzeniem, ale Mobileye odpowiedział, że nie uważa tego za lukę, a Tesla odmówił komentarza, powołując się na modyfikację samochodu przez autorów. Badacze zauważają, że przedstawiciele Tesli mieli prawdopodobnie na myśli eksperymentalny sposób rozpoznawania znaków drogowych.

    Tesla posiada inne krytyczne luki w swoim systemie Autopilota. Na przykład w 2016 r. Tesla Model S zderzyła się z jasną ciężarówką, nie dostrzegając jej na jasnym niebie, co doprowadziło do śmierci kierowcy. A trzy lata później doszło do prawie identycznego śmiertelnego wypadku z udziałem Modelu 3. Następnie jeden z właścicieli Tesli uzyskał dostęp do "surowych" danych systemu Autopilot i stwierdził, że system nieprawidłowo przetwarza te dane, przyjmując naczepy samochodów ciężarowych za wysokie obiekty, pod którymi można przejechać.

    Pełna publikacja badania w formacie PDF https://eprint.iacr.org/2020/085.pdf

    #######################################################################

    #swiatnauki #gruparatowaniapoziomu #liganauki #ligamozgow #qualitycontent
    #technologia #samochody #motoryzacja #bezpieczenstwo #tesla

    źródło: C78CB00E37B6BC38A540BABABE3D1EA82F3B532BFD4CBC3788pimgpsh_fullsize_distr_yapfiles.jpg

  •  

    pokaż komentarz

    No dziwne. Szok i niedowierzanie.
    A jak by żul z puszką farby namalował ładnie żółte pasy inaczej niż przebiegają białe to głupie ludzie też by się pogubiły i myślały że remont.

  •  

    pokaż komentarz

    Mnie mimo wszystko trochę bawią konkluzje i wnioskowanie po tych badaniach ;) Z jednej strony wskazują oczywiste wady tych systemów na obecnym poziomie rozwoju, ale z drugiej sugerują jakieś nadzwyczajne niebezpieczeństwo. Zagrożenie, które można tak samo wymusić na żywym kierowcy. Sądzę, że nie trzeba byłoby się nawet gimnastykować w jakieś drony, żeby prawdziwego kierowcę zwieść. Powiem więcej - automaty się z czasem nauczą bawić z takimi pierdołami, a tępi ludzie nigdy.

    Tak naprawdę to już dzisiaj te upośledzone auto i półautomaty są wielokrotnie bezpieczniejsze niż przeciętny człowiek za kierownicą. Będziemy dopracowywali te systemy do milionowych części procenta zanim wejdą na standard, a w międzyczasie zginą miliony ludzi, bo najbardziej zawodny jest zawsze człowiek. To oczywiście przenosi się na fakt, że systemy też tworzą ludzie, ale patrząc na światowe popieprzenie odnośnie nowości to wyczuwam potencjalną paranoję jak z samolotami. Najbezpieczniejszy środek transportu, bezpieczniejszy niż własne nogi na własnych schodach, ale jedna katastrofa rocznie sieje taki zamęt w baniaku, że powstaje irracjonalny strach przed... bezpieczną rzeczą. Ciul tam, że kilkaset % mniej ofiar, mniej wypadków - zatrzymujmy technologię, bo nie jest perfekcyjna. Lepiej to zrobi przecież człowiek, najzadowniejszy z elementów od zawsze.

    •  

      pokaż komentarz

      @oiio: Ale to jest dość niebezpieczne. Szczególnie w momencie, gdy taki autopilot miałby do czynienia z np. remontem drogi. Co częste w takich przypadkach, to znaki poziome przemalowane lub dodane dodatkowe w innym kolorze, jako informacja dla kierowców o zmianie organizacji ruchu. Dla współczesnego AI jest to póki co problem nie do przeskoczenia.

      Poznanie ograniczeń jest bardzo istotne w rozwoju.

    •  

      pokaż komentarz

      @oiio: ten strach przed lataniem nie jest irracjonalny. Chodzi o to, że w przypadku katastrofy lotniczej nie masz absolutnie żadnego wpływu na nic i na 99.9% zginiesz. W przypadku wypadków samochodowych, ludzie najczęściej giną z własnej głupoty, a większość wypadków nie jest śmiertelna.

    •  

      pokaż komentarz

      @oiio: dokładnie. Z tym, że ciągle mówimy tu o pojedyńczym samochodzie poruszającym się z innymi ludźmi w środowisku przystosowanym dla ludzi, a nie komputerów. Gdy samochodów samojezdnych będzie więcej, gdy będą lokalnie i globalnie wymieniać informacje ze swoich czujników, gdy drogi i znaki będą przystosowane do takich uczestników ruchu, to jestem skłonny się założyć, że w skali kraju wypadków będzie tyle co obecnie w skali powiatu. No i jeszcze trzeba dodać, że metody sztucznej inteligencji mają tę cechę, że są zdolne do adaptacji. Każdy incydent jest analizowany i są z niego wyciągane wnioski.

    •  

      pokaż komentarz

      @jaqqu7: od jakiegoś czasu radzi sobie coraz lepiej. Szczególnie ostatnie wersje oprogramowania całkiem dobrze wykrywają słupki i ogólnie remonty. Zawsze się zastanawiam jak autopilot będzie sobie radził w przypadkach, gdy słupków jest mniej (lub nie ma ich wcale), ale są właśnie przemalowane pasy. Praktyka pokazuje, że NN bardziej uczy się rozpoznawać powierzchnie, które nadają się do jazdy niż pasy drogowe. Może dzięki temu ignorować np. niewyraźne, czy pokreślone znaki poziome, ale radzi sobie w miejscach, gdzie nie ma ich wcale, bo wie, że po utwardzonej drodze też się da pojechać.

      Generalnie NN w autopilocie coraz bardziej przypomina zachowanie człowieka, bo uczy się na danych pochodzących od kierowców.

      źródło: youtube.com

    •  

      pokaż komentarz

      @oiio: Takie pojazdy autonomiczne w pojedynkę na pustej drodze jeszcze się będą gubiły, nie ma co o tym dyskutować. Nie będą perfekcyjne w ocenie sytuacji zawsze i wszędzie. Oszukanie takiego systemu przy pomocy ludzkiej kreatywności i odrobinie abstrakcyjnego myślenia tylko pomoże te systemy w przyszłości usprawniać. Upatruję znaczącą poprawę takich głupawych zachowań jak pojazdy będą mogły współdzielić dane telemetryczne. Historia przejazdów innych samochodów i bieżące dane o torze jazdy, prędkości pojazdów znajdujących się w bezpośrednim otoczeniu.

      Taki automat póki co to fajny gadżet na stanie w korkach i drogi szybkiego ruchu.

    •  

      pokaż komentarz

      przemalowane lub dodane dodatkowe w innym kolorze, jako informacja dla kierowców o zmianie organizacji ruchu. Dla współczesnego AI jest to póki co problem nie do przeskoczenia.

      @jaqqu7: Z ciekawości i dla zabawy spojrzałem na Twoje ulubione tagi, by ocenić Twoje kompetencje do wygłaszania tak specjalistycznych i radykalnych hipotez. Na razie pozostanę sceptyczny ( ͡° ͜ʖ ͡°)

      źródło: i.imgur.com

    •  

      pokaż komentarz

      @60scnds: Ocenianie czyjejś wiedzy i kompetencji po tagach na wykopie xD

      Nawet one nie są aktualizowane od lat xD

      Plus uwierz mi - wiem trochę, bo siedziałem w wizji komputerowej i co nieco rozumiem działanie rozpoznawania obrazu oraz ograniczenia.

    •  

      pokaż komentarz

      @nicniezgrublem: Ok, w takim przypadku myślę, że AI nie powinno mieć problemów, bo jednak ma masę informacji dotyczących, jakie ma przed sobą przeszkody i jasno wyznaczoną przestrzeń jezdną.

      Natomiast wciąż mam wątpliwości co by się działo, gdyby użyto wyłącznie lub w tandemie znaków poziomych na drogach, które mocno modyfikowałyby tor przeznaczony do jazdy. Obecnie w mojej drodze do pracy mam praktycznie kilka linii nachodzących na siebie: stary układ namalowany białymi i zmieniony żółtymi, które niekiedy w obecnych warunkach pogodowych są trudne do wypatrzenia. Jest to kilkukilometrowy odcinek - obawiałbym się, że tutaj AI mogło by mieć jeszcze kłopoty.

    •  

      pokaż komentarz

      @jaqqu7: Tagi to był żart, a w wiedzę wątpię jak za każdym razem, kiedy widzę takie bardzo odważne podsumowania. Teraz piszesz "obawiałbym się, że tutaj AI może mieć kłopoty", a przed chwilą, że dla współczesnego AI to są problemy nie do przeskoczenia. Wiesz, co oznacza takie sformułowanie? Że nie ma ani rozwiązania problemu, ani realistycznej perspektywy na rozwiązanie problemu w najbliższym czasie. Także już teraz się rozjeżdżasz. Naprawdę trzeba mieć srogą wiedzę na jakiś temat, żeby z czystym sumieniem napisać coś takiego, a to i tak zawsze ryzyko.

      Bawi mnie bezbłędnie, kiedy ktoś na necie pisze "wierz mi" ( ͡° ͜ʖ ͡°)

    •  

      pokaż komentarz

      @60scnds: Bo to jest spory problem, a AI to nadal relatywnie młoda technologia z licznymi ograniczeniami wieku dziecięcego. Mówię "obecnie", co nie oznacza że w najbliższej przyszłości tego nie rozwiążą ¯\_(ツ)_/¯