•  

    pokaż komentarz

    o, nowa ciekawostka dla hobbystów

    •  

      pokaż komentarz

      o, nowa ciekawostka dla hobbystów

      @koragol:

      Od czerwca tego roku Nvidia chce zaoferować specjalną wersję modułu obliczeniowego Jetson Nano producentom sprzętu, do integracji z ich rozwiązaniami. Branża motoryzacyjna już zaciera ręce.

      Na pewno tylko o hobbystów chodzi?

    •  

      pokaż komentarz

      o, nowa ciekawostka dla hobbystów

      @koragol: To nie jest ciekawostka dla hobbystów, to jest development-board dla przemysłowych modułów.

      Cena Cię zmyliła bo jest jak dla hobbystów i na pewno hobbyści zrobią z tego mega fajne rzeczy również. I zapewne wielu hobbystów nauczy się na tej platformie ciekawych rzeczy i potem zrobi przemysłowe rozwiązania.

      Cena $99 rzeczywiście zwala z nóg bo tego typu platformy developerskie są zazwyczaj w cenie $500-$1000!!! Chyba ostro dotują żeby zyskać jak najwięcej popularności.

      Patrząc na liczby (GFLOPS) to ta platforma jest 20x szybsza od RPIv3 i tylko 4x droższa. Na platformie są standardowe rozwiązania NVidia więc będą dostępne biblioteki typu TensorFlow liczące na GPU. Przy 4 GB pamięci (z opisu nie wiadomo czy jest dzielona pomiędzy GPU i CPU czy wspólna) i mocy 5W będzie można robić na tym całkiem skomplikowane obliczenia na obrazach w czasie rzeczywistym :-) I to nie na "obrazeczkach" w stylu 64x64 pix tylko na znacznie większych, spokojnie VGA.

      Innymi słówy różnego rodzaje nawigacje vision-based, rozpoznawanie twarzy w "dzwonkach do drzwi" i mnóstwo różnego rodzaju zastosowań "embeded" wymagających dużo mocy.

      Jeżeli to ma 5W jak pracuje to ma też niezły potencjał do podkręcania :-)

    •  

      pokaż komentarz

      rozpoznawanie twarzy w "dzwonkach do drzwi"

      @kwanty: proste rozpoznawanie twarzy to można robić z 2MP kamery na ESP32 z 0.5 MB RAMu, który kosztuje tyle co dobre piwo. Jetson Nano jest w stanie uruchamiać znacznie bardziej złożone modele.

    •  

      pokaż komentarz

      proste rozpoznawanie twarzy to można robić z 2MP kamery na ESP32 z 0.5 MB RAMu, który kosztuje tyle co dobre piwo. Jetson Nano jest w stanie uruchamiać znacznie bardziej złożone modele.

      @gl0wa: Myślałem o jakiś modelach DNN a nie prostym rozpoznawaniu ruchu bo chyba tylko tyle da się zrobić na ESP32 (które notabene jest mega fantastyczną zabawką :-)).

      Dla przykładu chciałbym sobie postawić kamerkę przed garażem, żeby brama otwierała się sama jak podjadę samochodem (rozpoznanie samochodu i nr rejestracyjnego). Albo jakieś face-recognition + gest ręką do autoryzacji i otwierania garażu/bramy. Jak na razie to takie zabawki jedynie za pomocą RPI + Intel Movidius. Platforma Nvidii wyszła by taniej, bardziej "pro" i ogólnie ze znacznie większymi możliwościami.

    •  

      pokaż komentarz

      @kwanty: na gołym R-Pi można odpalić TF lite. Myślę że rozpoznawanie tablicy w 1s dało by radę zrobić (są dostępne gotowe modele które robią bardziej skomplikowane rzeczy).

      Co do esp32, sprawdź “Face Detection and Recognition on the ESP32” by Alasdair Allan https://link.medium.com/tkGyCqWngV (z tym 2mp przesadziłem)

    •  

      pokaż komentarz

      @Gandalf_bialy: ale to już było - nazywało się Intel Edison, hajp nakręcony był pod sufit, zapowiedzi o współpracy z różnymi biznesami szumne, a projekt zakończył jakiś czas temu swoje życie ( ͡° ͜ʖ ͡°) niestety takie rzeczy często są tylko dla hobbystów bo

      1. Jak coś jest do wszystkiego to jest do niczego
      2. Chińczyk tańszy ( ͡° ͜ʖ ͡°)

      Niemniej kibicuje temu sektorowi i fajnie że kolejne rozwiązanie od dużego producenta pojawi się na rynku

    •  

      pokaż komentarz

      ale to już było - nazywało się Intel Edison, hajp nakręcony był pod sufit, zapowiedzi o współpracy z różnymi biznesami szumne, a projekt zakończył jakiś czas temu swoje życie ( ͡° ͜ʖ ͡°) niestety takie rzeczy często są tylko dla hobbystów bo

      @powaznyczlowiek: Szukam i ...

      https://pl.wikipedia.org/wiki/Intel_Edison

      Intel Edison – platforma komputerowa z dwurdzeniowym procesorem Intel Atom o taktowaniu 500 MHz, jedno-rdzeniowym mikrokontrolerem 100 MHz, wbudowanym Wi-Fi oraz Bluetooth Low Energy 4.0,

      Co by miało na tym chodzić? Bo moim zdaniem to od początku to było rozwiązanie za słabe dla profesjonalistów.

  •  

    pokaż komentarz

    @TeamQuest Potężny Jetson niszczy konkurencyje płytki dev. Zobacz! A tak na serio to co jest w nim przełomowego?

  •  

    pokaż komentarz

    Przełom w robotyce xD xD Kto wam to pisze? NVidia mająca problemy ML ze względu na konkurencję w postaci np. dedykowanych urządzeń typu tensor. W robotyce podłączasz zwykłego PC w obudowie przemysłowej z kartą graficzną albo nawet na CPU mniej wymagające modele(już nauczone) i jedziesz. Ta płytka jest fajna ale to żaden przełom.

    •  

      pokaż komentarz

      ze względu na konkurencję w postaci np. dedykowanych urządzeń typu tensor

      @CukrowyWykop: chodzi Ci o TPU od Googla? Z tego co się orientuję, to jedyne co można dostać porównywalnego do Jetson Nano to moduły Coral które jednak są trochę droższe, mniej wydajne, mniej pamięci (1 GB RAM) i obsługują tylko TF Lite.

      Jetson Nano to chyba najmniejszy i najtańszy moduł który potrafi uruchomić TensorFlow - umożliwi więc tworzenie bardziej zaawansowanych urządzeń wykorzystujących sieci neuronowe uruchamiane bezpośrednio na urządzeniu bez potrzeby dostępu do sieci. Być może nie jest to wielki przełom, ale znaczący postęp na pewno

    •  

      pokaż komentarz

      chodzi Ci o TPU od Googla?

      @gl0wa: Googlowe układy są dostępne w chmurze de facto i sobie jakiś czas temu czytałem porównanie przy uczeniu różnych chmur(dla różnych modeli m.in rcnn) i wszyszło że googlowe układy w samym uczeniu zastąpią ci spokojnie karty grafiki. Z resztą o ile pamiętam nie tylko google ma dedykowane układy do uczenia maszynowego.

      Jetson Nano to chyba najmniejszy i najtańszy moduł który potrafi uruchomić TensorFlow - umożliwi więc tworzenie bardziej zaawansowanych urządzeń wykorzystujących sieci neuronowe uruchamiane bezpośrednio na urządzeniu bez potrzeby dostępu do sieci. Być może nie jest to wielki przełom, ale znaczący postęp na pewno

      Raspberyypi też odpali dla urządzeń mobilnych np. do analizy obrazów masz modele typu mobile czyli lżejsze. Ale do jetsona mu daleko to karty którą ma jtson.

      Jak napisałem jetson to fajne urządzenie ale nie nazwałbym tego przełomem. Z resztą powiedzmy sobie prawdę, większość ML to data scienc a programowanie to sprawa drugo planowa.
      edit:
      Powiem więcej to jednego projektu przemysłowego teraz myślę czy tego nie kupić.

    •  

      pokaż komentarz

      @CukrowyWykop: robotyka to też roboty mobilne, drony i smart sensors.

    •  

      pokaż komentarz

      @TakNaprawdeJestemRobotem:

      robotyka to też roboty mobilne, drony i smart sensors.

      Tylko odpowiedz sobie na pytanie jakie są w smart sensors algorytmy? Żadne cuda typu tensorflow tylko regresja liniowa albo już bardziej wyszukane typu maszyny wektorów nośnych i np. implementacje w scikit lecą na CPU :) To o czym mówisz potrzebuje najwyżej w miarę rozsądnego procesora ARM.

    •  

      pokaż komentarz

      Tylko odpowiedz sobie na pytanie jakie są w smart sensors algorytmy

      @CukrowyWykop: zależy od sensorów. Np. w sensorach typu kamera przy ML umożliwia generowanie specjalizowanych zdarzeń zamiast obrazu.

      Raspberyypi też odpali dla urządzeń mobilnych

      @CukrowyWykop: TensorFlow Lite to można i odpalić na ARM Cortex-M4F za kilka dolarów, Jetson Nano uruchamia pełne modele TensorFlow

    •  

      pokaż komentarz

      zależy od sensorów. Np. w sensorach typu kamera przy ML umożliwia generowanie specjalizowanych zdarzeń zamiast obrazu.

      @gl0wa: Czy np. klasyczny MNIST można zrobić na SVM a nie tensorflow? Można. W tensorflow i rozpoznawaniu obrazu de facto dostajesz że wykryto obiekt X z takim prawdopodobieństwem, na takich pozycjach(znaczy sam temat jest głębszy niż to, to tylko przykład) itp. Odpalanie callbacków to wiesz klasyk w programowaniu są frameworki które pomagają w tym albo robi się to ręcznie.

      TensorFlow Lite to można i odpalić na ARM Cortex-M4F za kilka dolarów, Jetson Nano uruchamia pełne modele TensorFlow

      Co rozumiesz przez pełne modele? W sensie np. fasterrcnninceptionv2coco ? Na urządzenia mobilne masz po prostu mniej skomplikowane modele. Każdy przy projektowaniu systemu musi sobie odpowiedzieć na pewne pytania:
      a) Jechać od zera czy korzystać z gotowych modeli?
      b) Potrzebny jest real time czy nie?Jak w każdym projekcie, zastanawiasz się co ci potrzebne.

      Czy w smart sensor koniecznie musi być tensorflow czy wystarczą bardziej klasyczne metody(o których wyżej wspomniałem)?. Jetson fajna sprawa i pewnie sam kupię, może nawet do komercyjnego projektu ale twierdzenia "mamy przełom" są zbyt daleko idące.

    •  

      pokaż komentarz

      Tylko odpowiedz sobie na pytanie jakie są w smart sensors algorytmy?

      @CukrowyWykop: Pracuje w firmie ktora robi takie sensory wiec odpowiadam sobie na to pytanie dosyc czesto. Przy systemach wizyjnych czasami potrzeba wiecej niz ARM, a klienci jesli tylko moga wola unikac dodatkowego komputera.

      W robotyce podłączasz zwykłego PC w obudowie przemysłowej z kartą graficzną albo nawet na CPU mniej wymagające modele(już nauczone) i jedziesz.

      Rewolucja to moze nie jest, ale mowienie ze w robotyce wszystko da sie zalatwic PC w przemyslowej obudowie to cokolwiek przesada, bo w wielu przypadkach po prostu nie ma na to miejsca.

    •  

      pokaż komentarz

      W robotyce podłączasz zwykłego PC w obudowie przemysłowej z kartą graficzną albo nawet na CPU mniej wymagające modele(już nauczone) i jedziesz.

      @CukrowyWykop: Robotyka to nie tylko roboty przemysłowe, widziałeś kiedyś autonomicznego drona latającego ze zwykłym PC w obudowie przemysłowej?

      Googlowe układy są dostępne w chmurze de facto i sobie jakiś czas temu czytałem porównanie przy uczeniu różnych chmur(dla różnych modeli m.in rcnn)

      Tylko odpowiedz sobie na pytanie jakie są w smart sensors algorytmy? Żadne cuda typu tensorflow tylko regresja liniowa albo już bardziej wyszukane typu maszyny wektorów nośnych i np. implementacje w scikit lecą na CPU :)

      @gl0wa: Czy np. klasyczny MNIST można zrobić na SVM a nie tensorflow

      @CukrowyWykop: Nie uczy się chmur, tylko modele. SVM i regresja liniowa to algorytmy, TensorFlow to framework ( w którym de facto można łatwo zrobić oba z nich ). Mylisz pojęcia chłopie.

    •  

      pokaż komentarz

      Rewolucja to moze nie jest, ale mowienie ze w robotyce wszystko da sie zalatwic PC w przemyslowej obudowie to cokolwiek przesada, bo w wielu przypadkach po prostu nie ma na to miejsca.

      @TakNaprawdeJestemRobotem: Pytanie co robisz. Jeśli na linie przemysłową to dasz radę(od czego są szafy?), sam obecnie opracowuję system wizyjny dla Linii przemysłowej, patrząc na koszta to komputer z geforce 1060 to koszt pomijalny. Ale są zastosowania na liniach gdzie stare dobre algorytmy sobie dają radę i nie trzeba TF(czy innych). Także jak pisałem skala problemu i dopiero dobór sprzętu :)

    •  

      pokaż komentarz

      Nie uczy się chmur, tylko model
      > SVM i regresja liniowa to algorytmy, TensorFlow to framework

      Mylisz pojęcia chłopie.

      Przeczytaj jeszcze raz to co napisałem bo widać nie rozumiem. W którym miejscu piszę o uczeniu chmur? W chmurze działają rdzenie tensor tam są dostępne. Gdzie tu masz o uczeniu chmur? A w pierszym poście o modleach i masz nawet podaną prze zemnie z nazwy jeden z modeli...

      O SVN i regresji, lekko mi witki opadły. Tego typu algorytmy są dostępne w bibliotekach typu scikt-learn(o których wyżej wspomniałem!!!) i tam to się sprowadza to przygotowania danych i strojenia modelu(znowu scikt-learn i np. metoda przeszukiwania siatki). A tensor flow przecież przygotowuje odpowiedni graf i de facto to wszystko to abstrakcje na algorytmy i przygotowanie danych....

      Nie czytasz chłopie co piszę tylko dopowiadasz sobie coś.

      Robotyka to nie tylko roboty przemysłowe, widziałeś kiedyś autonomicznego drona latającego ze zwykłym PC w obudowie przemysłowej?

      A myślisz że te duże autonomiczne drony to co w sobie mają? Szczególnie wojskowe chociaż tam pewnie jakieś specyficzne układy mogą występować. De facto są to nadal komputery. Powiedz mi jaki problem ma firma produkująca drony zamówić specyficzną płytę główną z odpowiednio upakowanymi elementami? A no nima. Ano małe drony tego nie potrzebują.

    •  

      pokaż komentarz

      Przeczytaj jeszcze raz to co napisałem bo widać nie rozumiem. W którym miejscu piszę o uczeniu chmur?

      @CukrowyWykop: Wypunktowałem ci w komentarzu wyżej do których elementów twoich wypowiedzi się odnoszę.

      O SVN i regresji, lekko mi witki opadły. Tego typu algorytmy są dostępne w bibliotekach typu scikt-learn(o których wyżej wspomniałem!!!)

      Nie zmienia to faktu że pozostają algorytmami.

      A tensor flow przecież przygotowuje odpowiedni graf i de facto to wszystko to abstrakcje na algorytmy i przygotowanie danych....

      Przygotowuje go sam z siebie? TensorFlow jest frameworkiem w którym pisze się kod jak w każdym innym - z tym że jest wykonywany w sposób deklaratywny, nie imperatywny, gdzie reprezentacją programu jest właśnie graf obliczeniowy.

      A myślisz że te duże autonomiczne drony to co w sobie mają? Szczególnie wojskowe chociaż tam pewnie jakieś specyficzne układy mogą występować.

      Wybrałeś przykład pod tezę. Świat urządzeń autonomicznych nie kończy się na dużych dronach wojskowych. A czy dron jest mały czy duży nie ma nic do tego jak dużych zasobów obliczeniowych potrzebuje - liczy się co robi. I tu wchodzi Jetson Nano. Oferuje miniaturyzację zarówno pod względem rozmiarów jak i poboru mocy, dostarczając jednocześnie znacznie wyższą wydajność w inferencji.

    •  

      pokaż komentarz

      Wypunktowałem ci w komentarzu wyżej do których elementów twoich wypowiedzi się odnoszę.

      Pkt. które nie mają sensu? Pierwszy z brzegu wskazałem, że rdzenie tensor znajdują się w chmurze(tak w googlowej chmurze) jakim sposobem doszedłeś do uczenia chmur nie wiem.

      Nie zmienia to faktu że pozostają algorytmami.

      @IKnowThings: to czym jest tensorflow(jako całość jak nie zbiorem abstrakcji ai algorytmów. A scikt-learn?)? Jak uczy się i czym sieć neuronowym? Mówi coś panu metoda gradientu prostego? Za mną stoi taka stara dobra książka "sieci neuronowe w ujęciu algorytmicznym" taki klasyk z uczelni...

      Przygotowuje go sam z siebie? TensorFlow jest frameworkiem w którym pisze się kod jak w każdym innym - z tym że jest wykonywany w sposób deklaratywny, nie imperatywny, gdzie reprezentacją programu jest właśnie graf obliczeniowy.

      A w takim scikt-learn to jak parametry do modeli SVM przygotowują się same? Czy rząd wielomianu też się sam wybiera? Z pkt. widzenia używania tego nie ma to większego znaczenia to o czym piszesz bo jest to ukryte... jak w sciktlearn...

      I tu wchodzi Jetson Nano. Oferuje miniaturyzację zarówno pod względem rozmiarów jak i poboru mocy, dostarczając jednocześnie znacznie wyższą wydajność w inferencji.

      Serio powiedz mi czy firma produkująca drony od X czasu musiała czekać na jetson nano?Serio? Zdajesz sobie sprawę jak ogromna jest liczba projektów procków ARM? Wiesz dlaczego? Bo firmy to zamawiają dla siebie projekt.Tesla zgłaszała się pod zminiaturyzowane układy dla ich projektów. To o czym ty piszesz jest
      a) dla małych firm
      b) pasjonatów

      Bo duży gracz zamówi sobie pod siebie SoC jak ma hajs.

      A czy dron jest mały czy duży nie ma nic do tego jak dużych zasobów obliczeniowych potrzebuje - liczy się co robi. I tu wchodzi Jetson Nano

      Oczywiście że ma bo jak duży jest będzie determinowało jaki sprzęt może unieść(kamery, elektronika i akumulatory), jasnym jest że malutki dron nie ma sensu bo odpowiedniej kamery nie zabierze i akumulatorów.

    •  

      pokaż komentarz

      Komentarz usunięty przez autora

    •  

      pokaż komentarz

      Pkt. które nie mają sensu? Pierwszy z brzegu wskazałem, że rdzenie tensor znajdują się w chmurze(tak w googlowej chmurze) jakim sposobem doszedłeś do uczenia chmur nie wiem.

      Po pierwsze rdzenie tensor (TensorCores) ma w swoich GPU Nvidia począwszy od Volty. W chmurach google oferuje TPU (Tensor Processing Unit), po drugie:

      Googlowe układy są dostępne w chmurze de facto i sobie jakiś czas temu czytałem porównanie przy uczeniu różnych chmur(dla różnych modeli m.in rcnn)

      I idąc dalej:

      Mówi coś panu metoda gradientu prostego? Za mną stoi taka stara dobra książka "sieci neuronowe w ujęciu algorytmicznym" taki klasyk z uczelni... Za mną stoi taka stara dobra książka "sieci neuronowe w ujęciu algorytmicznym" taki klasyk z uczelni...

      Za mną stoi kilka lat pracy w AI. Poczytaj więcej tych książek.

      Serio powiedz mi czy firma produkująca drony od X czasu musiała czekać na jetson nano?Serio?

      Nie każda firma produkuje drony od X czasu, nie każdą stać też na licencję od ARMa albo kupno dedykowanych rozwiązań. Czasami też duże firmy decydują się na współpracę z innymi dużymi firmami żeby niskim kosztem podnieść wydajność swoich rozwiązań, zwłascza jeżeli ciężar R&D i rozwijanie komponentu leży po stronie dostawcy.

      Zdajesz sobie sprawę jak ogromna jest liczba projektów procków ARM? Wiesz dlaczego? Bo firmy to zamawiają dla siebie projekt.Tesla zgłaszała się pod zminiaturyzowane układy dla ich projektów.

      Żaden ARM o rozmiarach Jetsona Nano jeszcze długo dorówna mu pod względem wydajności. Jetson ma jeszcze kilka zalet:
      - pełną współpracę ze wszystkimi wiodącymi frameworkami ML (TensorFlow, PyTorch, MxNet o ile dobrze pamiętam).
      - kompatybilność z ISAAC SDK i wszystkim co oferuje
      - CUDA jeżeli potrzebujesz dużej mocy obliczeniowej do jakiegoś nieszablonowego zadania.

      Z Jetsonem Nano możesz łatwo zaprojektować od zera i wytrenować i przetestować (również autonomicznego) robota w ISAACu, a potem przypiąć płytkę do odpowiednich komponentów i to będzie działać. Jeżeli znasz inny tak kompletny stack do robotyki - daj znać.

    •  

      pokaż komentarz

      @IKnowThings:

      W chmurach google oferuje TPU (Tensor Processing Unit), po drugie:

      Przecież cały czas o nich piszemy....

      Za mną stoi kilka lat pracy w AI. Poczytaj więcej tych książek.

      Masz te parę lat pracy twierdzisz nadal że sieć neuronowa to nie jest algorytm(czy też nie używa się do ich uczenia algorytmów)? Powiem więcej te całe rcnn i linety to jeden wielki algorytm.

      Żaden ARM o rozmiarach Jetsona Nano jeszcze długo dorówna mu pod względem wydajności. Jetson ma jeszcze kilka zalet:

      Chłopie przecież tam przykład ARM jest po to żebyś wiedział iż można sobie zamówić SoC. Tak robi np. tesla. Tak Nvidia i ARM mają partnerstwo w tej dziedzinie.

      Z Jetsonem Nano możesz łatwo zaprojektować od zera i wytrenować i przetestować (również autonomicznego) robota w ISAACu, a potem przypiąć płytkę do odpowiednich komponentów i to będzie działać. Jeżeli znasz inny tak kompletny stack do robotyki - daj znać.

      A powiedz mi czy ty kiedyś siedziałeś w przemyśle?
      Zaprojektować i wytrenować a nawet testować? Cognex o ile pamiętam opycha za gruby hajs(w tym połączenia z robotami przemysłowymi). Są już konkretne firmy w przemyśle z produktami opartymi o klasyki z opencv po projekty oparte na TF. Prawdopodobnie nie miałeś okazji widzieć tego typu urządzeń, mówię urządzeń bo te firmy sprzedają swoje stosy technologiczne z odpowiednimi czujnikami i systemami komunikacji + całe środowiska(łącznie z symulatorem).

      A co dla hobbystów? Cóż docker:
      dostajesz całego TF od ręki i teraz dziergasz nauczanie itp. ręcznie(tzn. skryptami) albo tak jak ja napiszesz sobie własny "produkt"(napisałem soft który automatyzuje proces tworzenia modelu do klasyfikacji tzn. tylko labelkujesz, podajesz ile kroków(jeszcze chcę dodać parę innych opcji) i naciskasz start, i wychodzi gotowy model który kopiujesz sobie do programu w pythonie zajmującego się analizą obrazu).

      I powtórzę po raz n-ty jtson jest ciekawy ale to nie przełom.

    •  

      pokaż komentarz

      Masz te parę lat pracy twierdzisz nadal że sieć neuronowa to nie jest algorytm(czy też nie używa się do ich uczenia algorytmów)?

      @CukrowyWykop: Wyjdź poza swoją gnuśną zarozumiałość i przeczytaj to co napisałem jeszcze raz. Tym razem ze zrozumieniem.

      Chłopie przecież tam przykład ARM jest po to żebyś wiedział iż można sobie zamówić SoC.

      Wiem dokładnie jak to działa. Chłopie.

      Zaprojektować i wytrenować a nawet testować? Cognex o ile pamiętam opycha za gruby hajs(w tym połączenia z robotami przemysłowymi). Są już konkretne firmy w przemyśle z produktami opartymi o klasyki z opencv po projekty oparte na TF. Prawdopodobnie nie miałeś okazji widzieć tego typu urządzeń, mówię urządzeń bo te firmy sprzedają swoje stosy technologiczne z odpowiednimi czujnikami i poleczeniami.

      A Nvidia daje ISAACa za darmo. Dedykowane stosy technologiczne pod rozwiązania, są może i dobre dla 'grubego przemysłu'. Tylko że świat nie kończy się na robotach do spawania.

      (napisałem soft który automatyzuje proces tworzenia modelu do klasyfikacji tzn. tylko labelkujesz, podajesz ile kroków i naciskasz start, i wychodzi gotowy model który kopiujesz sobie do programu w pythonie zajmującego się analizą obrazu).

      Brawo.

  •  

    pokaż komentarz

    Taaa. Zgaduje ze zamknięte. Skończy jak edison

    •  

      pokaż komentarz

      @iddqd: można na tym odpalić pełne modele TensorFlow który jest wiodącym frameworkiem do ML (swoją drogą open source).

      Nvidia jest liderem jak chodzi o sprzęt do MLa i i za bardzo nie ma konkurencji. Google jest na horyzoncie że swoimi tpu, ale oferuje je tylko w swojej chmurze.

      Jak chodzi o edge, to Coral just bezpośrednią konkurencja dla Jetson nano, ale jednak słabszym i działa tylko z TF Lite

      Myślę że NVIDIA ma szansę jak mało która firma na to aby ta platforma odniosła sukces

    •  

      pokaż komentarz

      @gl0wa: Żaden producent sprzętu nie będzie używał zamkniętego rozwiązania od intela, nvidii ani innych amerykańskich producentów. Wszyscy liczący się producenci używają własnych rozwiązań albo open source nawet jeśli są gorsze: valeo, bosh, samsung itp. itd. Najlepsi klienci odpadają, zostają serwery i firmy, które są za małe aby zrobić cokolwiek samemu.

    •  

      pokaż komentarz

      @iddqd: docelowym rynkiem nie sa hobbysci. Oni tylko do spopularyzowania rozwiazania, a dopiero potem korporacje zaczynaja zamawiac po xx tys sztuk. Przerabialem to.

    •  

      pokaż komentarz

      @iddqd: raczej wystarczy "zadnych od amerykanskich firm" if you knowwhat i mean...

  •  

    pokaż komentarz

    Da rade grac na tym w Tąbrajdera?