Aktywne Wpisy
chlopak_twojej_matki +131
Z takich ciekawostek z II Wojny Światowej to moja Ś.P. prababcia często mi opowiadała jak wyglądała u nich okupacja w małej mieścince w południowej Polsce. Miejscowość była niedaleko Krakowa i Oświęcimia, więc było sporo wojsk niemieckich i SSmanów. Mieli duży dom, więc często zdarzało im się "gościć" (im się raczej nie odmawiało, bo mogło się skończyć źle) SSmanów i babcia opowiadała mi, że zawsze byli kulturalni, dziękowali, a nawet zdarzało się, że
pieknylowca +173
A czy ty jesteś fucking unstopable? #frajerzyzmlm
Żeby zacząć bawić się z Machine Learningiem potrzebna jest dobra karta graficzna. Bo nawet na dobrym zwykłym procesorze uczenie sieci trwa długo. Na procesorze graficznym jest to dużo szybsze.
Co jeśli chciałbym taką aplikację z ML postawić w internecie? Przecież nie będzie stała na moim GPU pod biurkiem. Trzeba ją uruchomić na jakimś serwerze. Obecnie nawet VPS-y nie mają GPU. Zostaje mi jedynie Amazon AWS (czy podobne rozwiązanie od Google lub Azure) gdzie słono się płaci za każdą uruchomioną godzinę.
Nie ma innego wyboru?
A może jedynie uczenie sieci wymaga mocnego GPU, a postawienie aplikacji i jej działanie już nie?
Przykładowo, aplikacja ma rozpoznawać koty/psy:
- Do przemielenia tysięcy zdjęć potrzeba mocnego GPU. Wystarczy to zrobić tylko raz (np. u mnie na komputerze pod biurkiem).
- Ale jak już wytrenuję sieć (taką "wyuczoną sieć" mógłbym przenieść w formie np. jakiegoś pliku), to aplikacja po podaniu nowego zdjęcia ma tylko sprawdzić czy zgadza się z wyuczonymi wagami. To mogłoby być szybko realizowane nawet na zwykłym procesorze? Dobrze myślę?
Oczywiście jakby siec miała uczyć się na bieżąco z nowych zdjęć, to musiałaby aktualizować tą sieć. Ale nowe dane spływałyby bardzo wolno. Ewentualnie raz na jakiś czas zbierałbym dane i trenował (aktualizował) siec u siebie lokalnie zamiast na serwerze.
Komentarz usunięty przez autora
Komentarz usunięty przez autora
Komentarz usunięty przez autora
Użycie to jest tylko wykonywanie wielu operacji mnożenia i dodawania i jest zależne jedynie od rozmiarów sieci - ilości i wielkości warstw oraz ilości danych wejściowych i wyjściowych.
Można ściągnąć sporo sieci z internetu. Poszukaj pre trained neural network github.
Do predykcji (rozpoznawanie) karta graficzna nie jest niezbędna.
Sieci są jaknajbardziej publikowane, ale słyszałem jedynie o tych konkursowych, takich jak google net czy resnet.
Te razem z obszerną ich recenzją są publikowane w ramach rozwoju nauki.
Problem z nimi jest taki, że są przystosowane do rozpoznawania tysiąca czy więcej klas, przez co są całkiem ogólne i
Wlaśnie po mękach postawiłem dual boota z linuxem z sterownikami i bibliotekami potrzebnymi pod obliczenia na NN i okazało się że trening wykonuje się około 60 razy szybciej niż na mobilnym CPU i5.
Sam jestem w szoku że to aż taki