via Wykop Mobilny (Android)
  • 0
@kajtom: topaz video enhance próbowałem i niestety nie daje rady, ale to być może wina mojego starego komputera. Twarze wychodziły nienaturalne, jakieś powyginane.
@#!$%@?: kilka lat temu jako student dorwałem prace przy sprzątaniu świeżo wyhodowanego hotelu ze SPA w Czechach. Kierownik bardzo chwalił się czujką ruchu w kiblu i że to takie inteligentne. Wszedłem z nim w polemikę na ten temat i poprosiłem żeby wyobraził sobie sytuację, gdzie ktoś sra dłużej jak minutę, gaśnie mu światło i musi zacząć tańczyć na kiblu... Rozwiązaniem jest np. zastosowanie blokady wyłączenia światła poprzez mikrokontroler po zamknięciu drzwi od
Udało mi się wreszcie lepiej zrozumieć jak efektywnie uczyć sieci typu GAN do generowania obrazów, więc postanowiłem podzielić się spostrzeżeniami i może oszczędzić komuś sporo czasu. Jak wiadomo ta architektura jest prawdopodobnie najtrudniejsza do debugowania a proces uczenia długi - no ale właśnie niekoniecznie. Jak się okazuje jednoczasowa propagacja wsteczna dla generatora i obu lossów dyskryminatora jest bardzo nieskuteczna. Lepiej rozbić to uczenie na 3 niezależne części - no ale wtedy czas
Pobierz Bejro - Udało mi się wreszcie lepiej zrozumieć jak efektywnie uczyć sieci typu GAN do...
źródło: comment_1655938289GU2WRP43WYMF7A3scu6EUP.jpg
@Bejro: Nie byłem konkretny. Chodziło mi o WGAN-GP (tutaj nie clipujemy wag tylko mamy penalty na gradiencie, przez co zachowany jest warunek 1-Lipschitzowosci) który ma znacznie stabilniejszy proces uczenia od tego standardowego lossu który przytaczas. W praktyce tez nie stosuje sie częstszego treningu krytyka od generatora. Idea WGAN jest to, ze ta funkcja kosztu ma bardziej informacyjne gradienty przez co generator nawet jak się bardzo myli to może się poprawić (niemożliwe
@ejsap_kupno: Hinge loss jest bardzo podobny do crossentropy z logitów więc to takie cofnięcie się do czegoś co działało od funkcji W. Generalnie WGAN-GP wciąż robi to samo co WGAN ale w inny (lepszy) sposób. Jeśli używamy dyskryminatora z dużym dropoutem na tym samym wygenerowanym batchu to wirtualnie próbkujemy większy rozkład i zwiększamy generalizację - a to coś innego niż zapobieganie zanikaniu gradientów w WGANach.
Hej! Potrzebuje pomocy speców od #machinelearning #deeplearning #ai #ml
Mam do zrobienia projekcik na zaliczenie, i są to dla mnie totalnie nowe tematy - zaimplementowanie ai w grach. Zacząłem robić reinforcement learning, na podstawie tutoriala snake'a (https://www.youtube.com/watch?v=PJl4iabBEz0&list=PLqnslRFeH2UrDh7vUmJ60YrmWd64mTTKV&index=2). I mam sobie stany do uczenia modelu i w snaku to wygląda tak ze mam:

state [dangerstraight, dangerright, dabgerleft, direction left, direction right, direction up, direction down, food left, food right, food up, food
Pobierz TheRickestRick - Hej! Potrzebuje pomocy speców od #machinelearning #deeplearning #ai ...
źródło: comment_1651335526WsxlTtN58sYwypjrnKYKN8.jpg
@TheRickestRick

Ale ja mam grę ze zdjęcia (forbidden cave) i przy mojej postaci chyba nie będzie kierunku tak?

jeśli w forbidden cave np. wciśnięcie strzałki lewo sprawia, że postać przemieszcza się jednorazowo, o taką samą odległość w lewo bez względu na to, w którą stronę była wcześniej zwrócona, to tak
@TheRickestRick Powinno być wszystko to, co może mieć wpływ na efekt podjęcia akcji, czyli na przykład obstacle_left, bo jeśli będąc na pozycji widocznej na screenie klikniesz strzałkę w lewo to zakładam, że nic się nie stanie. Pewnie jakiś wpływ ma też drabinka, więc również ladder_up
Witam was Mirki, mam pilne pytanie.
Czy kategoria "melanocytic nevi" ze zbioru danych HAM10000 to ta sama kategoria, albo podkategoria podobnej zmiany skórnej "Nevus" ze zbioru danych ISIC2020?
Pytam, ponieważ próbuję stworzyć klasyfikator rozróżniający różne zmiany skórne i się zastanawiam, czy rozdzielanie "melanocytic nevi" i "Nevus" na dwie kategorie ma sens. Po dodaniu ósmej kategorii(Nevus), do modelu parametr "accuracy" mocno spadł. Bez kategorii "Nevus" po jednym przejściu(1 epochs, 150 steps) klasyfikator uzyskiwał
@masterix: Dzięki, zachęciłeś mnie aby wrzucić tutaj później ten projekt. Zamierzam we flasku dopisać do tego jakiś prosty interfejs i udostępnić w darmowej domenie, więc podeślę linka tutaj. Aktualnie mam spory problem z niezbalansowanymi danymi. W klasie liczącej najwięcej danych jest ich 6000 a w najmniejszej 100, co trochę psuje cały model. Poczytałem gdzieś, że dostosowanie wag mogło by w tej sytuacji pomóc. Ale nie pomaga. Zastosowałem tutaj automatyczne obliczenie wag,
#machinelearning #deeplearning #webscraping #datascience #prawo
Mirki, czy wiecie jak obecnie w Polsce wygląda dokładnie prawo autorskie w kontekście gromadzenia treści na potrzeby naukowe? Mam konkretnie na myśli czy tworząc bazę danych obrazów (i ją nieodpłatnie udostępniając) w celu przetrenowania sieci nie łamię prawa? Czy na potrzeby akademickie jest to legalne? Co jeżeli bym gromadził zdjęcia z wyszukiwarek? Badał ktoś ostatnio taką kwestię?
Fajny papier specjalistów z J.P. Morgana znalazłem przez przypadek. Bada on możliwość analizy danych przedstawionych w formie graficznej zamiast tabularycznej. Kiedyś tak się bawiłem, i rezultaty były bardzo spójne, ale aktualnie wszystkie moje modele operują na ciągach liczb. Może warto coś jeszcze w tym kierunku więcej poszperać. Używacie może czegoś w tym stylu?
#gielda #kryptowaluty #bitcoin #deeplearning
@Bejro: ja z kolei analizuje ceny i ich wzrosty, market cap, i ilosci tweetow odnosnie roznych krypto no i zmiany sentymentu do bitcoina, zmiany volumenu, dosc duzo tych parametrow wyszlo, bawilem sie roznymi prostymi modelami typu drzewa decyzyjne albo kilka modeli poprzez glosowanie, i probuje przyporzadkowac danemu krypto przewidywania procentowego wzrostu na kolejny dzien, no ale poki co wychodzi mi blad MSE cos kolo 20 wiec nie za dobrze, potem moze
@Bejro: podoba mi się motywacja, ale wszyscy wiemy do czego to zmierza - do pozbycia się traderów i zastąpienia ich programem. Najpierw zbierzmy próbę uczącą niech klasyfikują obrazki, a później można będzie ich zwolnić ; ) Co do samego badania, to wydaje mi się, że nie biorą pod uwagę kosztów transakcyjnych, a czasem przewidzieć kierunek to za mało żeby zarobić. Tzn. ich scory nie oznaczają rentowności (co by było imho bardziej
trenuje model object detection do wykrywania jednej klasy. problem jest taki że ten obiekt się dosyć różny od góry i od boku. w związku z czym detekcja gdy widok jest z góry jest dosyć słaba. więc pomyślałem żeby stworzyć osobną klasę na widok z góry skoro aż tak się różni. z tym że zastanawiam się jak to adnotować w dataset treninowym gdy mam rzut izometryczny. czy zaznaczyć całość i dać jako że
@mapache: Ogólnie to zupełnie nie ma różnicy czy dasz 2 klasy czy nie. Brzmi jakbyś miał mniej przykładów widoku z góry i tyle. Możesz spróbować dać wagi dla przykładów tak aby widoki z góry były bardziej znaczące. Ewentualnie daj większą argumentację dla przykładów klasy z góry.
Mirki, zrobił mi się burdel ze zdjęciami i chciałem uporządkować.
Zdjęcia trzymam na iCloud ale co jakiś czas pobieram kopię i układam w podfolderach typu "wyjazd tu tam i sram" na Dropboxie
Szukam programu który dostanie listę nazw plików z iCloud i przeszuka mi folder Dropbox łącznie z podfolderami i na koniec wypluje jakich plików nie znalazł

Ktoś coś?

#informatyka #programista15k #programowanie #technologia #deeplearning #komputery #windows
@DywanTv: Wszystko zależy od modelu, musi być dopasowany do zbioru danych - ani nie za "silny" ani nie za "słaby". Na pewno przypisane emocje są dobrze dopasowane, czy tylko na oko? Wygląda to tak jakby model nie był w stanie znaleźć sensownego dopasowania i od razu się przeucza zapamiętując dane treningowe. Tutaj model jest ewidentnie zbyt pojemny lub próbki za mało ujednolicone. Takie luźne propozycje:
-Upewnij się, że twarze są docinane
#anonimowemirkowyznania
Chciałbym wysłuchać opinii osób które studiowały informatyke stacjonarnie i przeniosły się na zaocznie. Jest mniej pracy na takich? Ponieważ chciałbym rozwijać się w jednej branży w IT na własną rękę a studia pobocznie ponieważ informatyka to troche zbyt ogólna dziedzina

Czy polecicie jakieś studia zaoczne w polsce ukierunkowane na machine learning?

#studia #studbaza #nauka #it #informatyka #technologia #machinelearning #ai #deeplearning #cnn #programowanie #python #it

Kliknij tutaj, aby odpowiedzieć w tym wątku
@AnonimoweMirkoWyznania: ja się przeniosłem na ostatnim roku na zaoczne, co do różnicy pomiędzy stacjonarnymi to prowadzący byli bardziej "wyrozumiali" tzn, jeżeli była pula prowadzących laborki z danego przedmiotu na dziennych, to na zaocznych trafiał się zazwyczaj ten najbardziej lajtowy
#anonimowemirkowyznania
Ehhh poradzicie mi co najlepiej zrobić w tej sytuacji? Głównie chodzi mi o osoby siedzące w IT, najlepiej programistów pythona związanym z machine learning, ale osoby spoza branży też jeśli coś wiedzą to mogą napisać.
Chce rozwijać się w branży machine learning, koduje w pythonie już jakiś czas. Poszedłem na studia do łodzi (pierwszy semestr) w celu zdobycia papierka który by mi to ułatwił oraz aby rozwijać swoją poboczną pasje. Niestety
@AnonimoweMirkoWyznania:

Na tyle ile liznąłem ML na studiach to imo samemu to dość dużo pracy, bo ML korzysta w dużej mierze z uniwersyteckiej matematyki, algorytmiki i nie tylko, generalnie trzeba mieć mocno teoretyczna wiedzę w tej działce, bo z frameworka to każdy może się nauczyc korzystać bez zrozumienia co się dzieje pod spodem.

Największy kot z ML jakiego znam idzie na doktorat z tej działki, bo go to jara. Przy moim
Czy waszym zdaniem #deeplearning jako technologia ma potencjał, w sensie czy CNN to optymalne rozwiązanie które będzie owocować jego rozwojem czy jak to w #machinelearning wszystko może zmienić się w ciągu miesiaca?
W jakim czasie w polsce mniej więcej rozkwitnie to bardziej oraz czy w tej branży z home office nie ma problemu jeśli się zaczyna od juniora albo chociaż w przypadku mida?

#informatyka #programowanie #it #ai #ml #sztucznainteligencja
via Wykop Mobilny (Android)
  • 2
@msea940: poczytaj sobie o sztucznej inteligencji w latach 80-90. Wtedy też był zachwyt, jak to AI wszystko zrobi i tylko kwestia czasu, żeby powstało coś tam jeszcze.

A okazało się, że to co dało się zrobić to w miarę szybko zostało zrobione i nic więcej nowego nie powstawało.

Nastała zima w AI. Tzw. stara sztuczna inteligencja miała bardzo mały rozwój.

Teraz po latach, gdy weszło DL, CUDA itd. to znowu się