via Wykop Mobilny (Android)
  • 2
@CzajkaRuchajka: W dużym skrócie Google udostępnia moc obliczeniową za free. Jak się zalogujesz na kompie to po kolei musisz te guziki Play klikać po lewej stronie kodu (jak jedno skończy to następne potem). Po prawej ustawiasz różne współczynniki - polecam zwiększyć ilość iteracji tak do 500. W sekcji prompts trzeba podmienić to zdanie "A beautiful painting[...]" Na to co się chce wygenerować.
Z takich ciekawostek, w AWS DeepRacer można trenować kaszlaka żeby jeździł po torze ( ͡° ͜ʖ ͡°)
AWS DeepRacer to zabawka edukacyjna, w której trenujesz autko w symulatorze stosując uczenie maszynowe, po czym można się nim ścigać albo w symulatorze, albo na torze podczas zawodów. Poprzez wyścigi można się zakwalifikować do mistrzostw, w ramach których spędza się 5 dni w Las Vegas na konferencji re:Invent. W symulatorze można
tptak - Z takich ciekawostek, w AWS DeepRacer można trenować kaszlaka żeby jeździł po...
Jaki kierunek studiów wybrać: matematykę czy informatykę, jeśli wiążę swoją karierę zawodową z Data Science? Mam wybór pomiędzy studiami informatycznymi na słabszych warszawskich uczelniach typu SGGW czy WAT, a studiami matematycznymi na MiNI PW lub MIMUW. Co mi da lepsze perspektywy w tej branży? Czy lepiej iść na słabszą uczelnię i uczyć się samemu czy starać się na dobrej uczelni? Olimpijczykiem nie jestem, więc też pytanie czy dam sobie radę na tych
Ciekawa sprawa. Właśnie przeglądam sobie publikacje Google na temat uczenia maszynowego i taki nagle kwiatek.

Czyżby POTĘŻNY postępowy koncern właśnie przyznał, że istnieją tylko dwie płcie? ( ͡° ͜ʖ ͡°)


#google #gender #ciekawostka #machinelearning #uczeniemaszynowe #bekazlewactwa #postep #poprawnoscpolityczna
robobobo - Ciekawa sprawa. Właśnie przeglądam sobie publikacje Google na temat uczeni...

źródło: comment_16470407440jQFfM071pXNDpc4j2hWim.jpg

Pobierz
#uczeniemaszynowe #machinelearning

Czy jest tu ktoś kto wytłumaczy mi cel stosowania algorytmu Connectionist temporal classification (CTC) w sieciach rekurencyjnych? 2-3 zdania.

Mam tylko tyle, że jest to algorytm pozwalający nam rozdizelać te same znaki w wyrazie np. food poprzez wprowadzenie koncepcji pustego znaku oraz to, że jest to funkcja straty.
Czytamy Naturę #112 | Znajomy goniec - Gigawaty w żelazną folię - Paciorki mówią

Wprost: https://www.youtube.com/watch?v=LQeK4N6zUmM
Znalezicho: https://www.wykop.pl/link/6471191/znajomy-goniec-gigawaty-w-zelazna-folie-paciorki-mowia-czn-112/

W 112. odcinku "Czytamy naturę" opowiadam o:

1) 00:38 algorytmie rozpoznającym ludzi po tym, w jaki sposób grają w szachy; #sztucznainteligencja #uczeniemaszynowe

2) 09:12 ściskaniu żelaza przy użyciu gigawatowego lasera i o tym, co to nam mówi o planetach typu super-Ziemia; #fizyka #technologia #astronomia #kosmos

3) 15:22 paciorkach ze skorupki jaja strusiego wytwarzanych przez
LukaszLamza - Czytamy Naturę #112 | Znajomy goniec - Gigawaty w żelazną folię - Pacio...

źródło: comment_1643015086BJd4e5eUvrKvm0cEp7YzBN.jpg

Pobierz
trenuje model object detection do wykrywania jednej klasy. problem jest taki że ten obiekt się dosyć różny od góry i od boku. w związku z czym detekcja gdy widok jest z góry jest dosyć słaba. więc pomyślałem żeby stworzyć osobną klasę na widok z góry skoro aż tak się różni. z tym że zastanawiam się jak to adnotować w dataset treninowym gdy mam rzut izometryczny. czy zaznaczyć całość i dać jako że
@mapache: Ogólnie to zupełnie nie ma różnicy czy dasz 2 klasy czy nie. Brzmi jakbyś miał mniej przykładów widoku z góry i tyle. Możesz spróbować dać wagi dla przykładów tak aby widoki z góry były bardziej znaczące. Ewentualnie daj większą argumentację dla przykładów klasy z góry.
@Darakan: koniec koncow jak wszystko sobie skladasz w pipeline'y i porownujesz ze soba wyniki, to tylko jedna dodatkowa transformacja dla svm, knn, lr itd, wiec mozesz dorzucic tenbkrok dla modeli opartych na drzewach, ale tak jak pisal kolega wyzej, guzik to da
@agsbajahs: No to kod wcześniejszy zrobi ci to dla jednego obrazka albo wszystkich jeśli trzymasz je w jednym tensorze.

Z drobną poprawką:
out = torch.where(torch.rand(size=input.shape) < 0.25, torch.rand(size=input.shape), input)

Około 25% pikseli będzie miało zamienioną wartość na losową z przedziału <0,1>