Wpis z mikrobloga

@Borys211: jeśli masz kilka lat doświadzczenia to zakładam, że korzystałeś z którejś z chmury np. AWS/GCP/Azure. Jeśli tak to masz tam mase darmowych kursów jak zacząć w ML. Szczerze powiedziawszy nie widzę innej drogi dla big data / ML jak przejście z tym na cloud. No chyba, że firma posiada własną infre, co jednak jest b. drogie.

Tutaj przykładowy kurs na aws
@Borys211: Akurat tego kursu nie robiłem ale polecali go przy kursie udemy od stephena maarka (Nie przerabiałem też ze względu, że już ponad rok siedze na sm produkcyjnie, więc stwierdziłem, że wystarczy mi przypomnienie w postaci kursu sctricte pod cert). A koszty Sagemaker do zabawy są marginalne - można powiedzieć. Dodatkowo mają bardzo dużą baze otwartych notebooków, darmowe godzin na początek dla notebook i program sagemaker lab studio, gdzie darmowo możesz
@Borys211: Robiłem kursy na superdatascience.com na temat ML, DL i TF2.0 (ten to trochę już przestarzały może być xD). Naprawdę godne polecenia, wszystko po kolei i jasno wytłumaczone od teorii po implementację - powiedziałbym, że poziom najlepszych uczelni na świecie.
@mrocznapszczola: Sytuacja wygląda tak, że za miesiąc trafiam do nowej firmy gdzie będę zajmował się Data Lake'iem. Projekt używa AWS i GCP. Myślałem więc, że najlepszym wyjściem na ten moment jest poczytanie takiej suchej teorii coby wiedzieć z czym się to je, a później na postawie obu platform wybrać tą, która lepiej nadaje się właśnie do zabawy z ML i wybrać kurs pod konkretnego clouda. Co o tym myślisz?
@Borys211: Myślę, że to dobre podejście, najlepiej mieć trochę teorii i dopiero później decydować :D Generalnie (chociaż nie korzystałem dużo z gcp) to wydaje mi się, że te dwie chmury są bardzo podobne jeśli chodzi o data lake. Aws trochę bardzie idzie w strone serverless np. athena, glue czy data pipeline.

btw. odblokuj priv to podeślę ci fajne porównanie rozwiązań chmurowych z kursu akademia data lake