#programista15k #datascience #artificialintelligence #sztucznainteligencja

Ciekawe w jaki sposób Microsoft będzie redukował koszty, do momentu rozwoju AI, które będzie generowało większe przychody. Zarabiają na innych rzeczach, więc nie jest to pewnie jakiś wielki problem, ale jeśli rentowność nie zacznie rosnąć, może się nim stać. Ciekawe czy pójdą np. w reklamy, albo transfer kosztów obliczeniowych na klienta. Nie wiem jak to ostatnie mogłoby wyglądać.
JamesJoyce - #programista15k #datascience #artificialintelligence #sztucznainteligenc...

źródło: copilot

Pobierz
@JamesJoyce narazie jest proces uzależnia użytkowników. Jak już nie będą mogli sobie pozwolić na dokładanie do interesu to ustala takie ceny żeby to się spinalo. Ci których nie będzie stać zrezygnują, ale do tego czasu złowią sporo osób których będzie stać.
  • Odpowiedz
  • 1
@ZyfiDynock: od kilku lat procesory graficzne są tworzone pod AI. Problem polega na tym, że jest ich za mało i są niewystarczająco wydajne. Generalnie zgadzam się, że przyszłość przyniesie lepsze GPU, ale wciąż, będą one bardzo drogie. Zwykła 4090 kosztuje ~10k, a gdzie 4090 do poważnych zastosowań na poziomie llmów.

Ja korzystam z ChatuGPT w plusie i jestem zadowolony. Ale to dlatego, że przyjmuję na klatę jego ograniczenia i nie oczekuję
  • Odpowiedz
#programista15k #datascience #artificialintelligence #sztucznainteligencja #python

Hej mirki,
szukam ciekawego papera dotyczącego trenowania wielolabelowych modeli z nierównomiernie rozłożonym datasetem.
Danych jest niewiele. Z moich badań wyszło, że najlepiej radzi sobie linear SVC na tfidf (accuracy 92), ale zastanawiam się, czy jest coś lepszego.

Przykładowo, kiedyś, przy niewielkiej liczbie klas pisałem 1vs all na wszystkich klasach i działało to fajnie. Wtedy jednak robiłem to na jakimś
transformerze, a teraz mam do dyspozycji jedynie bardzo
@JamesJoyce Ok, ale to nie jest szczególnie niezbalansowany dataset. A czemu nie możesz użyć innych modeli? Brzmi to na problem na 10 minut i niczego nie trzeba uczyć. Wygeneruj BERT embeddings dla całego zbioru, generujesz to samo dla nowego inputu, knn i gotowe pora na CSa, czy ma to chodzić na Arduino?
  • Odpowiedz
W mojej firmie zostałem przypisany do nowego projektu o nazwie "Datalake". Ogólnie rzecz biorąc, nikt jeszcze nie wie, czym dokładnie będzie ten projekt, i niewiele osób ma doświadczenie w tym obszarze. Ja zostałem do niego przypisany ze względu na moje umiejętności techniczne, zwłaszcza w zakresie tworzenia makr.

W ramach tego projektu wstępnie takie tematy zostały mi podane: Azure Data Factory, Azure Data Bricks, ADLS Gen2 i PowerBI. Czy ktoś mógłby mi pomóc
@woodywoodpecker: Datalake po polsku bagno danych B) Generalnie będziesz z nieustrukturyzowanych danych tworzył bardziej ustrukturyzowane twory z których będziesz tworzyć ładne tabelki i wykresy lub gdzieś je magazynował w jakimś mongodb albo sql. Sory jeśli mówię oczywistości
  • Odpowiedz
Hej,

co myślicie o konferencjach typu Data Science Summit?

Na poważnie zmierzam ku szeroko rozumianej branży Data Science ("miękkie przebranżowienie" nazwijmy to) i myślę, że to byłoby spoko wydarzenie dla mnie, mimo że stawiam dopiero pierwsze kroki w kodzeniu pajtongiem algorytmów i robieniu certów ażura.
Nie oczekuję, że ktoś mnie zaprosi do procesu rekrutacyjnego po jakimś networkingu czy warsztatach, ale fajnie by było pogadać z kimś z branży na żywo.

Trzeba być
MarteenVaanThomm - Hej,

co myślicie o konferencjach typu Data Science Summit?

Na po...

źródło: es04afU

Pobierz
@MarteenVaanThomm: Według mnie takie konfy to są dobre dla ludzi z branży, którzy chcą poszerzać swoje horyzonty i takie wystąpienia tworzą fajna zajawkę na jakiś temat z którym nie miało się wcześniej do czynienia, albo zobaczyć jak jakaś firma podeszłą do konkretnego przypadku. No nie wiem czy na początek merytorycznie coś wyciągniesz już lepiej jak sobie pooglądasz na yt podobne wystąpienia o podstawach DS, dobrych praktykach czy jakiejś prezentacji konkretnego narzędzia,
  • Odpowiedz
Kurła, za każdym razem rozwalają mnie te 'profesjonalne prognozy' dotyczące dzietności autorstwa GUS-u. A najlepsze, że polscy eksperci biorąc takie coś na poważnie XD
Wystarczyłoby wziąć dowolnego 'Data Scientist-a' mającego jakiekolwiek pojęcie o demografii z jakiegoś korpo i przygotowałby w krótkim czasie 100x lepszą, rzetelniejszą i bardziej profesjonalną prognozę dzietności od tego czegoś. "Eksperci z GUS-u" narysowali odręcznie 3 kreski, podpisali je "wariant niski" / "wariant średni" / "wariant wysoki" i zadowoleni
D00msday - Kurła, za każdym razem rozwalają mnie te 'profesjonalne prognozy' dotycząc...

źródło: tfr_prog_1

Pobierz
Mireczki, jaką pracę można by połączyć z grafiką komputerową (ogólnie wizualiami), żeby pracowała też druga półkula mózgowa odpowiedzialna za obliczenia, myślenie, przewidywanie - ogólnie żeby nie mieć tylko dotyczenia z rozwojem w zakresie kreatywnym, bo czuję że zgłupiałem chyba trochę xd..
Chciałbym też móc wysilać umysł trochę, nawet jeśli trzeba to mogę pomyśleć o przebranżowieniu. Jestem trochę zagubiony na rynku pracy.
Proponowane było mi jako rozwiązanie data visualization bo mam studia z
#programowanie #programista15k #datascience #sztucznainteligencja

Copilot od 26 września będzie częścią wszystkich ich usług, w tym Office 365 i Edge. Ciekawe czy będzie to ten sam Copilot, co dotychczas, czy jakaś wydestylowana wersja. Tak czy inaczej to spore ogłoszenie. Zastanawiam się czym podyktowane. Czy tylko chęcią ekspansji na rynku, czy np. niską jakością kodu generowanego przez llmy, w porównaniu do hype jaki tworzyły. Zobaczymy

https://www.theverge.com/2023/9/21/23883798/microsoft-copilot-unified-windows-11-apps-launch-date
#iwonawieczorek #datascience

zadanie dla CSI wykop: korzystając ze statystyki zaginięć w Polsce i szacunków handlu ludźmi (dane w linku znaleziska poniżej), jakie jest prawdopodobieństwo, że Iwona została porwana?

https://wykop.pl/link/7216979/do-burdeli-w-ue-usa-i-na-bliskim-wschodzie-zostalo-sprzedanych-400-tys-ukrainek

około 90% z zaginionych odnajduje się w ciągu 3 miesięcy, a niektóre statystyki w Internecie podają, że nawet 98% osób zostaje odnalezionych (pytanie po jakim czasie). Czyli z 13-20 tys. zaginionych rocznie w Polsce połowa to kobiety - dzieląc na dwa, daje to
OmeGa1 - #iwonawieczorek #datascience 

zadanie dla CSI wykop: korzystając ze statyst...

źródło: Zrzut ekranu 2023-09-19 183413

Pobierz
  • 0
@Don_Kamizi: no spoko, z tym że takie rzeczy się kwantyfikuje, czy prawdopodobieńśtwo wynosi 10% czy 50% lub 80% żeby nadać kierunek śledztwu, czy trzepać znajomych i rodzinę na okrągło (jak dotychczas) czy raczej poprowadzić śledztwo w inną stronę.

Jesteśmy bardziej skłonni podejrzewać znajomych, a dzięki nowoczesnej statystyce dowiadujemy się że jest też całkiem spore prawdopodobieńśtwo że została porwana, większe niż się wydaje.

W USA robi się analizy "data science" od 20
  • Odpowiedz
Ale w czym konkretnie jest problem? Starasz się na wejście w branżę czy narzekasz, że masz wagon CVków do przejrzenia? ;)
Ostatnio rekrutowałem do zespołu juniora i faktycznie zgłosiło się sporo kandydatów, część już mogła pochwalić się całkiem solidnymi podstawami - więc teraz wybieramy na podstawie ich oczekiwań finansowych i właśnie doświadczenia.
  • Odpowiedz
Robię model profitowości kontraktów handlowych w #pracbaza i chciałbym podpiąć pod niego prosty model machine learning, który na podstawie wstępnej propozycji handlowca proponowałby zoptymalizowane parametry takiego kontraktu, tak aby dążyć do maksymalnej profitowości.

Coś w stylu, że tutaj damy trochę większy rabat, tutaj dla nas ciut większa prowizja, klient prawie nie zauważy, a dla nas to będzie znacząca różnica w profitowości takiego kontraktu.

1. Ile czasu realnie coś takiego mogłoby zająć? Cośtam
MarteenVaanThomm - Robię model profitowości kontraktów handlowych w #pracbaza i chcia...

źródło: image

Pobierz
@MarteenVaanThomm: jak masz dużo danych i ich model nie jest raczej skomplikowany to sieci neuronowe mogą łatwo być overkillem - model użyj jaki chcesz, ale nie przesadzaj z jego wielkością. Nie wiem też co dokładnie chcesz osiągnąć i dlaczego nie można tego po prostu policzyć. Jeśli masz zbiór zatwierdzonych "optymalnych" kontraktów i chcesz włożyć nowy nieoptymalny kontrakt aby go poprawić to możesz tu zastosować maszynę Boltzmanna. Ewentualnie zastosować redukcję wymiarowości, wyznaczyć
  • Odpowiedz
@Bejro: dzięki bardzo, sporo ciekawych rzeczy piszesz.

Jeśli chodzi o równanie do średniej to tutaj nie zda to egzaminu. Dlatego, że jeśli mamy parametr X (jakaś opłata_2 powiedzmy) dla klienta równa 100, a w modelu referencyjnym, tym najbardziej profitowym ten parametr dąży do 20, to równanie 100 do 20, czy nawet 50 nie ma sensu, bo klient na to nie pójdzie. Nie chcemy tutaj przerabiać każdej propozycji kontraktu pod jeden słuszny
  • Odpowiedz
Mam na sprzedaz ponizsze ksiazki z #python oraz #datascience
- Data science od podstaw. Analiza danych w Pythonie Wydanie II (autor Joel Grus)
- Object-Oriented Python Master OOP by Building Games and GUIs (autor Irv Kalb)
- Python Wprowadzenie Wydanie V (autor Mark Lutz)
- Uczenie maszynowe w pythonie Leksykon kieszonkowy (autor Matt Harrison)
oraz Uczenie maszynowe z uzyciem Scikit-Learn i TensorFlow Wydanie II (autor Aurelien Geron)

Wszystkie ksiazki maja normalne slady
#studbaza #studia #pytanie #analizadanych #sql #datascience #analizadanych

Cześć, wybieram się na studia II stopnia związanych z pracą na danych (jestem po finansach i rachunkowości) Myślałem nad ekonometria bądź analiza danych, czy Waszym zdaniem jest to dobry wybór pod względem atrakcyjności na rynku pracy ? Aktualnie pracuje w banku na stanowisku raportowania.
Jaka ewentualnie polecacie uczelnie w Wawie pod kątem powyższej specjalizacji?
@pablos255: ekonometria to praktycznie obecne "data science", które już nie jest takie sexy ze względu na to, że naprodukowało pełno osób, dla których nie ma pracy bo okazuje się, że nie ze wszystkiego da się zrobić model.

Lepiej odpowiedz sobie co cie interesuje na tych studiach, czy cos gieldowego, czy rzezy zwiazane z analiza, czy rynki kapitalowe itd. Bo sama atrakcyjnosc rynku pracy nic nie znaczy bo wszedzie mozna miec dobra
  • Odpowiedz
✨️ Obserwuj #mirkoanonim
Dzień dobry, mam kilka pytań o proszę was o pomoc/opinię.
1. Pracuję obecnie jako analityk danych. Więcej tutaj Pythona, Pandasa, scikit-learn, AWS, SQL niż jakichś PowerBI - czyli bardziej data science. Jest to moja pierwsza praca, niedługo będę miał 6 miesięcy doświadczenia. Niedługo również kończy mi się umowa, którą najprawdopodobniej zarówno firma jak i ja będziemy chcieli przedłużyć. Obecnie zarabiam minimalną - zastanawiam się jaka jest realna kwota, jaką
@mirko_anonim: niemiecki to największy scam ever. Zaczyna się już w podstawówce gadaniem, jakie to istotne dla przyszłych pracodawców. W praktyce, zwłaszcza w IT, nikt o to nie daje #!$%@?. Jeśli nie planujesz kariery germanisty albo wyprowadzki do krajów DACH to tylko strata czasu. Koleś, co wtopił tak z 8-10 lat nauki, doszedł do wprawy B1-B2 i do niczego mu się to w życiu nie przydało here. Nawet w niemieckich firmach, do
  • Odpowiedz
@mirko_anonim: ja bym powiedział, że minimum 50pln/h. Od podobnej kwoty zaczynałem kilka lat temu. Nie mając studiów i doświadczenia. Przechodziłem z innej branży. Jak robili rekrutacje u mnie w firmie, to stawki dla ludzi z doświadczeniem zaczynały się w okolicy 10k, przy umowie o pracę. Poniżej nikt nie chciał przyjąć oferty.
Ogólnie najlepiej złożyć wypowiedzenie. To zawsze dużo zmienia i pieniądze na podwyżkę sie znajdują. Chyba że macie krucho z pracą.
  • Odpowiedz
OpenAI ogłosiło "firmową" wersję ChatuGPT. Ma ona zapewniać większe bezpieczeństwo, niezawodność czy czy prędkość.
Wydaje mi się, że od dawno wiadomo było, że OpenAI pójdzie w tę stronę, tzn. będzie sprzedawać lepsze rozwiązanie firmom.
Może się też okazać, że darmowa wersja będzie coraz bardziej ograniczana z czasem.

Kolejny krok do pozbycia się #programista15k ( ͡° ͜ʖ ͡°)

https://openai.com/blog/introducing-chatgpt-enterprise

#programista15k #sztucznainteligencja #chatgpt #si #datascience