@trop10 często firmy proponując programy stażowe do BI celują w studentów infy + większą szansa, że na infie zbierzesz wiecej wiedzy przydatnej w tej branży. Ale jak już Cie zaproszą na rozmowę to kierunek i uczelnie schodzi na drugi plan, a decyduje weryfikacja podstaw wiedzy i umiejętności oraz ogólna prezencja.
Na jakiej stawce podatkowej na ryczałcie jestescie? 12% czy 8,5%? Obecnie pracuje jako PowerBI developer, 100% pracy z rozwiazaniami chmurowymi, zadnych on-prem. W zakresie moich obowiązków jest ETL, tworzenie modelu, pisanie DAXow, tworzenie warstwy wizualnej raportu, pisanie dokumentacji, zarządzanie workspacami i raportami w serwisie. Łapie się to pod 8,5%?
#businessintelligence #powerbi
via Android
  • 0
@matti05 no tak ale gdyby to były pliki excelowe to spoko bo mam "excel.workbook" ale wiadomo dla plików CSV to nie działa. Chyba, że twoj sposób jest jeszcze inny a nie siedząc przed power bi go nie kumam :D Czytałem też na forum powerbi o podobnych problemach i nie mieli na to rozwiązania poza pojedynczym ładowaniem plików
#anonimowemirkowyznania
Mirki pracuje jako technical writer a chciałbym się przenieść do analizy danych. Od jakiegoś czasu uczę się sqla, teraz przez grudzień i święta mam zamiar zabrać się za naukę narzędzia do wizualizacji (jeszcze się zastanawiam co wybrać), myślałem nad Power Bi i ogarnięciem trochę Azure, databricks itp.
Macie jakieś rady dla juniora/stażysty co powinien mieć w portfolio/CV żeby wyróżnić się na tle innych kandydatów?
Jak oceniacie aktualnie zapotrzebowanie w tej dziedzinie.
Mirki pracuje jako technical writer a chciałbym się przenieść do analizy danych. Od jakiegoś czasu uczę się sqla, teraz przez grudzień i święta mam zamiar zabrać się za naukę narzędzia do wizualizacji (jeszcze się zastanawiam co wybrać), myślałem nad Power Bi i ogarnięciem trochę Azure, databricks itp.


Pracowałem jako analityk przez lata. Obecnie zatrudniam analityków i innych specjalistów.
Jeśli chodzi o entry level (graduate analyst, junior analyst), to proponuję skupić się na
@AnonimoweMirkoWyznania: nie słuchaj troli ( ͡° ͜ʖ ͡°) Jeżeli chodzi o próg wejścia to wydaje mi się że nie jest źle. Dodatkowo wiele osób tak naprawdę jest bardzo słaba, napisanie czegoś w daxie to już jest problem. Tak samo z bardziej zaawansowanymi formułami w sql. Oczywiście nie mówię o wszystkich ale do BI idzie sporo ludzi z wewnętrznej migracji w firmie i tak naprawdę nie są oni
Hej mirki,
mam zagwozdkę. Mam raport w Power Bi, który korzysta z dość dużego dataflow.
Dataflow wchodzi na sharepointa i bierze podzielone pliki excelowe, które są ekstraktem z sapa za każdy dzień i łączy je każdego dnia, później robiąc różne rzeczy. Pojawił się z tym problem. Mianowicie tych plików jest już stanowczo za dużo. Dataflow odświeża się 5-6h, czasem wywalając się.

Rozwiązanie, które chce wdrożyć (wynikające po części z biznesu) jest w
@JamesJoyce: ale dlaczego miały by nie być? Jedno dataflow tworzy dataset z zestawem historycznym (nie odświeżamy go), następnie robimy drugie dataflow które dokleja na bieżąco nowe pliki do pierwszego datasetu tworząc nowy dataset który będzie źródłem dla raportu. W ten sposób oszczędzasz czas potrzebny na procesowanie danych historycznych bo są już gotowe do dalszego rozszerzenia.
#anonimowemirkowyznania
Od 1 grudnia będę menadżerem swojego działu w korpo. 8 osób pode mną, zadania znam od podszewki bo pracuję tu od paru lat, ale w stanowisko menadżera zostałem trochę wepchnięty. Dotychczas byłem starszym analitykiem finansowym, teraz będę menadżerem działu analiz. Jako że od jakiegoś czasu planowałem pewne zmiany w swojej karierze i wyjście stricte z finansów w stronę BI/Analizy danych. uznałem że to idealny moment żeby wrócić do nauki i pomysłu
@Metylo: CTEs, typy joinów (więcej niż 4), window functions, union/union all/intersect/except, dlaczego select * jest złą praktyką, deduplikacje, + jako data analyst to pewnie będziesz głównie odpytywał bazę, ale możesz poczytać o twierdzeniach DML/DDL, co to star schema etc.
Czy ktoś tutaj działa komercyjnie w #pbi #powerbi i jest w stanie powiedziec jakie są średnie stawki dla frontend i backend?
Moi zagraniczni przełożeni byli zachwyceni jaką stawkę udało im się znaleźć za konsultanta w Polsce a mi się wydaje to całkiem sporo, biorąd pod uwagę, że to nie stało obok #programowanie
#pytanie
@pokey: przecież to data, a rozwiązanie końcowe może wymagać znajomości wielu innych aspektów typu azure, etl, sql server, analiza biznesowa.

Stawki są podobne jak w programowaniu. Ja dostaje na LI ofety typu 100-200 pln/h za samo power bi. Z tego co się orientuje to w consultingu/outsourcingu klientów się kasuje za 100-150 USD/EUR/GBP albo i więcej za typowe taski z power bi.

No i nie na raczej rozdzielenia na power bi backend
@pokey: Tak jak pisał @przecietnyczlowiek stawki 100-200zł netto/h to norma za samego PBI.
Jesli mówimy o podziale front/back end w BI to Power BI to właśnie front, gdzie zabawa zaczyna się od przyłączenia do źródła i modelowanie danych + setupowania środowisko raportowego. Back end to raczej wszystko wcześniej związane z przygotowaniem architektury i źródeł zasilających pbi.
@czlowiekbutelka to zależy co kogo jara. Ja już 5 lat w ogolnie pojętym BI i praca na "froncie" jest dla mnie cały czas bardzo satysfakcjonująca, kreatywna i ciekawa, ale wraz z wzrostem doświadczenia zmniejsza sie % czasu poświęcanego typowo na developerkę. Za to "backend" typu przygotowywanie architektury zasilającej raporty etc. jest dla mnie nudny i nie daje satysfakcji - ale znam też kilka osób ktore mają odwrotnie.

Tak wiec musisz to poczuć,
@Sad_poyato czytałem twoje wpisy i zazdroszczę że trafiłeś na dziedzinę która cie rajcuje i pracodawców u których twoja dodatkowa wiedza procentuje wzrostem zarobków.
Sam myślę o tym co robić dalej. Niby mechanika spoko ale też prosta nie jest, nie ma tylu firm, możliwości czy nawet głupiej pracy zdalnej jak potrzebuje. Taki backend w danych wydawał mi się spoko bo można już coś robić pod IT a działka chyba nie jest wydrenowana jak
Mircy z #powerbi, mam 2 formuły kolumny obliczeniowej w DAX, obie wyliczają to samo -- udział ilości danego rekordu do sumy ilości transzy do której należy dany rekord.
Transze są dwie na tydzień, więc unikalną transzę (i jej sumę) identyfikuję przez sumę warunków tydzień+transza.

Obie formuły działają prawidłowo, zastanawiam się tylko czy jest między nimi jakaś różnica, która przemawia na korzyść jednej bądź drugiej?
Jedna to SUMX + FILTER, druga to
Polinik - Mircy z #powerbi, mam 2 formuły kolumny obliczeniowej w DAX, obie wyliczają...

źródło: comment_1666082942dVhNzvLj2H0WWVChdHlHaD.jpg

Pobierz
@excelfinance: @Polinik:

W tym przypadku prawdopodobnie nie będzie różnicy, algorytm wygeneruje zbliżone lub identyczne kwerendy, ale każdy przypadek użycia trzeba rozpatrywać indywidualnie.

Użycie calculate w kolumnie kalkulowanej powoduje, że filtr wiersza jest przekształcany w filtr kontekstu (tutaj zmodyfikowany ALL'em który znów go usuwa. W przypadku Fillter bez calculate'a kalkulacje są robione od razu na pełnym zbiorze. W każdym razie optymalizacja kodu na poziomie kolumn kalkulowanych nie wpływa na performance raportu
@Polinik wystąpienie takiego problemu jest niezwykle rzadkie, bo po pierwsze, musiała by wystąpić potrzeba zbudowania kolumny kalkulowanej na tabeli faktowej, która iterowała by, przez tą tabelę. Po drugie, tabela musiała by zawierać niezagregowane surowe dane bez ID\indexu. Po trzecie musiałby sie zdążyć taki przypadek, ze akurat 2 lub wiecej wierszy bedzie miało tą samą konfiguracje.

W całej karierze nie zdążył mi się taki przypadek w realnych projektach. Zazwyczaj odpowiednie przygotowanie danych to
Mam pytanie o stosowaną praktykę robienia modelu danych w PowerBi. Spotkałem ostatnio model danych o takiej budowie stąd moje pytanie.
Otóż mam np. tabele z listą placówek banku i m.in. takie kolumny: ulica, miasto, kraj, kod pocztowy, typ banku itp.

Czy jest to powszechna praktyka, aby stworzyć dimension tables jako "reference" do głównej tabeli do prawie każdej kolumny? Wtedy wyjdzie bardzo dużo tabel z jedną kolumną z unikalnymi danymi i jedną jako
@excelfinance nie ma to najmniejszego sensu, modelu to nie odchudzi, bo takie działanie to symulowanie kompresji którą power bi sam przeprowadza zaocznie.

Tabela o której wspominasz, jesli zawiera tylko jeden rekord per placówka, to raczej sama bardziej spełnia definicje tabeli wymiarów niż faktów i nie ma sensu dalszego jej rozkładania.
Jesli zależałoby Ci na jakiejkolwiek optymalizacji objętości modelu to mógłbyś wywalić kolumne z państwem i zrobic jeden index "geo", na podstawie miasta
#anonimowemirkowyznania
Chwilowo na banicji, także anonimowo, a że trafiła się okazja to rozważam. Mamy tu BI analityków/devów na b2b? PKD 62.01.Z będzie git na to? Wydaje mi się najrozsądniejsze xD

#pytanie #powerbi #pracbaza #b2b

---
Kliknij tutaj, aby odpowiedzieć w tym wątku anonimowo
Kliknij tutaj, aby wysłać OPowi anonimową wiadomość prywatną
ID: #6346d987c327744791409518
Post dodany za pomocą skryptu AnonimoweMirkoWyznania ( https://mirkowyznania.eu ) Zaakceptował: karmelkowa
Wesprzyj projekt
@Metylo: ja na data engeneera dostałem pytania ze SQLa i pytona z listy: 100 popularnych pytań na rozmowę z pytona xD plus czy znam snowflake, powerBI i czy kojarzę co to oltp i olap. Potem miałem zadanie z pytona a ze SQLa nic. Więc zależy jak trafisz - jak gadam z analitykami to czasem mam wrażenie że sami nie ogarniają swoich tematów. Grunt to iść na pierwszą rozmowę i zobaczyć o
Siemka, mirki mam pewien problem. Mam zrobione zapytanie w power query wyciąga mi dane z tego samego workbooka z tabu input tworzy nowy raport-output. I ogólnie wszystko spoko działa do czasu korzystania z desktopowej wersji. Niestety jak przychodzi do korzystania z wersji online excela, po próbie refreshu danych zwraca z błąd z źródłem danych.( Nie powinnien występować, ponieważ przy korzystaniu z aplikacji nadal online ten problem nie występuje). Plik jest na sharepoincie
Obczaje jak siądę do komputera, tylko właśnie nie działam w power BI tylko w samym zapytaniu excela. Dlatego nie mam możliwości edytowania query online jedynie w apce. Podrzucę ss jaki dokładnie błąd wychodzi przy odświeżaniu danych.