Aktywne Wpisy
lunari6 +73
Hej Mirki i Mirabelki,
Od dłuższego czasu przeglądam mirko. Jakiś czas temu miałam okazję pomóc jednemu mirkowi z zaburzeniami lękowymi. Za jego namową założyłam konto. Mam na imię Dominika i jestem absolwentką #psychologia na Uniwersytecie Jagiellońskim. Oferuję szeroko pojętą pomoc psychologiczną w formie online. Pracuję z osobami dorosłymi oraz młodzieżą. Pomagam osobom z zaburzeniami: emocjonalnymi, osobowości, nastroju, odżywiania, osobom o obniżonym poczuciu własnej wartości. Zapraszam serdecznie do kontaktu na priv jeśli jesteście
Od dłuższego czasu przeglądam mirko. Jakiś czas temu miałam okazję pomóc jednemu mirkowi z zaburzeniami lękowymi. Za jego namową założyłam konto. Mam na imię Dominika i jestem absolwentką #psychologia na Uniwersytecie Jagiellońskim. Oferuję szeroko pojętą pomoc psychologiczną w formie online. Pracuję z osobami dorosłymi oraz młodzieżą. Pomagam osobom z zaburzeniami: emocjonalnymi, osobowości, nastroju, odżywiania, osobom o obniżonym poczuciu własnej wartości. Zapraszam serdecznie do kontaktu na priv jeśli jesteście
daeun +62
Ja #!$%@?, jest tyle ciekawych rzeczy wartych zrobienia i zobaczenia przed śmiercią, można na przyklad kupić motocykl i wyruszyc w trip dookoła swiata, można zdać kurs paralotniowy lub polatać na wingsuicie, albo pojechać do Tajlandi i wyruchać lejdiboya. Mnóstwo alternatyw na wydanie ciężko zarobionych pieniędzy.
Polakowi jednak nie w głowie głupoty. Polaczek ma tylko jeden cel dla którego żyje i umiera - lać setki metrów przestrzennych betonu na randomowej łące pod lasem
Polakowi jednak nie w głowie głupoty. Polaczek ma tylko jeden cel dla którego żyje i umiera - lać setki metrów przestrzennych betonu na randomowej łące pod lasem
Czy Spark albo Kafka same w sobie magazynują przetwarzane dane i w każdym momencie mogę się do nich odwołać? Załóżmy, że za pomocą Sparka łączę się z bazą i wykonuję transformacje do analityki. Czy na końcu pipeline zawsze musze załadować te dane to hurtowni bo po zamknięciu joba one przepadną? Jak nazywa się ten feature sparka?
#bigdata
Nie
Tak
Chętnie bym coś wiecej pomógł ale tu nie ma nic więcej do dodania. Jest dokładnie tak jak sam napisałeś. Spark stara sie wykonywać wszystko w RAMie i fallbackuje do dysku tylko jak musi i nawet wtedy te dane są ulotne.
Jak nie wywołasz akcji to nic nie przepada bo nie ma co (nic się nie przetwarza).
Jeśli wywołasz akcję to w sumie też nic nie przepada bo akcją jest najczęściej zapis ( ͡° ͜ʖ ͡°) chyba
@plusujemny: Mam jeszcze pytanie pomocnicze, czy bobrze wnioskuję, że do triggerowania operacji wykonywanych za
@Meriu: Możesz korzystać w oba sposoby.
Ja w jednym projekcie miałem tak:
rabbitMQ -> hadoop -> spark -> kafka -> spark -> hadoop -> spark -> hadoop