Wpis z mikrobloga

@obojetny_na_wszystko: https://softwareengineering.stackexchange.com/questions/138643/why-is-python-used-for-high-performance-scientific-computing-but-ruby-isnt

powolność pythona ma w gruncie rzeczy niewielkie znaczenie, bo używa się go jako "kleju", do parsowania danych, przekształcania ich odpowiednio, i wywoływania superzoptymalizowanych bibliotek napisanych w C lub fortranie. Obczaj scipy i numpy.
@obojetny_na_wszystko: > tyle że Python jest powolny przy obliczeniach
pytanie czy wolisz, żeby obliczenia trwały 2s krócej, czy może wolisz spędzić nad problemem połowę tego czasu co w Javie. No chyba że na prawdę masz do czynienia z dużą ilością danych, rzędu gigabajtów.
@askorek: @obojetny_na_wszystko: jak ktoś pisał wyżej, powolność pythona ma mały wpływ na narzędzia obliczeniowe dedykowane takim operacjom, bo są one często mocno oparte bindingach do c/c++ i tam odbywają się właściwe operacje (choćby scipy i numpy działają na takiej zasadzie, to pierwsze z czym warto się właśnie zapoznać, ja od siebie jeszcze polecam pandas), miałem okazję pracować z takimi gigabajtami danych, prawdziwy problem to potrzebna pamięć operacyjna przy większych zbiorach
@dog_meat jak wrzucasz gigabajty danych wejsciowych do wykresu albo algorytmu lm to raczej robisz to zle. Albo twoim wiekszym problemem nie bedzie ilosc danych ale zlozonosc obliczen.
@dog_meat a ja mowie o danych po przetworzeniu, autor wątku pyta o szybkosc obliczeń, a czystych logów raczej sie nie liczy. Co za znaczenie ma ilosc danych wejsciowych jak po obróbce mozesz raz miec 10x mniej a kiedy indziej 1000x mniej, zaleznie co zbierasz?