Wpis z mikrobloga

W nawiązaniu do wpisów:
https://www.wykop.pl/wpis/36262233/jak-przegladalem-sobie-dzisiaj-mirko-to-wpadlem-na/
https://www.wykop.pl/wpis/36249619/zrobilam-sobie-taka-tabelke-w-excelu-z-danymi-na-t/

-podsyłam wersję pythonową. Co istotne, na chwilę obecną program nie pobiera danych z pojedynczych ogłoszeń, przez co dane są uboższe(brak info, o wyjazdach, biuście, językach i udziwnieniach). Jak będzie mi się chciało, to zrobię i tamto, ale raczej mi się nie będzie chciało.
-drugie info jest takie, że nie można wykonać programu ciągiem, bo zabezpieczenie po stronie serwera zablokuje nam dostęp przy którymś tam z kolei zapytaniu, więc zrobiłem tak, że jest wiersz poleceń, który oczekuje na kolejne entery. Miast jest 240, więc luz.
-gdyby się komuś nie chciało, to wrzucam wszystkie pobrane dane i wklejam je poniżej

kod: https://paste.ofcode.org/34MtZtmtFP3SVASV8RnrxCC
dane: https://ufile.io/dzc1e (jak ktoś zna jakaś stronkę do uploadu .csv, to może je tam przerzucić i podlinkować w komentarzu)

wołam: @pizza-eco @orchee

#python #programowanie #roksa #prostytucja
Pobierz s.....3 - W nawiązaniu do wpisów:
https://www.wykop.pl/wpis/36262233/jak-przegladale...
źródło: comment_Wb86lPqqX1G8MQKqrMubFdADfrMRCgaE.jpg
  • 6
@stranger13: good job :) Też się zastanawiałem nad podejściem z wyciąganiem danych, które są dostępne bez wchodzenia w konkretne anonse, co skraca czas całej operacji diametralnie, ale uznałem, że wartość kompletu danych jest celem wyższym w tym konkretnym przypadku.
Przy okazji sprawdziłem, że przy lekkiej zmianie mojego kodu jest możliwość wyciągnięcia części danych historycznych z web.archive.org z okresu dwóch lat, co mogłoby @pizza-eco pomóc zbadać również migrację diw w Polsce pomiędzy
@orchee: jest trochę ponad 5900 anonsów i tyle zapytań musiałbym robić, a odwiedzając strony miast ograniczamy się od 240 zapytań. Tracimy przy tym od 4-7 istotnych informacji(tak na oko). Coś za coś.