Wpis z mikrobloga

Jest jakiś sposób żeby pobrać wszystkie zaindeksowane urle danej strony w #google bez pisania #skrypt ? Strona jest moja.

Wiem, że można wpisać w google site:wykop.pl ustalić wyniki wyszukiwana na 100 i w jednej linii js pobrać wyniki, ale to ciągle za mało. Stron z wynikami jest b. dużo. Zależy mi na jakiejś automatyzacji.
#webdev #seo #programowanie
Pobierz
źródło: comment_1588843294Wrp75mt2kN3sBrT6iVDqUh.jpg
  • 20
@weedget: @gustav: Byłem tam. W GSC jest około 3 000 wyników. Bezpośrednio w wyszukiwarce blisko 300 000. Początkowo myślałem, że w GSC jeszcze się te url nie zaktualizowały (z tego co widzę wyniki są aktualizowane co tydzień), ale to nie to. Od ponad miesiąca (tyle to obserwuję) jest identycznie. I tu i tu wyniki nie zmieniają się znacznie.
@szalony_baklazan: przy takiej ilości to raczej darmowe narzędzie nie wypluje Tobie tyle wyników.
Pozostaje jakiś płatny automat lub prosty skrypt wykorzystujący proxy.

Jeżeli masz całą mapę witryny to prościej bo linki już masz i lecisz po kolei.
Scrapebox


@cuda: to byłaby opcja, ale 100$ to trochę dużo biorąc pod uwagę, że użyję tego raz.

@gustav: może być płatny, ale w granicach rozsądku bo jak pisałem wyżej potrzebne mi to raz. Najlepsza byłaby opcja licencji na miesiąc czy płatne od pobranych url.

Jeżeli masz całą mapę witryny to prościej bo linki już masz i lecisz po kolei.


@gustav: no mam, ale na mapie mam około 3k a
@szalony_baklazan: a jak nie chcesz bulic za harvester to zrob sobie wlasny w darmowym Browser Automation Studio albo jak masz platny zennoposter, do BASa byl gdzie nawet poradnik na yt jak zrobic taki harvester do googla, nic trudnego