Wpis z mikrobloga

Mirki od #seo - jak często/szybko po zgłoszeniu (w Google Search Console) powinno być realizowane przeszukanie strony html (nie php!). Mam validation pending od 4 dni, to normalne?
  • 13
A ile stron masz?


@80kg: 41 sztuk w html (i coś ze 400 obrazków webp) - oraz to, czego nie używam w wordpressie ~40? (.php) i gdzie było noindex (ale w robot nie ma!) - ale plik index.php i php.ini są wywalone, bo myślałem, że to one brużdżą. Ile ten stan walidacji może zająć, jak to zwykle bywa?
@Erravi: Jak powiesz sześćdziesięciolatkowi wprost o co biega, to będzie prościej :) (php/wordpress nie jest w ogóle w użyciu, miałem całkowicie kasować, ale doszedłem do wniosku że może wrócę do tematu jak znajdę trochę czasu).
@bialy100k jeśli chodzi o php i WordPress to raczej jest w użyciu, php ini to plik konfiguracji dla interpretera ale już h..j , jeśli chodzi o seo porostu napisz post / treść strony tak aby nie powielać innych stron i tyle
Google ma już i tak optymalizację w dupie i wszystko inne też ma w dupie, mam 10 stron pod opieką wszystkie 100 w lighouse a na top 5 się ledwo łapią.
@Erravi: W zasadzie nie chcę pozycjonowania SEO w sensie propagacji informacji o stronie i masowych odwiedzin. Zupełnie. Bo to dla klientów jakich już mam, by sobie coś tam pooglądali konkretnego. Chodzi raczej o to, by za 10 lat było wiadomo, że strona była indeksowana od 2023 i co się z nią działo - a ja, bym mógł widzieć czy działania POZA środowiskiem Google przynoszą jakieś efekty. Natomiast zanim zacznę robić coś
@bialy100k: obecnie mają spore problemy z crawlowaniem i indexem/reindeksem, dodatkowo format webp jest kijowy pod kątem indeksowania (i crawlu bodajże też) i dużo zależy, jak serwujesz obrazki. Jak wyłącznie za pomocą webp - może być to problematyczne.
@FilipTraum: Tak, wyłącznie. Przy czym zapewne jeszcze je będę zmieniał - ale są znacząco mniejsze niż jpg. Mowa nawet o kilku razach. Jednak Google Search Console nie pokazuje żeby odwiedziny robota się odbyły - więc skąd ma wiedzieć? :)
@bialy100k: tak jak słusznie podsunął kolega @odysjestem - zajrzyj w logi serwera. Wiem, że webp lepiej pod optymalizację wypadają, ale pod wspomniany crawl/index/rankowanie - sporo gorzej (co z kolei też jednak rzutuje na optymalizację domeny/strony jako całości, bo możliwie jak najbardziej usprawniony crawl również zaliczamy w końcu do elementów optymalizacyjnych).

Rzuć też okiem np. na to i pokrewne wątki: https://www.searchenginejournal.com/googles-john-mueller-clarifies-webp-image-indexing-confusion/485844/

Co do samego przecrawlowania zawsze możesz próbować wymuszać za pomocą SC
Co do samego przecrawlowania zawsze możesz próbować wymuszać za pomocą SC i/lub indexerów.


@FilipTraum: No właśnie to zrobiłem i od 6 dni się nie pojawił - stąd pytanie w 1 poście "ile to trwa i czy normalne". Nie za bardzo wiem gdzie szukać "logów serwera", ale jak nie znajdę to zapytam support. Nie siedzę w temacie - a mam blisko 60 i wolałbym nie zaczynać dogłębnej nauki. Dzięki za podpowiedzi.
@bialy100k: Aktualnie takie lagi nie są niczym niezwykłym, ostatnio dużo mieli w serpie, a crawl rate jednej domeny nie równy drugiej. Co do logów przydatny skrótowiec znajdziesz przykładowo tutaj (od razu z przykładem topowego narzędzia do analizy) : https://www.devagroup.pl/blog/analiza-logow-serwera-na-korzysc-seo.

Rozumiem, staram się dawać możliwie skrótowe odpowiedzi, abyś nie musiał zaraz na specjalistę seo się przebranżawiać. Proszę bardzo - jak coś będziesz jeszcze potrzebował - pisz tu lub wal na PM bezpośrednio.