dominowiak dominowiak 21.09.2018, 12:35:35 1 mirko pomusz z #seo (?) Na "mojej" stronie miałem automatycznie utworzony plik robots.txt blokujący wszystko i wyszukiwarka google wypluwała "W przypadku tej strony informacje nie są dostępne.Dowiedz się dlaczego"No więc dowiedziałem się dlaczego i sprametryzowałem plik robots.txt najpierw na:User-agent: *Disallow:Co nie przyniosło po upływie dobrych 48 godzin żadnej zmiany.Później ustawiłem:User-agent: *Disallow:User-agent: *Allow: /Co też nic nie dało.Co robię źle?Chce tylko, żeby google mi indeksowało szajs na stronie. Cronox
Jonn Jonn 21.09.2018, 12:48:16 via Wykop Mobilny (Android) 0 @dominowiak: usuń ten plik skoro i tak chcesz żeby wszystko było indeksowane.
dominowiak dominowiak 21.09.2018, 12:49:44 0 @Jonn: na hostingu którego używam zdaje się nie mogę tego zrobić (cba.pl) - tzn mogę go fizycznie usunąć, tylko, że zostanie on zastąpiony "wirtualnym plikiem robots.txt" (tak pisali w faq), który domyślnie blokuje indeksowanie.
NoKappaSoldier73 NoKappaSoldier73 21.09.2018, 12:51:39 0 @dominowiak: czasem i tydzień się czeka a nie 48h
Jonn Jonn 21.09.2018, 12:55:45 via Wykop Mobilny (Android) 1 @dominowiak: dodaj stronę do Google Webmaster Tools i będziesz mógł obserwować co się dzieje z indeksowaniem. dominowiak
MarianKolasa MarianKolasa 21.09.2018, 13:56:48 via Android 0 @dominowiak no musisz zgłosić parę adresów do indeksowania w Search Console, a potem czekać ))¯_(ツ)_/¯
Na "mojej" stronie miałem automatycznie utworzony plik robots.txt blokujący wszystko i wyszukiwarka google wypluwała
No więc dowiedziałem się dlaczego i sprametryzowałem plik robots.txt najpierw na:
Co nie przyniosło po upływie dobrych 48 godzin żadnej zmiany.
Później ustawiłem:
Co też nic nie dało.
Co robię źle?
Chce tylko, żeby google mi indeksowało szajs na stronie.