Wpis z mikrobloga

mirko pomusz z #seo (?)
Na "mojej" stronie miałem automatycznie utworzony plik robots.txt blokujący wszystko i wyszukiwarka google wypluwała

"W przypadku tej strony informacje nie są dostępne.

Dowiedz się dlaczego"


No więc dowiedziałem się dlaczego i sprametryzowałem plik robots.txt najpierw na:

User-agent: *

Disallow:


Co nie przyniosło po upływie dobrych 48 godzin żadnej zmiany.
Później ustawiłem:

User-agent: *

Disallow:

User-agent: *

Allow: /


Co też nic nie dało.
Co robię źle?
Chce tylko, żeby google mi indeksowało szajs na stronie.
  • 6
@Jonn: na hostingu którego używam zdaje się nie mogę tego zrobić (cba.pl) - tzn mogę go fizycznie usunąć, tylko, że zostanie on zastąpiony "wirtualnym plikiem robots.txt" (tak pisali w faq), który domyślnie blokuje indeksowanie.