Pozycjonowanie strony

Chciał bym się podpiąć do tematu…

Powoli zaczynam pozycjonować moją stronę i mam kilka pytań:

Czy mogę mieć kilka mapek strony ? NP: Mam zindeksowane koło 300 linków w jednej i kiedy ją nadpisuję linki znikają i na nowo google je indeksuje - czyli wracają dopiero po tygodniu…

Czy płatne katalogi o tym samym PR co darmowe są lepsze ?

Czy mapa strony w postaci html umieszczona w stopce naprawdę pomaga ?

Na czym polega umieszczanie na stronie chmurki tagów oraz czy to także pomaga ??

Witam. Na początku podaję odnośnik do regulaminu:

:arrow: viewtopic.php?f=5&t=210226

Na forum nie podpinamy się pod inne tematy. Zwłaszcza te dawno mocno przeterminowane.

Wszystko w porządku, ale linka do strony muszę zakryć, ponieważ jest to już reklama strony. Jeśli będą potrzebne kawałki kodu, to zapewne użytkownicy poproszą o nie.

Temat został wydzielony z innego wątku.

  1. ??? zależy co i jak nadpisujesz.

Poczytaj może o sitemapindex i zainteresuj się tematem pingowania strony

  1. zwykle płatne posiadają lepszej jakości zawartość, zaś darmowe często są zaśmiecone

  2. to zależy …także od wykonania. Dobrze jest jak masz linkowanie wewnętrzne (powiązanie działów, artykułów etc)

Mapa w formacie html nie zaszkodzi, chociaż polecam stosować głównie pliki robots.txt i sitemap.xml

  1. jw. zależy od wykonania. Chmura może poprawić linkowanie wewnętrzne, można też nią co ważniejsze anchory podkreślić kierując na nie wiekszą moc.

Pamiętaj, że jest coś takiego jak rel=“nofollow” i rel=“dofollow” - warto z tego umiejętnie korzystać.

Okej coś szukałem o pingowaniu i znalazłem taką stronkę http://pingomatic.com/

Pingowanie to takie przyspieszanie linków w kolejce do gogle ??

robots.txt - myślałem, że to nie potrzebne. Czytałem, że to plik blokujący jakieś foldery przed indeksacją gogole, czy tak ?

Tak, dzięki pingowi robot może szybciej zaindeksować stronę -pingiem tez powiadamiasz o zmianach w stronie itp.

W pliku tym wskazujesz plik mapy, zezwalasz/zabraniasz indeksacji wskazanych lokalizacji, określasz dostep dla robotów itd.

poczytaj sobie np http://www.robotstxt.org/

Nie rozumiem do końca :slight_smile:

Jeśli plik robot.txt ma taką zawartość i jest w głównym folderze strony:

User-agent: *

Disallow: /

A plik mapy jest w folderze X ? To tak ma zostać ? Czy mam coś dodać…

jak dasz dissalow: / -to zabronisz całkowicie indeksacji

a co do mapy, to podpinasz ją dodając

Sitemap: http://tutajadresserwera/sitemap.xml

Okej czyli mapka plik robots.txt wygląda tak :

User-agent: *

Sitemap: http://tutajadresserwera/sitemap.xml

Api a mógł byś mi coś podpowiedzieć co do narzędzia którym najwydajniej tworzy się mapy strony, które indeksowało by google ??

PS.Tylko coś bez ograniczeń…

online to np http://www.xml-sitemaps.com/

możesz też zrobić (lub poszukać) skrypt, który by generował dynamicznie mapę na podstawie twojej bazy danych

np. http://forum.php.pl/Sitemap_generator_g … 37437.html

Kurcze ta online ma ograniczenie które już mi przeszkadza (minimum 500 linków).

A co do drugiego, strona funkcjonuje połowicznie na bazie danych reszta ma bazę w pliku więc także odpada…