kloc221
(Kloc221)
11 Lipiec 2010 08:37
#1
Chciał bym się podpiąć do tematu…
Powoli zaczynam pozycjonować moją stronę i mam kilka pytań:
Czy mogę mieć kilka mapek strony ? NP: Mam zindeksowane koło 300 linków w jednej i kiedy ją nadpisuję linki znikają i na nowo google je indeksuje - czyli wracają dopiero po tygodniu…
Czy płatne katalogi o tym samym PR co darmowe są lepsze ?
Czy mapa strony w postaci html umieszczona w stopce naprawdę pomaga ?
Na czym polega umieszczanie na stronie chmurki tagów oraz czy to także pomaga ??
squeet
(squeet)
12 Lipiec 2010 18:33
#2
Witam. Na początku podaję odnośnik do regulaminu:
viewtopic.php?f=5&t=210226
Na forum nie podpinamy się pod inne tematy. Zwłaszcza te dawno mocno przeterminowane.
Wszystko w porządku, ale linka do strony muszę zakryć, ponieważ jest to już reklama strony. Jeśli będą potrzebne kawałki kodu, to zapewne użytkownicy poproszą o nie.
Temat został wydzielony z innego wątku.
api
(Sitemaster)
12 Lipiec 2010 20:24
#3
??? zależy co i jak nadpisujesz.
Poczytaj może o sitemapindex i zainteresuj się tematem pingowania strony
zwykle płatne posiadają lepszej jakości zawartość, zaś darmowe często są zaśmiecone
to zależy …także od wykonania. Dobrze jest jak masz linkowanie wewnętrzne (powiązanie działów, artykułów etc)
Mapa w formacie html nie zaszkodzi, chociaż polecam stosować głównie pliki robots.txt i sitemap.xml
jw. zależy od wykonania. Chmura może poprawić linkowanie wewnętrzne, można też nią co ważniejsze anchory podkreślić kierując na nie wiekszą moc.
Pamiętaj, że jest coś takiego jak rel=“nofollow” i rel=“dofollow” - warto z tego umiejętnie korzystać.
kloc221
(Kloc221)
13 Lipiec 2010 16:34
#4
Okej coś szukałem o pingowaniu i znalazłem taką stronkę http://pingomatic.com/
Pingowanie to takie przyspieszanie linków w kolejce do gogle ??
robots.txt - myślałem, że to nie potrzebne. Czytałem, że to plik blokujący jakieś foldery przed indeksacją gogole, czy tak ?
api
(Sitemaster)
13 Lipiec 2010 17:10
#5
Tak, dzięki pingowi robot może szybciej zaindeksować stronę -pingiem tez powiadamiasz o zmianach w stronie itp.
kloc221:
robots.txt - myślałem, że to nie potrzebne. Czytałem, że to plik blokujący jakieś foldery przed indeksacją gogole, czy tak ?
W pliku tym wskazujesz plik mapy, zezwalasz/zabraniasz indeksacji wskazanych lokalizacji, określasz dostep dla robotów itd.
poczytaj sobie np http://www.robotstxt.org/
kloc221
(Kloc221)
13 Lipiec 2010 17:33
#6
Nie rozumiem do końca
Jeśli plik robot.txt ma taką zawartość i jest w głównym folderze strony:
User-agent: *
Disallow: /
A plik mapy jest w folderze X ? To tak ma zostać ? Czy mam coś dodać…
api
(Sitemaster)
13 Lipiec 2010 18:23
#7
jak dasz dissalow: / -to zabronisz całkowicie indeksacji
a co do mapy, to podpinasz ją dodając
Sitemap: http://tutajadresserwera/sitemap.xml
kloc221
(Kloc221)
13 Lipiec 2010 18:44
#8
Okej czyli mapka plik robots.txt wygląda tak :
User-agent: *
Sitemap: http://tutajadresserwera/sitemap.xml
Api a mógł byś mi coś podpowiedzieć co do narzędzia którym najwydajniej tworzy się mapy strony, które indeksowało by google ??
PS.Tylko coś bez ograniczeń…
api
(Sitemaster)
13 Lipiec 2010 19:06
#9
online to np http://www.xml-sitemaps.com/
możesz też zrobić (lub poszukać) skrypt, który by generował dynamicznie mapę na podstawie twojej bazy danych
np. http://forum.php.pl/Sitemap_generator_g … 37437.html
kloc221
(Kloc221)
14 Lipiec 2010 07:03
#10
Kurcze ta online ma ograniczenie które już mi przeszkadza (minimum 500 linków).
A co do drugiego, strona funkcjonuje połowicznie na bazie danych reszta ma bazę w pliku więc także odpada…