Google a faktyczna liczba steon

Jak wiadomo, każda strona zaczyna się od www.

Po wpisaniu tej frazy w google pokazała ona największą liczbę wyników jaką udało mi się wpisać.Zastanawia mnie fakt czy to faktyczna liczba ile na świecie na dzień dzisiejszy istnieje stron www ,czy to tylko liczba stron za indexowanych przez google stanowiaca większą część wszystkich istniejących stron www ?

Jeżeli nie, to gdzie mozna sprawdzic ile istnieje stron (Wszystkich) na dzień dzisiejszy ?

Google dla www.

Yahoo dla www

To z 2 największych znanych wyszukiwarek na swiecie , nie pamiętam nazwy tej z Microsofte to nią nie sprawdzę ale wynik też pewno ok miliardów czy to bilony juz są…

15,700,000,000 results

dla Binga

No to pozostaje czy ktos odpowie na pytanie: to faktyczna liczba stron czy tylko za indexowane przez roboty wyszukiwarek ?

Założenie z góry błędne, nie każda strona zaczyna się od “www”.

“www” samo w sobie jest subdomeną i wcale nie musi być na początku adresu (to protokół określony na samym początku określa czy jest to strona czy też coś innego rodzaju; np. http, https, mms itp), co prawda pierwotne założenia były inne ale później ktoś uznał że “www” również powinno być traktowane jako subdomena.

Są strony które po wpisaniu adresu bez “www” wchodzą i w pasku adresu nie wskakuje na początku “www”, co więcej istnieją takie adresy po wpisaniu których z “www” na początku i bez ładują się zupełnie różne strony internetowe czasem nawet o wręcz zupełnie innej tematyce.

To było tak w ramach wyjaśnienia.

Odpowiedź brzmi: to są tylko te zindeksowane przez daną wyszukiwarkę, w rzeczywistości w sieci jest ich znacznie więcej i niektóre strony z pewnych względów nie trafiły do indeksu.

Niektóre strony zwyczajnie jeszcze nie zostały zindeksowane bo wyszukiwarka do nich zwyczajnie jeszcze nie dotarła, inne mogły zostać usunięte z indeksu z powodu np. próby manipulacji słowami kluczowymi.

To tylko kilka przykładów dlaczego nie jest to kompletna liczba ale może być mnóstwo innych powodów dlaczego jakaś strona nie jest w indeksie danej wyszukiwarki.

Dodane 22.12.2010 (Śr) 16:34

Poza tym niektóre strony mogą być zindeksowane w ten sposób że na hasło “www” wpisane w wyszukiwarkę nie zostanie ona umieszczona w wynikach ale to już zupełnie inna kwestia…

Hm no to jak można sprawic jaka jest faktyczna bądź aż najbardziej zblizona liczba wszystkich stron internetowych które obecnie znajdują się w sieci + te ukryte ?

*** , tego nie da się sprawdzić, wszelkie liczby będą jedynie liczbami szacunkowymi i mogą znacznie odbiegać od rzeczywistości.

Ale nie rozumiem po co ci takie dokładne dane?

Hm to daj mi strony do możliwe aż najdokładniejszych (pomijac fakt że mogą mieć małe błędy)

Do pracy potrzebuję nt rozwoju i rozbudowy internetu.

Myślę że najlepiej będzie poszukać w google jakichś stron podających taką szacunkową liczbę.

Proponuję zacząć od tej strony: http://pl.wikipedia.org/wiki/Www - jest info na temat prefiksu www oraz notka statystyczna.

Jak się powołasz w pracy podając jakąś liczbę na konkretne (wiarygodne) źródło to nikt się nie przyczepi.

Należy też brać pod uwagę, że wyszukiwarka szuka również słów zawierających wyrażenie www. Najlepiej poszukaj jakiś statystyk na temat ilości rejestrowanych domen lub coś podobnego.

Pozdrawiam!

No a strony zajmujące się gromadzeniem statystyk np dla głównych domen uzywanych na świecie , tj pl,com,net ?

W tym wypadku nie zrobi to różnicy, bo i tak szukamy wszystkich stron a każda z nich w wynikach i tak wystąpi jeden raz. Bo wyrażenie “www” zawiera zdecydowana większość stron (występuje ono w linkach zewnętrznych).

Da ktoś dokładne strony statyczne ? …ja jakoś nie mogę znaleźć żadnej…

Nie znajdziesz takich danych, bo nikt tego dokładnie nie policzył (i policzyć się nie da).

Heh…no ale muszą być jakies statystyki robione ;x

Zalezy mi na takich stronach…potrzebne do pracy… chodź oględne statystyki…

*** , a te statystyki z wikipedii ci nie wystarczą, zajrzałeś chociaż do tego linka co ci dałem?

PS: wyszukiwarki indeksując strony trafiają na nie między innymi z indeksów innych wyszukiwarek i linków prowadzących do nich ze stron już zindeksowanych dlatego jeśli jakaś strona/witryna nie widnieje w żadnym spisie stron/witryn dostawcy hostingu na którym siedzi i nie ma na żadnej innej stronie/witrynie to żadna wyszukiwarka jej nie znajdzie (no i nikt na nią nie trafi chyba że dostanie bezpośredni link) - nie napisałem tego wcześniej więc uzupełniam moje wcześniejsze wyjaśnienie.

Około 25,270,000,000 wyników (0,10 s)

Jak się wpisze Http :smiley:

Policzyć to chyba trudno, bo spora liczba stron w ciągu minuty znika, i pojawia się , to liczba która ciągle się zmienia :smiley:

Ale jakieś staty na powiedzmy 20 grudnia ? albo lepiej będzie na 1-wszego stycznia 2011 ale to będzie trzeba poczekać.

@scripter patrzyłem na to ,ale potrzebuję więcej danych i źródeł dla potwierdzenia statystyk i dzięki za uzupełnienie…

Inna jeszcze sprawa jak ktoś ukryje stronę przed google tj jest to z DW ,albo ustawi robotom no index follow.Chodź większość przeglądarek nie interpretuje tego nagłówka…i indexuje all ze strony.

Edit:// jest jeszcze

Około 25,270,000,000 wyników (0,19 s) dla zapytania : http//www

i

bez zmian dla http

Czyli wysnuwam że google bierze dane z indexu.

Jeszcze jedno pytanko.Czy przypadkiem nie jest tak ze co raz zostanie za indexowane przez google , pozostanie takim na zawsze ? Bo jak coś szukałem w necie w google nie raz trafiałem na nie działajacy odnośnik bo np strona nie istnieje,bo np temat na forum taki już nie istnieje.Zdaje mi się że google nie usua index’wów stron których już nie ma .

Tylko problem z tymi stronami na które nie zdążyły roboty dojść nim została np skasowana z hostingu…

No ale na pewno ktos zajmuje się statystykami, a Ci ziomki co badają ruch w necie ? To nie mają statystyk.Lub jak google podało staty ze ludzie najwięcej szukali frazę xxx ?

BTW :

zapytanie literką A : Około 23,890,000,000 wyników (0,11 s) jest mniejsze niż tamte wyniki, to dość dziwne bo raczej każda strona co zawiera tekest ma chodź raz uzytą pierwszą literę alfabetu . . znakiem tego powyższe liczby nie odnoszą się jedynie do zawartości strony a nagłówka, bo gdyby tak było liczba literek na stronie była by znacząco wieksza .Nawet z załozenia ze jedna strona ma 10 literek ‘a’ a jest ich w indexie 1,000,000,000 :] .

Dobrze myślę, czy jest inaczej ?Jak coś wyprowadźcie z błędu.

Działanie silnika wyszukiwarki jest znacznie bardziej skomplikowane.

Trzeba to rozpatrywać jako 2 osobne mechanizmy: mechanizm przeszukujący sieć i indeksujący oraz mechanizm przeszukujący indeks pod kątem wyników najtrafniejszych do zapytania.

Poza tym google i inne wyszukiwarki zbierają informacje o tym jakie hasła wpisują odwiedzający i na jakie strony wchodzą (google robi to też za pomocą swojej przeglądarki Chrome) i dostosowują listę wyników do preferencji odwiedzającego (u różnych osób może być inna kolejność stron w wynikach dla tego samego hasła).

I na pewno google usuwa z indexu strony które znikły tylko może to potrwać zanim wyszukiwarka znów wróci na daną stronę, można np. ustawić aby roboty wyszukujące wróciły na stronę po określonym czasie choć też nie ma reguły co do tego jak jest ta dyspozycja przez nie traktowana.

Hm czyli znakiem tego…nie da się obliczyć ilości stron które kiedyś w sieci istniały a jedynie przybliżoną ilość stron które prawdopodobnie obecnie istnieją ?

:o :x

Bez obrazy, ale pomysł liczenia stron na podstawie wyników google jest zwyczajnie głupi.

Raczej poszukaj statystyk dotyczących ilości zarejestrowanych i aktywnych domen, a i to nie da pełnych wyników

btw

-www jest subdomeną

-weź poprawkę, że jedna strona może korzystać z wielu subdomen, a może być też że na subdomenach będą różne strony.

-nie, index nie jest dożywotni …coś do niego trafia, coś innego wylatuje - a to że niektóre wyniki są nieaktualne wynika z tego, że albo googlebot jeszcze nie przeindeksował strony, albo też serwer nie odpowiadał właściwym nagłówkiem http na zapytanie.