Oznaczenia prędkości

Siemqa!!

Może ktoś napisać czym się rózni kB/s od kb/s oraz kbps/s itp.

Jest tyle oznaczeń a ja nie wiem co idzie do czego:p

Jakbyście mogli to też napiscie coś w stylu 1GB to XXmb a

1mb to XX kb

1kb to xx b

itp takier rózne oznaczenia prędkosci i wielkości:d Albo jak mozecie to podajcie linka do jakiejs strony www z tym

kB/s to kiloBajty na sekunde

kb/s to kilobity na sekunde

8 bitów to 1 bajt

więc 8 kilobitów to 1 kilobajt

1024 kilobajty(kB) to 1 megabajt (MB)

1024 megabajty (MB) to jeden gigabajt (GB)

1024 gigabajty to 1 terabajt (TB)

Jeśli masz np łącze 128 kb/s to znaczy że możesz pobierać z prędkością 16 kB/s bo dzielimy przez 8, a to z kolei znaczy że 1 megabajt pobierasz w około 64 sekundy bo 1024 dzielimy przez 16.

Troche kombinacji, ale jak to załapiesz to będzie prościzna :slight_smile: :slight_smile:

Nie kbps/s tylko kbps oc oznacza to samo co kb/s inaczej:

kbps-kilobit’s per second =

To jest dość poważna sprawa bo co nie którzy myślą, że kB/s i kb/s to to samo :shock: :shock: :shock:

Na dobra sprawę to K B/s i K b/s…

Na dobrą sprawę , to właśnie ciolo podał prawidłowe oznaczenie jednostek przepustowości :slight_smile:

Dużą literą oznaczasz Megabity i Gigabity:

Mb/s i Gb/s

Dla kilobitów i kilobajtów:

kb/s i kB/s

:okulary:

Mnie uczono:

k - 1000

K - 1024

k - kilo

M - Mega

1000 - system dziesiętny

1024 - system binarny

k - piane małą literą jest prawidłowo.

Witam

W ramach problemów z prawidłowym przeliczaniem i pytań związanych z tym problemem, pozwole sobię napisać parę słów. Jak wiadomo, teoria jest podstawą do zrozumienia problemu, co ma swoje przełożenie na stosowanie wiedzy w praktyce.

  1. Dlaczego tak, a nie inaczej. Rys historyczny.

W informatyce podstawową porcją informacji jest bit. Bit może być równy 0 lub 1 (tak, nie). Jako, że taka jednosta jest dość kłopotliwa w zastosowaniu, informatycy postanowili, że należy uprościć ten stan rzeczy.

W poczatkach ery komputerów, pamięć operacyjna była dość cenna (nowo powstająca technologia, zawsze jest “mało wydajna” - zwiększenie mocy obliczeniowej postępuje wraz z zastosowaniem nowych materiałów i rozwiązań). Informatycy “uznali”, że paczki bajtów powinny być jak najmniejsze, równocześnie jak najbardziej funkcjonalne. Tak powstał bajt - grupujący 8 bitów. Pozwala to na zapisanie całego alfabetu, wraz z dużymi i małymi literami, oraz dodatkowymi znakami np. @, $, #. Wraz z rozwojem nowych technologii, komputerowe pamięci “zaczęły” mieścić coraz więcej bitów i bajtów. W ten sposób zaczęły powstawać nowe jednostki - a właściwie ich nowy zapis --> kilo, mega, giga, tera.

  1. Bit jest wynikiem używaia systemu dwójkowego (0, 1), który jest logiczniejszy dla wykonywania operacji przez maszyny. Dlatego w informatyce nie dzieli przez 1 000, ale przez 2 do potęgi 10 - czyli 1 024.

Dlatego megabajt = 1 148 576 B(ajtów), a nie (zgodnie z układem SI) 1 000 000 B. Ale nie w każdej sytuacji :!:

  1. Inna pojemność dysku z etykiety i inna pojemność dysku w systemie. Co jest grane :evil:

Przedrostki opisane powyżej, stosują producencji komputerów oraz oprogramowania. Inaczej rzecz ma się z producentami HDD. U nich stosowane są przedrostki (kilo, mega, giga, tera) w rozumieni systemu dziesiętnego (zgodnym z układem SI). Tak więc, dysk o pojemności 100 gigabajtów = 100 mld B.

  1. po podpięciu HDD do płyty głównej, pojemność dysku nagle się zmienia i jest podstawą niepokoju. Nie ma takiej potrzeby. Komputer przeliczając pojemność dysku (z systemu dziesiętnego na binarny) “gubi bity” - wspomniany powyżej dysk zamiast 100 GB, będzie pokazywał 93,1 GB.

Na tę sytuację nie mamy żadnego wpływu i dlatego musimy się z nią pogodzić :slight_smile:

Mam nadzieję, że ten nieco przydługi tekst przyda się komuś.

Zainteresowanych odsyłam do “Wiedzy i Życia” nr. 12/2005 i do zasobów www, skąd czerpałem pełnymi rękoma - zwłaszcza z wikipedii

Jest bardzo ciekawy, Monczkin :wink: