Odpowiedzi

  • Użytkownik Zadane
2010-02-21T20:34:47+01:00
Bit (w ang. kawałek, skrót od binary digit, czyli cyfra dwójkowa) – najmniejsza ilość informacji potrzebna do określenia, który z dwóch równie prawdopodobnych stanów przyjął układ. Jednostka logiczna.

Bajt (dop. bajtu lub bajta) – najmniejsza adresowalna jednostka informacji pamięci komputerowej, składająca się z bitów.

Kilobajt (KB, rzadziej kB, ang. Kbyte, kbyte, kilobyte ) – jednostka używana w informatyce do określenia ilości informacji lub wielkości pamięci. W przeciwieństwie do innych dziedzin nauki, w informatyce przedrostek kilo oznacza nie krotność 103, tylko 210:
1 KB = 210 = 1024 B (bajty)

Gigabajt (109, skrót GB) lub Gibibajt (230, skrót GiB) – jednostka używana w informatyce oznaczająca miliard (a w praktyce częściej 1.073.741.824 ~ 1.000.000.000 = 109) bajtów.

Terabajt (skrót TB), Tebibajt (skrót TiB) – jednostka używana w informatyce oznaczająca bilion (dokładniej 1 099 511 627 776) ~ 1 000 000 000 000 = 1012) bajtów.

ps. mam nadzieje, że pomogłam ;)
7 4 7
Najlepsza Odpowiedź!
2010-02-21T20:37:14+01:00
BIT- najmniejsza ilość informacji potrzebna do określenia.
BAJT - najmniejsza jednostka informacji pamięci komputerowej, składająca się z bitów.
KILOBAJT- jednostka używana w informatyce do określenia ilości informacji lub wielkości pamięci.
GIGABAJT- jednostka używana w informatyce oznaczająca miliard bajtów.
TERABAJT- jednostka używana w informatyce oznaczająca bilion bajtów
9 4 9
2010-02-21T20:47:13+01:00
Bit - najmniejsza ilość informacji potrzebna do określania, który z dwóch równie prawdopodobnych stanów przyjął układ.Jednostka logiczna

bajt - jednostka służąca do mierzenia ilości informacji.

kilobajt - 1024 bajtów. Zwykle podawany w skrócie jak 1 KB.

gigabajt - jednostka używana w informatyce oznaczająca miliard bajtów.

terabajt - jednostka używana w informatyce oznaczająca bilion bajtów.

Mam nadzieję że dobrze ;)
6 4 6