Krótka definicja - bit, bajt, kilobajt, gigabajt, terabajt zdanie, moze 2. prosze o szybka odp. daje naj ;p
Zgłoś nadużycie!
Bit (w ang. kawałek, skrót od binary digit, czyli cyfra dwójkowa) – najmniejsza ilość informacji potrzebna do określenia, który z dwóch równie prawdopodobnych stanów przyjął układ. Jednostka logiczna.
Bajt (dop. bajtu lub bajta) – najmniejsza adresowalna jednostka informacji pamięci komputerowej, składająca się z bitów.
Kilobajt (KB, rzadziej kB, ang. Kbyte, kbyte, kilobyte ) – jednostka używana w informatyce do określenia ilości informacji lub wielkości pamięci. W przeciwieństwie do innych dziedzin nauki, w informatyce przedrostek kilo oznacza nie krotność 103, tylko 210: 1 KB = 210 = 1024 B (bajty)
Gigabajt (109, skrót GB) lub Gibibajt (230, skrót GiB) – jednostka używana w informatyce oznaczająca miliard (a w praktyce częściej 1.073.741.824 ~ 1.000.000.000 = 109) bajtów.
Terabajt (skrót TB), Tebibajt (skrót TiB) – jednostka używana w informatyce oznaczająca bilion (dokładniej 1 099 511 627 776) ~ 1 000 000 000 000 = 1012) bajtów.
ps. mam nadzieje, że pomogłam ;)
9 votes Thanks 4
nikola11
BIT- najmniejsza ilość informacji potrzebna do określenia. BAJT - najmniejsza jednostka informacji pamięci komputerowej, składająca się z bitów. KILOBAJT- jednostka używana w informatyce do określenia ilości informacji lub wielkości pamięci. GIGABAJT- jednostka używana w informatyce oznaczająca miliard bajtów. TERABAJT- jednostka używana w informatyce oznaczająca bilion bajtów
11 votes Thanks 14
Angelika6752
Bit - najmniejsza ilość informacji potrzebna do określania, który z dwóch równie prawdopodobnych stanów przyjął układ.Jednostka logiczna
bajt - jednostka służąca do mierzenia ilości informacji.
kilobajt - 1024 bajtów. Zwykle podawany w skrócie jak 1 KB.
gigabajt - jednostka używana w informatyce oznaczająca miliard bajtów.
terabajt - jednostka używana w informatyce oznaczająca bilion bajtów.
Bajt (dop. bajtu lub bajta) – najmniejsza adresowalna jednostka informacji pamięci komputerowej, składająca się z bitów.
Kilobajt (KB, rzadziej kB, ang. Kbyte, kbyte, kilobyte ) – jednostka używana w informatyce do określenia ilości informacji lub wielkości pamięci. W przeciwieństwie do innych dziedzin nauki, w informatyce przedrostek kilo oznacza nie krotność 103, tylko 210:
1 KB = 210 = 1024 B (bajty)
Gigabajt (109, skrót GB) lub Gibibajt (230, skrót GiB) – jednostka używana w informatyce oznaczająca miliard (a w praktyce częściej 1.073.741.824 ~ 1.000.000.000 = 109) bajtów.
Terabajt (skrót TB), Tebibajt (skrót TiB) – jednostka używana w informatyce oznaczająca bilion (dokładniej 1 099 511 627 776) ~ 1 000 000 000 000 = 1012) bajtów.
ps. mam nadzieje, że pomogłam ;)
BAJT - najmniejsza jednostka informacji pamięci komputerowej, składająca się z bitów.
KILOBAJT- jednostka używana w informatyce do określenia ilości informacji lub wielkości pamięci.
GIGABAJT- jednostka używana w informatyce oznaczająca miliard bajtów.
TERABAJT- jednostka używana w informatyce oznaczająca bilion bajtów
bajt - jednostka służąca do mierzenia ilości informacji.
kilobajt - 1024 bajtów. Zwykle podawany w skrócie jak 1 KB.
gigabajt - jednostka używana w informatyce oznaczająca miliard bajtów.
terabajt - jednostka używana w informatyce oznaczająca bilion bajtów.
Mam nadzieję że dobrze ;)