Co to jest Gigabyte?
Gigabajt to termin określający określoną wartość ilości danych w odniesieniu do pojemności lub zawartości pamięci. Odnosi się do pewnej ilości czegoś, zwykle jakiegoś rodzaju danych, często przechowywanych cyfrowo. Gigabajt zwykle odnosi się do 1 miliarda bajtów. Gigabajt może potencjalnie zostać pomylony z gibibajtem , który jest również wielkością pamięci, ale jest oparty na systemie dwójkowym lub podstawowym.
Najłatwiejszym sposobem zrozumienia terminu „gigabajt” jest podzielenie go na dwie podstawowe części: „giga” i „bajt”. Bajt to kawałek danych i zwykle jest uważany za najmniejszą ilość danych używanych do reprezentowania pojedynczy znak w kodzie komputerowym. Innymi słowy, bajty to pojedyncze elementy składowe kodu komputerowego. Każdy bajt składa się z pewnej liczby bitów, zwykle ośmiu, a każdy bit to kawałek danych, który zazwyczaj ma jedną z dwóch możliwych wartości: zwykle przedstawionych jako 1 lub 0.
Bity to pojedyncze części kodu binarnego, które są zgrupowane, po osiem naraz, aby utworzyć pojedynczy bajt, który następnie faktycznie składa dane w szerszym znaczeniu. Dlatego programy komputerowe składają się z bajtów, więc rozmiar programu jest reprezentowany w bajtach. Tak jak ściana wykonana z 100 cegieł będzie większa niż ściana wykonana z 10 takich samych cegieł, tak program 100 bajtów jest większy niż jeden z 10 bajtów. Zamiast wyrażać rozmiary dużych programów w tysiącach lub milionach, a teraz miliardy i tryliony bajtów, przedrostki służą do oznaczania rzędów wielkości.
Przedrostki te są zgodne z ustalonymi notacjami Międzynarodowego Systemu Jednostek, podobnymi do tych, które są stosowane w pomiarach metrycznych. Dlatego 1000 bajtów nazywa się kilobajtem, 1 milion bajtów to megabajt, 1 miliard bajtów to gigabajt, a 1 bilion bajtów to terabajt. Każdy z tych przedrostków wskazuje rząd wielkości, o który bajty są zwiększane, i nieco odpowiada notacji binarnej, która używa podobnej terminologii. Z powodu tego rodzaju notacji gigabajt może czasami być mylony z gibibajtem , który jest podobny, ale różni się wielkością.
Gibibajt to rozmiar używany najczęściej w odniesieniu do pamięci lub pojemności przetwarzania pamięci, takiej jak pamięć o dostępie swobodnym (RAM). Rozmiar ten oparty jest na systemie dwójkowym lub dwójkowym, w którym rzędy wielkości składają się z wykładniczych wzrostów o 10 do podstawy dwóch. Innymi słowy, 2 10 bajtów to kibibajt , 2 20 bajtów to mebibajt , a 3 30 bajtów to gibibajt . Chociaż jest to zbliżone do gigabajta, nie jest dokładnie takie samo: gibibajt ma 1 073,741,824 bajtów; i doprowadził do zamieszania w odniesieniu do rzeczywistych rozmiarów pamięci na dyskach twardych i podobnych urządzeniach pamięci.