Co to jest pierwotny typ danych?
Prymitywny typ danych to termin informatyczny używany do opisu fragmentu danych, który domyślnie istnieje w komputerowym języku programowania. Zazwyczaj wartości tego typu danych nie mogą być zmieniane przez programistę komputerowego. Na przykład, jeśli program komputerowy byłby ceglaną ścianą, prymitywne typy danych byłyby specjalnym typem cegły, której nie można byłoby rozbić ani dopracować. Przykładem prymitywnych danych jest znak „a”; znak ten oznacza siebie i służy do reprezentowania bardziej skomplikowanych informacji poprzez połączenie ich z innymi informacjami. Podczas gdy dokładne pierwotne typy danych, które są dostępne w dowolnym języku programowania komputerowego, różnią się w zależności od języka, liczby całkowite i znaki są podstawowymi pierwotnymi typami danych dostępnymi w większości z nich.
„Znak” jest jednym z podstawowych prymitywnych typów danych dostępnych w większości komputerowych języków programowania i czasami jest określany w skróconej formie „char”. Ten typ danych obejmuje większość pojedynczych symboli, które można wprowadzić do komputera z pojedyncze naciśnięcie klawisza, takie jak cyfra „5”, znaki interpunkcyjne, takie jak „.”, i litera „b”. Termin ten oznacza jednak nie tylko literę, cyfrę lub znak interpunkcyjny. Znaki kontrolne, takie jak delete, tab i backspace, również należą do pierwotnego znaku typu danych.
Ogólnie rzecz biorąc, wszystko, co jest prymitywnym typem danych, jest również typem wartości, co oznacza, że dane nie są bardzo wybredne. Dane nie zawsze muszą być rejestrowane w ten sam sposób. Na przykład zazwyczaj nie ma znaczenia, w jakiej kolejności zapisywane są bajty opisujące dane.
Jednym z obszarów, w którym niektóre języki programowania różnią się, jest ich przetwarzanie ciągów. Jako termin informatyka ciąg jest ciągiem symboli, takich jak znaki. Niektóre języki programowania mają wbudowaną obsługę ciągów i traktują je jako prymitywny typ danych, podczas gdy inne języki nie mają podstawowej obsługi typu danych.
Liczby całkowite to obszar, w którym sprzęt komputerowy może wpływać na przetwarzanie pierwotnych typów danych. W terminologii informatycznej liczba całkowita reprezentuje jedną lub więcej liczb matematycznych. Różne jednostki centralne (CPU) mają różne limity liczby bajtów, które mogą być użyte do przedstawienia liczby całkowitej. Czasami jest to coś, o czym powinni pamiętać programiści komputerowi, aby ich programy mogły działać na tak wielu różnych typach procesorów, jak to możliwe.