Qu'est-ce qu'un type de données primitif?
Un type de données primitif est un terme informatique utilisé pour décrire une donnée existant par défaut dans un langage de programmation. En règle générale, les valeurs de ces types de données ne peuvent pas être modifiées par un programmeur informatique. Par exemple, si un programme informatique était un mur de briques, les types de données primitifs seraient un type spécial de briques qui ne pourraient pas être décomposées ou affinées. Un exemple de donnée primitive est le caractère «a»; ce caractère signifie lui-même et est utilisé pour représenter des informations plus complexes en les combinant avec d'autres informations. Alors que les types de données primitifs précis disponibles dans un langage de programmation informatique donné varient d'un langage à l'autre, les entiers et les caractères sont des types de données primitifs de base disponibles dans la plupart d'entre eux.
Le «caractère» est l’un des types de données primitifs de base disponibles dans la plupart des langages de programmation. Il est parfois désigné sous le nom abrégé «char». Ce type de données comprend la plupart des symboles simples pouvant être entrés dans un ordinateur avec une seule frappe, telle que le symbole numérique «5», des signes de ponctuation tels que «.» et la lettre «b». Cependant, le terme caractère ne signifie pas seulement une lettre, un chiffre ou un signe de ponctuation. Les caractères de contrôle tels que delete, tabulation et retour arrière relèvent également du caractère de type de données primitif.
En général, tout ce qui est un type de données primitif est également un type de valeur, ce qui signifie que les données ne sont pas très difficiles. Les données ne doivent pas toujours être enregistrées de la même manière. Par exemple, l'ordre dans lequel les octets décrivant les données sont enregistrés importe peu.
Un domaine dans lequel certains langages de programmation varient est leur traitement des chaînes. En tant que terme informatique, une chaîne est une séquence de symboles, tels que des caractères. Certains langages de programmation intègrent la prise en charge des chaînes et les traitent comme un type de données primitif, tandis que d'autres ne disposent pas d'une prise en charge de base du type de données.
Les entiers constituent un domaine dans lequel le matériel informatique peut influer sur le traitement des types de données primitifs. Dans la terminologie informatique, un entier représente un ou plusieurs entiers mathématiques. Différentes unités centrales (UC) ont différentes limites quant au nombre d'octets pouvant être utilisés pour représenter un entier. Il arrive parfois que les programmeurs informatiques gardent cela à l’esprit pour que leurs programmes puissent fonctionner sur autant de types de CPU que possible.