Qu'est-ce qu'un cache de page?
Un cache de page, également appelé cache de disque, est une zone de mémoire vive (RAM) utilisée pour stocker et éventuellement modifier des données stockées sur un disque dur ou un autre périphérique de stockage permanent. Un système d'exploitation utilise un cache de pages pour plus de rapidité et d'efficacité, car il est plus rapide de lire et d'écrire des informations dans la RAM que d'accéder en permanence aux zones d'un disque dur. Dans la plupart des cas, le mécanisme utilisé pour la mise en cache de zones d’un disque dur est automatiquement contrôlé par le système d’exploitation et ne doit pas nécessairement être géré ou géré par les utilisateurs ou les applications. Selon le système d'exploitation, la mise en cache des pages est parfois utilisée pour toutes les lectures et écritures d'un disque dur, quelle que soit la quantité d'informations lues ou écrites. Un autre attribut spécifique du système d’exploitation du cache de pages est qu’après une période donnée, le cache est automatiquement vidé de toutes les informations inutilisées afin de conserver un important pool de mémoire disponible pour d’autres applications.
Lorsqu'un programme informatique demande des informations à partir d'un disque dur traditionnel, un processus relativement long peut être mis en œuvre pour récupérer les informations. Le disque dur étant un support à accès aléatoire, il doit donc déplacer physiquement un lecteur vers l'emplacement du disque qui correspond à l'emplacement où se trouve le bloc de données. Après cela, les informations sont lues sur l'ordinateur, où elles peuvent être traitées. Pour lire des blocs d'informations consécutifs à partir du lecteur, vous devez effectuer plus de mouvements du lecteur physique ou de la tête. Ce processus peut prendre encore plus de temps lors de l’écriture de fichiers volumineux sur le disque.
La mémoire vive d'ordinateur, par contre, ne nécessite pas de lecteur physique et est située très près de l'unité de traitement centrale (CPU) de l'ordinateur. Lire et écrire dans la RAM est beaucoup plus rapide que lire et écrire sur un disque dur. Un cache de page est un moyen de minimiser la quantité de lecture physique et d'écriture nécessaire sur un disque dur.
Le processus est exécuté en lisant une certaine quantité d’informations sur le disque dur à la demande. La quantité de données stockées dans une mémoire cache de pages en RAM est déterminée par la taille de la mémoire cache, et pas nécessairement par la quantité d'informations demandée. Une fois que les données du lecteur sont dans la RAM, elles le restent jusqu’à ce qu’elles ne soient plus nécessaires ou jusqu’à un point où toute modification des données dans le cache doit être écrite ou vidée sur le disque dur pour être permanente. enregistré. Le vidage de la mémoire cache peut survenir lorsque la mémoire doit être libérée, après un certain temps, ou même par l'exécution d'une commande utilisateur, si nécessaire.
Le plus souvent, un cache de pages est utilisé pour stocker des fichiers qui ne changent pas mais qui doivent être référencés en permanence, tels que des fichiers exécutables et des bibliothèques pour des applications. Pour augmenter la vitesse et la sécurité de l'exécution des applications à partir d'un cache de pages, certains systèmes marquent la mémoire utilisée pour les exécutables comme étant en lecture seule. L'utilisation d'un cache peut en fait augmenter la durée de vie d'un disque dur en réduisant le risque de blocage du disque à partir de plusieurs lectures et écritures dans un court laps de temps.