Qu'est-ce qu'un cache de page?
Un cache de page, également appelé cache de disque, est un domaine de la mémoire d'accès aléatoire (RAM) qui est utilisé pour maintenir et éventuellement modifier des données stockées sur un disque dur ou un autre périphérique de stockage permanent. Un système d'exploitation utilise un cache de page pour la vitesse et l'efficacité, car il est plus rapide de lire et d'écrire des informations à la RAM que pour accéder continuellement aux zones d'un disque dur. Dans la plupart des cas, le mécanisme utilisé pour la mise en cache des zones d'un disque dur est automatiquement contrôlé par le système d'exploitation et n'a pas à être géré ou autrement géré par les utilisateurs ou les applications. Selon le système d'exploitation, la mise en cache de page est parfois utilisée pour toute lecture et écriture à partir d'un disque dur, quelle que soit la quantité d'informations lues ou écrites. Un autre attribut spécifique au système d'exploitation du cache de page est qu'après une période de temps donnée, le cache est automatiquement rincé de toute information inutilisée pour maintenir un grand pool de mémoire libre pour d'autres applications.
Lorsqu'un programme informatique demande des informations à un disque dur traditionnel, un processus relativement provenant de temps peut avoir lieu pour récupérer les informations. Le disque dur est un support d'accès aléatoire, il doit donc déplacer physiquement un lecteur vers l'emplacement sur le disque qui correspond à l'emplacement où se trouve le bloc de données. Après cela, les informations sont lues dans l'ordinateur, où elles peuvent être traitées. Pour lire des blocs consécutifs d'informations du lecteur, plus de mouvement du lecteur physique ou de la tête doit être effectué. Ce processus peut prendre encore plus de temps lors de l'écriture de fichiers volumineux sur le disque
L'ordinateur RAM, en revanche, ne nécessite pas de lecteur physique et est situé très près de l'unité de traitement centrale (CPU) de l'ordinateur. La lecture et l'écriture à Ram sont beaucoup plus rapides que la lecture et l'écriture sur un disque dur. Un cache de page est un moyen de minimiser la quantité de lecture physiqueng et écriture qui doivent être faits à un disque dur.
Le processus est effectué en lisant dans une certaine quantité d'informations du disque dur lors de la demande. La quantité de données stockées dans un cache de page dans RAM est déterminée par la taille du cache, et pas nécessairement par la quantité d'informations demandées. Une fois que les données du lecteur sont en RAM, elles restent en RAM jusqu'à ce qu'elles ne soient plus nécessaires, ou jusqu'à un point où les modifications des données dans le cache doivent être écrites ou rincées, au disque dur pour être enregistrée en permanence. Le rinçage du cache peut se produire lorsque la mémoire doit être libérée, après une certaine période de temps, ou même par l'exécution d'une commande utilisateur, si nécessaire.
Un cache de page est le plus souvent utilisé pour stocker des fichiers qui ne changent pas mais doivent être mentionnés en continu, tels que des fichiers exécutables et des bibliothèques pour les applications. Pour augmenter la vitesse et la sécurité de l'exécution des applications à partir d'un cache de page, certains systèmes marquent la mémoire utilisée pour les exécutables comme ReAd uniquement. L'utilisation d'un cache peut réellement augmenter la durée de vie d'un disque dur en réduisant la possibilité de débat de disque à partir de plusieurs lectures et écrit dans un court laps de temps.