4.2 Leçon 1
Certification : |
Linux Essentials |
---|---|
Version : |
1.6 |
Thème : |
4 Le Système d’Exploitation Linux |
Objectif : |
4.2 Comprendre le Matériel Informatique |
Leçon: |
1 sur 1 |
Introduction
Sans matériel, le logiciel n’est rien d’autre qu’une autre forme de littérature. Le matériel traite les commandes décrites par le logiciel et fournit des mécanismes de stockage, d’entrée et de sortie. Même le cloud est en fin de compte soutenu par le matériel.
En tant que système d’exploitation, l’une des responsabilités de Linux est de fournir des logiciels avec des interfaces pour accéder au matériel d’un système. La plupart des spécificités de configuration dépassent le cadre de cette leçon. Cependant, les utilisateurs sont souvent préoccupés par les performances, la capacité et d’autres facteurs du matériel du système, car ils ont une incidence sur la capacité d’un système à prendre en charge de manière adéquate des applications spécifiques. Cette leçon aborde le matériel en tant qu’éléments physiques distincts utilisant des connecteurs et des interfaces standard. Les normes sont relativement statiques. Mais le facteur de forme, les performances et les caractéristiques de capacité du matériel sont en constante évolution. Indépendamment de la manière dont les changements peuvent brouiller les distinctions physiques, les aspects conceptuels du matériel décrits dans cette leçon restent d’actualité.
Note
|
À différents moments de cette leçon, des exemples de lignes de commande sont utilisés pour montrer comment accéder aux informations sur le matériel. La plupart des exemples sont tirés d’un Raspberry Pi B+ mais devraient s’appliquer à la plupart des systèmes. La compréhension de ces commandes n’est pas nécessaire pour comprendre ce matériel. |
Les Alimentations Électriques
Tous les composants actifs d’un système informatique ont besoin d’électricité pour fonctionner. Malheureusement, la plupart des sources d’électricité ne sont pas appropriées. Le matériel des systèmes informatiques nécessite des tensions spécifiques avec des tolérances relativement étroites. Ce qui n’est pas le cas de votre prise murale locale.
Les alimentations électriques normalisent les sources d’énergie disponibles. Les exigences de tension normalisées permettent aux fabricants de créer des composants matériels qui peuvent être utilisés dans des systèmes partout dans le monde. Les blocs d’alimentation de bureau ont tendance à utiliser l’électricité des prises murales comme source. Les blocs d’alimentation des serveurs sont généralement plus critiques et peuvent souvent être connectés à plusieurs sources pour garantir leur fonctionnement en cas de défaillance d’une source.
La consommation d’énergie génère de la chaleur. Une chaleur excessive peut entraîner un fonctionnement lent ou même une défaillance des composants du système. La plupart des systèmes sont équipés d’une forme de ventilateur pour faire circuler l’air afin d’obtenir un refroidissement plus efficace. Les composants tels que les processeurs génèrent souvent de la chaleur que le flux d’air seul ne peut pas dissiper. Ces composants chauds fixent des ailettes spéciales appelées dissipateurs de chaleur pour aider à dissiper la chaleur qu’ils génèrent. Les dissipateurs de chaleur ont souvent leur propre petit ventilateur pour assurer un flux d’air adéquat.
La Carte Mère
Tout le matériel d’un système doit être interconnecté. Une carte mère normalise cette interconnexion en utilisant des connecteurs et des facteurs de forme standardisés. Elle fournit également un support pour la configuration et les besoins électriques de ces connecteurs.
Il existe un grand nombre de configurations de cartes mères. Elles prennent en charge différents processeurs et systèmes de mémoire. Elles ont différentes combinaisons de connecteurs standardisés. Et elles s’adaptent aux différentes tailles des boitiers qui les contiennent. Hormis peut-être la possibilité de connecter des dispositifs externes spécifiques, la configuration de la carte mère est effectivement transparente pour les utilisateurs. Les administrateurs sont surtout exposés à la configuration de la carte mère lorsqu’il est nécessaire d’identifier des dispositifs spécifiques.
Lors de la première mise sous tension, un matériel spécifique à la carte mère doit être configuré et initialisé avant que le système puisse fonctionner. Les cartes mères utilisent une programmation stockée dans une mémoire non volatile appelée firmware (microprogramme) pour traiter le matériel spécifique à la carte mère. La forme originale du firmware de la carte mère était connue sous le nom de BIOS (Basic Input/Output System). Au-delà des paramètres de configuration de base, le BIOS était principalement responsable de l’identification, du chargement et du transfert des opérations vers un système d’exploitation tel que Linux. Avec l’évolution du matériel, les firmwares se sont développés pour prendre en charge des disques plus grands, des diagnostics, des interfaces graphiques, la mise en réseau et d’autres capacités avancées indépendantes de tout système d’exploitation chargé. Les premières tentatives pour faire progresser les firmwares au-delà du BIOS de base étaient souvent spécifiques à un fabricant de cartes mères. Intel a défini une norme pour les firmwares avancés, connue sous le nom d’EFI (Extensible Firmware Interface). Intel a contribué à la création de l’EFI au sein d’un organisme de normalisation pour créer l’UEFI (Unified Extensible Firmware Interface). Aujourd’hui, la plupart des cartes mères utilisent l’UEFI. Le BIOS et l’EFI ne sont presque jamais disponibles sur les systèmes récents. Quoi qu’il en soit, la plupart des gens appellent encore le firmware de la carte mère BIOS.
Il existe très peu de paramètres de firmwares intéressant les utilisateurs généraux, de sorte que seules les personnes responsables de la configuration matérielle du système doivent généralement s’occuper des firmwares et de leurs paramètres. L’une des rares options couramment modifiées est l’activation des extensions de virtualisation des processeurs modernes.
La Mémoire
La mémoire du système contient les données et le code de programme des applications en cours d’exécution. Lorsqu’ils parlent de la mémoire de l’ordinateur, la plupart des gens font référence à cette mémoire système. Un autre terme courant utilisé pour la mémoire système est l’acronyme RAM (Random Access Memory) ou une variante de cet acronyme. Parfois, des références au conditionnement physique de la mémoire système comme DIMM, SIMM ou DDR sont également utilisées.
Physiquement, la mémoire système est généralement conditionnée sur des modules de circuits imprimés individuels qui se branchent sur la carte mère. La taille des modules de mémoire individuels varie actuellement entre 2 Go et 64 Go. Pour la plupart des applications générales, 4 Go est le minimum de mémoire système que les gens devraient envisager. Pour les postes de travail individuels, 16 Go sont généralement plus que suffisants. Cependant, même 16 Go peuvent être une limite pour les utilisateurs qui utilisent des jeux, des vidéos ou des applications audios haut de gamme. Les serveurs ont souvent besoin de 128 Go, voire 256 Go de mémoire pour supporter efficacement les charges des utilisateurs.
Pour l’essentiel, Linux permet aux utilisateurs de traiter la mémoire système comme une boîte noire. Quand une application est lancée, Linux se charge d’allouer la mémoire système nécessaire. Linux libère la mémoire pour qu’elle puisse être utilisée par d’autres applications lorsqu’une application se termine. Mais que se passe-t-il si une application nécessite plus que la mémoire système disponible ? Dans ce cas, Linux déplace les applications inutilisées de la mémoire système vers une zone de disque spéciale appelée espace d’échange (espace swap). Linux déplace les applications inutilisées de l’espace d’échange du disque vers la mémoire système lorsqu’elles doivent s’exécuter.
Les systèmes sans matériel vidéo dédié utilisent souvent une partie de la mémoire système (souvent 1 Go) pour servir de stockage d’affichage vidéo. Cela réduit la mémoire système effective. Le matériel vidéo dédié possède généralement sa propre mémoire séparée qui n’est pas disponible en tant que mémoire système.
Il existe plusieurs façons d’obtenir des informations sur la mémoire du système. En tant qu’utilisateur, la quantité totale de mémoire disponible et utilisée est généralement la valeur d’intérêt. Une source d’information serait d’exécuter la commande free
avec le paramètre -m
pour convertir la sortie en mégaoctets :
$ free -m total used free shared buff/cache available Mem: 748 37 51 14 660 645 Swap: 99 0 99
La première ligne précise la mémoire totale disponible pour le système (total
), la mémoire utilisée (used
) et la mémoire libre (free
). La deuxième ligne affiche ces informations pour l’espace d’échange (swap). La mémoire indiquée comme shared
et buff/cache
est actuellement utilisée pour d’autres fonctions du système, bien que la quantité indiquée dans available
puisse être utilisée pour l’application.
Les Processeurs
Le mot "processeur" implique que quelque chose est en cours de traitement. Dans les ordinateurs, la majeure partie de ce traitement porte sur des signaux électriques. Généralement, ces signaux sont traités comme ayant une des valeurs binaires 1 ou 0.
Lorsque les gens parlent d’ordinateurs, ils utilisent souvent le terme "word processor" de façon interchangeable avec l’acronyme "CPU" (Central Processing Unit). Ce qui n’est pas techniquement correct. Tout ordinateur à usage général possède une unité centrale qui traite les commandes binaires spécifiées par les logiciels. Il est donc compréhensible que les gens confondent processeur et CPU. Cependant, en plus d’une unité centrale, les ordinateurs modernes comprennent souvent d’autres processeurs spécifiques aux tâches. Le processeur supplémentaire le plus reconnaissable est peut-être le GPU (Graphical Processing Unit). Ainsi, si une CPU est un processeur, tous les processeurs ne sont pas des CPU.
Pour la plupart des gens, l’architecture du CPU est une référence aux instructions que le processeur prend en charge. Bien qu’Intel et AMD fabriquent des processeurs prenant en charge les mêmes instructions, il est important de faire la distinction entre les différents fournisseurs en raison des différences de conditionnement, de performances et de consommation d’énergie qui leur sont propres. Les distributions de logiciels utilisent couramment ces désignations pour spécifier l’ensemble minimum d’instructions dont ils ont besoin pour fonctionner :
- i386
-
Fait référence au jeu d’instructions 32 bits associé à l’Intel 80386.
- x86
-
Fait généralement référence aux jeux d’instructions 32 bits associés aux successeurs du 80386, tels que le 80486, le 80586 et le Pentium.
- x64 / x86-64
-
Processeurs de référence qui prennent en charge les instructions 32 bits et 64 bits de la famille x86.
- AMD
-
Une référence au support x86 par les processeurs AMD.
- AMD64
-
Une référence au support x64 par les processeurs AMD.
- ARM
-
Fait référence à un processeur RISC (Reduced Instruction Set Computer) qui n’est pas basé sur le jeu d’instructions x86. Communément utilisé par les périphériques embarqués, mobiles, sur tablette et sur batterie. Une version de Linux pour ARM est utilisée par le Raspberry Pi.
Le fichier /proc/cpuinfo
contient des informations détaillées sur le processeur d’un système. Malheureusement, ces informations ne sont pas accessibles à tous les utilisateurs. Un résultat plus général peut être obtenu avec la commande lscpu
. Sortie d’un Raspberry Pi B+ :
$ lscpu Architecture: armv7l Byte Order: Little Endian CPU(s): 4 On-line CPU(s) list: 0-3 Thread(s) per core: 1 Core(s) per socket: 4 Socket(s): 1 Model: 4 Model name: ARMv7 Processor rev 4 (v7l) CPU max MHz: 1400.0000 CPU min MHz: 600.0000 BogoMIPS: 38.40 Flags: half thumb fastmult vfp edsp neon vfpv3 tls vfpv4 idiva idivt vfpd32 lpae evtstrm crc32
Pour la plupart des gens, la myriade de fournisseurs, de familles de processeurs et de facteurs de spécification représente un éventail de choix déconcertant. Quoi qu’il en soit, il existe plusieurs facteurs associés aux CPUs et aux processeurs que même les utilisateurs et les administrateurs généraux doivent souvent prendre en compte lorsqu’ils doivent spécifier des environnements opérationnels :
- Taille des bits
-
Pour les processeurs, ce nombre est fonction à la fois de la taille native des données qu’ils manipulent et de la quantité de mémoire à laquelle ils peuvent accéder. La plupart des systèmes modernes sont soit 32 bits, soit 64 bits. Si une application a besoin d’accéder à plus de 4 gigaoctets de mémoire, elle doit fonctionner sur un système 64 bits, car 4 gigaoctets est l’adresse maximale qui peut être représentée en utilisant 32 bits. Et, alors que les applications 32 bits peuvent généralement s’exécuter sur des systèmes 64 bits, les applications 64 bits ne peuvent pas s’exécuter sur des systèmes 32 bits.
- Vitesse de l’horloge
-
Souvent exprimé en mégahertz (MHz) ou gigahertz (GHz). Il s’agit de la vitesse à laquelle un processeur traite les instructions. Mais la vitesse du processeur n’est qu’un des facteurs qui influent sur les temps de réponse du système, les temps d’attente et le débit. Même un utilisateur multitâche actif garde rarement le processeur d’un PC de bureau commun actif plus de 2 ou 3 % du temps. Quoi qu’il en soit, si vous utilisez fréquemment des applications à forte intensité de calcul impliquant des activités telles que le chiffrement ou le rendu vidéo, alors la vitesse du processeur peut avoir un impact significatif sur le débit et le temps d’attente.
- Le cache
-
Pour fonctionner, les processeurs ont besoin d’un flux constant d’instructions et de données. Le coût et la consommation d’énergie d’une mémoire système de plusieurs gigaoctets accessible à la vitesse d’horloge de l’unité centrale seraient prohibitifs. La mémoire cache à la vitesse du CPU est intégrée à la puce du CPU pour fournir un tampon à grande vitesse entre les CPU et la mémoire système. La mémoire cache est séparée en plusieurs couches, communément appelées L1, L2, L3 et même L4. Dans le cas de la mémoire cache, plus est souvent mieux.
- Les noyaux
-
Le terme "noyau" fait référence à une unité centrale individuelle. En plus de représenter une unité centrale physique, la technologie Hyper-Threading (HTT) permet à une seule unité centrale physique de traiter simultanément plusieurs instructions, agissant ainsi virtuellement comme plusieurs unités centrales physiques. Le plus souvent, plusieurs cœurs physiques sont intégrés dans une seule puce de processeur physique. Toutefois, certaines cartes mères prennent en charge plusieurs puces de processeur physique. En théorie, le fait d’avoir plus de cœurs pour traiter les tâches semblerait toujours donner un meilleur rendement du système. Malheureusement, les applications de bureau ne tiennent souvent les CPU occupés que 2 ou 3 % du temps, de sorte que l’ajout de CPU, le plus souvent inactifs, n’améliorera probablement que très peu le débit. Un plus grand nombre de cœurs est mieux adapté à l’exécution d’applications écrites pour avoir plusieurs threads indépendants de fonctionnement, tels que le rendu d’images vidéo, le rendu de pages web ou les environnements de machines virtuelles multi-utilisateurs.
Le stockage
Les dispositifs de stockage offrent une méthode pour conserver les programmes et les données. Les disques durs (HDD) et les disques durs à semi-conducteurs (SSD) sont les dispositifs de stockage les plus courants pour les serveurs et les ordinateurs de bureau. Les clés USB et les dispositifs optiques tels que les DVD sont également utilisés, mais rarement comme dispositif principal.
Comme son nom l’indique, un disque dur stocke des informations sur un ou plusieurs disques physiques rigides. Les disques physiques sont recouverts d’un support magnétique pour permettre le stockage. Les disques sont contenus dans un boitier scellé car la poussière, les petites particules et même les empreintes digitales interféreraient avec la capacité du disque dur à lire et à écrire sur le support magnétique.
Les disques SSD sont en fait des versions plus sophistiquées des clés USB avec une capacité nettement plus importante. Les disques SSD stockent des informations dans des micropuces, ce qui fait qu’il n’y a pas de pièces mobiles.
Bien que les technologies sous-jacentes des disques HDD et des disques SDD soient différentes, des facteurs importants peuvent être comparés. La capacité des disques HDD est basée sur la mise à l’échelle des composants physiques tandis que la capacité des disques SDD dépend du nombre de micro-puces. Par gigaoctet, les disques SSD coûtent entre 3 et 10 fois le coût d’un disque HDD. Pour lire ou écrire, un disque HDD doit attendre qu’un emplacement sur un disque tourne vers un emplacement connu alors que les disques SSD sont à accès aléatoire. Les vitesses d’accès aux disques SSD sont généralement de 3 à 5 fois plus rapides que celles des disques HDD. Comme ils ne comportent pas de pièces mobiles, les SSD consomment moins d’énergie et sont plus fiables que les disques HDD.
La capacité de stockage est en constante augmentation pour les disques HDD et les disques SDD. Aujourd’hui, on trouve couramment des disques HDD de 5 téraoctets et des disques SDD de 1 téraoctet. Quoi qu’il en soit, une grande capacité de stockage n’est pas toujours mieux. Lorsqu’un périphérique de stockage tombe en panne, les informations qu’il contenait ne sont plus disponibles. Et bien sûr, la sauvegarde prend plus de temps lorsqu’il y a plus d’informations à sauvegarder. Pour les applications qui lisent et écrivent beaucoup de données, la latence et les performances peuvent être plus importantes que la capacité.
Les systèmes modernes utilisent le SCSI (Small Computer System Interface) ou le SATA (Serial AT Attachment) pour se connecter aux périphériques de stockage. Ces interfaces sont généralement prises en charge par le connecteur approprié sur la carte mère. La charge initiale provient d’un périphérique de stockage connecté à la carte mère. Les paramètres du firmware définissent l’ordre dans lequel les périphériques sont accédés pour ce chargement initial.
Les systèmes de stockage connus sous le nom de RAID (Redundant Array of Independent Disks) sont une implémentation courante pour éviter la perte d’informations. Une matrice RAID est constituée de plusieurs dispositifs physiques contenant des copies d’informations. Si l’un des dispositifs tombe en panne, toutes les informations sont encore disponibles. Les différentes configurations physiques de RAID sont référencées comme 0, 1, 5, 6 et 10. Chaque désignation a une taille de stockage, des caractéristiques de performance et des façons de stocker des données redondantes ou des sommes de contrôle différentes pour la récupération des données. Au-delà d’une certaine surcharge de configuration administrative, l’existence du RAID est effectivement transparente pour les utilisateurs.
Les périphériques de stockage lisent et écrivent généralement les données sous forme de blocs d’octets. La commande lsblk
peut être utilisée pour lister des blocs de périphériques disponibles pour un système. L’exemple suivant a été exécuté sur un Raspberry Pi en utilisant une carte SD comme périphérique de stockage. Les détails de la sortie sont couverts par des informations dans les leçons sur les partitions et les pilotes qui suivent :
$ lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT mmcblk0 179:0 0 29.7G 0 disk +-mmcblk0p1 179:1 0 43.9M 0 part /boot +-mmcblk0p2 179:2 0 29.7G 0 part /
Les partitions
Un dispositif de stockage est en fait une longue séquence de lieux de stockage. Le partitionnement est le mécanisme qui indique à Linux s’il doit voir ces emplacements de stockage comme une seule séquence ou plusieurs séquences indépendantes. Chaque partition est traitée comme s’il s’agissait d’un dispositif individuel. La plupart du temps, les partitions sont créées lors de la première configuration d’un système. Si un changement est nécessaire, des outils administratifs sont disponibles pour gérer le partitionnement des périphériques.
Alors pourquoi serait-il souhaitable d’avoir plusieurs partitions ? La gestion du stockage disponible, l’isolation des charges de chiffrement ou la prise en charge de plusieurs systèmes de fichiers sont des exemples d’utilisation de partitions. Les partitions permettent d’avoir un seul périphérique de stockage qui peut démarrer sous différents systèmes d’exploitation.
Alors que Linux peut reconnaître la séquence de stockage d’un périphérique brut, un périphérique brut ne peut pas être utilisé tel quel. Pour utiliser un périphérique brut, il doit être formaté. Le formatage écrit un système de fichiers sur un périphérique et le prépare pour les opérations de fichiers. Sans système de fichiers, un périphérique ne peut pas être utilisé pour des opérations liées aux fichiers.
Les utilisateurs voient les partitions comme s’il s’agissait de dispositifs individuels. Il est donc facile de ne pas voir qu’il s’agit toujours d’un seul périphérique physique. En particulier, les opérations de périphérique à périphérique qui sont en fait des opérations de partition à partition n’auront pas les performances attendues. Un périphérique unique est un mécanisme physique avec un ensemble de matériel de lecture/écriture. Plus important encore, vous ne pouvez pas utiliser les partitions d’un seul périphérique physique comme une conception tolérante aux pannes. Si le périphérique tombe en panne, toutes les partitions tombent en panne et il n’y a donc pas de tolérance aux pannes.
Note
|
Logical Volume Manager (LVM) est une fonctionnalité logicielle qui permet aux administrateurs de combiner des disques et des partitions de disque individuels et de les traiter comme s’il s’agissait d’un seul et même disque. |
Les périphériques
Les serveurs et les postes de travail ont besoin d’une combinaison de CPU, de mémoire système et de stockage pour fonctionner. Mais ces composants fondamentaux n’ont pas d’interface directe avec le monde extérieur. Les périphériques sont les dispositifs qui fournissent aux systèmes les entrées, les sorties et l’accès au reste du monde réel.
La plupart des cartes mères sont équipées de connecteurs externes intégrés et prennent en charge les firmwares des interfaces de périphériques hérités courants, tels que le clavier, la souris, le son, la vidéo et le réseau. Les cartes mères récentes sont généralement dotées d’un connecteur Ethernet pour la prise en charge des réseaux, d’un connecteur HDMI pour les besoins graphiques de base et d’un ou plusieurs connecteurs USB (Universal Serial Bus) pour la plupart des autres fonctions. Il existe plusieurs versions d’USB avec des vitesses et des caractéristiques physiques différentes. Plusieurs versions de ports USB sont communes sur une même carte mère.
Les cartes mères peuvent également avoir un ou plusieurs emplacements d’extension (slots). Les emplacements d’extension permettent aux utilisateurs d’ajouter des cartes de circuit imprimé spéciales, appelées cartes d’extension, qui prennent en charge des périphériques personnalisés, anciens et non standard. Les interfaces graphiques, sonores et réseau sont des cartes d’extension courantes. Les cartes d’extension prennent également en charge le RAID et les interfaces anciennes de format spécial impliquant des connexions série et parallèle.
Les configurations de système sur puce (SoC : System on a Chip) offrent des avantages en termes de puissance, de performance, d’espace et de fiabilité par rapport aux configurations de carte mère en regroupant les processeurs, la mémoire système, les disques SSD et le matériel pour contrôler les périphériques dans un seul boîtier de circuit intégré. Les périphériques pris en charge par les configurations SoC sont limités par les composants embarqués. Ainsi, les configurations SoC ont tendance à être développées pour des utilisations spécifiques. Les téléphones, les tablettes et autres appareils portables sont souvent basés sur la technologie SoC.
Certains systèmes intègrent des périphériques. Les ordinateurs portables sont similaires aux stations de travail mais intègrent par défaut des périphériques d’affichage, de clavier et de souris. Les systèmes tout-en-un sont similaires aux ordinateurs portables mais nécessitent des périphériques de souris et de clavier. Les contrôleurs basés sur une carte mère ou un SoC sont souvent équipés de périphériques intégrés adaptés à une utilisation spécifique.
Les Pilotes et Fichiers de Périphériques
Jusqu’à présent, cette leçon a présenté des informations sur les processeurs, la mémoire, les disques, le partitionnement, le formatage et les périphériques. Mais exiger des utilisateurs généraux qu’ils traitent les détails spécifiques de chacun des périphériques de leur système rendrait ces systèmes inutilisables. De même, les développeurs de logiciels devraient modifier leur code pour chaque périphérique nouveau ou modifié qu’ils doivent prendre en charge.
La solution à ce problème de "traitement des détails" est fournie par le pilote de périphérique. Les pilotes de périphériques acceptent un ensemble standard de demandes puis traduisent ces demandes en activités de contrôle appropriées au périphérique. Les pilotes de périphériques sont ce qui vous permet, à vous et aux applications que vous exécutez, de lire à partir du fichier /home/carol/stuff
sans vous soucier de savoir si ce fichier se trouve sur un disque HDD, un disque SDD, une clé USB, un stockage chiffré ou tout autre périphérique.
Les fichiers de périphériques se trouvent dans le répertoire /dev
et identifient les périphériques physiques, les accès aux périphériques et les pilotes pris en charge. Par convention, dans les systèmes modernes utilisant des périphériques de stockage SCSI ou SATA, le nom du fichier de spécification commence par le préfixe sd
. Le préfixe est suivi d’une lettre telle que a
ou b
indiquant un périphérique physique. Après le préfixe et l’identificateur du périphérique vient un numéro indiquant une partition dans le périphérique physique. Ainsi, /dev/sda
fait référence à la totalité du premier périphérique de stockage tandis que /dev/sda3
fait référence à la partition 3 du premier périphérique de stockage. Le fichier de périphérique contient, pour chaque type de périphérique une convention de nommage appropriée. Bien que la couverture de toutes les conventions de nommage possibles dépasse le cadre de cette leçon, il est important de se rappeler que ces conventions sont essentielles pour rendre possible l’administration du système.
Bien que le contenu du répertoire /dev
dépasse la portée de cette leçon, il est instructif de regarder l’entrée d’un périphérique de stockage. Les fichiers de périphériques pour les cartes SD utilisent généralement mmcblk
comme préfixe :
$ ls -l mmcblk* brw-rw---- 1 root disk 179, 0 Jun 30 01:17 mmcblk0 brw-rw---- 1 root disk 179, 1 Jun 30 01:17 mmcblk0p1 brw-rw---- 1 root disk 179, 2 Jun 30 01:17 mmcblk0p2
Les détails du listage pour un fichier de périphérique sont différents des détails de fichier typiques :
-
Contrairement à un fichier ou à un répertoire, la première lettre du champ d’autorisation est
b
. Cela indique que les blocs sont lus et écrits sur le périphérique en blocs plutôt qu’en caractères individuels. -
Le champ de taille est constitué de deux valeurs séparées par une virgule plutôt que d’une valeur unique. La première valeur indique généralement un pilote particulier au sein du noyau et la seconde valeur spécifie un périphérique spécifique géré par le pilote.
-
Le nom du fichier utilise un numéro pour le dispositif physique, de sorte que la convention d’appellation s’adapte en spécifiant le suffixe de partition sous la forme d’un
p
suivi d’un chiffre.
Note
|
Chaque périphérique du système doit avoir une entrée dans |
Exercices Guidés
-
Décrivez ces termes :
Processeur
CPU
GPU
-
Si vous utilisez principalement des applications de montage vidéo (une activité à forte intensité de calcul), quels sont les composants et les caractéristiques qui devraient avoir le plus d’impact sur la convivialité du système :
Les cœurs de CPU
La vitesse du CPU
La mémoire système disponible
Le système de stockage
GPU
L’affichage vidéo
Aucune de ces réponses
-
Quel devrait être le nom du fichier de périphérique dans
/dev
pour la partition 3 du troisième lecteur SATA d’un système ?sd3p3
sdcp3
sdc3
Aucune de ces réponses
Exercices d’Exploration
-
Exécutez la commande
lsblk
sur votre système. Identifiez les paramètres ci-dessous. Si un système n’est pas immédiatement disponible, considérez la sortie delsblk -f
pour le système Raspberry Pi mentionné dans la section "Stockage" ci-dessus :$ lsblk -f NAME FSTYPE LABEL UUID MOUNTPOINT mmcblk0 +-mmcblk0p1 vfat boot 9304-D9FD /boot +-mmcblk0p2 ext4 rootfs 29075e46-f0d4-44e2-a9e7-55ac02d6e6cc /
-
Le type de périphériques et leur nombre
-
La structure de partition de chaque périphérique
-
Le type de système de fichiers et de support pour chaque partition
-
Résumé
Un système est la somme de ses composants. Les différents composants ont un impact différent sur le coût, les performances et la facilité d’utilisation. S’il existe des configurations communes pour les stations de travail et les serveurs, il n’y a pas de configuration optimale unique.
Réponses aux Exercices Guidés
-
Décrivez ces termes :
- Processeur
-
Terme général qui s’applique à tout type de processeur. Souvent utilisé à tort comme synonyme de CPU.
- CPU
-
Une unité centrale de traitement. Une unité de traitement fournissant un soutien pour les tâches informatiques générales.
- GPU
-
Une unité de traitement graphique. Une unité de traitement optimisée pour soutenir les activités liées à la présentation des graphiques.
-
Si vous utilisez principalement des applications de montage vidéo (une activité à forte intensité de calcul), quels sont les composants et les caractéristiques qui devraient avoir le plus d’impact sur la convivialité du système :
- Les cœurs de CPU
-
Oui. Les cœurs multiples prennent en charge les tâches de présentation et de rendu simultanées requises par le montage vidéo.
- La vitesse du CPU
-
Oui. Le rendu vidéo nécessite une quantité importante d’activités de calcul.
- La mémoire système disponible
-
Probablement. La vidéo non compressée utilisée pour le montage est volumineuse. Les systèmes d’usage général sont souvent dotés de 8 gigaoctets de mémoire. Une mémoire de 16 ou même 32 gigaoctets permet au système de gérer un plus grand nombre d’images vidéo non compressées, ce qui rend les activités de montage plus efficaces.
- Le système de stockage
-
Oui. Les fichiers vidéo sont volumineux. La surcharge des lecteurs SSD locaux permet un transfert plus efficace. Les disques réseau plus lents risquent d’être contre-productifs.
- Le GPU
-
Non. Le GPU influe principalement sur la présentation de la vidéo rendue.
- L’affichage vidéo
-
Non. L’affichage de la vidéo a principalement un impact sur la présentation de la vidéo rendue.
- Aucune de ces réponses
-
Non. Certains de ces facteurs ont des répercussions évidentes sur la facilité d’utilisation de votre système.
-
Quel devrait être le nom du fichier de périphérique dans
/dev
pour la partition 3 du troisième lecteur SATA d’un système ?sd3p3
Incorrect. Le lecteur 3 serait
sdc
et nonsd3
sdcp3
Incorrect. La partition 3 serait
3
et non pasp3
sdc3
Correct
None of the above
Ce n’est pas correct. La bonne réponse est l’un des choix.
Réponses aux Exercices d’Exploration
-
Exécutez la commande
lsblk
sur votre système. Identifiez les paramètres ci-dessous. Si un système n’est pas immédiatement disponible, considérez la sortie delsblk -f
pour le système Raspberry Pi mentionné dans la section "Stockage" ci-dessus :$ lsblk -f NAME FSTYPE LABEL UUID MOUNTPOINT mmcblk0 +-mmcblk0p1 vfat boot 9304-D9FD /boot +-mmcblk0p2 ext4 rootfs 29075e46-f0d4-44e2-a9e7-55ac02d6e6cc /
Les réponses qui suivent sont basées sur le listage
lsblk -f
pour le système Raspberry Pi ci-dessus. Vos réponses peuvent varier :- Le type de périphériques et leur nombre
-
Il existe un dispositif :
mmcblk0
. Vous savez par convention que lemmcblk
serait une carte mémoire SD. - La structure de partition de chaque périphérique
-
Il y a deux partitions :
mmcblk0p1
etmmcblk0p2
. - Le type de système de fichiers et de support pour chaque partition
-
La partition 1 utilise le système de fichiers
vfat
. Il est utilisé pour démarrer le système et est monté en tant que/boot
. La partition 2 utilise le système de fichiersext4
. Il est utilisé comme système de fichiers principal et est monté sous la forme/
.