Le Système D'exploitation GNU-Linux
Le Système D'exploitation GNU-Linux
Le Système D'exploitation GNU-Linux
Un livre de Wikilivres.
Vous avez la permission de copier, distribuer et/ou modifier ce document selon les termes de la Licence de documentation libre
GNU, version 1.2 ou plus récente publiée par la Free Software Foundation ; sans sections inaltérables, sans texte de première
page de couverture et sans Texte de dernière page de couverture. Une copie de cette licence est inclue dans l'annexe nommée
« Licence de documentation libre GNU ».
Objectifs
À la fin de ce chapitre, le lecteur sera en mesure :
Introduction
Un système informatique moderne est composé d’un ou plusieurs processeurs, d’une mémoire principale, de disques durs, d’imprimantes, d’un clavier, d’une souris,
d’un écran, d’une carte réseau et de beaucoup d’autres périphériques d’entrée/sortie. En un mot un système complexe. Dans ce contexte, développer des
programmes d’application qui doivent tenir compte correctement de toutes ces entrées/sorties n’est pas une mince tâche. C’est pour cette raison que les ordinateurs
modernes sont équipés d’un « système d’exploitation ». Une des tâches du système d’exploitation est donc d’offrir aux utilisateurs une interface simple et
conviviale avec le matériel.
Dans ce chapitre, nous allons d’abord présenter une brève définition et description des systèmes d’exploitation. Par la suite, nous expliquons l’architecture et les
fonctions d’un système d’exploitation. Puis finalement, les différentes versions de Unix et de Linux sont présentées.
Machine virtuelle
Être une machine virtuelle signifie transformer un ensemble de circuits électroniques en un outil moderne qui offre une abstraction simple au niveau des
entrées/sorties, de l'utilisation de la mémoire, de la gestion des fichiers, de la protection et du contrôle des erreurs, de l'interaction des programmes entre eux et de
leur contrôle.
En deux mots : éviter au programmeur d’avoir à connaître les détails électroniques de tel ou tel microprocesseur et permettre à l'utilisateur de sauvegarder ses
fichiers sans se soucier du type de disque utilisé pour stocker les informations.
Gestionnaire de ressources
L'autre fonction du système d'exploitation est le partage des ressources. Le système d’exploitation joue un rôle de policier afin d'éviter les conflits d'utilisation de la
mémoire, des périphériques d'entrée/sortie, des interfaces réseau, … On peut facilement imaginer ce qui arriverait si trois programmes essayaient d'imprimer en
même temps sans que des priorités aient été préalablement établies.
De plus, lorsque l'ordinateur est utilisé par plusieurs usagers, le partage de la mémoire et surtout sa protection demeurent une priorité absolue. À tout moment, un
bon système d'exploitation connaît l'utilisateur d'une ressource, ses droits d'accès et son niveau de priorité.
Matériel
Au plus bas niveau, on retrouve la première couche qui contient les composantes physiques constituées des circuits intégrés, des fils, des sources de courant, …
La couche suivante regroupe des outils logiciels primitifs qui permettent de contrôler directement les composantes physiques sous-jacentes, comme les registres
internes du processeur et l’unité arithmétique et logique. Cette couche est appelée le microcode et réside bien souvent dans le processeur de l'ordinateur.
L'autre couche est celle du langage machine qui est interprété par le microcode. Ce langage de bas niveau regroupe 50 à 300 instructions pour permettre de déplacer
des bits, de calculer ou de comparer des valeurs à l'aide des registres internes du processeur.
Système d’exploitation
Le système d'exploitation qui se trouve juste au-dessus, offre aux programmeurs et aux utilisateurs un ensemble de fonctions du genre « lire le fichier » ou « afficher
à l’écran ». Il s'agit ici d'un niveau d'abstraction élevé qui évite ainsi au programmeur de devoir écrire, par exemple, du code pour déplacer les têtes de lecture d'un
disque rigide. Il s'agit du niveau d'exécution des pilotes de périphériques (contrôleurs d'interruptions, de disques, de carte graphique, ...).
En haut de la hiérarchie, il y a la couche où l'on retrouve les interpréteurs de commandes, les compilateurs et les logiciels d’application. Il est clair que ces
programmes ne font pas partie du système d'exploitation, même s'ils sont livrés avec celui-ci dans bien des cas.
Logiciels d’application
Finalement, au-dessus de toutes ces couches se trouvent les logiciels d’application qui permettent à un utilisateur d’effectuer des tâches particulières sans qu'il ait à
tenir compte des couches inférieures.
Parmi les nombreux systèmes d’exploitation, Unix/Linux est celui qui offre le plus de richesse, le plus d'homogénéité et le plus de souplesse. Pour cette raison, dans
ce livre, Linux a été choisi comme système d'exploitation pour illustrer les concepts théoriques. Par ailleurs, le système MS-DOS puis Windows, en évoluant, ont
incorporé beaucoup de caractéristiques de Unix/Linux.
On peut diviser les fonctions des systèmes d'exploitation classiques en quatre parties principales :
Les systèmes d'exploitation modernes intègrent par ailleurs d'autres caractéristiques. Ces dernières concernent notamment deux évolutions majeures des systèmes
informatiques. La première est l'interconnexion des différentes machines et des différents systèmes par des réseaux locaux ou étendus. La seconde est la disparition
des écrans de texte et leur remplacement par des dispositifs à fenêtres multiples disposant de propriétés graphiques.
L’histoire de l’informatique est très brève – les ordinateurs sont nés avec la seconde guerre mondiale – et pourtant, elle a connu de grandes évolutions. L'historique
des systèmes d'exploitation est intimement liée à l'évolution de l’informatique. Cette évolution est séparée en 4 grandes étapes :
En 1946, le premier ordinateur ne comportant plus de pièces mécaniques est créé grâce à J. Mauchly et J. Presper Eckert : l’ENIAC (Electronic Numerical
Integrator And Computer). Il est composé de 180 000 tubes à vide et occupe 1500 m². Son principal inconvénient est sa programmation : il était uniquement
programmable manuellement avec des commutateurs ou des câbles à enficher.
Note : La première erreur informatique est due à un insecte qui, attiré par la chaleur, était venu se loger dans les tubes à vide et avait créé un court-circuit. Le mot
« bug » (insecte en anglais), est resté pour nommer une erreur informatique.
En 1948, le transistor est créé par la firme Bell Labs grâce aux ingénieurs John Bardeen, Walter Brattain et William Shockley. Le transistor permet de rendre les
ordinateurs moins encombrants et moins gourmands en énergie électrique : c’est la révolution dans l’histoire de l’informatique. Ce n’est qu’en 1960 qu’IBM
commercialise l’un des premiers ordinateurs à base de transistors, l’IBM 7000.
C’est aussi à cette époque que les premiers systèmes d’exploitation sont apparus tel FMS (the Fortran Monitor System) et IBSYS (IBM’s operating System),
utilisant le traitement par lots pour gérer l’exécution des programmes qui se fait maintenant de façon autonome.
Le circuit intégré est mis au point en 1958 par Texas Instrument. Il permet de réduire encore la taille des ordinateurs en intégrant plusieurs transistors dans le même
composant électronique. Avec cette nouvelle génération d’ordinateurs, une nouvelle génération de systèmes d’exploitation mettant en application le concept de
multiprogrammation fait son apparition.
Les premiers travaux sur MULTICS, l'ancêtre d'Unix, sont dus à Ken Thompson pour le compte de Bell Laboratories, AT&T, General Electric et le Massachusetts
Institute for Technology.
En 1970, une première version d'Unix voit le jour. Elle fonctionne sur une machine PDP-7 de Digital Equipment. Les principales caractéristiques de ce système sont
les suivantes :
Une grande partie du système Unix fut réécrite en langage C. Le reste du système, en assembleur, dépend du type de machines sur lequel on installe le système. En
1976, la version 6 d'Unix, fut la première version complète. En 1979, ce fut le succès commercial avec la version 7. Cette version a été adoptée par Hewlett
Packard et Digital Equipment.
Chaque constructeur eut le droit d'adapter Unix à ses machines. De même, des universités pouvaient travailler à son amélioration. Mais comme le nom d'Unix
lui-même était protégé, chacun dut aussi choisir un nom différent. L'Université de Berkeley en Californie proposa ainsi les versions BSD (Berkeley Software
Distribution). Face à cette diversité des versions d'Unix, AT&T proposa, dès 1983, le standard System V. Aujourd'hui, l'X/OPEN group a obtenu le droit de diffuser
la marque Unix à tous les systèmes qui se soumettent à un contrôle approprié. Aujourd'hui encore, HP propose HP-UX, IBM propose sa version d'Unix appelée AIX
et Sun propose Solaris.
En 1979, Microsoft prend une licence Unix et développe le système d'exploitation XENIX, disponible jusqu'en 1984. Au moment où le PC fit son apparition, Unix
était déjà un système mûr. En 1981, lorsque IBM lança le PC, il choisit le système d'exploitation MS-DOS de Microsoft. MS-DOS, inspiré d'Unix, comportait dès le
départ des contraintes liées à son architecture : insuffisance de la mémoire adressable, pas de gestion multi-tâches ou multi-utilisateurs, pas de protection de la
mémoire.
Des particuliers eux aussi se sont attelés aux développements d'une version d'Unix : Andrew Tanenbaum, professeur à l'Université d'Amsterdam, développa avec ses
élèves une version d'Unix pour PC, appelée Minix, qui vit le jour en 1987. Partant de Minix, Linus Torvalds développa Linux, un Unix pour PC dont la première
version, appelée version 0.99, sortit en 1991. Aujourd'hui, Linux est devenu un système d'exploitation stable pour PC. Ce système constitue un logiciel libre, dont
chaque utilisateur a le droit de modifier le code source.
Unix et Linux
Unix/Linux
Unix est un système d'exploitation très populaire parce qu'il est présent sur un grand nombre de plates-formes, du micro-ordinateur à l’ordinateur central
(mainframe). L'avantage de cela, c'est que les programmes développés sous Unix peuvent être transférés d'une plate-forme à une autre avec un minimum de
modifications.
Ce système est multitâche, c'est-à-dire qu'il est capable de gérer et d'exécuter plusieurs programmes simultanément. De plus, il est multi-utilisateurs, c'est-à-dire que
plusieurs personnes peuvent s'y connecter en même temps et travailler ; le système partage alors toutes les ressources logicielles et matérielles de l'ordinateur entre
les différents usagers.
L'histoire d'Unix est unique dans le monde des systèmes d'exploitation. En effet, alors que la plupart des systèmes d'exploitation ont été conçus par des fabricants
d'ordinateurs pour vendre leurs machines, Unix n'a pas été conçu dans un but commercial. Il l'est devenu parce qu'il constitue une norme en matière de système
d'exploitation.
Contrairement à un système d'exploitation commercial complètement contrôlé par son fabricant, le système Unix est aujourd'hui distribué par plusieurs intervenants
dont voici les principaux :
À cause de cette situation de développement, le système d'exploitation Unix a mis plusieurs années à être standardisé. Actuellement, il en existe deux principales
variantes, incompatibles entre elles :
Unix SYSTEM V,
Unix BSD.
Il existe aussi une multitude de variations mineures dérivées d'une des deux ou des deux principales variantes ; on a ainsi, en les regroupant :
Systèmes Unix-Based
Les systèmes Unix-Based ont obtenu une licence d'utilisation d'AT&T. Il s'agit d'une adaptation de Unix. Ils restent compatibles avec la version d'AT&T parce qu'ils
partagent le même noyau. On retrouve dans cette catégorie :
Systèmes Unix-Like
Les systèmes Unix-Like reproduisent les mêmes fonctionnalités que la version AT&T, mais le noyau du système est incompatible parce qu'il a été réécrit pour éviter
le versement de droit d'auteurs à AT&T. On retrouve dans cette catégorie :
Minix ;
Linux ;
FreeBSD ;
QNX.
Cette prolifération de produits a fait apparaître un certain nombre de différences entre les systèmes, dont les principales sont :
Celui qui s'intéresse aux différentes versions de Linux doit faire la différence entre le noyau du système d'exploitation proprement dit (le kernel, en anglais) et la
combinaison d'utilitaires qui l'accompagnent. Les distributions se différencient par le choix du noyau et le choix des différents utilitaires disponibles.
Au moment de la rédaction de ce texte, la version actuelle du noyau de Linux porte le numéro 4.2.x, mais les versions suivantes sont probablement prêtes. Vérifiez
donc la version du noyau que vous vous procurez. Cette version figure dans de nombreuses distributions et constitue un élément commun.
De nombreux utilitaires sont également communs à toutes les distributions. (Exemples : Bourne Again Shell ou l'interface graphique Xfree86).
CentOS
RedHat
Fedora
Mandriva
Debian
Ubuntu
OpenSUSE
Voir aussi
Partitionnement du disque
Objectifs
À la fin de ce chapitre, le lecteur sera en mesure :
Introduction
L’utilisation d’une unité de stockage (par exemple un disque dur) soit pour l’installation d’un système d’exploitation ou le stockage de données nécessite que
celle-ci soit préalablement préparée d’abord par le partitionnement puis par le formatage logique. Dans ce chapitre, le concept de partition est expliqué avant de
présenter un outil de partitionnement. Finalement, le formatage logique est présenté.
Il y a trois sortes de partitions: les partitions principales, la partition étendue et les partitions logiques. Un disque peut contenir jusqu'à quatre partitions principales
(dont une seule peut être active), ou trois partitions principales et une partition étendue. Dans la partition étendue, l'utilisateur peut créer des partitions logiques
(c'est-à-dire faire en sorte que l'on ait l'impression qu'il y a plusieurs disques durs de taille moindre).
Voyons voir un exemple dans lequel le disque contient une partition principale et une partition étendue composée de trois partitions logiques (nous verrons par la
suite les partitions principales multiples):
Pour les systèmes Windows, seule la partition principale est amorçable, c'est donc la seule sur laquelle on peut démarrer le système d'exploitation. Sous Linux,
toutes les partitions peuvent être amorçables.
On appelle partitionnement le processus qui consiste à écrire les secteurs qui constitueront la table de partitions. La table de partitions est une base de données
contenant les informations sur les partitions: taille de celle-ci en terme de nombre de secteurs, position par rapport à la partition principale, types de partitions
présentes, systèmes d'exploitation installés, ...
Partition principale
Une partition principale doit être formatée logiquement, puis contenir un système de fichiers correspondant au système d'exploitation installé sur celle-ci. Si jamais
vous avez plusieurs partitions principales sur votre disque, une seule sera active et visible à la fois; cela dépendra du système d'exploitation sur lequel vous avez
démarré l'ordinateur. En choisissant le système d'exploitation que vous lancez au démarrage, vous déterminez la partition qui sera visible. La partition active est la
partition sur laquelle un des systèmes d'exploitation est démarré au lancement de l'ordinateur. Sous Windows, les partitions autres que celle sur laquelle vous
démarrez seront alors cachées, ce qui empêchera d'accéder à leurs données. Sous Linux, toutes les partitions sont accessibles.
Partition étendue
La partition étendue a été mise au point pour outrepasser la limite des quatre partitions principales, en ayant la possibilité de créer autant de partitions logiques que
vous désirez dans celle-ci. Au moins une partition logique est nécessaire dans une partition étendue, car vous ne pouvez pas y stocker de données directement.
Beaucoup de disques durs d’ordinateur sont formatés en une seule grande partition utilisant l'intégralité de l'espace disponible. Ce n'est pourtant pas la solution la
plus avantageuse en terme de performances et de capacité. La solution est de créer plusieurs partitions, ce qui va vous permettre:
Secteur de démarrage
Le secteur de démarrage (appelé Master Boot Record ou MBR en anglais) est le premier secteur d'un disque dur (cylindre 0, tête 0 et secteur 1). Il contient la table
de partition principale et le code qui, une fois chargé en mémoire, va permettre d'amorcer le système d’exploitation.
Ce programme, une fois en mémoire, va déterminer sur quelle partition le système va s'amorcer, et il va démarrer le programme (appelé « bootstrap ») qui va
amorcer le système d'exploitation présent sur cette partition.
D'autre part, c'est ce secteur du disque qui contient toutes les informations relatives au disque dur (fabricant, numéro de série, nombre d'octets par secteur, nombre
de secteurs par « cluster », nombre de secteurs,...). Ce secteur est donc le secteur le plus important du disque dur. Il permet aussi au BIOS de reconnaître le disque
dur. Ainsi, sans celui-ci, votre disque dur est inutilisable, c'est donc une des cibles préférées des virus.
Outil de partitionnement
Sous Linux, il existe de nombreux outils de partitionnement. L'utilitaire fdisk est disponible sur la majorité des distributions de Linux. Il permet de créer, d’éditer et
de détruire des partitions sur un disque. Le partitionnement avec fdisk entraînera la perte de toutes les données présentes sur le disque sur lequel vous effectuez les
opérations.
Syntaxe :
fdisk [périphérique]
Sans argument fdisk utilisera le premier disque dur qu'il trouve. Il est possible de préciser à fdisk le disque à partitionner, en lui donnant comme paramètre le nom du
périphérique.
Exemple :
fdisk /dev/hdb
# fdisk /dev/hda
Commande Description
d Destruction d'une partition
l Liste des types de partitions
m impression du Menu en cours
n création d'une Nouvelle partition
p affichage des Partitions
q Sortie de fdisk sans sauvegarde des paramètres (Quitter)
t Modification du Type de partition
v Vérification de la table des partitions
w sauvegarde des modifications et sortie de fdisk (Write & exit)
1. Démarrer fdisk
2. Taper n pour créer une nouvelle partition.
3. Choisir le type de partition (primaire ou étendu).
4. Choisir le numéro de la partition
5. Ensuite fdisk vous demande l'emplacement du premier cylindre. Par défaut, fdisk affichera toujours le premier cylindre libre trouvé.
6. fdisk vous demande alors l'espace à attribuer à cette partition. Cette taille peut être indiquée en nombre de cylindres, en Octets, en Kilo-octets ou en
Mégaoctets.
La commande p du menu principal permet d’afficher les partitions du disque dur sélectionné.
Formatage logique
Le formatage logique crée un système de fichiers sur le disque, qui va permettre à un système d'exploitation (DOS, Windows 95, Linux, OS/2, Windows NT, ...)
d'utiliser l'espace disque pour stocker et utiliser des fichiers. Les systèmes d'exploitation utilisent des systèmes de fichiers différents, ainsi le type de formatage
logique dépend du système d'exploitation que vous utilisez.
Syntaxe :
Description :
L’utilitaire mkfs permet de créer un système de fichiers sur un disque ou une partition. Ce système de fichiers est de type ext2, ext3 ou msdos.
Exemple 1:
Exemple 2:
Exemple 3 :
Syntaxe :
e2label [partition]
Description :
Exemple :
e2label /dev/hda2
Exercices
1. Nommez trois sortes de partitions?
2. Qu’est-ce qu’une partition?
3. Combien, au maximum, peut-il y avoir de partitions principales?
4. Qu’est-ce qu’un secteur de démarrage?
5. Qu’est-ce que le formatage logique?
6. Formatez une disquette Linux. Écrivez au complet la commande utilisé.
Installation
Installer une distribution Debian
Cette installation a été effectuée à partir du CDROM d'installation via le réseau (Net install) Debian - branche stable (http://www.debian.org/releases/stable/debian-
installer/).
La première étape a été de vérifier que l'ordinateur démarrait par défaut sur le CDROM. Si tel est le cas, on doit voir le logo Debian apparaître à l'écran avec un
invite "boot :".
En appuyant sur les touches de fonction (de F1 à F10), on peut consulter des paramètres optionnels à indiquer au noyau. Ces paramètres sont utiles dans certains
cas pour la détection de matériel particulier.
Dans le cas d'une installation normale, on appuie juste sur la touche Entrée pour démarrer l'installation.
La première étape du configurateur nous demande de choisir notre langue, notre localisation géographique et la disposition du clavier.
L'étape suivante concerne la détection des paramètres réseaux. Utilisant le protocole DHCP, cette étape s'est déroulée automatiquement. À noter que si cela n'avait
pas été le cas, nous aurions du renseigner les paramètres réseaux manuellement : adresse IP, masque de réseau, adresse réseau, passerelle et serveur de noms.
Vient ensuite le partitionnement du disque dur. Nous avons choisi le partitionnement manuel afin de configurer précisément les partitions désirées et leur taille.
Il est conseillé de créer plusieurs partitions pour des raisons de sécurité. Effectivement, les systèmes d'exploitation ne fonctionnent pas correctement si la partition
système est pleine (la racine / sous Unix, ou C: dans le monde Microsoft). Étant donné que l'on fonctionne sur un système multi-utilisateurs, il est donc préférable de
créer des partitions dédiées pour /home, /tmp et /var. Effectivement, les utilisateurs peuvent écrire des fichiers dans ces répertoires, et de ce fait les remplir. Si on a
prévu une partition dédiée pour ces répertoires, le système va continuer à fonctionner même si ces partitions sont pleines.
L'installateur Debian a ensuite formaté les partitions et installé les paquets essentiels.
Le système nous a ensuite demandé de renseigner les paramètres du compte utilisateur (nom complet, login et mot de passe) et le mot de passe du compte root.
Le système nous a demandé ensuite de choisir un miroir Debian afin d'aller télécharger des paquets supplémentaires. Nous avons choisi un miroir en France.
Nous avons eu ensuite la possibilité de configurer un serveur mandataire (un proxy). Nous ne l'avons pas renseigné car notre réseau dispose d'un proxy transparent.
Une fois le téléchargement terminé (prévoir un certain temps selon le type de connexion à Internet), le système a installé les paquets et nous a demandé de spécifier
la résolution d'affichage de l'environnement graphique. Nous avons laissé les paramètres par défaut : 1024x768, 800x600 et 640x480. Il faudra bien entendu choisir
la résolution en fonction de l'écran.
Le système nous demande ensuite si on désire installer le programme de boot GRUB. Ce programme est effectivement indispensable au bon démarrage du PC. Si
GRUB détecte une partition Windows, il va automatiquement la rajouter au multi-boot.
À la suite de ces étapes, l'installation est terminée. Le système nous propose ensuite de redémarrer. Si tout s'est bien passé, l'ordinateur va redémarrer sur le nouveau
système fraîchement installé.
En premier lieu il faut démarrer à partir du cdrom d'installation de Linux (assurez vous que le cdrom soit bien en premier dans l'ordre de démarrage des
périphériques dans le Bios)
A l'étape ou vous devez donner un nom à la machine ,passez en mode console (ALT + F2 )
Faites un fdisk -l /dev/sda puis fdisk -l /dev/sdb pour examiner le contenu de vos partitions et vous assurer de l'emplacement de vos deux systèmes.
Si vous changez le disque dur de place Il faut monter la partition racine contenant le fichier /etc/fstab de façon à pouvoir le modifier ;
# mkdir /target
# mount /dev/sdb2 /target
# nano /target/etc/fstab
> remplacer sda par sdb
Faire ensuite :
- Alt+F1 : retour au menu Debian - revenir en arrière (2 fois) - dans le menu choisir installation Grub - revenir en arrière (2 fois) - et continuer: OUI (2 fois)
packets nécessaire
1. dhcp
2. tftp
3. pxe
Configuration du dhcp
/etc/dhcp3/dhcpd.conf
ddns-update-style none;
log-facility local7;
subnet 192.168.30.0 netmask 255.255.255.0 { range 192.168.30.100 192.168.30.110; '#'option routers rtr-239-0-2.example.org; } next-server 192.168.30.224;
option root-path "192.168.30.224:/tftpboot/pxelinux.0";
filename "/tftpboot/pxelinux.0";
tftp
/etc/inetd.conf
configuration pxe
/etc/pxe.conf
interface=eth0
default_address=192.168.30.210
multicast_address=224.0.1.2
.# mtftp info
mtftp_address=192.168.30.210
mtftp_client_port=1758 mtftp_server_port=1759
listen_port=4011
.# enable multicast?
use_multicast=1
.# user prompt
.# what services to provide, priority in ordering .# CSA = Client System Architecture .# service=<CSA>,<min layer>,<max layer>,<basename>,<menu entry>
tftpdbase=/tftpboot
redemarer le service
#/etc/init.d/pxe restart
Mettre la machine que vous voulez installer en boot pxe et vous devriez avoir l'interface d'installation de debian
Le login
Le login
Les systèmes compatibles Unix sont par définition multi-tâches et multi-utilisateurs, c'est à dire que plusieurs personnes peuvent travailler simultanément sur le
même système.
Chaque utilisateur est identifié par un nom d'utilisateur (login) et un mot de passe (password).
Le login est associé à un numéro unique (le UID : User IDentifiant) et permet d'identifier chaque utilisateur. Il ne contient ni espace, ni caractères spéciaux.
Le mot de passe doit être choisi judicieusement : il doit mélanger des caractères en minuscule et majuscule, des chiffres et des caractères spéciaux.
Chaque utilisateur dispose d'un répertoire de travail (le Home Directory) dans lequel il a le droit de créer ses propres fichiers et répertoires. Ce répertoire de travail
se situe généralement dans le répertoire home et porte le nom du login. Exemple : le répertoire de travail de l'utilisateur alex est /home/alex.
Il existe un utilisateur particulier : le root. Le root est l'administrateur du système, il dispose de tous les droits et s'occupe de la gestion du système : ajout et
suppression des utilisateurs, installation et configuration du système et des logiciels ...
Le root a tous les pouvoirs sur le système, il peut tout faire, y compris tout casser. De ce fait, il faut donc choisir un mot de passe très sécurisé, et toujours bien
vérifier à deux fois avant d'exécuter une opération avec l'utilisateur root.
Le root n'est pas une personne à proprement parler, il s'agit d'une fonction. Ainsi, il ne faut jamais travailler en permanence avec le compte root, mais utiliser son
compte habituel, et ne passer root (via les commandes su ou sudo) que si l'on a besoin de réaliser une opération d'administration.
Contrairement aux autres utilisateurs, le répertoire de travail du root se situe à la racine du système (/root). L'explication est simple : en cas de problème avec la
partition /home, l'utilisateur root pourra quand même accéder à son répertoire de travail.
Commandes de base
Éléments de syntaxe
Les commandes présentées dans les sections qui suivent sont introduites juste après un message d'invite qui dépend de la configuration du shell utilisé. Celui-ci est
représenté par un signe dollar $. Il ne doit donc pas être tapé.
Le caractère dièse # marque le début d'un commentaire qui se termine en fin de ligne. Il n'est pas nécessaire de le recopier pour exécuter la commande.
Exemple :
Les lignes qui ne sont pas marquées du signe dollar indiquent ce que la commande précédente doit/peut afficher.
$ pwd
/home/alex
id
Affiche les informations relatives à l'utilisateur connecté.
$ id
uid=1000(alex) gid=1000(alex) groupes=20(dialout), 24(cdrom), 25(floppy), 29(audio), 44(video), 46(plugdev), 106(netdev), 109(powerdev), 100
passwd
Permet de changer son mot de passe
$ passwd
Changing password for alex
(current) UNIX password:
Enter new UNIX password:
Retype new UNIX password:
passwd : le mot de passe a été mis à jour avec succès
Attention !
Ne pas utiliser le symbole euros (€) dans les mots de passe, car il est potentiellement mal géré par
Linux et pourrait se voir systématiquement refusé.
cd (change directory)
Pour se placer dans un répertoire
Connecté en root, la commande cd m'amène au répertoire /root qui est le répertoire de travail de l'utilisateur root.
Connecté avec l'utilisateur alex, cd m'amène au répertoire de travail de l'utilisateur alex, à savoir /home/alex.
ls
Liste les fichiers d'un répertoire
On peut combiner plusieurs options, l'ordre n'est pas important. Les quatre commandes suivantes sont identiques :
$ ls -a -l
$ ls -l -a
$ ls -la
$ ls -al
Lister de façon détaillée (-l) tous les fichiers, même cachés (-a), les plus récents (-t) en derniers (-r), avec leur taille en kilo-octets (-k) lisible facilement avec les
unités K pour Kilo, M pour Mega, G pour Giga(-h).
$ ls -lartkh
cat (concatenate)
Affiche le contenu d'un fichier ou de plusieurs fichiers concaténés sur la sortie standard (l'écran)
Exercice : je suis dans le répertoire /var/log, je souhaite créer un répertoire rep2 dans le répertoire /home/alex, comment faire ?
J'ai 3 possibilités:
$ rmdir rep1
cp (copy)
Copier un fichier
Attention, si le fichier destination existe déjà, il sera remplacé sans demande de confirmation !
Options courantes :
rm (remove)
Effacer un fichier
Options courantes :
mv (move)
Déplacer ou renommer des fichiers
Par précaution, on utilise l'option -i qui permet d'être averti par le système avant l'écrasement du fichier destination si celui-ci existe.
ln (link)
La commande ln permet de créer des liens, c'est à dire des raccourcis vers des fichiers ou des répertoires.
ln -s destination nom_du_lien
Exemple
$ ln -s prog1.0 monprogramme
Cette aide en ligne est très utile pour savoir comment utiliser les commandes et connaître la liste exhaustive de toutes les options disponibles.
Pour accéder à cette aide en ligne, il suffit de taper man <la commande>. Exemple :
$ man ls
Les pages de manuel sont réparties en section. Pour connaître l'ensemble des sections, il suffit de consulter la page de manuel de la commande man :
$ man man
...
1 Programmes exécutables ou commandes de l’interpréteur de commandes (shell)
2 Appels système (Fonctions fournies par le noyau)
3 Appels de bibliothèque (fonctions fournies par les bibliothèques des programmes)
4 Fichiers spéciaux (situés généralement dans /dev)
5 Formats des fichiers et conventions. Par exemple /etc/passwd
6 Jeux
7 Divers (y compris les macropaquets et les conventions). Par exemple, man(7), groff(7)
8 Commandes de gestion du système (généralement réservées au superutilisateur)
9 Sous-programmes du noyau [hors standard]
Certaines commandes sont à la fois des commandes systèmes, des appels systèmes ou des fichiers de configuration (exemple : passwd). Il est possible d'indiquer la
section que l'on désire consulter :
Les pages de man sont découpées en différents chapitres (extrait de man 7 man) :
L'éditeur de texte vi
L'éditeur de textes vi
vi' (connu sous ses abréviations anglaises, pronnoncer vie-ail) est un éditeur de texte présent d'office sur la majorité des systèmes Unix actuels depuis 1976, souvent
sous la forme d'un clone du logiciel vi originel.
vi est un éditeur modal, c'est-à-dire que la signification des boutons et des touches change selon le mode dans lequel il se trouve. L'un de ses intérêts a longtemps été
de ne pas nécessiter de souris et de fonctionner avec un nombre réduit de touches. En effet, la présence de deux modes permet d'avoir un mode où les touches
lettres servent à la saisie des caractères, en mode commande aux déplacements et autres commandes. De ce fait l'ensemble des nouvelles touches (flèches, clavier
numérique et touches de fonction notamment) est totalement superflus. L'interface est donc la même pour tout ordinateur qu'il soit équipé d'un clavier de minitel ou
d'un clavier avec d'innombrables touches.
Vi fut écrit par Bill Joy en 1976, « et ben ça ne nous rajeunit pas les enfants.»
Derrière un aspect rustique qui nécessites une familiarisation, se cache des fonctionnalités d'édition qui ne sont pas présentes dans d'autres éditeurs de texte. Le
minimum à savoir pour utiliser vi est de connaître les deux touches permettant de basculer entre ces deux modes principaux.
Pour passer du mode insertion au mode commande : touche < ESC >
Pour passer du mode commande au mode insertion : touche i. (insert)
En mode commande, on peut passer en un 3ème mode "mode Execution" en tapant ":'"(la ligne de commande est en bas de l'écran)
Il est difficile de savoir si on est en mode insertion ou en mode commande, le plus simple est d'appuyer plusieurs fois sur <ESC> pour être sûr d'être en mode
commande.
vi est rustique, on le trouve sur tous les systèmes UNIX, même les plus vieux. Il est préférable d'utiliser vim (VI iMproved) quand c'est possible, c'est un éditeur vi
amélioré
Vim est plus convivial, il prend en compte les flèches et d'autres fonctions du clavier récent.
Il existe bien entendu d'autres éditeurs de texte dans Linux, du plus perfectionné au plus basique, mais vi est celui qu'on trouve partout (même sur notre vieux
minitel). Il est donc impératif d'en connaître les commandes de base.
1. Ed
2. Nano
3. Emacs (editor macro)
4. Joe
5. Pico
6. XEmacs (anciennement Lucid Emacs) est un éditeur de texte pour X-Window, basé sur GNU Emacs.
Les shells
Shell veut dire Coquille, qui entoure le noyau. C'est un interpréteur de commandes qu'on utilise pour lancer des commandes ou programmer une suite de
commandes. L'utilisateur discute avec le Shell, qui discute avec le noyau, qui à son tour discute avec le matériel. Originellement le shell est utilisé sous Unix, il s'est
répandu depuis avec différentes versions, la forme la plus simple est sh.
sh : shell Bourne
ksh : korn shell
Csh : Shell syntaxe du C
Tcsh : Csh amélioré
Bash : Bourne Again Shell
Zsh : le petit dernier
Le shell est constitué de petits shells spécifiques à chaque travail, chacun ayant un fichier de configuration stocké dans le répertoire /home de chaque utilisateur,
lequel peut les modifier à sa convenance :
.profile : exécuté automatiquement lors d'un shell de connexion (à chaque login), quel que soit le shell
La complétion
« L'art de la saisie des commandes ultra rapide ».
À chaque fois que vous tapez une commande, Linux vous aide à compléter votre commande en appuyant sur la touche TAB ↹ .
Tapez le début de votre commande et en appuyant sur la touche TAB ↹ , Linux vous la complète ou vous propose les différentes possibilités pour la compléter, à
défaut vous aurez droit à un petit bip, s'il existe un trop grand nombre de propositions, Linux vous affiche ce nombre.
exemple :
Les jokers
Dans une commande sur les fichiers, on peut remplacer une partie d'un nom (un ou plusieurs caractères) de fichier par * ou un seul caractère par ?
Exemple
La hiérarchie des systèmes unix est normalisée, la spécification étant accessible sur http://www.pathname.com/fhs/
Chaque utilisateur du système aura un répertoire dans /home portant son nom.
Les périphériques
/dev
/dev/hda ou hdb ou sda etc... qui correspondent aux disques dur. Les disques durs IDE sont notés hd et les SATA ou SCSI sont notés sd
/dev/hda1 ou hda2 etc... qui correspondent aux partitions des disques. hda1 est la 1ere partition du premier disque IDE (hda).
/dev/eth0 qui correspond à la première carte réseau. Pour plus d'une carte réseau, on verra apparaître d'autres fichiers /dev/eth.
Ce répertoire est en lecture-seule et est destiné à être partagé. Les programmes installés par le système d'exploitation se trouvent dans /usr/bin. Les programmes
installés manuellement par les utilisateurs se trouvent dans /usr/local.
« usr » veut dire Unix System Ressources et non pas user. Les fichiers relatifs aux utilisateurs du système se trouvent dans le répertoire « /home ».
/proc
sur le processeur
Ex:/proc/cpuinfo
sur la mémoire
Ex:/proc/meminfo
Ex:/proc/modules
Ex:/proc/mount
sur la swaps
Ex:/proc/swaps
Ces flux peuvent être redirigés afin que le processus interagisse avec un autre au lieu d'interagir avec l'utilisateur.
Redirection
Rediriger la sortie standard
Quand on exécute une commande, le shell affiche le résultat sur la console de sortie (l'écran par défaut). On peut rediriger cette sortie vers un fichier en utilisant le
signe >.
Exemple
~$ ls>resultat_ls
Concaténation
Au lieu de créer un fichier, il est possible d'ajouter les sorties d'un processus à un fichier existant en utilisant le double signe >>.
Exemple
~$ ls>>resultat
Syntaxe complète
En fait, les signes > peuvent être précédés de l'identifiant du flux à rediriger. Pour la sortie standard, on peut donc utiliser les syntaxes suivantes :
~$ ls 1>resultat
~$ ls 1>>resultat
Ce qui revient au même que les deux premiers exemples ci-dessus (redirection et concaténation).
La redirection du flux de sortie d'erreur standard utilise les même signes, mais précédés de l'identifiant du flux : 2.
Exemples
~$ ls 2>erreurs_ls
~$ ls 2>>erreurs_ls
Rediriger l'entrée standard permet d'entrer des données provenant d'un fichier au lieu du clavier.
Exemple
Il est possible de rediriger un flux vers la sortie standard ou la sortie d'erreur en donnant l'identifiant du flux précédé du caractère & à la place du nom de fichier.
Exemple
~$ ls 1>stdout_stderr.txt 2>&1
Le fichier stdout_stderr.txt contient ce qui a été affiché à la fois sur le flux de sortie standard et le flux de sortie d'erreur.
L'échange des deux flux de sortie s'effectue en utilisant la syntaxe pour rediriger un flux vers un autre à trois reprises, en utilisant un identifiant de flux fictif comme
intermédiaire (3).
Exemple
Redirige la sortie d'une commande vers l'entrée d'une autre commande. Il s'agit donc d'une chaîne de redirection entre deux processus qui ne passe pas par un
fichier, mais par une zone mémoire du système.
Exemples
Afficher la taille des fichiers et répertoires, et les trier du plus grand au plus petit :
$ du | sort -rn
$ ls -1 /usr/bin | wc -l
Explications : L'option -1 de la commande ls affiche un fichier ou répertoire par ligne. La commande wc (word count) avec l'option -l (line) compte le nombre de
lignes.
Connaître tous les périphériques IDE détectés par le noyau Linux et les afficher page par page :
Explications : la commande dmesg affiche les messages du noyau Linux détectés durant le boot. La commande grep n'affiche que les lignes contenant le mot hd.
La commande more affiche ces résultats page par page.
$ ifconfig eth0 | grep 'inet adr' | cut -f2 -d':' | cut -f1 -d' '
192.168.30.50
Pour récupérer la main, il suffit de rajouter un & (ET commercial ou Esperluette) à la fin de la commande :
$ xeyes &
Si on a lancé une commande qui ne rend pas la main et que l'on a oublié de rajouter le &, on peut utiliser la méthode suivante :
$ xeyes
<CTRL Z>
[1]+ Stopped xeyes
Le programme est alors stoppé. Il suffit de taper ensuite la commande bg (background) pour qu'il s'exécute en tâche de fond :
$ xeyes
<CTRL Z>
[1]+ Stopped xeyes
$ bg
[1]+ xeyes &
$
$ xeyes
<CTRL Z>
[1]+ Stopped xeyes
$ bg
[1]+ xeyes &
$ fg
xeyes
$ jobs
[1]+ Running xeyes &
Chaque fichier du système est associé à des droits d'accès. Ceux-ci sont affichés par la commande ls en utilisant le format long : ls -l.
type u_read u_write u_exec g_read g_write g_exec o_read o_write o_exec
Exemple :
drwxr-xr-x
Types de fichier
Type Description
- Regular file : fichier normal
d Directory : répertoire
l Link : lien
b Block device : périphérique bloc (périphérique à accès direct)
c Character device : périphérique caractère (périphérique à accès séquentiel)
s Socket
p Pipe (tube nommé)
Le reste de la chaîne est scindé en 3 blocs de 3 caractères qui représentent les différents niveaux de droit :
Les trois caractères d'un bloc sont les suivants, dans l'ordre :
Si l'un des droits n'est pas accordé, un tiret est affiché à sa place.
Exemple :
Le fichier script.sh est un fichier normal (-) et est associé aux droits suivants :
Les droits par défaut d'un nouveau fichier sont définis par rapport à un masque des droits défini pour chaque utilisateur avec la commande umask.
~$ umask
0022
Exemples :
Un fichier est créé avec les droits par défaut 666 (rw-rw-rw-) filtré par le masque 022 :
Un >répertoire est créé avec les droits par défaut 777 (rwxrwxrwx) filtré par le masque 022 :
La commande chown permet de changer le propriétaire d'un fichier ou d'un répertoire. Il faut être propriétaire du fichier ou répertoire, ou root selon la ressource
que l'on souhaite modifier.
La commande chown est suivie du nouveau propriétaire puis du nom du fichier ou du répertoire:
$ chown alex toto => donne la propriété du fichier toto à alex.
La commande chgrp
Comme la commande chown, la commande chgrp change le groupe propriétaire d'un fichier ou d'un répertoire.
La commande chgrp est suivie du nom du groupe puis du nom du fichier ou du répertoire :
$ chgrp etudiant toto => donne la propriété du fichier toto au groupe etudiant.
$ chown alex. toto => donne la propriété du fichier toto à alex et au groupe alex.
afficher tous les droits sauf les droits de base : $ getfacl --skip-base -R *
Pour les systèmes de fichier XFS, il convient également de sauvegarde les ACLs. La sauvegarde des ACLs doit être effectuée dans un fichier avant la sauvegarde
sur bande.
ou
Processus
Définition d'un processus
Un processus est un programme en cours d'exécution. Par exemple, chaque fois que l'on lance la commande ls, un processus est créé durant l'exécution de la
commande.
Un processus est identifié par un numéro unique que l'on appelle le PID (Process IDentifiant).
Un processus dispose d'un processus père que l'on appelle le PPID (Parent PID).
La particularité d'un processus est de s'exécuter avec les droits accordés à l'utilisateur qui a lancé la commande. Ceci participe fortement à la sécurité du système.
Ainsi, si un utilisateur contracte un programme malveillant (un virus par exemple), le processus sera soumis au droit d'accès de cet utilisateur, et ne pourra pas
effectuer des opérations non autorisées (comme par exemple modifier le fichier de mots de passe).
Au démarrage de l'ordinateur, le système charge le noyau Linux qui se charge de l'initialisation du matériel et de la détection des périphériques. Ceci fait, il démarre
ensuite le processus init qui a comme particularité d'être le premier processus et de toujours utiliser le PID 1. Ce processus démarre ensuite des processus noyaux
(dont le nom est noté entre crochets), et les premiers processus systèmes.
Chaque processus a ainsi un père (sauf init), et peut être à son tour le père d'autres processus, etc.
La commande pstree permet de visualiser l'arbre des processus. L'option -p permet de visualiser les PID de chaque processus.
Exemple :
$ pstree -p
init(1)─┬─atd(2861)
├─avahi-daemon(2647)───avahi-daemon(2648)
├─cron(2873)
├─cupsd(2571)
├─dbus-daemon(2579)
├─dbus-daemon(3023)
├─dbus-launch(3022)
├─dcopserver(3054)
├─dhcdbd(2628)
├─dirmngr(3221)
├─events/0(4)
├─exim4(2739)
├─gconfd-2(3576)
├─gdm(2796)───gdm(2802)─┬─Xorg(2805)
│ └─startkde(2971)─┬─kwrapper(3063)
│ └─ssh-agent(3019)
├─getty(2902)
├─getty(2903)
├─getty(2904)
├─getty(2905)
├─getty(2906)
├─getty(2907)
├─hald(2587)───hald-runner(2588)─┬─hald-addon-keyb(2594)
│ └─hald-addon-stor(2621)
├─hpiod(2464)
├─inetd(2756)
├─kaccess(3073)
├─kded(3058)
├─kdeinit(3051)─┬─artsd(3077)
│ ├─firefox-bin(3572)─┬─{firefox-bin}(3573)
│ │ ├─{firefox-bin}(3574)
│ │ ├─{firefox-bin}(3581)
│ │ ├─{firefox-bin}(3586)
│ │ ├─{firefox-bin}(3587)
│ │ └─{firefox-bin}(3588)
│ ├─kio_file(3071)
│ ├─klauncher(3056)
│ ├─konsole(3308)───bash(3309)───pstree(4518)
│ ├─konsole(3907)───bash(3908)───su(3925)───bash(3926)
│ └─kwin(3066)
├─kdesktop(3068)
├─kdesud(3357)
├─khelper(5)
├─kicker(3070)
├─klipper(3085)
├─klogd(2446)
├─knotify(3082)
├─korgac(3086)
├─ksmserver(3065)
├─ksoftirqd/0(3)
├─kthread(6)─┬─aio/0(76)
│ ├─ata/0(594)
│ ├─ata_aux(595)
│ ├─hda_codec(1575)
│ ├─kblockd/0(9)
│ ├─khubd(529)
│ ├─kjournald(1012)
│ ├─kjournald(1916)
│ ├─kjournald(1918)
│ ├─kjournald(1920)
│ ├─kjournald(1922)
│ ├─kmirrord(1874)
│ ├─kpsmoused(1551)
│ ├─kseriod(12)
│ ├─kswapd0(75)
│ ├─pdflush(73)
│ ├─pdflush(74)
│ ├─scsi_eh_0(653)
│ └─scsi_eh_1(655)
├─migration/0(2)
├─portmap(2192)
├─python(2491)
├─rpc.statd(2810)
├─soffice(4472)───soffice.bin(4492)─┬─{soffice.bin}(4493)
│ ├─{soffice.bin}(4494)
│ ├─{soffice.bin}(4495)
│ ├─{soffice.bin}(4496)
│ └─{soffice.bin}(4497)
├─start_kdeinit(3050)
├─syslogd(2440)
└─udevd(1192)
Dans cette arborescence, on constate que le processus init est bien le père de tous les processus.
Pour connaître tous les processus, y compris ceux qui ne sont pas associés au terminal courant, on utilise les options aux (notation BSD) et -ef (notation Unix). Pour
connaître la totalité des options, consulter la page de manuel de la commande ps (man ps).
Exemples :
$ ps aux
pixl@nitroglycerine:~$ ps aux
USER PID %CPU %MEM VSZ RSS TTY STAT START TIME COMMAND
root 1 0.0 0.0 1944 644 ? Ss 11:36 0:00 init [2]
root 2 0.0 0.0 0 0 ? S 11:36 0:00 [migration/0]
root 3 0.0 0.0 0 0 ? SN 11:36 0:00 [ksoftirqd/0]
root 4 0.0 0.0 0 0 ? S< 11:36 0:00 [events/0]
root 5 0.0 0.0 0 0 ? S< 11:36 0:00 [khelper]
...
daemon 2192 0.0 0.0 1684 376 ? Ss 11:36 0:00 /sbin/portmap
root 2440 0.0 0.0 1628 640 ? Ss 11:36 0:00 /sbin/syslogd
root 2446 0.0 0.0 1576 376 ? Ss 11:36 0:00 /sbin/klogd -x
root 2464 0.0 0.0 4884 916 ? Ss 11:36 0:00 /usr/sbin/hpiod
...
$ ps -ef
UID PID PPID C STIME TTY TIME CMD
root 1 0 0 11:36 ? 00:00:00 init [2]
root 2 1 0 11:36 ? 00:00:00 [migration/0]
root 3 1 0 11:36 ? 00:00:00 [ksoftirqd/0]
root 4 1 0 11:36 ? 00:00:00 [events/0]
root 5 1 0 11:36 ? 00:00:00 [khelper]
...
daemon 2192 1 0 11:36 ? 00:00:00 /sbin/portmap
root 2440 1 0 11:36 ? 00:00:00 /sbin/syslogd
root 2446 1 0 11:36 ? 00:00:00 /sbin/klogd -x
root 2464 1 0 11:36 ? 00:00:00 /usr/sbin/hpiod
...
Les signaux
Définition
Les signaux offrent un mécanisme permettant d'envoyer un message à un processus en cours d'exécution. On se sert généralement des signaux pour terminer un
processus, lui indiquer de relire sa configuration, etc.
Pour connaître la liste des signaux, il suffit de consulter la page de manuel de signal (section 7) :
$ man 7 signal
...
Signal Valeur Action Commentaire
---------------------------------------------------------------------
SIGHUP 1 Term Déconnexion détectée sur le terminal
de contrôle ou mort du processus de
contrôle.
SIGINT 2 Term Interruption depuis le clavier.
SIGQUIT 3 Core Demande « Quitter » depuis le clavier.
SIGILL 4 Core Instruction illégale.
SIGABRT 6 Core Signal d’arrêt depuis abort(3).
SIGFPE 8 Core Erreur mathématique virgule flottante.
SIGKILL 9 Term Signal « KILL ».
SIGSEGV 11 Core Référence mémoire invalide.
SIGPIPE 13 Term Écriture dans un tube sans lecteur.
SIGALRM 14 Term Temporisation alarm(2) écoulée.
SIGTERM 15 Term Signal de fin.
SIGUSR1 30,10,16 Term Signal utilisateur 1.
SIGHUP (signal n°1) : pour beaucoup de services réseaux, la réception du signal n°1 lui indique de lire sa configuration. Par exemple, cela permet d'indiquer au
processus apache (serveur web) de relire sa configuration, sans avoir a arrêter et redémarrer le processus.
SIGKILL (signal n°9) : termine un processus (arrêt brutal). Utile lorsque le SIGTERM ne marche pas (processus planté).
Exemples :
$ kill -1 12345
$ kill -SIGTERM 12345
On peut connaitre le PID du processus en utilisant la commande ps, ou bien utiliser la commande pidof
$ pidof cupsd
2571
$ kill -15 2571
La commande killall permet d'indiquer le nom du processus plutôt que son PID, et va envoyer le signal à tous les processus possédant ce nom. Exemple :
Utilisé sans option, les commandes kill et killall envoient le signal n°15 (arrêt propre).
Lorsque la commande top fonctionne, les lettres suivantes permettent de changer son fonctionnement :
h : affiche l'aide
q : quitte la commande top
M : tri les processus par utilisation de la mémoire (du plus gourmand au plus sobre)
P : tri les processus par utilisation du processeur (du plus gourmand au plus sobre)
s : permet de changer la durée de rafraîchissement de top
k : permet d'envoyer un signal à un processus
Les processus légers SPID connus aussi sous le nom de TID (Threads ID) sont les numéros des threads. Explication par l'exemple :
Limiter un processus
CPULimit est un utilitaire qui permet de limiter la ressource CPU utilisée par un processus
<pid> est le pid du processus cible, et <limit> la limitation effective en pourcentage (maximum 100% sur un simple coeur, 200 pour un double ...)
Exemple :
La sortie standard est automatiquement redirigée vers nohup.out dans le répertoire courant, sauf si une redirection est spécifiée.
Locale
Sous Linux, les locale sont des variables d'environnement qui ont un impact essentiel sur le bon fonctionnement des logiciels.
Une de ces variable permet notamment de configurer le codage de caractère utilisé par un logiciel. Aujourd'hui, les systèmes utilisent massivement utf-8 depuis le
début du siècle. Ceci permet de manipuler des textes ou des fichiers comportant les caractères unicode [1]
Notes
Configuration du réseau
Quelques définitions
Nous avons trois grands axes pour configurer un réseau.
L'adresse IP
Tout d'abord, une adresse IP est unique sur un réseau. C'est une suite de 4 nombres allant de 0 à 255 (inclus) séparés par des points (par exemple 192.168.1.32).
Cette adresse IP appartient à une classe réseau. Il existe 5 classes d'IP :
Le masque réseau (netmask) qui serait dans notre cas 255.255.255.0 (classe C) sert à identifier le réseau associé à une adresse IP.
L'adresse réseau (network address) : 192.168.1.0, cette adresse ne peut être attribuée à aucun ordinateur sur le réseau.
L'adresse de diffusion (broadcast address) : permettant d'envoyer un message à toutes les machines situées sur le réseau (ici 192.168.1.255).
Il existe la notation CIDR(Classless Inter-Domain Routing) (/24). Sous Linux, on a l'outil ipcalc qui permet de voir cette notation.
Exemple :
ipcalc 192.168.30.0/24
ipcalc 192.168.30.0/16 (classe B)
ipcalc 192.168.30.0/8 (Classe A)
La passerelle
La passerelle ou GATEWAY permet de relier deux réseaux informatiques différents. Elle est du type, dans notre cas : 192.168.1.1.
Le serveur DNS
Le serveur DNS ou Domain Name System établit la liaison entre un nom de domaine et une adresse IP. Grâce au serveur DNS nous pouvons retrouver une
machine sur un réseau via son adresse IP ou bien sous sa forme canonique (par exemple www.domaine.fr).
Sur la distribution Debian, les paramètres réseaux vont être stockés à cet emplacement: /etc/network/interfaces. Editons ce fichier avec vim. Nous retouvons
l'adresse Loopback (127.0.0.1) autrement appelé le localhost qui boucle sur notre propre machine.
Nous allons maintenant attribuer les adresses nécessaires au bon fonctionnement de notre serveur, car celles-ci avaient été attribuées automatiquement lors de
l'installation. Nous allons donc enlever la configuration DHCP en nous attribuant une adresse spécifique pour notre serveur (192.168.30.219), ce qui nous donne :
AVANT :
allow-hotplug eth0
iface eth0 inet dhcp
APRES :
auto eth0
iface eth0 inet static
address 192.168.30.219
netmask 255.255.255.0
network 192.168.30.0
broadcast 192.168.30.255
gateway 192.168.30.1
Il faut maintenant relancer le fichier et vérifier que la configuration a bien été prise en compte.
# /etc/init.d/networking restart
# ifconfig
/etc/resolv.conf
$ cat /etc/resolv.conf
Les options search et domain permettent de spécifier un nom de domaine à rajouter à toute requête portant sur un nom qui ne contient pas de point. Ce qui signifie
ici qu'une recherche sur pc235 sera tentée en utilisant pc235.mondomaine.fr. Si aucune correspondance n'est trouvée, une autre recherche sera alors tentée avec
pc235.autredomaine.fr, etc.
$ ping pc235
PING pc235.mondomaine.fr (192.168.30.235) 56(84) bytes of data.
...
L'option domain permet d'utiliser un nom (mais un seul) comprenant éventuellement un sous-domaine:
$ cat /etc/resolv.conf
domain truc.mondomaine.fr
nameserver 192.168.30.1
Dans ce cas, une recherche sera d'abord tentée avec pc235.truc.mondomaine.fr, puis, en cas d'échec, avec pc235.mondomaine.fr.
Ces deux options ne doivent pas figurer en même temps dans le fichier resolv.conf.
L'option nameserver permet d'indiquer l'adresse IP du serveur de noms. On peut mettre plusieurs lignes nameserver pour indiquer plusieurs serveurs de noms, mais
attention, l'ordre à une importance : lors de la résolution d'un nom, le système va contacter le premier serveur DNS, et si il n'a pas obtenu de réponse au bout d'un
certain temps (timeout généralement de 30s), il contactera le deuxième.
/etc/hostname
Ce fichier contient le nom de la machine (hostname). Il est utilisé lors du démarrage de la machine pour positionner le nom de la machine.
/etc/hosts
Le fichier /etc/hosts est l'ancêtre du DNS. A la création de l'Internet, il y avait très peu d'ordinateurs connectés, et ce fichier contenait la liste de ces ordinateurs et
de leurs adresses IP. Chaque fois que de nouveaux ordinateurs étaient connectés à Internet, il fallait mettre à jour ce fichier pour accéder à ces nouveaux
ordinateurs. Vu le nombre croissant d'ordinateurs connectés à Internet, ce fonctionnement n'était plus adapté et à donné lieu à l'invention du DNS.
Désormais, ce fichier permet de connaitre les adresses IP d'ordinateurs non présents dans le DNS.
127.0.0.1 localhost
Ce fichier doit aussi contenir une ligne contenant le nom de l'ordinateur et son adresse IP; ceci est utile en cas de défaillance du serveur DNS :
On peut y ajouter :
$ host pc230.mondomaine.fr
pc230.mondomaine.fr has address 192.168.30.230
pc230.mondomaine.fr has IPv6 address 2620:0:862:ed1a::1
/etc/host.conf
Historiquement, ce fichier contenait l'ordre de recherche pour la résolution des noms : d'abord la consultation du fichier /etc/hosts, et ensuite l'interrogation du
DNS :
order hosts,bind
Désormais, ces préférences d'ordre de recherche sont indiqués dans le fichier /etc/nsswitch.conf (voir ci-dessous).
/etc/nsswitch.conf
Ce fichier remplace désormais le fichier /etc/host.conf et permet d'indiquer au système l'ordre de recherche pour la résolution des noms :
more /etc/nsswitch.conf
...
hosts: files dns
networks: files
...
L'option files indique au système de consulter d'abord les fichiers (/etc/hosts pour les noms d'hotes et /etc/networks pour les noms de domaines) avant d'aller
interroger le DNS.
/etc/networks
default 0.0.0.0
loopback 127.0.0.0
link-local 169.254.0.0
mondomaine.fr 192.168.30.0
Les commandes
hostname
# hostname
pc230
L'option -f (-f ou --fqdn) permet de connaitre le nom de l'ordinateur avec son nom de domaine (Full Qualified Domain Name) :
# hostname -f
pc230.mondomaine.fr
La commande hostname permet aussi de changer dynamiquement nom de machine, mais attention, cette modification est temporaire et ne sera plus active après un
reboot. Pour changer de manière permanente le nom de la machine, il faut modifier le fichier /etc/hostname et le fichier /etc/hosts (voir ci-dessus) :
# hostname
pc230
# hostname pcalex
# hostname
pcalex
ifconfig
Utilisé sans argument, la commande ifconfig affiche les interfaces réseaux actives :
# ifconfig
eth0 Lien encap:Ethernet HWaddr 00:05:5D:E1:F6:11
inet adr:192.168.30.230 Bcast:192.168.30.255 Masque:255.255.255.0
adr inet6: fe80::205:5dff:fee1:f611/64 Scope:Lien
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:16383 errors:0 dropped:0 overruns:0 frame:0
TX packets:5998 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 lg file transmission:1000
RX bytes:8467107 (8.0 MiB) TX bytes:810927 (791.9 KiB)
Interruption:10 Adresse de base:0xc800
L'option -a permet d'afficher toutes les interfaces, y compris celles qui ne sont pas activées.
# ifconfig eth0
...
La commande ifconfig permet également de configurer une interface réseau. Attention, cette modification est faite dynamiquement et ne sera plus active après un
reboot.
La commande ifconfig peut aussi créer des alias d'interfaces réseaux. On peut ainsi affecter plusieurs adresses à une seule interface réseaux.
# ifconfig
# eth0 Link encap:Ethernet HWaddr 00:1e:8c:26:af:c5
UP BROADCAST MULTICAST MTU:1500 Metric:1
Packets reçus:0 erreurs:0 :0 overruns:0 frame:0
TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 lg file transmission:1000
Octets reçus:0 (0.0 B) Octets transmis:0 (0.0 B)
Attention : Si vous supprimez l' interface principale (ici : eth0), tous les alias qui en dépendent seront supprimés.
arp
Le protocole ARP permet de trouver l'adresse MAC d'un ordinateur de mon réseau en fonction de son adresse IP.
La commande arp permet d'afficher la table de correspondance adresses IP => adresses MAC :
# arp -an
fw.mondomaine.fr (192.168.30.1) at 00:10:5A:DC:2B:4B [ether] on eth0
pc235.mondomaine.fr (192.168.30.235) at 00:11:95:DD:FD:F3 on eth0
route
# route
Table de routage IP du noyau
Destination Passerelle Genmask Indic Metric Ref Use Iface
d12.mondomaine.fr * 255.255.255.0 U 0 0 0 eth0
default fw.mondomaine.fr 0.0.0.0 UG 0 0 0 eth0
L'option -n affiche la table de routage réseau sans remplacer les adresses IP par leurs noms canoniques :
# route -n
Table de routage IP du noyau
Destination Passerelle Genmask Indic Metric Ref Use Iface
192.168.30.0 0.0.0.0 255.255.255.0 U 0 0 0 eth0
0.0.0.0 192.168.30.1 0.0.0.0 UG 0 0 0 eth0
# netstat -rn
Table de routage IP du noyau
Destination Passerelle Genmask Indic MSS Fenêtre irtt Iface
192.168.30.0 0.0.0.0 255.255.255.0 U 0 0 0 eth0
0.0.0.0 192.168.30.1 0.0.0.0 UG 0 0 0 eth0
La commande route permet de modifier la table de routage. On peut ainsi rajouter une route pour contacter un réseau ou une machine particulière.
pc210:~# route -n
Table de routage IP du noyau
Destination Passerelle Genmask Indic Metric Ref Use Iface
192.168.30.0 0.0.0.0 255.255.255.0 U 0 0 0 eth0
0.0.0.0 192.168.30.1 0.0.0.0 UG 0 0 0 eth0
pc210:~#
pc210:~# route add -net 10.0.0.0 netmask 255.0.0.0 gw 192.168.30.99 dev eth0
pc210:~#
pc210:~# route -n
Table de routage IP du noyau
Destination Passerelle Genmask Indic Metric Ref Use Iface
192.168.30.0 0.0.0.0 255.255.255.0 U 0 0 0 eth0
10.0.0.0 192.168.30.99 255.0.0.0 UG 0 0 0 eth0
0.0.0.0 192.168.30.1 0.0.0.0 UG 0 0 0 eth0
pc210:~# route -n
Table de routage IP du noyau
Destination Passerelle Genmask Indic Metric Ref Use Iface
192.168.30.0 0.0.0.0 255.255.255.0 U 0 0 0 eth0
0.0.0.0 192.168.30.1 0.0.0.0 UG 0 0 0 eth0
pc210:~#
pc210:~# route add -host 1.2.3.4 gw 192.168.30.98 dev eth0
pc210:~#
pc210:~# route -n
Table de routage IP du noyau
Destination Passerelle Genmask Indic Metric Ref Use Iface
1.2.3.4 192.168.30.98 255.255.255.255 UGH 0 0 0 eth0
192.168.30.0 0.0.0.0 255.255.255.0 U 0 0 0 eth0
0.0.0.0 192.168.30.1 0.0.0.0 UG 0 0 0 eth0
ping
La commande ping permet de tester si on arrive à joindre un serveur donné. Cette commande utilise le protocole ICMP et envoi des packets ICMP de type
echo-request. Si l'ordinateur distant est joignable, il répondra à ce message par un packet ICMP echo-reply.
$ ping google.fr
PING google.fr (216.239.59.104) 56(84) bytes of data.
64 bytes from 216.239.59.104: icmp_seq=1 ttl=236 time=43.2 ms
64 bytes from 216.239.59.104: icmp_seq=2 ttl=236 time=44.3 ms
64 bytes from 216.239.59.104: icmp_seq=3 ttl=236 time=43.1 ms
64 bytes from 216.239.59.104: icmp_seq=4 ttl=236 time=72.2 ms
...
CTRL-c pour arreter
$ ping pc235
PING pc235.mondomaine.fr (192.168.30.235) 56(84) bytes of data.
From pc230.mondomaine.fr (192.168.30.230) icmp_seq=2 Destination Host Unreachable
From pc230.mondomaine.fr (192.168.30.230) icmp_seq=3 Destination Host Unreachable
Attention, si l'ordinateur distant ne répond pas, cela ne signifie pas obligatoirement qu'il est indisponible. Le problème peut venir du réseau (la commande
traceroute permettra de déterminer l'endroit qui bloque), ou il peut être paramétré pour ne pas répondre au protocole ICMP, ou un firewall sur la route peut bloquer
le protocole ICMP.
$ ping -c 2 google.fr
PING google.fr (216.239.59.104) 56(84) bytes of data.
64 bytes from 216.239.59.104: icmp_seq=1 ttl=236 time=43.6 ms
64 bytes from 216.239.59.104: icmp_seq=2 ttl=236 time=44.6 ms
traceroute
La commande traceroute permet d'afficher la route empruntée pour atteindre un ordinateur donné :
# traceroute www.google.fr
traceroute: Warning: www.google.fr has multiple addresses; using 209.85.135.103
traceroute to www.l.google.com (209.85.135.103), 30 hops max, 40 byte packets
1 fw.mondomaine.fr (192.168.30.1) 1.854 ms 0.323 ms 0.281 ms
2 192.168.10.1 (192.168.10.1) 0.658 ms 0.594 ms 0.522 ms
...
mtr
La commande mtr (my traceroute) permet aussi d'afficher la route empruntée pour atteindre un ordinateur donné, mais ré-actualise la liste en permanence :
My traceroute [v0.71]
pc230 (0.0.0.0) Tue Dec 4 13:13:23 2007
Packets Pings
Host Loss% Snt Last Avg Best Wrst StDev
1. fw.mondomaine.fr 0.0% 39 0.7 0.6 0.4 7.4 1.1
2. 192.168.10.1 0.0% 39 0.6 0.8 0.6 7.2 1.1
...
nslookup
$ nslookup
> set type=any
> google.fr
Server: 192.168.30.1
Address: 192.168.30.1#53
Non-authoritative answer:
Name: google.fr
Address: 216.239.59.104
Name: google.fr
Address: 66.249.93.104
Name: google.fr
Address: 72.14.221.104
google.fr nameserver = ns4.google.com.
google.fr nameserver = ns1.google.com.
google.fr nameserver = ns2.google.com.
google.fr nameserver = ns3.google.com.
Cette commande est intéractive, elle nécessite l'intervention de l'utilisateur. On utilise désormais les commandes host et dig pour effectuer les mêmes opérations
(voir ci-dessous).
host
$ host pc235
pc235.mondomaine.fr has address 192.168.30.235
pc235.mondomaine.fr mail is handled by 0 pc235.mondomaine.fr.
Elle permet aussi d'effectuer une résolution DNS inverse (quel nom canonique est associé à une adresse IP donnée ?) :
$ host 192.168.30.235
235.30.168.192.in-addr.arpa domain name pointer pc235.mondomaine.fr.
dig
La commande dig permet d'interroger les enregistrements DNS (appellé aussi Ressources Records ou RR) d'un nom de domaine donné :
$ dig google.fr
....
;; QUESTION SECTION:
;google.fr. IN A
;; ANSWER SECTION:
google.fr. 205 IN A 66.249.93.104
google.fr. 205 IN A 72.14.221.104
...
On peut indiquer à la commande dig le Ressource Record que l'on désire connaitre :
$ dig google.fr MX
...
;; ANSWER SECTION:
google.fr. 10800 IN MX 10 smtp1.google.com.
google.fr. 10800 IN MX 10 smtp2.google.com.
google.fr. 10800 IN MX 10 smtp3.google.com.
...
whois
La commande whois permet d'interroger la base de données whois contenant les informations sur le propriétaire du domaine et les personnes responsables pour les
aspects administratif et technique :
$ whois google.fr
...
domain: google.fr
address: GOOGLE INC
address: 28, rue Juliette Lamber
address: 75017 Paris
address: FR
admin-c: VB2334-FRNIC
tech-c: NA25-FRNIC
zone-c: NFC1-FRNIC
nserver: ns1.google.com
...
ip
Le format de ce fichier est indiqué dans la page de manuel du fichier de configuration passwd (section 5) :
$ man 5 passwd
...
- nom de connexion de l’utilisateur (« login »)
- un mot de passe chiffré optionnel
- l’identifiant numérique de l’utilisateur (UID)
- l’identifiant numérique du groupe de l’utilisateur (GID)
- le nom complet de l’utilisateur (champ GECOS)
- le répertoire personnel de l’utilisateur
- l’interpréteur de commandes de l’utilisateur
La majorité des comptes définis dans ce fichier sont des comptes administratifs ne servant uniquement à l'exécution de certaines applications (daemons). Ainsi, les
processus fonctionnant avec ces comptes sont limités par les droits d'accés de ces derniers.
/etc/shadow
Le format de ce fichier est indiqué dans la page de manuel du fichier de configuration shadow (section 5) :
$ man 5 shadow
...
- nom de connexion de l’utilisateur (« login »)
- mot de passe chiffré
- nombre de jours, comptés à partir du 1er janvier 1970, depuis le dernier changement de mot de passe
- nombre de jours à attendre avant de pouvoir changer le mot de passe
- nombre de jours après lesquels le mot de passe doit être changé
- nombre de jours avant la fin de validité du mot de passe et pendant lesquels l’utilisateur est averti
- nombre de jours après la fin de validité provoquant la
désactivation du compte
- nombre de jours, comptés à partir du 1er janvier 1970, depuis que le compte est désactivé
- champ réservé
La commande chage permet de changer les informations relatives à l'expiration des mots de passe (man chage).
/etc/group
Le format de ce fichier est indiqué dans la page de manuel du fichier de configuration group (section 5) :
$ man 5 group
...
- nom du groupe
- mot de passe chiffré du groupe. Si ce champ est vide, aucun mot de passe n’est nécessaire
- GID : identifiant numérique du groupe
- tous les noms des membres du groupe, séparés par des virgules
/etc/gshadow
Contient les informations cachées sur les groupes. Il contient des lignes avec les champs suivant séparés par des deux-points :
nom du groupe
mot de passe chiffré
liste d' administrateur du groupe séparés par des virgules
liste des membres du groupe séparés par des virgules
gpasswd
La commande gpasswd administre le fichier /etc/group. Elle permet d' affecter un mot de passe à un groupe.
# addgroup testgrp
# gpasswd testgrp
# Changement du mot de passe pour le groupe test
# Nouveau mot de passe : 'mdp'
# Nouveau mot de passe (pour vérification) : 'mdp'
#
newgrp
Newgrp change l´identifiant de groupe réel actuel à la valeur du groupe indiqué, ou au groupe par défaut défini dans /etc/passwd si aucun nom de groupe n´est
fourni.
$ groups
alex dialout cdrom floppy audio video plugdev netdev powerdev
On peut aussi obtenir la liste des groupes (et leurs GID) avec la commande id :
$ id
uid=1000(alex) gid=1000(grpalex) groupes=20(dialout),24(cdrom),25(floppy),29(audio),44(video),46(plugdev),106(netdev),109(powerdev),1000(grp
La commande useradd permet d'ajouter des utilisateurs. Le fichier /etc/default/useradd contient les paramètres par défaut de la commande.
Invoqué sans option, cette commande crée l'utilisateur, mais le compte n'est pas activé. De plus, elle n'a pas crée le répertoire de travail de l'utilisateur.
# useradd paul
# ls -al /home/paul
ls: /home/paul: Aucun fichier ou répertoire de ce type
Sous Debian, on utilisera plutôt la commande adduser qui offre plus d'options (positionnement du mot de passe et du champ GECOS à la création du compte, et
création du répertoire de travail).
# adduser jacques
Ajout de l'utilisateur « jacques »...
Ajout du nouveau groupe « jacques » (1003)...
Ajout du nouvel utilisateur « jacques » (1003) avec le groupe « jacques »...
Création du répertoire personnel « /home/jacques »...
Copie des fichiers depuis « /etc/skel »...
Enter new UNIX password:
Retype new UNIX password:
passwd : le mot de passe a été mis à jour avec succès
Modification des informations relatives à l'utilisateur jacques
Entrez la nouvelle valeur ou « Entrée » pour conserver la valeur proposée
Nom complet []: Jacques
N° de bureau []: 123
Téléphone professionnel []: 01 02 03 04 05
Téléphone personnel []: 01 06 07 08 09
Autre []: Chef de projet
Ces informations sont-elles correctes ? [o/N] o
# ls -al /home/jacques
total 20
drwxr-xr-x 2 jacques jacques 4096 2007-11-06 11:05 .
drwxr-xr-x 6 root root 4096 2007-11-06 11:05 ..
-rw-r--r-- 1 jacques jacques 220 2007-11-06 11:05 .bash_logout
-rw-r--r-- 1 jacques jacques 414 2007-11-06 11:05 .bash_profile
-rw-r--r-- 1 jacques jacques 2227 2007-11-06 11:05 .bashrc
La commande adduser dispose du fichier de configuration /etc/adduser.conf qui permet de positionner les valeurs par défaut de la commande. La commande
adduser offrira plus d'options que la commande useradd.
Le fichier /etc/adduser.conf permet de configurer les options par défaut de la commande adduser
Extrait de adduser.conf
# La varible DHOME spécifie le répertoire par défaut contenant le dossier HOME de l'utilisateur.
DHOME=/home
# Si GROUPHOMES est à "yes", alors le dossier home sera créé avec le schéma suivant : /home/"nom du groupe"/" nom de l'utilisateur"
GROUPHOMES=no
# Si LETTERHOMES est à "yes", le dossier home sera créé dans un dossier ayant comme nom la première lettre du nom d'utilisateur
# Par exemple : /home/u/user
LETTERHOMES=no
# FIRST_SYSTEM_[GU]ID to LAST_SYSTEM_[GU]ID inclusive is the range for UIDs for dynamically allocated administrative and system accounts/gro
# Please note that system software, such as the users allocated by the base-passwd package, may assume that UIDs less than 100 are unallocat
FIRST_SYSTEM_UID=100
LAST_SYSTEM_UID=999
# FIRST_[GU]ID to LAST_[GU]ID inclusive is the range of UIDs of dynamically allocated user accounts/groups.
FIRST_UID=1000
LAST_UID=29999
# The USERGROUPS variable can be either "yes" or "no". If "yes" each created user will be given their own group to use as a default. If "n
USERGROUPS=yes
Exemple :
Pour vérifier, on dispose de 3 possibilités : - grep audio /etc/group - id pierre - groups pierre
Le répertoire /etc/skel (skeleton : squelette) contient les fichiers par défaut à copier dans les répertoires de travail des utilisateurs nouvellement créés.
Modifier un utilisateur
Dans certains cas, il sera plus simple de modifier directement les fichiers /etc/passwd et /etc/group plutôt que d'utiliser cette commande.
Supprimer un utilisateur
Sous Debian, on utilisera plutot la commande deluser qui offre plus d'options (notamment la possibilité de créer une archive de tous les fichiers de l'utilisateur avant
de supprimer son répertoire de travail).
De la même manière que adduser, la commande deluser dispose du fichier de configuration /etc/deluser.conf qui permet de spécifier son comportement par
défaut.
Extrait de deluser.conf
REMOVE_HOME = 0
REMOVE_ALL_FILES = 0
# Backup files before removing them. This options has only an effect if REMOVE_HOME or REMOVE_ALL_FILES is set.
BACKUP = 0
BACKUP_TO = "."
# exclude these filesystem types when searching for files of a user to backup
EXCLUDE_FSTYPES = "(proc|sysfs|usbfs|devpts|tmpfs)"
# groupadd compta
Sous Debian, on dispose de la commande addgroup, qui est en réalité un lien vers la commande adduser.
# which addgroup
/usr/sbin/addgroup
# ls -l /usr/sbin/addgroup
lrwxrwxrwx 1 root root 7 2007-10-24 12:53 /usr/sbin/addgroup -> adduser
# addgroup compta
Ajout du groupe « compta » (identifiant 1004)...
Terminé.
Modifier un groupe
Dans certains cas, il sera plus simple de modifier directement le fichier /etc/group plutôt que d'utiliser cette commande.
Supprimer un groupe
Sous Debian, on dispose de la commande delgroup, qui est en réalité un lien vers la commande deluser.
# which delgroup
/usr/sbin/delgroup
# ls -l /usr/sbin/delgroup
lrwxrwxrwx 1 root root 7 2007-10-24 12:53 /usr/sbin/delgroup -> deluser
Dans certains cas, il est plus simple d'éditer manuellement les fichiers de configuration /etc/passwd, /etc/shadow, /etc/group et /etc/gshadow plutôt que d'utiliser
les commandes précédement évoquées.
Les commandes suivantes permettent de garantir qu'un seul root est en train de modifier un de ces fichiers :
Pour plus d'information, se reporter aux pages de manuel (man vipw et man vigr).
Le processus d'initialisation
Le chargement du noyau Linux
Lorsque l'on allume son ordinateur, la carte mère effectue un test automatique qui se charge de tester le bon fonctionnement des composants de la carte mère
(processeur, mémoire, etc.). Ce test s'appelle le POST (Power-On Self Test). Si tout est OK, ce test se termine par un (et un seul) bip.
Ceci fait, le BIOS charge ensuite le programme stocké dans le boot secteur du disque dur.
Sur architecture PC, il existe deux programmes permettant de charger le noyau Linux, ou un autre système d'exploitation.
LILO
LILO (LInux LOader) a été le premier logiciel permettant d'effectuer cette opération.
boot=/dev/hda
map=/boot/map
install=/boot/boot.b
default=linux
prompt
timeout=50
message=/boot/message
# Premiere section : boot Windows
other=/dev/hda1
label=windows
table=/dev/hda
# Deuxieme section: boot Linux
image=/boot/vmlinuz
label=linux
root=/dev/hda4
append="acpi=off"
read-only
# Troisieme section: boot Linux - mode mono-utilisateur
image=/boot/vmlinuz
label=linux_single_user
root=/dev/hda4
append="single acpi=off"
read-only
Ce fichier se compose de paramêtres communs (disque dur de boot, timeout ...) et de sections pour chaque système d'exploitation à booter.
Chaque fois que l'on modifie ce fichier, il faut exécuter la commande lilo afin de re-écrire dans le boot secteur l'emplacement exact du noyau sur le disque dur.
# lilo
Added windows
Added linux
Added linux_single_user
GRUB
Aujourd'hui, on utilise le programme GRUB (GRand Unified Bootloader) car il offre des possibilités supplémentaires.
Contrairement à Lilo, Grub sait lire une partition Linux (ext2/3, XFS, reiserFS ...) afin de charger son fichier de configuration (/boot/grub/menu.lst) et le(s)
noyau(x) Linux.
default 0
timeout 30
color cyan/blue white/blue
# Premiere section : Linux
title Debian GNU/Linux, kernel 2.6.18-5-686
root (hd1,0)
kernel /vmlinuz-2.6.18-5-686 root=/dev/sdb2 ro acpi=off
initrd /initrd.img-2.6.18-5-686
savedefault
# Deuxieme section : Linux mode mono-utilisateur
title Debian GNU/Linux, kernel 2.6.18-5-686 (single-user mode)
root (hd1,0)
kernel /vmlinuz-2.6.18-5-686 root=/dev/sdb2 ro acpi=off single
initrd /initrd.img-2.6.18-5-686
savedefault
# Troisieme section : Windows
title Windows NT/2000/XP (loader)
root (hd0,0)
savedefault
makeactive
chainloader +1
A la différence de Lilo, il n'est pas nécessaire d'exécuter une commande particulière lorsque l'on modifie ce fichier.
Une fois chargé en mémoire, le noyau va se charger de détecter et d'initialiser les composants de la carte mère et les périphériques présents.
# dmesg
Linux version 2.6.18-5-686 (Debian 2.6.18.dfsg.1-13) ([email protected]) (gcc version 4.1.2 20061115 (prerelease) (Debian 4.1.1-21)) #1 SMP F
BIOS-provided physical RAM map:
BIOS-e820: 0000000000000000 - 000000000008f000 (usable)
...
A noter que la commande dmesg affiche tous les messages détectés durant le boot, ainsi que les messages du noyau affichés par la suite (cad durant le
fonctionnement du système).
Dans certains cas, l'affichage de la commande dmesg peut être tronqué (notamment les messages affichés durant le boot). Dans ce cas, on peut consulter le fichier
/var/log/dmesg qui ne contient que les messages du boot.
Le processus init
Une fois que le noyau a détecté l'ensemble des composants de l'ordinateur, il lance le processus du système : init.
Le processus init a comme particularité d'avoir le PID (Process IDentifiant) n°1 (c'est le premier processus), et de fait, il est le père de tous les autres.
*** A VERIFIER *** Le processus init démarre les processus internes au noyau (noté entre crochet lorsque l'on fait ps aux), comme par exemple les processus
kjournald qui gère les journaux des systèmes de fichiers journalisés.
code:niveau:action:commande
# mode mono-utilisateur
~~:S:wait:/sbin/sulogin
# runlevel 1 : mono-utilisateur
l1:1:wait:/etc/init.d/rc 1
# mode emergency
z6:6:respawn:/sbin/sulogin
tous les scripts de démarrage et d'arrêt sont stockés dans le répertoire /etc/init.d/.
les répertoires rc0.d, rc1.d ... rc6.d contiennent des liens qui vont appeller les scripts d'initialisation.
Si le lien commence par un S, le script va etre appellé avec l'option start
Si le lien commence par un K, le script va etre appellé avec l'option stop
le numéro qui suit le S ou le K indique l'ordre de démarrage ou d'arrêt.
$ ls -l /etc/init.d/cupsys
-rwxr-xr-x 1 root root 1977 2007-02-02 14:18 /etc/init.d/cupsys
Le lien suivant indique qu'il faut appeller ce script avec l'option start dans le runlevel 2 (runlevel par défaut sous Debian) :
$ ls -l /etc/rc2.d/S20cupsys
lrwxrwxrwx 1 root root 16 2007-10-24 15:40 /etc/rc2.d/S20cupsys -> ../init.d/cupsys
Le lien suivant indique qu'il faut appeller ce script avec l'option stop dans le runlevel 0 (arrêt de la machine) :
$ ls -l /etc/rc0.d/K20cupsys
lrwxrwxrwx 1 root root 16 2007-10-24 15:40 /etc/rc0.d/K20cupsys -> ../init.d/cupsys
La commande update-rc.d
Sous Debian, la commande update-rc.d permet de gérer les liens des runlevels.
Pour connaitre la liste des options de la commande update-rc.d, il suffit de l'appeller sans argument :
# update-rc.d
usage: update-rc.d [-n] [-f] <basename> remove
update-rc.d [-n] <basename> defaults [NN | sNN kNN]
La commande chkconfig
# runlevel
N 2
Dans cet exemple, on est dans le runlevel n°2 (fonctionnement sous Debian). Le N nous indique le runlevel précédent (N (No) : pas de runlevel précédent)
# init 6
le propriétaire ;
le groupe de fichiers ;
les droits d'accès ;
la date de modification ;
le type de fichier.
Sous UNIX et LINUX on trouve des partitions, ex. : boot, var, tmp, home qui permettent d'organiser le système de fichiers. Au départ EXT2 sous UNIX, aujourd'hui
EXT3 par défaut correspond a EXT2 plus le journal, qui a l'avantage de consigner tout ce que fait le système, et qui en cas de crash lui permet de démarrer plus
rapidement sans erreurs. Les deux formats sont compatibles. Il existe toute sorte de systèmes de fichiers.
Non journalisés
Journalisés
Réseau
Cluster
Spécialisés
La commande mount
Cette commande indique tous les systèmes de fichiers qui sont montés. On l'utilise pour accéder à une partition (en root pour accéder au CD-ROM ou au lecteur
disquette).
Exemple : pour brancher une clé USB il faut la monter. On édite le fichier log par la commande tail-f /var/log/messages afin de savoir sur quel système de fichiers se
trouve la clé. Puis on utilise mount pour accéder au contenu de la clé.
Exemple :
Syntaxe :
Exemple :
La commande umount
La commande umount permet de démonter une partition. Cette opération est indispensable si on veut être sûr que les données soient correctement écrites sur la
partition. Exemples :
# umount /dev/sdc1
ou
# umount /mnt
Si la partition est en cours d'utilisation, on ne pourra pas la démonter et la commande umount va retourner un message d'erreur :
# umount /home
umount: /home: device is busy
umount: /home: device is busy
Deux commandes permettent de connaître les fichiers ouverts et les processus qui sont en train d'utiliser la partition et qui empeche le démontage.
La commande lsof (list open files) permet de connaître les fichiers ouverts :
# lsof /home
COMMAND PID USER FD TYPE DEVICE SIZE NODE NAME
gdm 2751 root 9w REG 22,71 761 964774 /home/alex/.xsession-errors
startkde 2882 alex cwd DIR 22,71 4096 964769 /home/alex
...
La commande fuser permet aussi de connaître les processus qui ont des fichiers ouverts sur la partition.
# fuser -m /home
/home: 2751 2882c 2961c 2962c 2965c 2967c 2969c
2971c 2976c 2978c 2979c 2981c 2983c 2984c 2986c 2990c 2992c
2993c 2995c 2997c 2999c 3002c 3037c 3683c 3684c 4102c 4161c
Le fichier /etc/fstab
Le fichier /etc/fstab contient la liste des partitions montées automatiquement au démarrage du système.
Pour monter automatiquement une partition au démarrage, il suffit de rajouter une ligne dans le fichier /etc/fstab, comme par exemple :
Pour chaque partition, on peut spécifier des options dans le fichier /etc/fstab. Options les plus courantes :
La commande sync force le noyau à écrire le cache. Pour savoir la taille qu'il reste sur la clé on utilisera la commande df (disk free) -h (human readable) pour
avoir les informations en kilo,mega,giga. df -i affiche le pourcentage d'occupation de la table des inodes.
Afin de simuler le formatage, nous allons créer un disque dur virtuel. Pour simuler ceci avec un disque dur virtuel, on utilisera le pseudo périphérique loop.
# modprobe loop
# dd if=/dev/zero of=hd1 bs=1K count=100000
Ceci crée un fichier vide hd1 qui aura une taille de 100 Mo.
Pour le demonter :
# umount /media/cleusb
CAS PARTICULIER : pour les disquettes, on effectue en général un formatage de bas niveau :
L'option -c de fsck permet de vérifier les badblocks (en lecture seule par défaut). L'option -v (verbose, soit verbeux) pour voir ce qu'il fait.
Le swap
Partition de swap
Le SWAP signifie échange, il s'agit d'une mémoire virtuelle en effet lorsque la mémoire de l'ordinateur arrive à saturation, le systéme écrit sur une partition SWAP
de façon à liberer de la mémoire.
# mkswap /dev/sdb5
# swapon /dev/sdb5
# free
...
Swap: 1951856 65080 1886776
# cat /proc/swaps
... Type Size Used Priority
/dev/hda3 partition 979956 307284 -1
Fichier de swap
Il est possible de créer un fichier swap en complément d'une partion SWAP,pour faire ceci nous allons commencer par créer un fichier d'un giga octet :
# mkswap /ficswap
On active le swap :
# swapon /ficswap
# cat /proc/swaps
# swapoff /ficswap
Utilitaires disques-durs
Technologie S.M.A.R.T.
(...)
(...)
hdparm
#hdparm /dev/sdb
/dev/sdb:
IO_support = 0 (default 16-bit)
readonly = 0 (off)
readahead = 256 (on)
geometry = 9729/255/63, sectors = 156301488, start = 0
/dev/sdb:
Timing cached reads: 888 MB in 2.00 seconds = 443.99 MB/sec
Timing buffered disk reads: 174 MB in 3.00 seconds = 57.91 MB/sec
hddtemp
hddtemp utilise les données SMART du disque dur spécifié et retourne sa température.
#hddtemp /dev/sda
/dev/sda: WDC WD800JD-22MSA1: 31°C
L'option -n permet de ne renvoyer que la valeur de la température (utile pour les scripts)
# hddtemp -n /dev/sda
31
En outre pour accéder à certains renseignements il sera nécessaire de monter obligatoirement /proc (définit dans /etc/fstab et fait automatiquement au boot).
# cat /proc/cpuinfo
Les commandes ps, top, uptime (et bien d'autres) utilisent /proc pour récupérer des informations.
# cat /proc/partitions
major minor #blocks name
8 0 312571224 sda
8 1 96358 sda1
8 2 107418622 sda2
8 3 117186142 sda3
# cat /proc/swaps
Filename Type Size Used Priority
/dev/sd4 partition 5017592 1694624 -1
# cat /proc/cpuinfo
processor : 0
vendor_id : GenuineIntel
cpu family : 6
model : 15
model name : Intel(R) Core(TM)2 CPU 6600 @ 2.40GHz
stepping : 6
cpu MHz : 2402.051
cache size : 4096 KB
...
processor : 1
vendor_id : GenuineIntel
cpu family : 6
model : 15
model name : Intel(R) Core(TM)2 CPU 6600 @ 2.40GHz
stepping : 6
cpu MHz : 2402.051
cache size : 4096 KB
...
Certains répertoires commencent par des numéros, il s'agit des PID (Process IDentifiant) des processus en cours d'exécution. A l'intérieur, on peut obtenir des
renseignements sur le processus et sur son contexte d'exécution. Exemples :
# cat /proc/8595/cmdline
scribus
# cat /proc/8595/environ
SSH_AGENT_PID=4687
DM_CONTROL=/var/run/xdmctl
SHELL=/bin/bash
...
# cat /proc/8595/maps
08048000-08945000 r-xp 00000000 fd:00 1519957 /usr/bin/scribus
...
b4ecb000-b4f9e000 r-xp 00000000 fd:00 92595256 /usr/lib/libBLT.2.4.so.8.4
...
# cat /proc/8595/status
Name: scribus
State: S (sleeping)
SleepAVG: 78%
Tgid: 8595
Pid: 8595
PPid: 4720
TracerPid: 0
Uid: 1000 1000 1000 1000
Gid: 1000 1000 1000 1000
FDSize: 32
Groups: 4 20 24 25 29 44 46 107 109 111 1000 1001
VmPeak: 892432 kB
VmSize: 84236 kB
VmLck: 0 kB
Ce dossier contient tous les périphériques matériels, par exemple:un lecteur cdrom,une carte son,une carte réseau,etc...
# ls -l /dev | more
On s'aperçoit que certains périphériques sont de type c (character) dans ce cas ils communiquent octet par octet ex: un port série.
Alors que d'autres sont de types b (blocks) ils communiquent par blocs de données (ex: un disque dur).
Par ailleurs le noyau identifie chaque périphérique au moyen de deux numéros, le majeur (en vert) et le mineur (en rouge), exemple :
# ls -l /dev/sda*
brw-rw---- 1 root disk 8, 0 2007-09-22 18:08 /dev/sda
brw-rw---- 1 root disk 8, 1 2007-09-22 18:08 /dev/sda1
brw-rw---- 1 root disk 8, 2 2007-09-22 18:08 /dev/sda2
brw-rw---- 1 root disk 8, 3 2007-09-22 18:08 /dev/sda3
brw-rw---- 1 root disk 8, 4 2007-09-22 18:08 /dev/sda4
Les partitions sda1 à sda4 ont le même majeur. Le majeur correspond au premier disque dur SCSI ou SATA.
Les majeurs et les mineurs sont définit dans la documentation accompagnant le noyau Linux dans le fichier /usr/src/linux/Documentation/devices.txt ... et oui!
comme vous pouvez vous en douter, le noyau Linux est livré avec une documentation très fournie disponible dans le répertoire Documentation/ livré avec le
noyau, voir chapitre Le noyau Linux et les modules.
Extrait de /usr/src/linux/Documentation/devices.txt :
...
8 block SCSI disk devices (0-15)
0 = /dev/sda First SCSI disk whole disk
16 = /dev/sdb Second SCSI disk whole disk
32 = /dev/sdc Third SCSI disk whole disk
...
240 = /dev/sdp Sixteenth SCSI disk whole disk
...
Partitions are handled in the same way as for IDE
disks (see major number 3) except that the limit on
partitions is 15.
...
# mknod /dev/bidon b 42 0
Configuration de cron
Le fichier de configuration de cron est /etc/crontab, éditable uniquement par le root. Exemple :
SHELL=/bin/sh
PATH=/usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin
Tous les champs peuvent être remplacés par "*" si on souhaite toutes les valeurs correspondantes.
Notation avancée:
On peut définir des valeurs multiples ou des plages de valeurs pour les heures, les jours etc... :
Par exemple, au lieu de faire plusieurs lignes de cron pour plusieurs fois le même évènement, on peut mettre plusieurs valeurs séparées par ","
On peut aussi indiquer une plage de valeur dont les limites sont séparées par "-".
De même, on peut définir des fréquences avec "/". Par exemples, toutes les 2h s'écrira */2 dans la deuxième colonne.
Exemples
0 * 7 3 * root beep
L'utilisateur root appelle la commande beep, toutes les heures à 0 minute le 7 mars.
L'utilisateur root appelle la commande beep, à 8h15 et 8h45 tous les jours.
L'utilisateur toto appelle la commande beep toutes les heures de 8h à 18h tous les jours.
L'utilisateur titi appelle la commande beep à midi tous les lundi, mercredi et vendredi.
Répertoires de cron
En plus de la commande cron, il existe des répertoires spécifiques pour définir des commandes cron à fréquences précises. Ces répertoires particuliers sont localisés
dans le repertoire /etc
Titre du tableau
cron.hourly toutes les heures
cron.daily tous les jours
cron.weekly toutes les semaines
cron.monthly tous les mois
Il suffit de mettre un fichier script exécutable dans le repertoire choisi pour qu'il s'exécute.
Dans le même ordre d'idée, on peut rajouter des repertoires particuliers reliés à des fonctions spécifiques d'une entreprise ou d'une personne, pour executer des cron.
Il suffit de mettre des fichiers contenants des lignes cron dans le repertoire /etc/cron.d/.
exemple : /etc/cron.d/comptabilite
Une fois le crontab modifié, il faut lui faire prendre en compte les modifications. Pour cela, on dispose de trois méthodes:
ou
# killall -1 cron
ou
# /etc/init.d/cron restart
Titre du tableau
crontab -l donne la liste des crontabs actifs
crontab -e permet d'éditer son propre crontab
En utilisant la commande crontab , il n'est pas nécessaire de relancer le daemon cron pour que les modifications soient prises en compte.
Droits d'accès
L'horloge Linux
Avant de planifier ses opérations il est primordial de bien s'assurer que les informations de temps système sont correctes.
Réglage manuel
# date
mer aoû 19 12:31:00 CEST 2009
Cette même commande accepte des arguments pour forcer la mise à jour de l'horloge système au format "MMJJHHmmYYYY". Il faut disposer des droits super
utilisateur pour cette action.
# date 081912372009
Wed Aug 19 12:37:00 CEST 2009
Enfin, il existe deux horloges dans le système, l'horloge matérielle et l'horloge logicielle. Pour synchroniser ces deux horloges utilisez la commande hwclock.
Archivage
Syntaxe :
Exemple:
Note: Comme vous le voyez sur notre exemple, la commande tar retire le / du répertoire parent. En faisant cela, elle évite les écrasements de fichiers dans le cas ou
vous restituez votre fichier au même endroit.
Test de l'archive
Une fois l'archivage effectué, vous pouvez vérifier votre archive avec la commande :
Restitution
Exemple:
Compresser un fichier
Exemple:
# ls -l images.tar*
-rw-r--r-- 1 root root 10240 Nov 8 20:00 images.tar
# gzip images.tar
# ls -l images.tar*
-rw-r--r-- 1 root root 4662 Nov 8 20:00 images.tar.gz
En utilisant ls -l , on voit trés bien la taille du fichier images non compressé, qui est passé de 10240 octets à 4662 octets.
Décompresser un fichier
Exemple:
# ls -l images.tar*
-rw-r--r-- 1 root root 4662 Nov 8 20:00 images.tar.gz
# gzip -d images.tar.gz
# ls -l images.tar*
-rw-r--r-- 1 root root 10240 Nov 8 20:00 images.tar
# tar cvzf <nom du fichier archivé compressé>.tar.gz <nom du répertoire à archiver et compresser>
bzip2 est un autre algorithme de compression. Il est plus performant mais beaucoup moins rapide que gzip.
# bzip2 unfichier
Pour le décompresser :
# bzip2 -d unfichier.bz2
Tout comme gzip, on peut indiquer à tar d'utiliser bzip2 pour compresser l'archive (option j):
#!/bin/bash
#
# Ne pas oublier :
# - de creer le repertoire /backup : mkdir /backup
# - de rendre ce script executable : chmod +x backup_etc
#
# Tester le script une fois manuellement : ./backup_etc
#
# Le rajouter dans la crontab
DATEJOUR=$(date +"%Y-%m-%d-%H-%M-%S")
REPABACKUPER="/etc"
REPBACKUP="/backup"
NOMFIC=$REPBACKUP/etc-$DATEJOUR.tgz
En combinant la commande find et la commande tar, on peut ainsi facilement sauvegarder les fichiers modifiés depuis la veille, et ainsi réaliser une sauvegarde
incrémentale.
La commande suivante retourne la liste de tous les fichiers du système modifiés depuis hier (en excluant les fichiers contenus dans /proc, /dev et /sys), et stocke la
liste de ces fichiers dans le fichier /tmp/fic_du_jour:
On peut ensuite appeler la commande tar avec l'option -T qui permet d'indiquer la liste des fichiers à archiver :
Grâce aux tubes (pipe), on peut s'affranchir de passer par un fichier temporaire et directement enchaîner les deux commandes :
Toujours grâce aux tubes, on peut découper le fichier obtenu en plusieurs fichiers d'une taille donnée :
# ls -lh backup_*
-rw-r--r-- 1 root root 5,0M 2007-12-06 14:30 backup_aa
-rw-r--r-- 1 root root 5,0M 2007-12-06 14:30 backup_ab
-rw-r--r-- 1 root root 5,0M 2007-12-06 14:30 backup_ac
-rw-r--r-- 1 root root 3,5M 2007-12-06 14:30 backup_ad
sur le serveur
Allez dans le répertoire partimaged et modifier le fichier partimagedusers afin de donner l'autorisation de se connecter a votre utilisateur.
cd /etc/partimaged/
echo "mon user">>partimagedusers ou vi partimagedusers
mkdir /opt/img
partimage fonctionnant avec l'utilisateur partimag il faut lui donner les droits.
redemmarer le service
/etc/init.d/partimaged restart
sur le client
installation de partimage
#partimage
On donne une description de l'image On sélectionne le type de compression et ensuite " OK ".
rebooter votre machine avec knoppix une fois démarré si il n'y a pas de DHCP sur le réseaux il faut attribuer un adresse IP.
et lancer partimage
# partimage
restauration
A faire
sur le serveur
sur le client
il est nécessaire de générer une paire de clés se reporter a la partie ssh-keygen ici
options rsync
1. a : permet de copier tous les fichiers, y compris les fichiers et dossiers cachés (fichiers commençant par .)
2. -c : active la compression de type gzip pendant le transfert.
3. -t Conserver la date
4. -p Conserver les permissions
5. -o Conserver le propriétaire
6. -g Conserver les groupes
7. --delete Effacer sur la destination
8. -v affiche les opérations avant de les effectuer
9. --ignore-existing Ignorer les fichiers existants
10. -x Ne pas quitter le système de fichier
11. --progress Montrer la progression
12. --size-only Taille seulement
13. --delete : si le fichier « linux » existe dans « destination » et pas dans « source », il sera supprimé.
un journal log est un fichier texte dont les évènements sont enregistrés, un par ligne.
« Extrait de fichier syslog - les messages sont enregistrés avec la date et l'heure de l'évènement »
TP : afficher les dernières procédures de login, l'heure des tentatives, si elle ont échoué ou réussi.
#tail -f /var/log/auth.log
Important : l'heure du système doit être à la bonne heure et à la bonne date, sinon la datation
des messages est éronnée, ce qui complique, si besoin est, la recherche d'anomalies de fonction-
nement du système dans les messages enregistrés dans les fichiers log.
syslog possède un fichier de configuration syslog.conf, il est stocké dans le répertoire /etc . On peut modifier ce fichier pour l'adapter à nos besoins en messages
d'évènements survenus sur le système : envoi de mail, authentification, etc...
Ce fichier est un fichier texte, dont chaque ligne est séparée en deux parties :
1ère partie : (le ou) les processus demandeurs (séparés par un point virgule) suivi d'un point et de leur niveau de priorité : <dispositif>.<niveau>
<dispositif> est appelé facility <niveau> est appelé priority, c'est le niveau de criticité du log. Exemple : panic, error, warninig, debug, info...
2ème partie : le fichier log correspondant (qui reçoit le message et l'ajoute à la liste de ses messages) : <fichier de log>
Swatch
L'utilitaire swatch peut surveiller un fichier de log et réaliser une action s'il voit passer un mot-clé.
#
# A appeler avec la ligne suivante :
#
# swatch --config-file=/root/.swatchrc --tail-file=/var/log/auth.log
#
watchfor /FAILED/
echo red
#mail addresses=alex\@localhost,subject=Alerte AUTH
exec /usr/bin/zenity --error --text "$_"
watchfor /Successful/
echo green
Le Serveur de log
On peut être amené à créer un serveur de log si on possède plusieurs serveurs dont on souhaite centraliser les log, par mesure de sécurité ou par commodité (facilité
de consultation, d'archivage, etc...)
côté serveurs envoyant les messages de log :----> une ligne dans le fichier syslog.conf de chaque serveur en mentionnant les processus envoyant les messages
(exemple : *.* pour tous) et le nom du serveur de log ou son adresse IP précédée de @, comme ainsi :
*.* @log_server ou
*.* @192.168.30.221 ou
mail.inf @log_server (stocke les log d'envoi de mail)
côté serveur de log :----> l'option SYSLOGD ="-r" dans le fichier /etc/default/syslogd
Extrait du fichier syslogd d'un serveur non dédié au log - la commande SYSLOGD n'est pas activée
La commande logger
La commande logger permet d'envoyer un message à syslog même connecté en utilisateur
-t permet d'ajouter unnom, un tag c'est un mot quelqconque pour signer le message
Le programme logrotate
logrotate est un fichier texte situé dans etc/, il sert à configurer 'la politique des rotations' des logs. Effectivement, il faut supprimer les anciens fichiers log, sinon on
risque une saturation du disque. Pour cela on peut programmer des rotations de logs qui se traduisent par l'archivage des fichiers log assez récents et la suppression
des anciens, et ceci avec une périodicité bien définie.
monthly : tourner les logs tous les mois (enlever le weekly existant dans le fichier de configuration par défaut Debian)
rotate n : conserver n fichiers (ici un fichier par mois [mettre 60, soit 5 ans])
create : créer un nouveau fichier de log
compress : compresser le fichier tourné
Pour tester vos fichiers de configuration logrotate.conf (et donc de logrotate.d/*) taper : /usr/sbin/logrotate -dv /etc/logrotate.conf.
Redhat a énormément simplifié ce processus en inventant le format RPM (Redhat Package Manager), format qui propose les logiciels open-source pré-compilés.
REDHAT = logiciel.x.y.rpm
DEBIAN = logiciel.x.y.deb
dpkg
dpkg est le programme qui permet d'installer, mettre à jour et supprimer un logiciel en format DEB. Sur Redhat, la commande rpm fait la même chose.
L'option -i (i: install) de dpkg (debian package) permet d'installer un fichier DEB :
# dpkg -i logiciel-x.y.deb
# dpkg -l
ii iamerican 3.1.20.0-4.3 An American English dictionary for ispell
ii ibritish 3.1.20.0-4.3 A British English dictionary for ispell
ii icedax 1.1.2-1 Creates WAV files from audio CDs
ii iceweasel 2.0.0.6-0etch1 lightweight web browser based on Mozilla
ii iceweasel-gnome-support 2.0.0.6-0etch1 Support for Gnome in Iceweasel
...
# dpkg -S /etc/crontab
cron: /etc/crontab
On apprend notamment :
La commande dpkg dispose d'une page de manuel détaillant toutes les options disponibles :
# man dpkg
apt-get
La commande apt-get permet d'installer, mettre à jour et supprimer les logiciels. Le principal avantage d'apt-get par rapport à dpkg est sa capacité à télécharger les
packages sur les mirroirs Debian et de résoudre les dépendances nécessaires au logiciel, et ceci de façon récursive.
Installer un logiciel
Note: apt-get install va télécharger tous les packages nécessaires au bon fonctionnement du logiciel, et apeller dpkg -i sur chaque fichier DEB téléchargés.
On peut rajouter des miroirs à apt-get en modifiant le fichier /etc/apt/sources.list. Ce fichier contient la liste des mirroirs officiels DEBIAN, et on peut rajouter
d'autres mirroirs.
# cat /etc/apt/sources.list
deb cdrom:[Debian GNU/Linux 4.0 r1 _Etch_ - Official i386 NETINST Binary-1 2007$
deb http://ftp.fr.debian.org/debian/ etch main contrib non-free
deb-src http://ftp.fr.debian.org/debian/ etch main contrib non-free
deb http://security.debian.org/ etch/updates main contrib
deb-src http://security.debian.org/ etch/updates main contrib
On peut rajouter à ce fichier un mirroir contenant des fichiers DEB non-intégrés dans les mirroirs officiels Debian :
Chaque fois que l'on modifie le fichier /etc/apt/sources.list, il faut lancer la commmande apt-get update pour récupérer la liste des nouveaux logiciels :
# apt-get update
# apt-get install virtualbox
L'option upgrade de apt-get prend la liste des paquets installés, regarde sur le dépots si ces logiciels sont disponibles dans une version plus récentes. Si c'est le cas,
cette commande va mettre à jour ces logiciels.
Par défaut, la commande apt-get conserve tous les fichiers DEB installés dans le répertoire /var/cache/apt/archives.
L'option clean permet d'effacer les fichiers DEB que l'on a installé :
# apt-get clean
# ls -l /var/cache/apt/archives
total 0
La commande apt-get dispose d'une page de manuel détaillant toutes les options disponibles :
# man apt-get
apt-cache
Chercher un package
L'option search de la commande apt-cache permet de rechercher un terme sur les paquets installés et non-installés.
L'option show de la commande apt-cache permet de voir les informations d'un paquet (installé ou non).
La commande apt-cache dispose d'une page de manuel détaillant toutes les options disponibles :
# man apt-cache
aptitude
La commande aptitude est un remplacant d'apt-get, son principal avantage est de désinstaller les dépendances.
synaptic
Le programme synaptic permet d'effectuer les mêmes opérations que la commande apt-get depuis l'interface graphique.
/usr/share/doc/<nom du package>/
Certaines documentations sont compressées en gzip afin d'économiser de la place disque. On peut utiliser les commandes zcat, zmore ou zless pour visualiser ces
fichiers sans avoir à les décompresser :
# zmore /usr/share/doc/python/python-policy.txt.gz
Dans certains cas, on peut être amené à devoir installer un logiciel à partir des fichiers sources :
Debian fournit un répertoire particulier destiné à accueillir les programmes installés à la main : /usr/local.
Si on regarde le contenu de ce répertoire, on constate qu'il contient des sous-répertoires déjà présents à la racine :
# ls /usr/local/
bin etc games include lib man sbin share src
Ces répertoires vont accueillir tous les fichiers des programmes installés à la main :
Tout d'abord, on télécharge les fichiers sources du logiciel dans le répertoire /usr/local/src :
# cd /usr/local/src
# wget http://downloads.sourceforge.net/pidgin/pidgin-2.3.0.tar.bz2
# tar xjf pidgin-2.3.0.tar.bz2
# cd pidgin-2.3.0
# more README
On apprend dans ce fichier qu'il faut lire le fichier INSTALL pour connaître les dépendances et la procédure pour compiler le logiciel :
# more INSTALL
Comme dans la majorité des logiciels écrits en langage C, il faut effectuer la procédure standard : ./configure; make; make install .
# ./configure
Cette étape se solde par une erreur : pidgin a besoin de la librairie perl XML parser. On cherche donc le packet Debian contenant cette librairie :
On relance le ./configure :
# ./configure
Cette étape se solde à nouveau par une erreur : pidgin a besoin de la librairie de développement glib2. On cherche donc le packet Debian contenant cette librairie
et on l'installe :
On relance le ./configure :
# ./configure
Cette étape se solde à nouveau par une erreur : pidgin a besoin de la librairie de développement xml2. On cherche donc le packet Debian contenant cette librairie
et on l'installe :
On relance le ./configure :
# ./configure
...
Pidgin will be installed in /usr/local/bin.
Cette fois-ci, l'étape s'est terminée sans erreur et on peut lancer la compilation :
# make
...
# make install
...
Ca y est (enfin!), le logiciel s'est correctement installé, et l'exécutable a été copié dans le répertoire /usr/local/bin :
# ls -l /usr/local/bin
total 2280
-rwxr-xr-x 1 root staff 2329930 2007-12-07 10:06 pidgin
$ pidgin
Les sources du noyau Linux sont disponibles sur kernel.org (http://www.kernel.org) dans le répertoire /pub/linux/kernel/v2.6/ (http://www.kernel.org/pub/linux
/kernel/v2.6/).
Les sources doivent être installées dans le répertoire /usr/src et il faut un lien linux vers la version du noyau que l'on désire compiler :
# cd /usr/src
# wget http://www.kernel.org/pub/linux/kernel/v2.6/linux-2.6.23.9.tar.bz2
...
# tar xjf linux-2.6.23.9.tar.bz2
# ln -s linux-2.6.23.9 linux
# cd linux
Si on désire utiliser les mêmes options de compilation du noyau actuel, on copie le fichier /boot/config-2.6.18-5-686 dans le répertoire /usr/src/linux sous le nom
.config :
# cp /boot/config-2.6.18-5-686 .config
Pour lancer la configuration (en mode texte) du noyau, on tape ensuite make menuconfig. Il faut avoir précédement installé la librairie de développement ncurses
et tous les outils de compilation :
On installe ensuite kernel-package qui contient les outils Debian permettant de fabriquer un packet .deb contenant le noyau Linux, les modules, le initrd et un
script configurant Grub pour booter sur le nouveau noyau (cf explications ci-dessous) :
# make menuconfig
Debian fournit une méthode particulière pour lancer la compilation du noyau. il faut auparavant installer le packet kernel-package.
La procédure Debian consiste à fabriquer un fichier .DEB contenant le noyau et les modules compilés. L'avantage de cette méthode est de faciliter la mise à jour du
noyau. De même, elle va automatiquement mettre à jour GRUB ou LILO pour démarrer sur le nouveau noyau.
Si on veut que Debian fabrique le fichier initrd automatiquement, il suffit de l'indiquer avec l'option --initrd de make-kpkg.
# make-kpkg clean
Si tout c'est bien passé, le système va démarrer sur le nouveau noyau. Sinon, le noyau va s'arrêter sur un kernel panic et il faudra rebooter sur le noyau précédent,
reprendre la configuration du noyau, le recompiler (avec un numéro de version différent, comme par exemple custom.2).
On vérifie que l'on a bien démarré sur notre nouveau noyau avec la commande uname :
# uname -r
2.6.23.9
Pour plus d'informations sur la compilation d'un noyau selon Debian, on peut consulter le Debian Linux Kernel Handbook (http://kernel-handbook.alioth.debian.org
/index.html).
Modules
lsmod
Syntaxe:
lsmod
modinfo
Cette commande permet de visualiser les informations du module comme le nom du créateur, et les options de chargements.
Syntaxe:
modinfo chemin_du_module
insmod et modprobe
Bien que ces deux commandes permettent de charger un module, la différence tient du fait que certains modules ont besoins que d'autres modules soient chargés.
insmod tente de charger le module demandé et si celui-ci a besoin d'un autre module pour se charger et que ce dernier ne l'est pas, insmod renvoie un message
d'erreur et ne charge pas le module.
Syntaxe:
insmod chemin_du_module
modprobe, lui, charge les modules dépendant au modules avant de lancer celui-ci.
Syntaxe:
modprobe chemin_du_module
rmmod
Cette commande décharge le module dont le nom est indiqué. Contrairement aux autres commandes, il ne faut pas lui indiquer le chemin du module, mais son nom
tel qu'il apparaît listé par la commande lsmod.
Syntaxe:
rmmod nom_du_module
depmod
La commande awk permet d'effectuer des manipulations sur des fichiers texte (ou un flux redirigé en entrée), dont notamment afficher une colonne particulière.
Exemple :
Cette commande dit à dpkg que l'on ne veut que la deuxième colonne.
sed
sed : utilitaire de traitement de données très puissant, capable d'utiliser les expressions régulières.
Pour substituer toute « chaîne1 » dans le fichier « chemin1 » avec « chaine2 » et envoyer le résultat dans le fichier « chemin2 » :
donne :
2015-11-03 23:54:03
La commande which permet de connaitre dans quel répertoire se situe une commande (présente dans le PATH) :
$ which ls
/bin/ls
updatedb et locate
La commande locate (ou slocate) permet une recherche rapide sur le système de fichier (suite à une indexation réalisée par updatedb).
$ locate maillog
Lorsque l'indexation a eu lieu il y a plus de 8 jours, la commande locate l'indique par un message.
$ sudo updatedb
ou
# updatedb
Note sur les droits : updatedb utilise par défaut une base d'indexation globale. Il faut donc avoir les droits super-utilisateur pour mettre à jour l'indexation globale.
Outils réseaux
wget
$ wget http://www.kernel.org/pub/linux/kernel/v2.6/linux-2.6.23.tar.bz2
--13:16:02-- http://www.kernel.org/pub/linux/kernel/v2.6/linux-2.6.23.tar.bz2
=> `linux-2.6.23.tar.bz2'
Résolution de www.kernel.org... 204.152.191.5, 204.152.191.37
Connexion vers www.kernel.org[204.152.191.5]:80...connecté.
requête HTTP transmise, en attente de la réponse...200 OK
wget est également compatible avec le protocole ftp. Il est ainsi capable de télécharger un fichier ou un ensemble de fichier depuis un ftp distant.
# wget ftp://login:[email protected]/thedir/*
L'option "-nH" permet de ne pas sauvegarder le nom d'hôte, autrement wget fera la copie vers un nouveau dossier créé portant le nom de l'hôte du serveur ftp.
Utilisation de base
Typiquement Wget s'utilise par la ligne de commande, avec un ou plusieurs URLs passés en paramètres. De nombreuses options permettent d'affiner le
comportement souhaité (téléchargement multiple, suivre les liens...).
Il est possible de télécharger automatiquement plusieurs URLs dans une hiérarchie de dossiers.
Divers
file
# file TmDedicatedServer_2006-05-30.tgz
TmDedicatedServer_2006-05-30.tgz: gzip compressed data, was "fr.22968.0.TmDedicatedServer_20",
from Unix, last modified: Tue May 30 13:41:35 2006
du
La commande "du" sert à afficher la taille des grandes espaces (partitions de disque et répertoires)
# du -sh /var/temp
L'option "h" permet l'affichage automatique de l'unité adaptée (Ko, Mo, Go...).
df
# df -h
L'option "h" permet l'affichage automatique de l'unité adaptée (Ko, Mo, Go...).
Scripts de surveillance
Ce chapitre contient différents scripts de surveillance de l'activité d'un serveur Linux
En langage Python
alimon.py (A LInux MONitor)
Lien direct : alimon.py (http://www.euronode.org/alimon.py).
#!/usr/bin/python
# -*- coding: utf-8 -*-
#
##############################################################################
#
# ALiMon.py : A LInux MONitor
#
##############################################################################
#
# Ce script réalise différentes opérations de monitoring et met en évidence
# certains points importants comme une partition disque bientôt pleine ou une
# charge processeur trop élevée.
#
# Ce script a été réalisé durant une scéance de travaux pratiques et a des fins
# didactiques. Il est issu du travail collectif des personnes citées ci-dessous
# en auteurs et a nécessité uniquement deux heures de développement.
#
##############################################################################
#
# Auteurs :
#
# David BISPO, Christophe CARLIER, Jonathan DUHAIL, Jonathan GAULUPEAU,
# Lahoucine HAMOUCHE, Hicham OUHNA, Manuel PIRES, Yann VAITILINGOM,
# Jérémy PELLAUMAIL et Alexandre GUY
#
# Nous remercions également les connectés du canal #afpy du réseau Freenode
# pour leur aide concernant l'unicode et l'encodage utf-8.
#
# Version : 0.3
#
##############################################################################
#
# Ce script est diffusé sous la licence EUPL v1.1
#
# This script is released under EUPL v1.1
#
# http://ec.europa.eu/idabc/eupl
#
##############################################################################
#
# Ce programme est un logiciel libre ; vous pouvez le re-distribuer et/ou le
# modifier au titre des clauses de la European Union Public Licence (EUPL)
# version 1.1, telle que publiée par l'Union Européenne.
#
# Ce programme est distribué dans l'espoir qu'il sera utile,
# mais SANS AUCUNE GARANTIE ; sans même une garantie implicite de
# COMMERCIABILITÉ ou DE CONFORMITÉ À UNE UTILISATION PARTICULIÈRE.
# Voir la EUPL version 1.1 pour plus de détails.
#
# This program is free software; you can redistribute it and/or modify it
# under the terms of the European Union Public Licence (EUPL) version 1.1
# as published by the European Union.
#
# This program is distributed in the hope that it will be useful, but
# WITHOUT ANY WARRANTY; without even the implied warranty of
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.
# See the EUPL version 1.1 for more details.
#
##############################################################################
#
# Utilisation manuelle : ./alimon.py
#
# Utilisation automatisée : Rajouter dans le cron :
# 55 23 * * * root alimon.py
#
##############################################################################
#########################################
#### Configuration & pré-traitements ####
#########################################
#### Test de présence des commandes shell et récupération de leur chemin ####
commandes_utilisees = ['cat','hostname','last','hddtemp','df','ps','free','ping','grep','uniq','who','uname']
# Contrôle la commande 'mdadm' uniquement si une liste de disques raid est définie
if raidlist:
commandes_utilisees.append('mdadm')
commandes = {}
for comm in commandes_utilisees:
(res,commande) = commands.getstatusoutput("/usr/bin/which %s" % comm)
# Si une commande n'existe pas mais que le mode Force est activé
if res and force:
print "La commande", comm, "n'est pas présente sur votre système, fonctionnement en mode dégradé."
commandes[comm] = ""
# Si une commande n'exite pas
elif res:
print "La commande", comm, "n'est pas présente sur votre système. Arrêt du programme."
print "Tapez './alimon.py -h' pour en savoir plus."
sys.exit(1)
else:
commandes[comm] = commande
#############################
#### Programme principal ####
#############################
result = result.split('\n')
if debug: print "debug> Résultat de la commande 'free -m' :", result
mem = result[2].split()[3]
if debug: print "debug> Quantité de mémoire libre en Mo :", mem
# On vérifie que la quantité de mémoire libre ne soit pas inférieure au seuil limite, sinon on imprime un message d'alerte
if int(mem) < mem_mini:
print "Attention !! il reste moins de %sMo de mémoire libre !!! (%sMo)" %(mem_mini, mem)
else:
print "Il y a", mem, "Mo de mémoire libre."
Distances et débits
La norme ZBEE
Norme 802.15.4
Norme 802.15.3
Idéal pour les applications multimédia (audio, vidéo) et pour le transfert de données
Débits théoriques :
La norme Bluetooth
Norme 802.15.1
Technologie peu onéreuse (composant à partir de 3$) et fortement intégré (puce de 9 mm x 9 mm)
La norme Bluetooth utilise la fréquence 2.4 GHz et définit trois puissances d'émission :
Un réseau Bluetooth, un piconet, est composé d'un maître et de 7 esclaves maximum. Le débit sera partagé entre les différents membres du piconet.
Les communications peuvent être symétrique (vitesses d'émission et de réception identiques) ou asymétrique (vitesses d'émission et de réception différentes).
La norme Wifi
802.11n : fréquence d'émission à 2.4 GHz ou 5 GHz, débit jusqu'à 300 Mbit/s en utilisant les technologies MIMO (Multiple-Input Multiple-Output) et OFDM
(Orthogonal Frequency Division Multiplexing)
Très proche de l'ethernet câblé (802.3), utilise la sous-couche LLC générique de la couche 2, et ré-implémente la sous-couche MAC.
Contrairement à ethernet câble qui est basé sur la technique d'accès CSMA/CD, la norme Wi-Fi utilise le CSMA/CA (Carrier Sense Multiple Access / Collision
Avoidance).
mode Ad-Hoc permet d'établir des connexions sans passer par un point d'accès
mode Infrastructure permet d'établir des connexions en passant par un point d'accès, et également de gérer un système de distribution basé sur plusieurs points
d'accès utilisant le même ESSID.
mode monitor permet de passer la carte Wi-Fi en mode promiscuous, c'est à dire qu'elle voit passer toutes les trames, et pas seulement celles qui lui sont
destinées.
Le Wi-Fi utilise des trames de synchronisation temporelle, appelée les beacon frames. Ces trames contiennent l'heure du point d'accès.
Sécurité WEP
Utilise des clés de 64 bits (clé secrète de 40 bits + vecteur d'initialisation -IV- de 24 bits) ou des clés de 128 bits (clé secrète de 104 bits + vecteur d'initialisation
-IV- de 24 bits)
Définit deux techniques d'authentification : Open System Authentication (diffusion du ESSID) et Shared Key Authentication (pas de diffusion d'informations
avant l'authentification)
Sécurité WPA
La norme WPA1 fonctionne sur du matériel existant (mais est cassable). La norme WPA2 nécessite du matériel plus puissant (authentification et chiffrement plus
complexe) et est la méthode la plus sécurisée à l'heure actuelle
Le modèle 802.11i assure la sécurité au niveau de la sous-couche MAC via le protocole TKIP (Temporal Key Integrity Protocol) ou via le protocole CCMP
(Counter with Cipher Block Chaining Message Authentication Code Protocol) (plus sécurisé)
La norme Wimax
La norme 802.20
Mise en pratique
Les commandes Wi-Fi
Utilisateurs de Gnome, Attention ! les commandes ci-dessous ne fonctionneront que si vous avez désactivé au préalable Network Manager :
Ubuntu 9.04 :
iwconfig
# iwconfig
lo no wireless extensions.
# iwconfig wlan0
wlan0 IEEE 802.11bg ESSID:""
Mode:Managed Frequency:2.412 GHz Access Point: Not-Associated
Tx-Power=20 dBm
Retry long limit:7 RTS thr:off Fragment thr:off
Encryption key:off
Power Management:off
Link Quality:0 Signal level:0 Noise level:0
Rx invalid nwid:0 Rx invalid crypt:0 Rx invalid frag:0
Tx excessive retries:0 Invalid misc:0 Missed beacon:0
On peut également utiliser la commande iwconfig pour configurer les paramètres du réseau sans fil :
Le 802.11g définit en plus les débits suivants : 6, 9, 12, 18, 24, 36, 48 et 54 Mbit/s.
on peut gérer de trousseau de quatre clés. On indique le numéro de clé entre crochets :
iwlist
La commande iwlist permet d'obtenir des informations complémentaires. Invoquée seule, elle affiche la liste des options disponibles :
# iwlist
Usage: iwlist [interface] scanning [essid NNN] [last]
[interface] frequency
[interface] channel
[interface] bitrate
[interface] rate
[interface] encryption
[interface] keys
[interface] power
[interface] txpower
[interface] retry
[interface] ap
[interface] accesspoints
[interface] peers
[interface] event
[interface] auth
[interface] wpakeys
[interface] genie
[interface] modulation
# iwlist scan
...
wlan0 Scan completed :
Cell 01 - Address: 00:09:5B:6F:3C:38
Channel:11
Frequency:2.462 GHz (Channel 11)
Quality=57/70 Signal level=-53 dBm
Encryption key:off
ESSID:"NETGEAR"
Bit Rates:1 Mb/s; 2 Mb/s; 5.5 Mb/s; 11 Mb/s
Mode:Master
Extra:tsf=0000001241f8f0da
Extra: Last beacon: 192ms ago
IE: Unknown: 00074E455447454152
IE: Unknown: 010482840B16
IE: Unknown: 03010B
# iwlist auth
...
wlan0 Authentication capabilities :
WPA
WPA2
CIPHER-TKIP
CIPHER-CCMP
Current Authentication algorithm :
open
shared-key
iwevent
La commande iwevent permet d'afficher en temps réel les évènements Wi-Fi de la carte.
On lance iwevent sur une console, et sur une autre, on passe des commandes iwconfig. On constate que iwevent affiche les évènements générés :
# iwevent
...
09:15:01.261767 wlan0 New Access Point/Cell address:Not-Associated
09:15:01.261858 wlan0 Set Frequency=2.412 GHz (Channel 1)
...
09:15:40.112202 wlan0 Set Frequency=2.462 GHz (Channel 11)
09:16:01.762209 wlan0 Custom driver event:ASSOCINFO(ReqIEs=00074e455447454152010402040b16 RespIEs=010482840b16)
09:16:01.762247 wlan0 New Access Point/Cell address:00:09:5B:6F:3C:38
iwpriv
# iwpriv wlan0
wlan0 no private ioctls.
# iwpriv ath0
ath0 Available private ioctls :
setoptie (8BEE) : set 256 byte & get 0
getoptie (8BEF) : set 0 & get 256 byte
setkey (8BF2) : set 64 byte & get 0
delkey (8BF4) : set 7 byte & get 0
setmlme (8BF0) : set 42 byte & get 0
Certaines cartes ethernet câble permettent également de configurer des paramêtres internes :
# iwpriv eth0
eth0 Available private ioctl :
setqualthr (89F0) : set 1 byte & get 0
gethisto (89F7) : set 0 & get 16 int
iwspy
Si la carte et le driver le permettent, la commande iwspy permet d'afficher des statistiques en temps réel sur la liaison Wi-Fi :
# iwspy ath0
ath0 Statistics collected:
00:15:6D:D0:E3:E0 : Quality=22/70 Signal level=-74 dBm Noise level=-96 dBm
Link/Cell/AP : Quality=22/70 Signal level=-74 dBm Noise level=-96 dBm
Typical/Reference : Quality:0 Signal level:0 Noise level:0
Par exemple, la carte (et/ou driver) ci-dessous ne permet pas de collecter des informations.
# iwspy wlan0
wlan0 Interface doesn't support wireless statistic collection
lspci
# lspci
...
00:1f.1 IDE interface: Intel Corporation 82801G (ICH7 Family) IDE Controller (rev 01)
00:1f.2 IDE interface: Intel Corporation 82801GB/GR/GH (ICH7 Family) SATA IDE Controller (rev 01)
00:1f.3 SMBus: Intel Corporation 82801G (ICH7 Family) SMBus Controller (rev 01)
04:04.0 Ethernet controller: Atheros Communications Inc. Atheros AR5001X+ Wireless Network Adapter (rev 01)
04:08.0 Ethernet controller: Intel Corporation PRO/100 VE Network Connection (rev 01)
lsusb
# lsusb
...
BUS 005 Device 003: ID 0846:6a00 Netgear, Inc. WG111 WiFi (v2)
lshw
Si ce n'est pas le cas, on peut essayer de changer la fréquence et de la remettre pour forcer une ré-detection / re-configuration.
Pour se connecter à un réseau WPA depuis Linux, il faut avoir installé le package wpasupplicant :
# cat /etc/wpa_supplicant.conf
network={
ssid="RESEAUWPA"
scan_ssid=1
proto=WPA
key_mgmt=WPA-PSK
psk="supermotdepassetressecure"
}
Cette commande ne rend pas la main, donc soit on la lance en tâche de fond avec &, soit on la laisse tourner et on ouvre une nouvelle fenêtre.
# dhclient wlan0
Le nombre de machines connecté à Internet s'étant rapidement accru, cette solution de fichier /etc/hosts communs est devenu ingérable, et il a fallu inventer un
procédé capable de palier ce problème.
La solution qui s'est imposée fut la création d'une base de données distribuée, et ainsi est né le principe de serveur DNS.
Un serveur DNS permet de faire la correspondance entre un nom canonique (ex : www.google.fr) et son adresse IP.
Le premier serveur DNS fut créé par l'université de Berkeley et s'appelle BIND (Berkeley Internet Name Domain). BIND est le serveur DNS le plus utilisé et le
plus populaire, environ 79 % d'Internet fonctionne avec ce logiciel [2] .
$ cat /etc/resolv.conf
search mondomaine.fr
nameserver 192.168.30.1
.("point")
_______________|_______________...________
| | | | | | |
com net org fr ru edu ... arpa
| | |
google wikibooks in-addr
| | | | | | ... |
ug-in-f104 fr ru uk ... 0 1 255
___|___ ...
| | ... |
0 1 255
___|___ ...
| | ... |
0 1 255
___|___ ...
| | ... |
0 1 255
Au sommet de l'arbre on trouve des serveurs root qui aiguille vers les top level domain (com, net org,fr,etc...) Il existe une branche spéciale ARPA avec un sous
domaine in-addr qui sert à gérer le reverse DNS.
La commande host
La commande host permet d'obtenir l'adresse IP d'un ordinateur :
$ host www.google.com
www.google.com is an alias for www.l.google.com.
www.l.google.com has address 209.85.135.147
www.l.google.com has address 209.85.135.99
www.l.google.com has address 209.85.135.103
www.l.google.com has address 209.85.135.104
La commande host permet également de consulter le DNS inverse, c'est à dire quel nom canonique est associé à une adresse IP donnée :
$ host 66.249.93.104
104.93.249.66.in-addr.arpa domain name pointer ug-in-f104.google.com.
La commande dig
La commande dig permet d'interroger un serveur DNS.
En interrogeant le sommet de l'arbre ., on obtient la liste des serveurs racines du DNS, appellés les root-servers (pour plus d'informations, voir www.root-servers.org
(http://www.root-servers.org/)) :
$ dig . NS
...
;; ANSWER SECTION:
. 419748 IN NS a.root-servers.net.
. 419748 IN NS b.root-servers.net.
. 419748 IN NS c.root-servers.net.
. 419748 IN NS d.root-servers.net.
...
En interrogeant la branche com, on obtient la liste des serveurs DNS gérant les noms de domaines en .com :
$ dig com. NS
...
;; ANSWER SECTION:
com. 172800 IN NS i.gtld-servers.net.
com. 172800 IN NS j.gtld-servers.net.
com. 172800 IN NS k.gtld-servers.net.
com. 172800 IN NS l.gtld-servers.net.
...
Si on interroge la branche fr, on obtient la liste des serveurs DNS gérant les noms de domaines en .fr. On constate que les extensions nationales sont gérés par des
organismes nationaux (dans le cas de la France, le NIC France) :
$ dig fr. NS
...
;; ANSWER SECTION:
fr. 172800 IN NS f.ext.nic.fr.
fr. 172800 IN NS a.ext.nic.fr.
fr. 172800 IN NS a.nic.fr.
fr. 172800 IN NS b.ext.nic.fr.
...
En indiquant un nom de domaine, dig permet de connaitre différentes informations, comme par exemple :
$ dig google.fr NS
...
;; ANSWER SECTION:
google.fr. 175462 IN NS ns3.google.com.
google.fr. 175462 IN NS ns4.google.com.
google.fr. 175462 IN NS ns1.google.com.
google.fr. 175462 IN NS ns2.google.com.
...
$ dig google.fr MX
...
;; ANSWER SECTION:
google.fr. 10800 IN MX 10 smtp4.google.com.
google.fr. 10800 IN MX 10 smtp1.google.com.
google.fr. 10800 IN MX 10 smtp2.google.com.
google.fr. 10800 IN MX 10 smtp3.google.com.
...
NS (Name Server) indique les serveurs DNS gérant le nom de domaine. Exemple : dig google.com NS donne les name server de google.com
A (Adresse IPv4) indique l'adresse IPv4 associée à un FQDN (Full Qualified Domain Name). Exemple : dig www.google.com A donne les adresses IPv4 de
www.google.com
AAAA (Adresse IPv6) indique l'adresse IPv6 associée à un FQDN (Full Qualified Domain Name). Exemple : dig www.google.com AAAA donne les adresses
IPv6 de www.google.com
MX (Mail eXchanger) indique le(s) serveur(s) de mail à contacter pour délivrer les emails du domaine. Exemple : dig google.fr MX donne les serveurs de mails
acceptant des emails destinés à <un nom>@google.fr.
CNAME (Canonical NAME) permet de créer des Alias (des noms étant des raccourcis vers d'autres noms). Exemple : host www.google.fr nous indique que
www.google.fr est alias vers www.google.com.
PTR (PoinTeuR) est utilisé par le reverse DNS pour effectuer la résolution d'une adresse IP vers un nom (FQDN). Exemple : host 72.14.207.99 nous indique que
l'adresse IP 72.14.207.99 est associé au nom eh-in-f99.google.com
Installation de BIND
Pour installer le serveur BIND sous Debian, on utilise la commande suivante :
Configuration de BIND
Les fichiers de configuration de BIND sont situés dans le répertoire /etc/bind.
Le fichier principal de configuration de BIND est /etc/bind/named.conf. Debian a choisit de découper ce fichier en 3 fichiers afin de faciliter les mises à jour.
A noter que dans ces fichiers, les lignes en commentaire commencent par // et non le # habituel.
/etc/bind/named.conf
# cat /etc/bind/named.conf
// Documentation : /usr/share/doc/bind/README.Debian
// La zone localhost
zone "localhost" {
type master;
file "/etc/bind/db.local";
};
/etc/bind/named.conf.options
# cat /etc/bind/named.conf.options
options {
// Emplacement des zones si on ne spéficie pas de chemin absolu
directory "/var/cache/bind";
Dans ce fichier, il est possible de préciser dans la section forwarders l'adresse IP du DNS à qui l'on souhaite renvoyer les demandes de résolutions de noms. Par
exemple, ceci est utile lorsque notre serveur DNS ne peut pas accéder directement à Internet.
Par défaut BIND écoute sur le port 53 en UDP. On peut également changer ce port dans ce fichier, mais ceci est délicat car il faudra accorder la configuration des
clients en conséquence. A noter que le dossier /etc/services contient le numéro par defaut des ports de tous les services.
/etc/bind/named.conf.local
# cat /etc/bind/named.conf.local
zone "mondomaine.fr" {
type master;
file "/etc/bind/db.mondomaine.fr";
};
zone "mondomaine2.fr" {
type master;
file "/etc/bind/db.mondomaine2.fr";
};
# cat /etc/bind/db.mondomaine.fr
;
; BIND data file for mondomaine.fr
;
$TTL 604800
@ IN SOA dns.mondomaine.fr. root.mondomaine.fr. (
1 ; Serial
604800 ; Refresh
86400 ; Retry
2419200 ; Expire
604800 ) ; Negative Cache TTL
;
@ IN NS dns.mondomaine.fr.
dns IN A 192.168.30.210
;
srv1 IN A 192.168.30.211
;
@ IN MX 0 mail.mondomaine.fr.
;
mail IN A 192.168.30.210
alex IN CNAME mail
guillaume IN CNAME srv1
A noter que dans les fichiers de zone, les lignes en commentaire commencent par ; et non le # habituel.
soit on donne le nom en entier (ex: pc210.mondomaine.fr.) . Dans ce cas-là, il ne faut pas oublier le point final, sinon le système rajoute automatiquement le nom
de la zone (mondomaine.fr).
soit on ne donne que le nom "court" (ex: alex). Dans ce cas-là, il ne met pas le point final afin que le système rajoute le nom de la zone.
Test de fonctionnement
Une fois que l'on a modifié ces fichiers, on relance le serveur DNS :
# /etc/init.d/bind restart
On modifie ensuite le fichier /etc/resolv.conf pour lui indiquer d'utiliser le DNS que l'on vient de configurer :
# vi /etc/resolv.conf
search mondomaine.fr
nameserver 127.0.0.1
# ping pc210.mondomaine.fr
# host pc210.mondomaine.fr
...
# host guillaume.mondomaine.fr
...
# dig mondomaine.fr MX
...
Maintenant que l'on a configuré le DNS de la zone mondomaine.fr, on va créer la zone inverse qui va permettre d'associer un nom à une adresse IP.
# cat /etc/bind/db.192.168.30
;
; BIND data file for 192.168.30
;
$TTL 604800
@ IN SOA dns.mondomaine.fr. root.mondomaine.fr. (
1 ; Serial
604800 ; Refresh
86400 ; Retry
2419200 ; Expire
604800 ) ; Negative Cache TTL
;
@ IN NS dns.mondomaine.fr.
210 IN PTR pc210.mondomaine.fr.
211 IN PTR srv1.mondomaine.fr.
Pour vérifier, on relance le DNS et on lui demande quelle nom est associé à une adresse IP donnée :
# /etc/init.d/bind restart
# host 192.168.30.210
...
vim /etc/bind/db.mondomaine.fr
vim /var/lib/bind/example.com.hosts
rndc reload
Et éventuellement vérifier qu'il n'y a pas eu d'erreur : Ajout d'un enregistrement IN A dans Webmin.
Cela permet par exemple de s'apercevoir que le numéro de série de la version de la zone doit être changé à chaque modification :
Ce que L'interface graphique Webmin, plus ergonomique pour mettre à jour les zones DNS, incrémente automatiquement.
Problèmes connus
SERVFAIL
;; QUESTION SECTION:
;example.com. IN A
Le serveur DNS mentionné (localhost dans l'exemple) ne connait pas le domaine, mais il peut parfois le résoudre avec host.
NXDOMAIN
host example.com
Host example.com not found: 3(NXDOMAIN)
Le domaine ne se propage pas, telnet localhost 53 fonctionne en local mais pas de l'extérieur
vim /etc/resolv.conf
Références
$ more /etc/dhcp3/dhcpd.conf
# L'adresse broadcast
option broadcast-address 192.168.30.255;
}
Pour certains ordinateurs, on peut leur attribuer tout le temps la même adresse IP en les identifiant avec leurs adresses MAC. Il suffit de rajouter la section
suivante :
host monordi {
hardware ethernet 0:0:c0:5d:bd:95;
fixed-address 192.168.30.200;
}
Chaque fois que l'on modifie ce fichier, ne pas oublier de relancer le serveur DHCP afin qu'il prenne en compte les modifications :
# /etc/init.d/dhcp3-server restart
ou
# /etc/init.d/isc-dhcp-server restart
Chaque fois que DHCP attribue une adresse IP, il enregistre un message dans /var/log/syslog :
...
Feb 11 10:44:34 fw dhcpd: DHCPREQUEST for 192.168.30.33 from 00:50:ba:2d:d9:17 via eth0
Feb 11 10:44:34 fw dhcpd: DHCPACK on 192.168.30.33 to 00:50:ba:2d:d9:17 via eth0
...
DHCP stocke les adresses IP attribués dans le fichier /var/lib/dhcp/dhcpd.leases. Ceci lui permet notamment d'attribuer à un ordinateur la même adresse IP (même
si ceci n'est pas obligatoire).
$ cat /var/lib/dhcp/dhcpd.leases
...
lease 192.168.30.182 {
starts 1 2008/02/11 09:46:23;
ends 1 2008/02/11 09:56:23;
hardware ethernet 00:1c:c0:0c:b6:25;
client-hostname "pc231";
}
...
Le serveur SSH
SSH (Secure SHELL) permet de se connecter à un ordinateur distant et de disposer d'un shell sécurisé. Par défaut, le serveur SSH attend les connexions distantes
sur le port 22 / protocole TCP.
La connexion et le transfert de données via SSH est sécurisée par un système de chiffrement utilisant soit l'algorithme RSA (Rivest Shamir Adleman), soit
l'algorithme DSA (Digital Signature Algorithm).
Lors de son installation, le serveur SSH génère des clés de chiffrement RSA et DSA. Ces clés sont composées d'une partie privée et d'une partie publique. Elles sont
stockées dans le répertoire /etc/ssh/ :
$ ls -l /etc/ssh/
...
-rw------- 1 root root 672 2007-11-05 17:37 ssh_host_dsa_key
-rw-r--r-- 1 root root 600 2007-11-05 17:37 ssh_host_dsa_key.pub
-rw------- 1 root root 1675 2007-11-05 17:37 ssh_host_rsa_key
-rw-r--r-- 1 root root 392 2007-11-05 17:37 ssh_host_rsa_key.pub
Fichier de configuration
# cat /etc/ssh/sshd_config
# Pour syslog
SyslogFacility AUTH
LogLevel INFO
# Authentification
LoginGraceTime 120
PermitRootLogin no
StrictModes yes
RSAAuthentication yes
PubkeyAuthentication yes
#AuthorizedKeysFile %h/.ssh/authorized_keys
# Empêche la connexion des utilisateurs qui n'ont pas de mot de passe (PAS RECOMMANDE)
PermitEmptyPasswords no
# Permet de supprimer l'authentification par mot de passe et n'utiliser que l'authentification par clé partagée
#PasswordAuthentication yes
# Options Kerberos
#KerberosAuthentication no
#KerberosGetAFSToken no
#KerberosOrLocalPasswd yes
#KerberosTicketCleanup yes
# Options GSSAPI
#GSSAPIAuthentication no
#GSSAPICleanupCredentials yes
#UseLogin no
#MaxStartups 10:30:60
#Banner /etc/issue.net
Les options de ce fichier de configuration sont décrites dans la page de manuel de sshd_config :
$ man sshd_config
Le fichier de configuration par défaut proposé par Debian nécessite quelques ajustements.
La ligne PermitRootLogin yes autorise les connexions distantes à partir du compte root. Cette option est dangereuse car elle permet à un attaquant distant de
scanner le mot de passe du super-utilisateur root.
La bonne pratique est de se connecter avec son compte utilisateur (ex: alex), et ensuite de passer root avec la commande su, ou d'effectuer les opérations
d'administration avec la commande sudo.
PermitRootLogin no
Afin de renforcer la sécurité, on peut limiter les connexions SSH à une liste d'utilisateurs donnés. Ceci est réalisé avec l'option AllowUsers :
Sur le même principe, on peut restreindre les connexions à un ou plusieurs groupes Unix :
Afin que ces modifications soient prises en compte, il faut relancer le serveur SSH :
# /etc/init.d/ssh restart
Le client SSH
Utilisation
Pour se connecter à un serveur SSH, on utilise la commande ssh. Sa syntaxe est la suivante :
Exemple :
$ ssh alex@pc210
ou
Si on possède le même login sur la machine locale et distante, il est inutile de spécifier le login :
$ ssh pc210
Si ssh ne fonctionne pas sur le port standard 22, l'option -p permet d'indiquer le port à utiliser :
L'option -X du client ssh permet de rediriger l'affichage graphique (le DISPLAY) via le tunnel ssh, et ainsi lancer un programme graphique distant et l'afficher sur
notre ordinateur :
$ ssh -X pc210
...
pc210$ xeyes &
Il faut toutefois que l'option X11Forwarding soit positionnée à yes sur le serveur pour que la redirection graphique fonctionne.
Vérification du fingerprint
Lors de la première connexion, ssh affiche le fingerprint du serveur SSH et demande confirmation :
$ ssh pc210
The authenticity of host 'pc210 (192.168.30.210)' can't be established.
RSA key fingerprint is 8e:c6:f0:b5:e6:71:c9:20:ec:5d:ed:d4:e1:fc:fb:16.
Are you sure you want to continue connecting (yes/no)?
Si on veut être certain de l'authenticité du serveur distant, on peut contacter l'administrateur et vérifier avec lui que le fingerprint indiqué est le bon. Pour faire ceci,
taper la commande ssh-keygen -l sur le serveur ssh et indiquer le chemin vers la clé RSA du serveur ssh :
# ssh-keygen -lv
Enter file in which the key is (/root/.ssh/id_rsa): /etc/ssh/ssh_host_rsa_key
2048 8e:c6:f0:b5:e6:71:c9:20:ec:5d:ed:d4:e1:fc:fb:16 /etc/ssh/ssh_host_rsa_key.pub
+--[ RSA 2048]----+
| |
| |
| . . |
| oEo |
| . S.o |
|o. . + +o=. |
|=.+ E..+o |
|oo . . oo. |
| . o.. |
+-----------------+
Par la suite, le fichier /home/<user>/.ssh/known_hosts stoque l'identité chiffrée de la machine et ssh ne nous demande plus confirmation.
Authentification automatique
Si on se connecte souvent sur le même serveur, on peut générer une paire de clés afin de ne pas avoir à saisir le mot de passe à chaque connexion.
$ ssh-keygen -t rsa
Generating public/private rsa key pair.
Enter file in which to save the key (/home/alex/.ssh/id_rsa):
Enter passphrase (empty for no passphrase):
Enter same passphrase again:
Your identification has been saved in /home/alex/.ssh/id_rsa.
Your public key has been saved in /home/alex/.ssh/id_rsa.pub.
The key fingerprint is:
41:ab:25:09:eb:ad:41:66:2d:d6:85:e3:73:02:40:e3 alex@pc210
On ne saisi pas de passphrase, sinon le système va demander à saisir la passphrase à chaque connexion, ce qui est aussi contraignant que la saisie du mot de passe.
On se connecte sur la machine distante et on copie le contenu de la clé publique précédement générée (/home/alex/.ssh/id_rsa.pub) dans le fichier /home/alex
/.ssh/authorized_keys.
Note: Si on ne dispose pas de la commande ssh-copy-id (anciennes versions de ssh), on peut utiliser la commande suivante :
Ceci fait, on peut se connecter sur la machine distante sans avoir à saisir le mot de passe.
La commande scp
La commande scp (Secure Copy) permet de copier un fichier d'un ordinateur vers un autre en utilisant SSH.
Par exemple, la commande suivante permet de copier le fichier fichier.txt vers le répertoire /tmp de l'ordinateur pc211 :
Il existe plusieurs clients SSH pour Windows, dont notamment les logiciels libres suivants :
PuTTY [1]
Winscp [2]
Problèmes connus
Le mot de passe est toujours demandé malgré la clé SSH
$ tail /var/log/auth.log
cela donne :
Accepted publickey for root from xxxx port yyyy ssh2: RSA SHA256:zzzz
ou :
au lieu de :
Could not create directory '/c/UsersUtilisateur/.ssh' ... Failed to add the host to the list of known hosts
Se produit sous Windows quand le chemin défini n'est pas celui retenu par SSH. Par exemple, quand :
ou
ou
donnent tous :
$ echo $HOME
/c/UsersUtilisateur
On peut aussi utiliser CMD au lieu de Bash pour modifier la variable d'environnement "home", ce qui aboutit à un résultat équivalent :
Attention : sous Git CMD cela ne fonctionne pas, il faut vraiment utiliser la console DOS du système :
Mais surtout il faut utiliser CMD pour mettre à jour le contenu du dossier .ssh sans obtenir cette erreur, par exemple en installant OpenSSH for Windows
(https://sourceforge.net/projects/sshwindows/files/OpenSSH%20for%20Windows%20-%20Release/) :
Lancer :
et réitérer.
ssh-add ~/.ssh/id_rsa
Sinon,
ls -alh .ssh
total 24K
drwxr--r-- 2 root root 4,0K mars 1 17:57 .
drwxrwxr-x 25 root root 4,0K mars 6 12:41 ..
-rw------- 1 root root 209 mars 1 17:57 authorized_keys
-rw------- 1 root root 951 mars 1 17:57 id_rsa
-rw-r--r-- 1 root root 397 mars 1 17:57 id_rsa.pub
-rw-r--r-- 1 root root 869 mars 1 17:57 private.ppk
tail /var/log/auth.log
Sous Windows par contre, la commande chmod n'a aucun effet depuis Bash, même lancée en tant qu'administrateur. Et une modification des droits après suppression
de l'ACL, via Cygwin ou l'explorateur Windows fonctionne chez eux, mais n'a guère plus d'effet pour SSH :
$ setfacl -b ~\.ssh
$ setfacl -b ~\.ssh\id_rsa
$ chgrp -R Utilisateurs ~\.ssh
$ chmod -Rv 600 ~\.ssh\id_rsa
mode of ‘C:\\Users\\Utilisateur\\.ssh\\id_rsa’ changed from 0644 (rw-r--r--) to 0600 (rw-------)
$ ls -alh ~\.ssh\id_rsa
-rw-r--r-- 1 Utilisateur 1049089 843 sept. 19 2011 C:\Users\Utilisateur\.ssh\id_rsa
Références
1. http://www.putty.org/
2. http://winscp.net
Le protocole SMB est tout sauf performant : il pollue le réseau par l'utilisation intensive du broadcast.
Samba utilise les ports 137 (netbios name service, nbname, en UDP), 138 (netbios datagram service nbdatagram, en UDP), 139 (netbios session service, nbsession,
en TCP), et 445 ("direct-hosted" tcp, en tcp et udp).
La méthode de connexion traditionnelle smb utilise les ports 137, 138 et 139 tandis que la nouvelle méthode (CIFS, sur Windows XP) n'utilise que le port 445.
Installation
Pour installer Samba, on tape la commande suivante :
Configuration
Le fichier de configuration de Samba est /etc/samba/smb.conf.
# /etc/init.d/samba restart
La section [homes] : cette section particulière permet de remonter une ressource qui correspond au répertoire de travail (home directory) de l'utilisateur qui s'est
authentifié.
Samba peut fonctionner de différentes manières. Voici quelques cas de figures courants.
# Il y a 2 cas possibles :
#
# CAS n°1 : on partage une ressource totalement anonyme
# CAS n°2 : on partage une ressource avec un mot de passe associé à la ressource
# Section GLOBAL
# Configuration globale de Samba
[global]
# Nom du groupe de travail
workgroup = WORKGROUP
# Utilisateurs interdits
invalid users = root
syslog = 0
# Section HOMES
# Cette section est inutile ici car on utilise le mode share
# Section PRINTERS
# Cette section permet de partager les imprimantes définies sur le serveur
[printers]
# Le commentaire associé à l'imprimante
comment = Les imprimantes
# Logique
writable = no
# Logique
writable = no
Dans le cas du mode share, pour pouvoir positionner un mot de passe sur une ressource, il faut créer un compte UNIX 'invite' :
# smbpasswd -a invite
NB : dans les versions récentes de Samba, il faut utiliser la commande pdbedit à la place de smbpasswd :
# pdbedit -a invite
Il faut ensuite créer le répertoire partagé et donner l'arborescence partagée à l'utilisateur invite du groupe invite :
# mkdir /home/partage
# chown nobody.invite /home/partage
NB : il faut que l'utilisateur nobody ait le droit d'écriture sur le répertoire partagé.
Petit rappel : il est toujours utile de faire un testparm pour vérifier la cohérence du fichier de configuration, et ne pas oublier de relancer le service pour que les
modifications soient prises en compte.
# smbclient -L PC230
Password:
Domain=[WORKGROUP] OS=[Unix] Server=[Samba 3.0.24]
Server Comment
--------- -------
PC230 pc230 Serveur (Samba 3.0.24)
Workgroup Master
--------- -------
... ...
# Il y a 2 cas possibles :
#
# CAS n°1 : on partage une ressource totalement anonyme
# CAS n°2 : cas normal du mode user, on fait une authentification
# par login et mot de passe
# Section GLOBAL
# Configuration globale de Samba
[global]
# Nom du groupe de travail
workgroup = WORKGROUP
# Utilisateurs interdits
invalid users = root
# Section HOMES
# Cette section particulière permet de remonter une ressource
# qui correspond au répertoire de travail (home directory)
# de l'utilisateur qui s'est authentifié
[homes]
# Correspond au home directory de l'utilisateur authentifié
# %U sera remplacé par le nom d'utilisateur (login)
comment = Le répertoire personnel de %U
# Section PRINTERS
# Cette section permet de partager les imprimantes définies sur le serveur
[printers]
# Le commentaire associé à l'imprimante
comment = Les imprimantes
# Logique
writable = no
# Logique
writable = no
Dans le cas du mode user, pour ne partager une ressource partagée qu'à certains utilisateurs, il faut tout d'abord créer un compte UNIX pour chacun d'eux :
# smbpasswd -a paul
# smbpasswd -a pierre
NB : dans les versions récentes de Samba, il faut utiliser la commande pdbedit à la place de smbpasswd :
# pdbedit -a paul
# pdbedit -a pierre
Coté Linux, les utilisateurs doivent avoir le droit d'écriture sur le répertoire partagé. La meilleure méthode consiste à créer un groupe Unix contenant les utilisateurs
autorisés, et d'attribuer le répertoire partagé au groupe en question :
# addgroup prive
# adduser paul prive
# adduser pierre prive
# mkdir /home/prive
# chgrp prive /home/prive
# chmod 770 /home/prive
Avantage : pour partager cette ressource à de nouveaux utilisateurs, il suffit de leur créer le compte Unix, une entrée dans smbpasswd et de les ajouter au groupe
prive (il n'est plus nécessaire de modifier le fichier smb.conf).
Permet de définir le propriétaire des fichiers créés avec l'option +s. Ici les propriétaires seront les membres du groupe prive au lieu de l'utilisateur.
Domaine : DOMWIN.LAN
Configuration de /etc/resolv.conf
Il faut indiquer dans le fichier /etc/resolv.conf d'utiliser le serveur AD en tant que serveur DNS :
# cat /etc/resolv.conf
nameserver 192.168.10.254
Configuration de Kerberos
# cat /etc/krb5.conf
[logging]
Default = FILE:/var/log/krb5.log
[libdefaults]
ticket_lifetime = 24000
clock-skew = 300
default_realm = domwin.lan
# dns_lookup_realm = false
# dns_lookup_kdc = true
[realms]
domwin.lan = {
kdc = 192.168.10.254:88
admin_server = 192.168.10.254:464
default_domain = domwin.lan
}
[domain_realm]
.domwin.lan = domwin.lan
domwin.lan = domwin.lan
Configuration de Samba
...
[global]
workgroup = DOMWIN
netbios name = ALEX
wins support = no
security = ads
realm = DOMWIN.LAN
...
Connexion au domaine AD
# kinit [email protected]
# klist
On rejoint le domaine AD :
On vérifie en interrogeant les partages du serveur AD. Pour cela, on utilise un compte définit sur AD :
# Il y a 2 cas possibles :
#
# CAS n°1 : on partage une ressource totalement anonyme
# CAS n°2 : cas normal du mode user, on fait une authentification
# par login et mot de passe
# Section GLOBAL
# Configuration globale de Samba
[global]
# Nom du groupe de travail
workgroup = DOMAINE
# Utilisateurs interdits
invalid users = root
# Section HOMES
# Cette section particulière permet de remonter une ressource
# qui correspond au répertoire de travail (home directory)
# de l'utilisateur qui s'est authentifié
[homes]
# Correspond au home directory de l'utilisateur authentifié
# %U sera remplacé par le nom d'utilisateur (login)
comment = Le répertoire personnel de %U
# Section PRINTERS
# Cette section permet de partager les imprimantes définies sur le serveur
[printers]
# Le commentaire associé à l'imprimante
comment = Les imprimantes
# Logique
writable = no
# Logique
writable = no
Remarque : Pour que le serveur Linux puisse rejoindre le domaine existant, il faut se connecter au moins une fois avec le compte Administrateur défini sur le
contrôleur de domaine, afin que ce dernier crée un compte machine :
Dans le cas du mode server, les utilisateurs (login et mot de passe) sont définis sur un serveur existant.
Coté Linux, les utilisateurs doivent avoir le droit d'écriture sur le répertoire partagé. Cependant, les utilisateurs ne sont pas définis sur le serveur Linux mais sur le
contrôleur de domaine. La solution consiste à permettre à tout le monde d'écrire dans ce répertoire, Samba se chargeant de n'autoriser que les utilisateurs autorisés
sur le contrôleur de domaine.
# mkdir /home/prive
# chmod 777 /home/prive
# Section GLOBAL
# Configuration globale de Samba
[global]
# Nom du groupe de travail
workgroup = DOMAINE
# Utilisateurs interdits
invalid users = root
# Définit que le daemon nmbd doit agir en tant que serveur WINS
wins support = yes
# Section NETLOGON
# Permet de faire exécuter un script d'initialisation réseau par le poste
# client du domaine. Ceci permet par exemple connecter un lecteur réseau (Z:) ou de synchroniser l'heure
[netlogon]
# Il n'apparaitra pas dans la liste des ressources partagées
browsable = no
[homes]
path = %H
browsable = no
writable = yes
public = no
[partage]
path = /home/partage
public = yes
browsable = yes
[profiles]
comment = Partage pour stocker les profils itinérants
path = /home/samba/profiles
writable = yes
browseable = no
create mode = 0644
directory mode = 0755
On crée ensuite le compte de l'utilisateur admin. il faudra utiliser ce compte lors de la première connexion d'un ordinateur au domaine.
NB: Sur une Ubuntu, le groupe admin existe déjà, donc, soit on rajoute l'option --ingroup users, soit on utilise un compte différent pour l'administration (ex:
Administrateur).
NB2 : dans les versions récentes de Samba, il faut utiliser la commande pdbedit à la place de smbpasswd :
# pdbedit -a admin
Pour chaque membre du domaine, il faut créer un compte unix correspondant à la machine et rajouter une entrée de type machine dans smbpasswd.
Attention : ce login doit porter le nom netbios de la machine et se terminer par un dollar (d'ou le --force-badname) :
NB : On peut automatiser la création des comptes machines en rajoutant la ligne suivante dans la section [global] de smb.conf :
Sous Debian :
Sous Redhat :
# mkdir /etc/samba/netlogon
# mkdir -p /home/samba/profiles
# chmod 777 /home/samba/profiles
Le netlogon peut servir par exemple à créer automatiquement un volume réseau (ex: Z:), ou ajuster l'heure de l'ordinateur avec celle du contrôleur de domaine.
# /etc/init.d/samba restart
# /etc/init.d/winbind restart
Utilisation de smbclient
smbclient est un client pour les réseaux samba.
Exemple :
>smbclient -L PC230
Password:
Domain=[WORKGROUP] OS=[Unix] Server=[Samba 3.0.24]
Server Comment
--------- -------
BLACKPEARL
CHRIS-B48CAF99F
D
DEBIANTOINE Debiantoine server
PC230 pc230 Serveur (Samba 3.0.24)
PCPROF-LDKBQYFP
Workgroup Master
--------- -------
ATELIER BOOWISS-MOBIL
CIS KALMIYA
HOUCINE ORDI-PARIS02
KOOKYOO.LAN KOOKYNUX
LECHAT CREUFOP12
NONOLEROBOT SERVERPARIS01
PC237'S DOMAIN PC237
WORKGROUP DEBIANTOINE
<Image de SWAT>
Une fois installé, on accède à SWAT avec un navigateur sur l'adresse localhost:901 Swat va lire le fichier smb.conf et le présenter dans une page html. Les onglets
permettent de configurer les partages, les imprimantes, de voir les docs etc... Par défaut, l'accès distant à SWAT est interdit, mais il est activable. Toutefois, il est
déconseillé d'utiliser cette option.
# man exports
$ cat /etc/exports
La première ligne exporte l’ensemble du système de fichiers vers les machines « master » et « trusty ». En plus des droits d’écriture, toute transformation d’UID
est désactivée pour l’hôte « trusty ».
Les deuxième et troisième lignes montrent des exemples de noms de machines avec caractères jokers, et de groupes de machines (« @trusted »).
La quatrième ligne montre comment mapper tous les utilisateurs vers UID et GID particulier.
La dernière ligne partage un répertoire /pub, à toutes les machines dans le monde, en effectuant les requêtes sous le compte anonyme. L’option insecure permet
l’accès aux clients dont l’implémentation NFS n’utilise pas un port réservé.
A chaque modification du fichier /etc/exports, il faut relancer le serveur NFS pour que les modifications soient prises en compte :
# /etc/init.d/nfs-kernel-server restart
# exportfs -ra
Options d'exportation
Voici les options d'exportation les plus courantes :
secure : cette option impose l’utilisation d’un port réservé (inférieur à 1024) comme origine de la requête.
async : le serveur NFS va pouvoir répondre que le fichier a été écrit sur le support de stockage, même si cela n'a pas encore été fait. Améliore les performances du
serveur.
sync : le serveur NFS va écrire physiquement les fichiers sur le support de stockage avant de répondre. Réduit les performances du serveur.
Le principal problème avec NFS est la correspondance des UID et des GID. Effectivement, l'utilisateur alex peut avoir le UID 1000 sur le client et un UID différent
sur le serveur. NFS travaille avec les UID et GID numérique, il va donc par défaut enregistrer sur le serveur que le fichier appartient à l'utilisateur 1000, et non à
l'utilisateur alex.
Pour pallier à ces problèmes, NFS fournit des mécanismes pour transformer les UID et les GID.
Le problème se pose également avec le super-utilisateur root qui dispose du UID 0. Pour des raisons de sécurité, NFS va transformer par défaut les fichiers posés
par le root vers le UID et le GID du compte anonyme (nobody.nogroup).
root_squash : option par défaut. transforme les requètes provenant de l'UID 0 / GID 0 vers le UID et GID du compte anonyme.
no_root_squash : ne transforme pas les requètes provenant de l'UID 0 / GID 0. A utiliser avec précaution.
# showmount
192.168.30.10:/home
192.168.30.12:/home
...
Synopsis :
Exemple :
Si on veut que ce répertoire soit accessible à chaque boot, il suffit de rajouter la ligne suivante dans le fichier /etc/fstab :
$ cat /etc/fstab
...
pc230:/home/partage /mnt nfs defaults 0 0
...
Lors de l'installation il faut indiquer le domaine NIS, ce dernier peut être différent du domaine internet.
Pour le déploiement du serveur et des clients NIS, on va suivre la procédure Debian décrite dans le fichier /usr/share/doc/nis/nis.debian.howto.gz :
# zmore /usr/share/doc/nis/nis.debian.howto.gz
Il faut tout d'abord vérifier que le fichier /etc/hosts contient l'adresse IP et le nom FQDN du serveur :
# cat /etc/hosts
...
192.168.30.230 pc230.mondomaine.fr pc230
# cat /etc/defaultdomain
DOMAINENIS
Dans le fichier /etc/ypserv.securenets, on restreint l'utilisation du domaine NIS au domaine du réseau local. On remplace la ligne 0.0.0.0 0.0.0.0 par : 255.255.255.0
192.168.30.0.
# vi /etc/ypserv.securenets
...
255.255.255.0 192.168.30.0
# vi /etc/default/nis
...
NISSERVER=master
...
# /etc/init.d/nis restart
On lance ensuite la création des bases de données NIS avec la commande suivante :
# /usr/lib/yp/ypinit -m
On installe nis (c'est le même paquet qui fait office de client et de serveur) :
# cat /etc/defaultdomain
DOMAINENIS
# vi /etc/yp.conf
...
ypserver 192.168.30.230
# /etc/init.d/nis restart
# cat /etc/nsswitch.conf
...
passwd: files nis
group: files nis
shadow: files nis
...
netgroup: nis
L'option files indique au système d'aller voir les fichiers classiques /etc/passwd, /etc/group et /etc/shadow.
# ypcat passwd.byname
# adduser jack
...
Si tout fonctionne, on doit pouvoir se logger sur le client NIS avec l'utilisateur jack.
CUPS est très simple à configurer. De ce fait, il est de plus en plus souvent utilisé en remplacement de LPR (premier serveur sous UNIX).
Le paquet cups-pdf fournit une imprimante virtuelle qui permet de générer des fichiers PDF.
Les paquets foomatic-db-compressed-ppds et openprinting-ppds contiennent des descriptions PPD (PostScript Printer Description) pour un très grand
nombre d'imprimantes.
D'autres paquets de PPD sont également disponibles comme hp-ppd ou hpijs-ppds. Mais aussi le meta-paquet printer-driver-all-enforce qui englobe une
vingtaine de paquets de différents drivers CUPS.
On spécifie son nom, sa localisation physique et sa description. Exemple : HP1200, Salle D11, L'imprimante laser de la salle D11
On choisit ensuite le périphérique correspondant au mode de connexion de l'imprimante avec le PC (ex: port parallèle, USB, ipp, http...etc)
Si l'imprimante est partagée par un autre serveur CUPS, il faut spécifier l'adresse IPP de l'imprimante, comme par exemple : ipp://192.168.30.210/printers
/hp1200
On choisit ensuite le constructeur de l'imprimante. Dans le cas où votre constructeur n'est pas dans la liste, il faut télécharger sur Internet le fichier PPD (Printer
Postscript Description) correspondant et utiliser le bouton Parcourir pour uploader le fichier
On choisit ensuite le driver correspondant au modèle de l'imprimante. Certains drivers sont les mêmes pour des imprimantes différentes. Si on ne trouve pas son
imprimante, il faut aller sur www.linuxprinting.org (http://www.linuxprinting.org) pour connaitre la compatibilité de l'imprimante avec un autre driver
Pour valider les modifications, on s'authentifie avec le compte root pour que le logiciel puisse écrire le fichier de configuration de CUPS
Fichier de configuration
Tout d'abord, on indique à CUPS d'écouter sur toutes les interfaces réseaux. On remplace Listen localhost:631 par :
Listen *:631
Dans la balise <Location />, il faut rajouter "Allow" suivi de l'adresse du réseau sur lequel se trouve l'imprimante afin de permettre à mon réseau d'accéder à
celle-ci.
# /etc/init.d/cupsys restart
Dans la procédure décrite ci dessus, au lieu de spécifier un périphérique local (port parallèle, USB ou autre), on spécifie l'adresse IPP de l'imprimante.
Exemple:
ipp://192.168.30.210/printers/HP1200
ou (sous Windows) :
http://192.168.30.210:631/printers/HP1200
Commandes d'impression
Ces commandes sont fournies par le paquet cupsys-bsd installé précédement.
La commande lpr
$ lpr nom_fichier
La commande lpq
La commande lpq permet d'afficher la file d'impression (spool) et connaître les numéros de "job" :
$ lpq
HP1200 is ready and printing
Rank Owner Job File(s) Total Size
active alex 12 fstab 1024 bytes
1st root 13 fstab 1024 bytes
$ lpq -P nom_imprimante
La commande lprm
La commande lprm permet de supprimer une impression de la file d'attente à l'aide de son numéro "job" :
$ lprm num_job
Pour supprimer toute la file d'attente (cette action n'est permise que pour le compte root) :
# lprm -
La commande lpstat
$ lpstat -a
$ lpstat -d
etc...
Il existe plusieurs serveurs FTP : ProFTPD, Pure-FTPd, VsFTPd, wu-ftpd, muddleftpd... Chacun se différencie des autres par ses fonctionnalités et sa facilité (ou
non) a être configuré.
Généralement ces serveurs peuvent également fournir un serveur SFTP (FTP sécurisé, sur le port 22).
ProFTPD
Pour plus de détails voir : Administration réseau sous Linux/ProFTPD.
Installation :
Configuration :
# vim /etc/proftpd/proftpd.conf
Une fois les modifications faites sur le fichier de configuration, ne pas oublier de relancer le service :
# /etc/init.d/proftpd restart
Exemple de configuration :
# Nom du serveur
ServerName "Serveur FTP du Creufop"
# a commenter
MultilineRFC2228 on
DefaultServer on
# A commenter
DenyFilter \*.*/
AllowUser pierre
AllowUser alain
DenyAll
</Limit>
Installation de Apache2
LAMP
Logiciel tout-en-un pour Linux (Apache + MySQL + PHP), comme WAMP pour Windows.
Installation manuelle
Le service peut ne pas être lancé par défaut, mais même s'il l'est on peut quand-même essayer de l'activer avec :
# /etc/init.d/apache2 start
On peut ensuite tester le serveur, pour voir si une page s'affiche ou s'il refuse la connexion :
commande
$ lynx http://localhost/
Cette adresse est la boucle locale, elle peut aussi être rentrée directement dans tout navigateur web.
Si Apache était déjà installé vérifier le fichier pour indiquer le démarrage automatique d'Apache 2 /etc/default/apache2 :
# vi /etc/default/apache2
...
NO_START=0
PHP5
PHP peut-être installé avec toutes les déclinaisons de la distribution Debian (stable, testing, unstable). Il suffit pour cela d'insérer vos lignes préférées dans le fichier
/etc/apt/sources.list :
Ce qui suit suppose que vous ayez déjà installé votre serveur WEB (cf manuels pour l'installation d’Apache sous Debian). Par la suite, exécutez en tant que "root"
les commandes suivantes :
Une fois ces commandes exécutées, vous devez redémarrer votre serveur WEB. Dans le cas d'Apache cela s'effectue avec la commande suivante :
/etc/init.d/apache restart
Si tout s'est bien passé, vous disposez maintenant d'un serveur WEB qui a la capacité d'exécuter des scripts PHP version 5 dans votre navigateur.
PHP4
Redémarrer apache
# /etc/init.d/apache2 restart
Créons un fichier contenant un script php minimal qui nous permettra de faire un test
commande
Testons :
commande
$ lynx http://localhost/test.php
emerge apache
emerge dev-lang/php
# nano -w /etc/conf.d/apache2
APACHE2_OPTS="-D PHP5"
MySQL seul
1. .msi (Windows)
2. .dmg (Mac)
3. .rpm (Linux)
4. .tar
APT
Sur Gentoo
emerge mysql
Installer PhpMyAdmin
Depuis un tout-en-un :
Sinon :
Extensions
Configuration de Apache2
Le fichier de configuration principal de Apache2 est /etc/apache2/apache2.conf. Dans le cas de Apache version 1.3, ce fichier s'appelle /etc/apache/httpd.conf.
Dans les fichiers de configuration /etc/apache2/apache2.conf ou /etc/apache2/conf.d/security, on peut être amené à modifier :
# Pour que Apache ne donne pas son numéro de version et les modules chargés (via une page d'erreur)
ServerSignature off
# Pour que Apache ne donne pas son numéro de version et les modules chargés (via le protocole HTTP)
ServerTokens Prod
Le fichier /etc/apache2/ports.conf contient la liste des ports sur lequel Apache écoute. On peut changer le port le par défaut (80), ou lui indiquer d'écouter sur
d'autres ports (ex: 443 pour https) en rajoutant des lignes Listen <port>.
# cat /etc/apache2/ports.conf
Listen 80
Apache permet de gérer plusieurs sites internet sur le même serveur, pour cela on va utiliser des sections VirtualHost. Pour chaque site Internet, on crée un
nouveau fichier dans /etc/apache2/sites-enabled et on lui indique la section VirtualHost (voir ci-dessous). Par convention, on appelle ce fichier avec le nom du site
Internet :
# cd /etc/apache2/sites-enabled
# vi www.mondomaine.fr
<VirtualHost 192.168.30.220>
ServerName www.mondomaine.fr
ServerAlias mondomaine.fr
ServerAdmin [email protected]
DocumentRoot /var/www/www.mondomaine.fr
CustomLog /var/log/apache2/www.mondomaine.fr_access.log combined
ErrorLog /var/log/apache2/www.mondomaine.fr_error.log
</VirtualHost>
Les différents sites vont être stockés dans le répertoire /var/www.On va créer un sous-répertoire par site :
# cd /var/www
# mkdir www.mondomaine.fr
Après toutes modifications des fichiers de configuration, on relance Apache2 avec la commande suivante :
# /etc/init.d/apache2 restart
http://www.mondomaine.fr
Dans cet exemple, il faut bien entendu que www.mondomaine.fr pingue vers notre serveur. On peut simuler ceci en rajoutant une entrée dans le fichier /etc/hosts
ou en modifiant le DNS.
Apache 2 permet l'installation de nombreux modules pour offrir plus de services ou pour renforcer la sécurité.
Les modules sont dans le répertoire /etc/apache2/mods-available . C'est ici qu'il faut copier les modules additionnels que vous pourrez télécharger pour Apache.
Pour activer un module on peut créer manuellement un lien symbolique dans le répertoire mods-enable
# ln -s /etc/apache2/mods-available/rewrite.load /etc/apache2/mods-enabled/rewrite.load
# a2enable mod_rewrite
// Active le mod_rewrite dans apache2
# a2disable mod_rewrite
// Désactive le mod_rewrite dans apache2
NB : sur les dernières versions de apache2, ces deux commandes s'appellent respectivement a2enmod et a2dismod.
Pour protéger un répertoire avec un login et un mot de passe, on crée dans le répertoire à protéger un fichier .htaccess qui contient le code suivant :
# cd /var/www/www.mondomaine.fr
# vi .htaccess
# Type d'authentification
AuthType Basic
# cd /etc/apache2
# htpasswd -c utilisateurs alex
...
# htpasswd utilisateurs pierre
Il faut également éditer le fichier /etc/apache2/sites-enabled/000-default afin d'activer la prise en charge du fichier htaccess. Ajouter, si cela n'existe pas encore :
<Directory /var/www/mondossierprotege/>
AllowOverride All
</Directory>
# /etc/init.d/apache2 restart
Voici deux logiciels libres qui analysent ces fichiers et qui permettent de générer des statistiques sur les connexions :
Awstats (http://awstats.sourceforge.net/)
Exemple de statistiques Awstats (http://www.nltechno.com/awstats/awstats.pl?config=destailleur.fr)
Webalizer (http://www.mrunix.net/webalizer/)
Exemple de statistiques Webalizer (http://www.mrunix.net/webalizer/sample/index.html)
Piwik
Prérequis : Apache.
Moteurs de stockage
Par défaut, MySQL utilise le moteur de stockage MyISAM.
InnoDB : support des transactions (compatible ACID), des clés étrangères et de l'intégrité différentielle
BDB : Berkeley DB est un format de stockage très répandu (utilisé par exemple par OpenLDAP) et supporte les transactions (compatible ACID)
HEAP ou MEMORY : ces tables sont stockées en mémoire vive (RAM), elles sont très rapides mais ne survivent pas à un redémarrage de MySQL
CSV : les données sont stockées dans des fichiers au format CSV (Comma Separated Values)
ARCHIVE : stocke des informations en utilisant le minimum de place disque (perte de la notion d'index)
BLACKHOLE : les données sont tout simplement envoyées vers /dev/null et donc perdues. Moteur utilisé pour faire des tests
Types de données
Chaque information stockée dans une table est définie par un type décrivant la nature de l'information enregistrée.
Les nombres
TINYINT
SMALLINT
MEDIUMINT
INT
BIGINT
FLOAT
DOUBLE
DECIMAL
CHAR
VARCHAR
BINARY
VARBINARY
BLOB
TEXT
ENUM
SET
DATE
TIME
DATETIME
TIMESTAMP
YEAR
Installation
Pour installer mysql sous Debian, on tape la commande suivante :
Fichier de configuration
Le fichier de configuration est /etc/mysql/my.cnf.
[client]
port = 3306
socket = /var/run/mysqld/mysqld.sock
# Section de mysqld_safe
[mysqld_safe]
socket = /var/run/mysqld/mysqld.sock
nice = 0
# Fichier socket qui permet une communication locale avec Mysqld (plus performant que de passer par le port 3306)
socket = /var/run/mysqld/mysqld.sock
# Répertoire temporaire
tmpdir = /tmp
# Section pour ?
[mysql]
#no-auto-rehash # faster start of mysql but no tab completition
# /etc/init.d/mysql restart
Les bases de données sont stockées dans le répertoire /var/lib/mysql/. Il faut donc sauvegarder ce répertoire.
La commande SQL LOAD DATA INFILE permet d'importer des données dans une table SQL à partir d'un fichier texte.
# cat /var/lib/mysql/dbalex/data.txt
Anne;Aconda
Clara;Sheller
Sophie;Garo
Pauline;Machin
Pour importer le fichier dans la table contact, nous tapons la commande suivante :
Vérification :
Pour connaître l'ensemble des options disponibles de la commande LOAD DATA INFILE, voir la documentation Mysql : Doc Mysql / LOAD DATA INFILE
(http://dev.mysql.com/doc/refman/5.0/fr/load-data.html)
La commande SQL SELECT INTO OUTFILE permet d'exporter des données de la base de données dans un fichier texte.
Dans le cas présent, les champs "prenom" et "nom" ont été sélectionnés à partir de la table "contacts" afin de pouvoir être exportés dans le fichier "result.txt"
situé dans le répertoire "/tmp"
Attention, il faut penser à préciser les clauses "FIELDS" et "LINES" destinées à traiter correctement les délimitations des champs et des lignes lors de l'export !
Remarque : C'est l'utilisateur mysql qui crée ce fichier, il doit donc avoir les droits nécessaires :
# ls -l /tmp/result.txt
-rw-rw-rw- 1 mysql mysql 53 2008-11-27 09:26 /tmp/result.txt
Le fichier db.opt contient la configuration de la base de données (encodage des caractères ...).
Dans le cas du format MyISAM, chaque table est enregistrée dans deux fichiers :
Dans le cas du format Innodb, toutes les tables sont stockées dans un ou plusieurs seuls fichiers : ibdata1, ibdata2 ...
Il y a 3 fichiers importants :
mysql.err : contient les erreurs. Sous Debian, ce fichier n'existe pas ou est vide car les erreurs Mysql sont envoyées à syslog (Debian improvement).
Pour activer les fichiers log, il faut décommenter les deux lignes dans /etc/mysql/my.cnf :
log = /var/log/mysql/mysql.log
log_slow_queries = /var/log/mysql/mysql-slow.log
/etc/init.d/mysql restart
Les documentations
Package Debian mysql-doc-5.0
Debian propose un package contenant les documentations Mysql. Il faut pour y accéder installer le package mysql-doc-5.0 :
Dans ce répertoire, on trouve des pages HTML qui contiennent toute la documentation de mysql.
Documentations en ligne
Listes de diffusion
IRC
modifier directement les tables user et db de la base de données mysql (ne pas oublier de faire un FLUSH PRIVILEGES; après)
Exemple : enlever tous les droits à l'utilisateur alex sur la base de données dbalex :
Exemple : donner tous les droits à l'utilisateur alex sur la base de données dbalex :
# ls -l /root/.my.cnf
-rw------- 1 root root 23 déc 4 15:53 /root/.my.cnf
# cat /root/.my.cnf
[client]
password=root
mysql
La commande mysql est le client Mysql en ligne de commande. Il permet de se connecter à Mysql et de saisir des commandes SQL.
Exemple :
Dans cet exemple la requête demande de se connecter par mot de passe à la base dbalex en tant que paul.
# mysql --help
Donne la liste et un bref descriptif de toutes les options à utiliser avec la commande mysql
mysqldump
Son fonctionnement est particulièrement intéressant car elle génère les commandes SQL permettant de re-créer la base de données sur un autre serveur.
Pour importer une base de données sauvegardée via mysqldump, on utilise la commande cliente mysql et une redirection en entrée :
L'option --compatible permet de spécifier à mysqldump le format à utiliser pour être compatible avec les bases de données existantes. Exemple :
Cette option peut prendre les valeurs suivantes : ansi, mysql323, mysql40, postgresql, oracle, mssql, db2, maxdb, no_key_options, no_table_options, or
no_field_options
En utilisant mysqldump et ssh, on peut dupliquer une base de données sur une machien distante :
# mysqldump testdb -p<mot de passe local> | ssh pc211 'echo "create database dbalex;" | mysql -p<mot de passe distant> ; cat - | mysql -p
mysqlimport
...
# mysqlimport -p --fields-terminated-by="\;"
--lines-terminated-by="\n"
--columns=prenom,nom
dbalex /var/lib/mysql/dbalex/contacts.txt
Enter password:
dbalex.contacts: Records: 4 Deleted: 0 Skipped: 0 Warnings: 4
#
Attention : le nom du fichier (sans extension) doit être le même que la table.
mysqladmin
OPTIONS :
-h host
-u user
-p password
Commandes :
Utile : j'ai perdu le mot de passe du compte root mysql, comment le changer :
1. On arrête Mysql :
# /etc/init.d/mysql stop
# mysqld --skip-grant-tables
# mysql mysql
# killall mysqld
6. On relance Mysql :
# /etc/init.d/mysql start
mysqlcheck
La commande mysqlcheck permet de vérifier l'intégrité d'une base de données. On indique la (les) base(s) de données à vérifier (et optionnellement les tables à
vérifier), et la commande donne l'état : OK ou corrompue.
Options courantes :
-r ou --repair : permet de corriger presque tout, sauf les problèmes de doublons pour les clés uniques.
# mysqlcheck testdb
testdb.client OK
testdb.client2 OK
Remarque : mysqlcheck ne fonctionne qu'en utilisant des instructions SQL (CHECK TABLE, REPAIR TABLE, ANALYZE TABLE, et OPTIMIZE TABLE), il a
donc besoin que le serveur Mysql soit en train de fonctionner.
myisamchk
La commande myisamchk permet la restauration d'une table ou plusieurs tables endommagées à la suite de crash répétés du démon mysqld.
Attention : myisamchk intervient directement sur les fichiers, il se passe de mysqld contrairement à mysqlcheck !
Quelques précautions d'usage: : Si vous utilisez myisamchk pour réparer ou optimiser les tables, vous devez toujours vous assurer que mysqld n'utilise pas cette
table (ce qui s'applique aussi si vous utilisez --skip-external-locking ). Si vous n'éteignez pas le serveur mysqld , vous devez au moins utiliser mysqladmin flush-
tables avant de lancer myisamchk.
Attention : Vos tables peuvent être corrompues si le serveur mysqld et myisamchk travaillent dans une même table simultanément.
On indique à myisamchk les tables à vérifier en désignant les fichiers index MYI :
# myisamchk /chemin/bases/mysql/nom_de_la_bd/nom_de_table.MYI
# myisamchk /chemin/bases/mysql/nom_de_la_bd/*.MYI
# myisamchk /chemin/bases/mysql/*/*.MYI
La commande affiche un rapport d'analyse, et si tout est OK, ne signale pas d'erreur :
# myisamchk /var/lib/mysql/ampache/album.MYI
Cette commande trouvera 99.99% de toutes les erreurs. Elle ne peut toutefois détecter les erreurs qui impliquent uniquement le fichier de données (ce qui est très
inhabituel).
Si vous voulez uniquement vérifier une table sans que la commande produise un affichage, il faut utiliser l'option -s (ou --silent).
mysql_setpermission
La commande mysql_setpermission permet de définir les permissions des utilisateurs Mysql de manière intéractive.
Ecrit en Perl, ce script a besoin des modules DBI et DBD::mysql pour fonctionner.
# mysql_setpermission -p
Option p is ambiguous (password, port)
Password for user to connect to MySQL:
######################################################################
## Welcome to the permission setter 1.4 for MySQL.
## made by Luuk de Boer
######################################################################
What would you like to do:
1. Set password for an existing user.
2. Create a database + user privilege for that database
and host combination (user can only do SELECT)
3. Create/append user privilege for an existing database
and host combination (user can only do SELECT)
4. Create/append broader user privileges for an existing
database and host combination
(user can do SELECT,INSERT,UPDATE,DELETE)
5. Create/append quite extended user privileges for an
existing database and host combination (user can do
SELECT,INSERT,UPDATE,DELETE,CREATE,DROP,INDEX,
LOCK TABLES,CREATE TEMPORARY TABLES)
6. Create/append full privileges for an existing database
and host combination (user has FULL privilege)
7. Remove all privileges for for an existing database and
host combination.
(user will have all permission fields set to N)
0. exit this program
2 : Permet d'ajouter/modifier le droit SELECT d'un utilisateur sur une table en créant un utilisateur et une table :
# Which database would you like to add: dbuser //On donne le nom de la base de donnée à créer.
# The new database dbuser will be created
# We now need to know from what host(s) the user will connect.
# Keep in mind that % means 'from any host' ...
# The host please: % //On donne l'host
#
3 : Même fonction que la sélection 2, sauf que l'on donne le droit SELECT sur une table existante.
5 : Même fonction que la sélection 2, pour les droits SELECT,INSERT,UPDATE,DELETE,CREATE,DROP,INDEX,LOCK TABLES,CREATE TEMPORARY
TABLES
0 : sortir du programme
--port (ou -P) : donne le numéro de port si différent de celui par défaut
mysqlhotcopy
La commande mysqlhotcopy permet de copier une base de données à chaud, c'est à dire sans arrêter le serveur Mysql.
Pour cela, la commande bloque les tables afin qu'il n'y ai pas de modification des tables durant la copie.
Exemple d'utilisation :
Vérification :
# ls -l /tmp/testdb/
total 44
-rw-rw---- 1 mysql mysql 8584 déc 2 15:08 client2.frm
-rw-rw---- 1 mysql mysql 0 déc 2 15:08 client2.MYD
-rw-rw---- 1 mysql mysql 1024 déc 4 16:23 client2.MYI
-rw-rw---- 1 mysql mysql 8618 déc 2 15:50 client.frm
-rw-rw---- 1 mysql mysql 3090 déc 4 14:01 client.MYD
-rw-rw---- 1 mysql mysql 2048 déc 4 16:23 client.MYI
-rw-rw---- 1 mysql mysql 65 déc 2 14:58 db.opt
MySQL Workbench
Anciennement nommé MySQL Administrator, MySQL Workbench est aujourd'hui maintenu par Oracle.
mysqlcc est l'ancien logiciel d'administration de MySQL, il s'est arrêté en 2013 [2] , et donc n'est pas 100 % compatible avec la version 5 de MySQL. Il est désormais
remplacé par MySQL Workbench.
MySQL Navigator
Références
1. http://sqlbrowser.www2.pl/?act=download
2. http://sourceforge.net/projects/mysqlcc/?source=navbar
3. http://sourceforge.net/projects/mysqlnavigator/?source=typ_redirect
Postfix effectue 99 % des fonctions de Sendmail, les 1% restant ne sont que purement applicable dans une minorité de cas. De plus, il allie performance et facilité
d'installation et de paramétrage.
Il existe de nombreux autres serveurs de mails, parmi les plus connus : Qmail, Exim, Qpsmtpd, Courier...
Quelques définitions
DNS : Domain Name System (port 53), pour convertir les adresses URL en adresses IP.
SMTP : Simple Mail Transfer Protocol (port 25), pour l'envoi et l'acheminement du courrier.
POP : Post Office Protocol (port 110), pour la réception du courrier.
IMAP : Internet Message Access Protocol (port 143), sert à la réception du courrier. À la différence de POP, les emails restent stockés sur le serveur IMAP.
MTA : Mail Transfer Agent. Il s'agit des serveurs de mails SMTP.
MDA : Mail Delivery Agent. Il s'agit du serveur qui dépose les messages dans chaque boîte aux lettres (POP ou IMAP).
MUA : Mail User Agent. Il s'agit des logiciels clients de messagerie, ex : Mozilla Thunderbird, Microsoft Outlook, KMail, Eudora, ou Evolution.
Comment ça marche ?
Schéma du cheminement des mails entre les correspondants (trois cas illustrés en fonction des moyens mis en œuvre).
Cas numéro 1
Cas numéro 2
Notre ami Paul fait parti d'une association (asso.org) et dispose d'un email sur ce domaine : [email protected]
L'association dispose d'un hébergement chez hebergeur.net qui lui fournit différents services serveur SMTP, POP, IMAP et accès webmail
Paul utilise son email sur asso.org ([email protected]) pour envoyer un email à son ami Jack qui dispose aussi d'un email sur asso.org : [email protected]
Ce mail est acheminé via son réseau vers son serveur SMTP. Dans son client Outlook, Paul a paramétré plusieurs comptes
Le serveur de sa société (smtp.societe.com) accepte d'envoyer le mail sur Internet, même si l'email émetteur et le destinataire utilisent des noms de domaine
différents, car il vient de son propre réseau
Ce mail est donc envoyé au serveur SMTP asso.org : smtp.hebergeur.net
Paul peut donc s'il le souhaite aller consulter ses mails sur asso.org via le serveur POP ou IMAP qui va rapatrier directement les mails [email protected]
Cas numéro 3
Jack utilise une connexion à Internet fournie par un fournisseur d'accès à Internet : fai.fr. Pour lire son email sur asso.org ([email protected]), Jack utilise son
navigateur Web et l'accès Webmail fournit par fai.fr
Il se connecte donc sur l'adresse webmail.asso.org et peut ainsi visualiser ses mails. Aucun email ne sera rapatrié sur son PC.
Il peut également répondre à tous ses mails via un Webmail.
Installation de Postfix
Installer en premier Postfix, si un autre serveur de mail est déjà présent, il le supprimera :
Pour l'instant, nous laissons toutes les options par défaut, nous allons le configurer par la suite.
Configuration de Postfix
Attention !
Pour que cela fonctionne sur Internet, il faut que le nom local du serveur (hostname) soit le même que celui du
réseau (défini dans les DNS). Dans cet exemple, il s'appellera mail.mondomaine.fr. De plus, il faut commenter la
ligne ci-dessous mydestination qui bride les envois vers l'extérieur.
Le fichier de configuration principal de Postfix est /etc/postfix/main.cf. Copier le suivant en remplaçant mondomaine.fr par le vrai domaine du serveur :
# Le domaine d'origine
myorigin = /etc/mailname
# Le dépôt des emails dans les boites aux lettres est confié
# à procmail (cas du format mbox)
mailbox_command = procmail -a "$EXTENSION"
On peut visualiser la totalité des options possibles de Postfix et leurs valeurs par défaut via la commande postconf :
# postconf | more
2bounce_notice_recipient = postmaster
access_map_reject_code = 554
address_verify_default_transport = $default_transport
address_verify_local_transport = $local_transport
address_verify_map =
address_verify_negative_cache = yes
address_verify_negative_expire_time = 3d
...
En français ça donne : délivre en local les emails vers mydestination avec mailbox_command, sinon délivre-les sur Internet mais en refusant ceux qui ne
viennent pas de mynetworks ou relayhost (s'ils sont vides on accepte rien, s'ils sont commentés on accepte tout, même de relayer des spams).
Une fois main.cf sauvegardé pour la première fois, on vérifie que le fichier /etc/mailname contient le nom de domaine de notre réseau :
# cat /etc/mailname
mondomaine.fr
Chaque fois que l'on modifie le fichier /etc/postfix/main.cf, il faut relancer Postfix :
# /etc/init.d/postfix restart
Pour chaque mail envoyé ou reçu, Postfix enregistre les informations d'acheminement dans le fichier /var/log/mail.log. Il est donc très utile de surveiller ce fichier
durant les tests de fonctionnement.
Pour vérifier que le serveur de mail fonctionne, on envoi un mail à un utilisateur et on regarde le fichier /var/log/mail.log.
# mail alex
Subject: essai
essai
.
Cc:
# tail -f /var/log/mail.log
...
Feb 13 13:10:40 mail postfix/pickup[13353]: B782A1FD6F: uid=0 from=<root>
Feb 13 13:10:40 mail postfix/cleanup[13675]: B782A1FD6F: message-id=<[email protected]>
Feb 13 13:10:40 mail postfix/qmgr[13354]: B782A1FD6F: from=<[email protected]>, size=355, nrcpt=1 (queue active)
Feb 13 13:10:40 mail postfix/local[13677]: B782A1FD6F: to=<[email protected]>, orig_to=<alex>, relay=local, delay=0.08, delays=0.04/0.
Feb 13 13:10:40 mail postfix/qmgr[13354]: B782A1FD6F: removed
...
Les voici en lignes de commandes, mais elles sont aussi réalisables au moyen d'un webmail.
Pour des raisons de sécurité, on positionne le shell de l'utilisateur à /bin/false (ainsi il ne pourra pas se logger sur le serveur). Le mot de passe saisi sera celui de sa
boite aux lettres. On rajoute l'utilisateur dans le groupe mail afin qu'il puisse écrire le fichier <login>.lock dans le répertoire /var/mail.
Adresse virtuelle
vim /etc/postfix/main.cf
avec :
virtual_alias_maps = hash:/etc/postfix/virtual
Ensuite il faut définir les adresses emails dans /etc/postfix/virtual, sous forme de paires clé-valeur [2] :
[email protected] root
postmap /etc/postfix/virtual
postfix reload
Alias
Pour éditer la liste des adresses emails alias de celles d'une boite :
vim /etc/aliases
MAILER-DAEMON: root
postmaster: root
abuse: root
Ainsi, quelqu'un qui voudra reporter un problème à [email protected] écrira dans la boite de root, ce qui sera visible par une notification à chaque fois que ce
dernier se connectera en SSH.
Pour les transferts locaux (vers une boite mail personnelle du serveur), ils utilisent le protocole LMTP.
Pour les transferts distants (vers un client de messagerie), il faut choisir entre le protocole POP3 (qui déplace les emails vers le client) et IMAP (qui laisse une
copie des emails sur le serveur).
procmail
$ vim ~/.procmailrc
PATH=/usr/bin:/usr/local/bin
MAILDIR=$HOME/Maildir
$ maildirmake ~/Maildir
Explications :
1. Le fichier utilisateur .forward permet d'insérer le filtrage procmail dans le parcours des emails à destination de cet utilisateur.
2. Le fichier .procmailrc configure le filtrage pour l'utilisateur concerné.
3. maildirmake crée l'arborescence nécessaire à l'accueil des emails :
new (nouveau) : boite de réception.
cur (courante) : boite courante.
tmp (temporaire) : mails en transit.
Pour voir s'il fonctionne, envoyer un email à l'utilisateur configuré ci-dessus, puis regarder s'il est arrivé :
ls -alh /home/user/Maildir/new/
En cas de problème :
tail /var/log/mail.log
fetchmail
Il se configure avec :
vim ~/.fetchmailrc
On peut par exemple lui dire de tout transférer vers procmail en y ajoutant :
Ou bien lui faire récupérer directement des boites utilisateurs distantes avec :
Attention !
La ligne mailbox_command du fichier /etc/postfix/main.cf doit pointer vers procmail, qui reroute ensuite
vers fetchmail.
fetchmail peut récupérer les emails de fournisseurs externes, tels que Gmail, Yahoo ou Outlook.com, par cron. C'est un mail retrieval agent (MRA).
Dovecot
Tout comme pour fetchmail, il peut fonctionner en aval de procmail. Toutefois, il est possible de remplacer procmail par Dovecot dans /etc/postfix/main.cf [6] :
pour Ubuntu :
Ensuite, l'installation de Dovecot dépend du protocole souhaité dans le MUA qui viendra relever le courrier :
Serveur POP
Remarque : il existe de nombreux autres serveurs POP : courier-pop, teapop, ipopd, qpopper, solid-pop3d...
Serveur IMAP
Remarque : il existe aussi plusieurs autres serveurs IMAP, par exemple courier-imap.
IMAP nécessite le format de stockage Maildir. Nous allons donc tout d'abord configurer Postfix pour lui indiquer d'utiliser le format Maildir au lieu du traditionnel
mbox.
On modifie le fichier /etc/postfix/main.cf. On commente l'option mailbox_command (qui appelle procmail) et on rajoute l'option home_mailbox :
vim /etc/postfix/main.cf
# Commenter la ligne :
#mailbox_command = procmail -a "$EXTENSION"
# Puis pour utiliser le format Maildir, ajouter :
home_mailbox = Maildir/
On relance postfix :
# /etc/init.d/postfix restart
Pour chaque utilisateur existant, il faut ensuite créer le répertoire Maildir. On fait ceci à l'aide de la commande maildirmake fournie par dovecot-imapd ou
courrier-imap :
Pour automatiser la création du répertoire Maildir pour les nouveaux utilisateurs, on exécute la commande maildirmake dans le répertoire /etc/postmaster. Ainsi
tous les nouveaux utilisateurs auront automatiquement le répertoire Maildir dans leur home directory :
# cd /etc/postmaster
# maildirmake Maildir
Webmails
Attention !
Par défaut les webmails cherchent les courriels dans le dossier définit dans le serveur POP ou IMAP, et qui peut
être différent de là où ils sont distribués.
Par exemple pour la configuration ci-dessus avec Dovecot, /etc/dovecot/conf.d/10-mail.conf doit contenir mail_location = maildir:/home/%u/Maildir.
SquirrelMail
SquirrelMail est un webmail très simple à installer, qui fonctionne sans SGBD. Outre les envois et réceptions d'emails, il
permet d'archiver en créant ou supprimant des dossiers.
On peut configurer Squirrelmail en utilisant le programme squirrelmail-configure. Ce fichier permet configurer le fichier /etc/squirrelmail/config.php. A noter
que l'on peut modifier directement ce fichier sans passer par squirrelmail-configure.
SquirrelMail est fourni avec la section à rajouter à Apache pour l'activer. On va donc dans le répertoire de configuration de Apache pour lui indiquer d'utiliser ce
fichier :
# ln -s /etc/squirrelmail/apache.conf /etc/apache2/conf.d/squirrelmail.conf
On relance Apache :
# /etc/init.d/apache2 restart
On peut tester si SquirrelMail fonctionne avec son navigateur en se connectant à l'URL suivante :
http://localhost/squirrelmail/
Postfixadmin
Roundcube
Roundcube est un webmail qui fonctionne avec MySQL, PostgreSQL, SQLite ou MSSQL. Il est très ergonomique (glisser-
déposer, effacement en masse avec Maj + clic puis Suppr), plus graphique mais plus lent et moins stable que SquirrelMail.
Et voilà : http://localhost/roundcube
Nouveau mail
Attention !
Un serveur de messagerie qui accepte d'envoyer des emails pour le compte de n'importe qui se retrouvera
rapidement blacklisté par des organismes antispams, dont les listes sont utilisées par de nombreux serveurs MX.
Et cela peut coûter de l'argent pour se déblacklister. Pour s'en prémunir, il est donc très fortement recommandé
de laisser le paramètre relayhost = non commenté.
Sécurisation TLS
Tout d'abord, il faut générer une clé de cryptage asymétrique, puis indiquer son chemin dans main.cf :
Problèmes connus
421 Server Busy Error
mynetworks =
mydestination =
Attention !
Lors des tests, ne pas commenter relayhost = pendant plus d'une heure sous peine de devenir spammeur à son
insu.
550 unknown recipient / 550 5.1.1: Recipient address rejected: User unknown in local recipient table
S'il s'agit bien d'un utilisateur local, créer un alias d'une boite existante.
mydestination =
Et relancer postfix.
Connection closed by foreign host / ou aucune commande ne répond après la connexion au SMTP
Si le serveur s'arrête immédiatement après son lancement, certaines erreurs sont visibles dans les logs. Sinon, recopier le main.cf ci-dessus.
dsn=4.4.1, status=deferred
Si les emails fonctionnent en local, mais pas depuis l'extérieur (avec la même adresse d'expéditeur), et qu'ils ne sont pas visibles dans
#!/bin/sh
echo "Flushing iptables rules..."
sleep 1
iptables -F
iptables -X
iptables -t nat -F
iptables -t nat -X
iptables -t mangle -F
iptables -t mangle -X
iptables -P INPUT ACCEPT
iptables -P FORWARD ACCEPT
iptables -P OUTPUT ACCEPT
Erreurs Dovecot
Survient quand on se connecte par exemple au webmail en root. Cette protection incite à utiliser un autre compte, la solution la plus simples est de définir un alias
dans pour root dans /etc/aliases.
Si cela survient alors qu'un alias existait déjà, il suffit de relancer newaliases pour réparer.
Erreurs fetchmail
fetchmail -v
Sinon, bien vérifier que l'utilisation et le mot de passe sont entre guillemets dans :
vim ~/.fetchmailrc
vim ~/.forward
ls -alh /var/lib/fetchmail/Maildir/new
ou :
ls -alh /home/user/Maildir/new
Erreurs procmail
Mails perdus / delivered to command: procmail -a "$EXTENSION" / delivered to command: IFS=' '&&exec /usr/bin/procmail -f-||exit 75 #user
Si les logs montrent que les mails sont bien envoyés, mais restent introuvables par ailleurs, vérifier la boite système via :
procmail -v
Si cela commence par /var/mail/, les emails perdus sont probablement tous dans le fichiers :
cat /var/mail/nobody
Pour les router vers les boites des utilisateurs, revoir la configuration des .forward et .procmailrc ci-dessus, jusqu'à voir les nouveaux dans :
ls -alh /home/user/Maildir/new
/etc/init.d/postfix start
alors réinstaller.
Lorsqu'on envoie par webmail, il faut qu'un logiciel insère automatiquement la signature DKIM dans chaque courrier sortant. C'est pourquoi il faut installer
OpenDKIM [12] .
Lorsqu'il redémarre, le syslog peut indiquer des erreurs de permissions sur la clé qu'il faut corriger :
/etc/init.d/opendkim restart
tail /var/log/syslog
chown opendkim /etc/ssl/private/dkim.key
chmod 700 /etc/ssl/private/dkim.key
warning: cannot get RSA private key from file: nomdedomaine.fr.key disabling TLS support
Ceci apparait dans mail.log quand on chiffre la clef privée avec un mot de passe. Il ne faut donc pas en mettre.
Références
1. http://doc.ubuntu-fr.org/postfix
2. https://www.digitalocean.com/community/tutorials/how-to-install-and-setup-postfix-on-ubuntu-14-04
3. http://www.troubleshooters.com/lpm/201202/images/dovecot_setup.png
4. (français) Utilisation simple de procmail (http://www.linux-france.org/article/memo/procmail/node3.html)
5. (anglais) A Quick, Practical Procmail Guide (http://www.galtham.org/procmail.html)
6. http://wiki.dovecot.org/LDA/Postfix
7. http://www.clickz.com/clickz/column/1695095/hotmail-delivery-tips-sender-id-spf
8. https://www.isalo.org/wiki.debian-fr/Amavisd-new_et_DKIM
9. http://whatismyipaddress.com/blacklist-check
10. http://postfix.traduc.org/
11. http://unix.stackexchange.com/questions/128630/postfix-email-bounced-mail-for-domain-loops-back-to-myself
12. https://sourceforge.net/projects/opendkim/files/
Installation
Configuration
Pour Debian Squeeze le fichier slapd.conf se situe dans /usr/share/doc/slapd/examples/slapd.conf. Il faut donc changer son emplacement avec cp /usr/share
/doc/slapd/examples/slapd.conf /etc/ldap/. Puis modifier le fichier /etc/default/slapd et changer la ligne 'SLAPD_CONF=/etc/ldap/slapd.conf'.
# more /etc/ldap/slapd.conf
##################################
# Définition du premier annuaire #
##################################
# On utilise un stockage basé sur le format de fichier HDB
backend hdb
database hdb
# Répertoire stockant les données de l'annuaire, dans notre cas, des fichiers au format HDB
directory "/var/lib/ldap"
# L'administrateur de l'annuaire
rootdn "cn=admin,dc=domaine,dc=fr"
rootpw motdepasse # en clair ou généré via la commande slappasswd
# à commenter ...
lastmod on
checkpoint 512 30
by * read
# /etc/init.d/slapd restart
Création de l'annuaire
# cat cree_arbre.ldif
dn: dc=domaine,dc=fr
objectClass: top
objectClass: dcObject
objectClass: organization
dc: domaine
o: domaine
NB : les commandes suivantes sont fournies par le paquet Debian ldap-utils. Elles disposent des options génériques suivantes :
ldapadd
Prenons par exemple le fichier LDIF suivant qui crée le suffixe (le basedn) de notre annuaire :
# cat cree_arbre.ldif
dn: dc=domaine,dc=fr
objectClass: top
objectClass: dcObject
objectClass: organization
dc: domaine
o: domaine
ldapsearch
ldapdelete
La commande ldapdelete permet de supprimer une entrée de l'annuaire LDAP. On indique à cette commande le(s) dn(s) à supprimer.
ldapmodify
ldapmodrdn
La commande ldapmodrdn permet de renommer une entrée de l'annuaire LDAP. Cette opération revient à changer le dn (distinguished name) d'une entrée.
ldapcompare
ldappasswd
La commande ldappasswd permet de changer le mot de passe d'une entrée de l'annuaire LDAP.
ldapwhoami
La commande ldapwhoami permet de connaître avec quelle identité on est connecté à l'annuaire LDAP, c'est l'équivalent de la commande Unix whoami.
slapadd est utilisé pour ajouter des entrées spécifiées dans le format LDAP Directory Interchange Format (LDIF) dans une base de données slapd.
slapcat est utilisé pour générer une sortie LDIF LDAP basé sur le contenu d'une base de données slapd.
slapindex est utilisé pour regénérer les index de slapd suivant le contenu actuel d'une base de données.
PhpLdapAdmin
PhpLdapAdmin est un logiciel qui permet d'administrer un annuaire LDAP via une interface Web.
Installation :
Configuration :
PhpLdapAdmin s'est configuré avec l'annuaire définit par défaut dans OpenLDAP. Si on a changé ce dernier, il faut modifier les deux suivantes dans la
configuration de PhpLdapAdmin :
# vi /etc/phpldapadmin/config.php
...
$ldapservers->SetValue($i,'server','base',array('dc=domaine,dc=fr'));
$ldapservers->SetValue($i,'login','dn','cn=admin,dc=domaine,dc=fr');
...
# /etc/init.d/apache2 restart
La réplication LDAP
Configuration du provider LDAP
On modifie le fichier /etc/ldap/slapd.conf du provider LDAP pour indiquer l'annuaire à répliquer, on rajoute les lignes en gras dans la configuration de l'annuaire et
on modifie les attributs à indexer :
# vi /etc/ldap/slapd.conf
...
# On indique à OpenLDAP de charger le module
# permettant la réplication
moduleload syncprov.la
...
database bdb
suffix dc=domaine,dc=fr
rootdn dc=domaine,dc=fr
directory /var/ldap/db
index objectclass,entryCSN,entryUUID eq
overlay syncprov
syncprov-checkpoint 100 10
syncprov-sessionlog 100
On modifie /etc/ldap/slapd.conf du second OpenLDAP (le consumer) pour lui indiquer l'annuaire à répliquer et l'adresse du premier OpenLDAP (le provider).
# vi /etc/ldap/slapd.conf
...
database hdb
suffix dc=domaine,dc=fr
rootdn dc=domaine,dc=fr
directory /var/lib/ldap2
index objectclass,entryCSN,entryUUID eq
syncrepl rid=123
provider=ldap://<adresse IP ou nom du provider LDAP>:389
type=refreshOnly
interval=00:00:00:10
searchbase="dc=domaine,dc=fr"
filter="(objectClass=*)"
scope=sub
attrs="*"
schemachecking=off
bindmethod=simple
binddn="cn=admin,dc=domaine,dc=fr"
credentials=admin
Il faut ensuite créer le répertoire du nouvel annuaire et le donner à l'utilisateur et au groupe openldap :
# mkdir /var/lib/ldap2
# chown openldap.openldap /var/lib/ldap2
# /etc/init.d/slapd restart
Validation de la réplication
Coté Provider
# cat bob.ldif
dn: cn=bob,ou=People,dc=domaine,dc=fr
objectClass: inetOrgPerson
objectClass: posixAccount
objectClass: top
givenName: Eponge
sn: Eponge
cn: bob
uid: bob
userPassword: {MD5}F7WfMlfPOGcecKZLEkmjTA==
uidNumber: 1001
gidNumber: 1001
homeDirectory: /home/bob
loginShell: /bin/sh
mail: [email protected]
Coté Consumer
on attend quelques secondes et on constate que l'utilisateur a bien été créé sur le réplicat
Coté Provider
Coté Consumer
on attend quelques secondes et on constate que l'utilisateur a bien été supprimé sur le réplicat
Webmin est disponible sur de nombreuses plateformes [2] : Windows, Redhat, Fedora, CentOS, SuSE, Mandrake, Debian, et Ubuntu [3] .
Il est supporté par Debian [4] , mais on peut aussi télécharger sur leur site un fichier .deb.
On installe les dépendances de Webmin, puis on télécharge l'archive de Webmin et on l'installe en root :
# anciennement :
apt-get install libnet-ssleay-perl libauthen-pam-perl libio-pty-perl libmd5-perl
wget http://prdownloads.sourceforge.net/webadmin/webmin_1.400_all.deb
dpkg -i webmin_1.400_all.deb
Quelques secondes après l'interface web doit être accessible (ex : https://localhost:10000/).
Configuration de Webmin
Changement du mot de passe
Cela changera le mot de passe de root dans Webmin et ne modifie en aucun cas le mot de passe root du système. Pensez à supprimer ensuite la ligne de votre
historique (.bash_history par exemple) afin que le mot de passe n'y reste pas enregistré en clair.
Accueil de Webmin
tail /var/webmin/webmin.log
cd /usr/share/webmin/mailboxes
./send_mail.cgi
printenv
export WEBMIN_CONFIG="/etc/webmin"
export PERLLIB="/usr/lib/x86_64-linux-gnu/perl5"
Références
1. http://www.webmin.com
2. http://www.webmin.com/download.html
3. http://doc.ubuntu-fr.org/webmin
4. http://www.debianadmin.com/install-webmin-on-debian-7-6-wheezy.html
La supervision
Nagios
Nagios s'installe assez facilement pour surveiller, archiver et représenter les périodes où les machines sont en ligne, leurs services sont lancés et leurs ressources
disponibles [1] :
Il peut ainsi prévenir automatiquement par email, chaque contact associé à une machine quand l'état d'un service change (ex : processeur saturé, disque dur plein à
90 %, page web inaccessible...).
Installation du serveur
Sur Ubuntu :
Sinon, pour être sûr d'obtenir la dernière version, il est possible de récupérer le tarball en renseignant son nom sur le site officiel [2] :
Enfin, pour ajouter un service à monitorer, il suffit de modifier les fichiers .cfg.
Interface graphique
make install-webconf
htpasswd -c /usr/local/nagios/etc/htpasswd.users nagiosadmin
/etc/init.d/apache2 reload
Par ailleurs, la page d'accueil par défaut ne montrant pas les services monitorés, il peut être rentable d'utiliser http://127.0.0.1/nagios/?corewindow=/nagios
/cgi-bin/status.cgi?host=all à la place.
Fichiers .cfg
Pour que la surveillance soit opérationnelle, elle doit comporter les quatre objets suivants [3] , dans les fichiers de configuration situés dans /usr/local/nagios
/etc/objects/*.cfg (on classe généralement un type d'objet par fichier) :
define command {
command_name
command_line
}
define service {
use
host_name
service_description
check_command
}
define host {
use
host_name
alias
address
check_command
}
define contact {
name
}
L'objet commande pointe sur le fichier exécutable du système d'exploitation qui sera exécuté par Nagios (en Shell, Perl, Java, Python...). Ex :
define command {
command_name check_sftp
command_line java -jar $USER1$/check_sftp.jar -port=22 -t=10 -temp=/tmp/ -host=$ARG1$ -user=$ARG2$ -pwd=$ARG3$ -warning=$ARG4$ -critical
}
Plusieurs objets services peuvent ensuite appeler une même commande avec différents arguments (ex : SFTP du serveur 1, du serveur 2...).
Nagios 3
cd /etc/nagios3/conf.d
vim localhost_nagios2.cfg # (ajouter la machine)
vim hostgroups_nagios2.cfg # (définir l'emplacement de la machine sur le site Nagios)
vim services_nagios2.cfg # (préciser ce qu'il faut surveiller sur la machine, ex : HTTP)
/etc/init.d/nagios3 restart
Nagios 4
cd /usr/local/nagios/etc/objects
vim localhost.cfg
/etc/init.d/nagios restart
Attention !
Plugins
Les plugins permettent de monitorer plus de services, ils sont téléchargeables depuis https://www.nagios.org/download/plugins :
Addons
Les addons ajoutent des fonctionnalités supplémentaires, comme des représentations graphiques : https://www.nagios.org/download/addons/.
Surveillance SFTP
En shell (https://exchange.nagios.org/directory/Tutorials/Other-Tutorials-And-HOWTOs/Check-SFTP-Availability-With-check_sftp_avail-In-Nagios/details).
En Java (https://exchange.nagios.org/directory/Plugins/Network-Protocols/SFTP/check_sftp/details).
En Perl (https://exchange.nagios.org/directory/Plugins/Network-Protocols/FTP/check_ftp_rw-%28w-2FSFTP-support%29/details).
https://exchange.nagios.org/directory/Plugins/Websites,-Forms-and-Transactions/Check-form/details
Il suffit d'installer http://www.nsclient.org/ en administrateur sur la machine à surveiller. Parfois le pare-feu doit être ouvert sur le port 5666 ou 12489.
Problèmes connus
Ex :
Error in configuration file '/usr/local/nagios/etc/nagios.cfg' - Line 452 (Check result path '/usr/local/nagios/var/spool/checkresults' is no
Error: Unable to write to check_result_path ('/usr/local/nagios/var/spool/checkresults') - Permission denied
En effet, /usr/local/nagios/var/spool/checkresults est nécessaire au lancement du processus Nagios 4, et peut être créé manuellement à cet effet :
mkdir /usr/local/nagios/var/spool/
mkdir /usr/local/nagios/var/spool/checkresults/
chown nagios /usr/local/nagios/var/spool/checkresults
chgrp nagios /usr/local/nagios/var/spool/checkresults
Si le pare-feu est déjà ouvert à Nagios ou au port 12489, et si C:\Program Files\NSClient++\nsc.ini autorise déjà l'IP du serveur Nagios, et que le processus
nscp.exe est bien lancé, c'est peut être qu'avec Nagios 4 il faut utiliser C:\Program Files\NSClient++\nsclient.ini.
Si depuis le portail web on ne peut pas planifier de maintenance à cause de cette erreur, alors que les permissions du fichier semblaient correctes, il faut modifier le
fichier suivant [4] :
vim /etc/init.d/nagios
Rechercher la ligne démarrant par "chown $NagiosUser:$NagiosGroup $NagiosRunFile", puis ajouter en dessous :
sleep 10
chmod 666 /usr/local/nagios/var/rw/nagios.cmd
/etc/init.d/nagios restart
Si la page d'accueil fonctionne mais pas les vues monitoring, c'est certainement que le CGI n'arrive pas à s'exécuter.
Parfois l'erreur est notée plus clairement : You don't have permission to access /cgi-bin/nagios3/status.cgi on this server.
Network Unreachable
Si le serveur Nagios ping une machine qui fonctionne, mais qu'elle y apparait comme injoignable, c'est à cause de la différence entre le ping IPv4 et le ping6. Il faut
juste modifier le check-host-alive de command.cfg en ajoutant "-4" à la fin :
define command{
command_name check-host-alive
command_line $USER1$/check_ping -H $HOSTADDRESS$ -w 3000.0,80% -c 5000.0,100% -4
}
NSClient - ERROR: Could not get data for 5 perhaps we don't collect data this far back?
Sur le client Windows, modifier dans C:\Program Files\NSClient++\NSC.ini, la ligne password=, afin qu'il corresponde à celui définit sur le serveur, dans
/usr/local/nagios/etc/objects/resource.cfg à la ligne $USER4$=. Ou vice-versa.
Si la commande suivante fonctionne depuis le serveur, c'est qu'il faut compléter commands.cfg :
La connexion au client Nagios fonctionne, mais le statut est flou : il faut réinstaller et reconfigurer Nagios client (problème de version avec le serveur incompatible).
Survient dans les logs au lancement de Nagios pour avertir qu'en cas d'alerte sur la machine mentionnée, personne ne sera prévenu.
define host{
name xxx
contact_groups admins
...
}
Références
1. https://library.nagios.com/library/products/nagioscore/manuals/
2. https://www.nagios.org/download/core/
3. http://doc.ubuntu-fr.org/nagios
4. http://alexnogard.com/error-could-not-open-command-file-usrlocalnagiosvarrwnagios-cmd-for-update/
http://djibril.developpez.com/tutoriels/linux/nagios-pour-debutant/
Voir aussi
en:System Monitoring with Xymon
chroot est un outil GNU faisant partie de coreutils, plus précisément des shellutils.
soit être filtré suivant les règle de la table INPUT pour être utilisé par un processus de la machine
soit être transféré à une autre machine en respectant les règle de la table FORWARD
soit quitter la machine dans les condition de la table OUTPUT
Le but est donc de modifier les tables en ajoutant et supprimant des règles dans les différentes tables. pour cela nous utilisons la commande iptables.
Syntaxe globale
#iptables <une action sur une table de netfilter> <la table en question> <condition(s) d'application> -j <action sur le paquet>
#exemple
iptables -A INPUT --p icmp -j ACCEPT
#on ajoute à la table INPUT la règle ACCEPT pour les paquet icmp (ping) entrant,
#bien entendu il faut aussi accepter les paquet sortants. D'où :
iptables -A OUTPUT --p icmp -j ACCEPT
A chaque chaîne est attribuée une "politique" (policy), les deux principales sont :
ACCEPT : Politique d'acceptation. Par défaut, tout ce qui n'est pas dans la chaîne est accepté.
DROP : Politique de refus. Par défaut, tout ce qui n'est pas dans la chaîne sera rejeté. (utile pour filtrer les connections entrantes)
Un exemple concret. Par défaut, si vous n'avez jamais touché à votre iptables, voici ce que vous devez avoir :
# iptables -L
Chain INPUT (policy ACCEPT)
target prot opt source destination
On constate ici que rien n'est sécurisé : tout entre (Chain INPUT, policy ACCEPT), tout sort (Chain OUTPUT, policy ACCEPT).
Réglage simple
Tout d'abord, si votre iptables ne ressemble pas à l'exemple ci-dessus, ou tout simplement si vous souhaitez réinitialiser vos réglages, tapez ces commandes :
# iptables -F
(Efface toutes les règles définies par l'utilisateur)
# iptables -X
(Efface toutes les chaînes définies par l'utilisateur)
Les règles sont lues dans un ordre précis. De la première vers la dernière. De cette manière, dans l'hypothèse où la première règle interdit une connexion alors que la
suivante l'autorise, la connexion sera interdite.
APPEND : Ajouter une règle dans une chaîne. La règle ainsi créée s'ajoute après la dernière règle.
INSERT : Insère une règle dans un chaîne. La règle ainsi créée s'ajoute avant la première règle.
# iptables -L
Chain INPUT (policy DROP)
target prot opt source destination
ACCEPT all -- anywhere anywhere state RELATED,ESTABLISHED
ACCEPT tcp -- anywhere anywhere tcp dpt:ssh
ACCEPT tcp -- anywhere anywhere tcp dpt:www
ACCEPT icmp -- anywhere anywhere
ACCEPT tcp -- anywhere anywhere tcp dpt:pop3s
# iptables -D INPUT 2
(Supprime la règle n°2 de la chaîne INPUT.)
Nous allons autoriser une connexion déjà établie (ESTABLISHED) à recevoir du trafic.
Autorisons maintenant le trafic sur deux ports utilisés par des services très répandus / utilisés. Bien évidemment à vous de faire le tri en fonction de ce que vous
utilisez ou non.
Trafic SSH :
Trafic Web :
Requêtes Ping :
Trafic Local :
Voici ce que vous devriez avoir pour l'instant si vous listez les filtres (l'option -v permet de voir sur quelle interface la règle est appliquée) :
# iptables -L -v
Chain INPUT (policy ACCEPT 155 packets, 21332 bytes)
pkts bytes target prot opt in out source destination
20 1562 ACCEPT all -- any any anywhere anywhere state RELATED,ESTABLISHED
0 0 ACCEPT all -- lo any anywhere anywhere
0 0 ACCEPT tcp -- eth0 any anywhere anywhere tcp dpt:ssh
0 0 ACCEPT tcp -- eth0 any anywhere anywhere tcp dpt:http
0 0 ACCEPT icmp -- any any anywhere anywhere
Comme vous pouvez le constater, la politique est une politique d'acceptation (policy ACCEPT). Donc tous les paquets entrent sans restriction. En résumé, jusque là,
nos modifications n'ont servies à rien. Nous allons donc devoir modifier la politique en politique de refus (policy DROP).
La modification est effective immédiatement. A partir de maintenant, seuls les paquets tcp entrants sur les ports 80, 22 ainsi que les requêtes ICMP sont acceptés.
Ces modifications ne seront pas prises en compte au redémarrage. Il faut pour cela créer un fichier script contenant toutes les commandes précédentes.
#!/bin/sh
iptables -A INPUT -m state --state ESTABLISHED,RELATED -j ACCEPT
iptables -A INPUT -p tcp -i eth0 --dport ssh -j ACCEPT
iptables -A INPUT -p tcp -i eth0 --dport 80 -j ACCEPT
iptables -A INPUT -p icmp -j ACCEPT
iptables -I INPUT 2 -i lo -j ACCEPT
iptables -P INPUT DROP
Créez ce fichier dans le répertoire /etc/init.d/ et n'oubliez pas de le rendre exécutable (chmod 700 nom_du_fichier). Enfin, utilisez la commande update-rc.d afin
que ce script soit exécuté au démarrage.
Logs
Par défaut, les journaux d'iptables ne renseignent pas les actions effectuées par le par-feu. Pour les obtenir, il faut définir un niveau de log, par exemple [1] :
Conditions
Adresses IP et ports en destination et en source
Pour sécuriser un serveur FTP, en n'autorisant que son adresse IP et interdisant toutes les autres à se connecter au Linux sur le port 21 :
Limites
Pour se prémunir des attaques DDoS on peut limiter le trafic à un certain nombre de connexions par minute sur un port :
iptables -A INPUT -p tcp --dport 80 -m state --state NEW -m limit --limit 500/minute --limit-burst 2000 -s 144.76.38.140 -j ACCEPT
Protocoles
États
Suivi
conntrack
Médiagraphie
A. S. Tanenbaum, « Modern Operating Systems », Prentice Hall, 951 p., 2001.
S. Pierre, « Introduction aux ordinateurs : organisation, exploitation et programmation », Télé-université, 253 p., 1996.
Ellen Siever et al., « Linux in a nutshell : a desktop quick reference », O’Reilly and Associates, 2000.
Jeffrey Dean, « LPI Linux Certification in a Nutshell: a desktop quick reference », O’Reilly and Associates, 2000.
Auteurs
L'écriture de ce livre a été initié par Stéphane Gill. Les deux premiers chapitres sont basés sur les notes de cours "Système d'exploitation" de Stéphane Gill utilisées
au collège Ahuntsic.
Les chapitres suivants ont été écrits par Alexandre GUY et les étudiants de la formation Administrateur Systèmes & Réseaux (http://perso.univ-perp.fr/mceljai
/Admisys/) de l'Université de Perpignan Via Domitia (UPVD) (http://www.univ-perp.fr).
Merci également aux autres wikinautes qui ont participés à l'élaboration de ce wikibook en le complétant et corrigeant.
Vous avez la permission de copier, distribuer et/ou modifier ce document selon les termes de la licence de
documentation libre GNU, version 1.2 ou plus récente publiée par la Free Software Foundation ; sans
sections inaltérables, sans texte de première page de couverture et sans texte de dernière page de couverture.
GFDL
1. http://www.inetdoc.net/guides/iptables-tutorial/logtarget.html
Récupérée de « https://fr.wikibooks.org/w/index.php?title=Le_système_d%27exploitation_GNU-Linux/Version_imprimable&oldid=484732 »