Book Sle Deployment
Book Sle Deployment
Book Sle Deployment
Server
11 SP1 www.novell.com
23 Avril 2010 Guide de déploiement
Guide de déploiement
Tout le contenu est soumis à © 2006- 2010 Novell, Inc.
Mentions légales
Ce manuel est protégé par les droits de Novell relatifs à la propriété intellectuelle. En reproduisant,
dupliquant ou distribuant ce manuel, vous acceptez explicitement les termes et conditions de cet accord
de licence.
Ce manuel peut être librement reproduit, dupliqué et distribué tel quel ou dans le cadre d'un ensemble
au format électronique et/ou imprimé, à condition toutefois que ce qui suit soit respecté :
Cette mention de copyright, ainsi que les noms des auteurs et des contributeurs, doivent apparaître
clairement et distinctement sur toutes les copies reproduites, dupliquées et distribuées. Ce manuel, et
plus particulièrement la version imprimée, doit être reproduit et/ou distribué dans un cadre
exclusivement non commercial. L'autorisation explicite de Novell, Inc. doit être obtenue avant toute
autre utilisation de ce manuel, en tout ou en partie.
Pour les marques Novell, reportez-vous à la liste des marques et des marques de service Novell
http://www.novell.com/company/legal/trademarks/tmlist.html. * Linux est
une marque déposée de Linus Torvalds. Toutes les autres marques tiers sont la propriété de leurs
détenteurs respectifs. Un symbole de marque commerciale (®, ™ etc.) indiquent une marque
commerciale de Novell et l'astérisque (*), une marque commerciale de fabricant tiers.
Toutes les informations de cet ouvrage ont été regroupées avec le plus grand soin. Cela ne garantit
cependant pas sa complète exactitude. Ni Novell, Inc., ni SUSE LINUX Products GmbH, ni les auteurs,
ni les traducteurs ne peuvent être tenus responsables des erreurs possibles ou des conséquences qu'elles
peuvent entraîner.
Table des matières
À propos de ce guide ix
5 Stratégies de déploiement 91
5.1 Déploiement pour dix postes de travail au maximum . . . . . . . . . . 91
5.2 Déploiement pour 100 postes de travail au maximum . . . . . . . . . 93
5.3 Déploiement sur plus de 100 postes de travail . . . . . . . . . . . . 101
1 7 KIWI 307
17.1 Configuration préalable requise pour l'installation de KIWI . . . . . . . 307
17.2 Présentation du processus de construction de KIWI . . . . . . . . . . 308
17.3 Description d'une image . . . . . . . . . . . . . . . . . . . . . 309
17.4 Création d'applicatifs avec KIWI . . . . . . . . . . . . . . . . . . 312
17.5 Pour plus d'informations . . . . . . . . . . . . . . . . . . . . . 314
x Guide de déploiement
Storage Administration Guide (Guide d'administration du stockage)
Fournit des informations sur la gestion des périphériques de stockage sur un serveur
SUSE Linux Enterprise Server.
En plus des manuels complets, plusieurs guides de démarrage rapide sont disponibles :
Les versions HTML de la plupart des manuels de produits de votre système installé
sont disponibles sous /usr/share/doc/manual ou dans les centres de
documentation de votre ordinateur. Les dernières mises à jour de la documentation sont
disponibles à l'adresse http://www.novell.com/documentation à partir de
laquelle vous pouvez télécharger les versions PDF ou HTML des manuels de votre
produit.
2 Commentaires
Pour soumettre vos commentaires, vous disposez de plusieurs options :
Pour signaler les bogues d'un composant du produit, visitez le site http://
support.novell.com/additional/bugreport.html.
À propos de ce guide xi
Commentaires utilisateur
Nous souhaiterions connaître vos commentaires et suggestions sur ce guide et les
autres documentations fournies avec ce produit. Utilisez la fonction des
commentaires des utilisateurs située en bas de chaque page de la documentation
en ligne ou accédez au site http://www.novell.com/documentation/
feedback.html, puis saisissez vos commentaires.
3 Conventions relatives à la
documentation
Les conventions typographiques suivantes s'appliquent dans ce manuel :
• Alt, Alt + F1 : touche ou combinaison de touches sur lesquelles appuyer ; les touches
apparaissent en majuscules comme sur un clavier
• ►amd64 em64t ipf: ce paragraphe n'est utile que pour les architectures spécifiées.
Les flèches marquent le début et la fin du bloc de texte. ◄
►ipseries zseries: ce paragraphe n'est utile que pour les architectures spécifiées.
Les flèches marquent le début et la fin du bloc de texte. ◄
YaST
Plusieurs nouvelles options de configuration ont été développées pour YaST. Elles
sont normalement décrites dans les chapitres ayant trait à la technologie impliquée.
SPident
L'utilitaire de gestion SPident propose une vue d'ensemble des logiciels de base
installés et explicite le niveau du Service Pack actuel du système.
Services d'annuaire
Plusieurs services d'annuaire compatibles LDAP sont disponibles :
• OpenLDAP
AIDE
Système de détection d'intrusions qui peut être configuré de manière à détecter les
modifications du système non autorisées.
iSCSI
iSCSI constitue une solution simple et raisonnablement peu onéreuse pour connecter
des ordinateurs Linux à des systèmes de stockage centralisés. Pour plus
d'informations sur la solution iSCSI, reportez-vous au SLES 11 SP1: Storage
Administration Guide (↑SLES 11 SP1: Storage Administration Guide).
OCFS (Oracle Cluster File System - système de gestion des fichiers en grappes d'Oracle)
version 2
OCFS2 est un système de fichiers de journalisation d'utilité générale complètement
intégré au kernel Linux version 2.6 et ultérieure. Pour une présentation générale
d'OCFS2, reportez-vous au guide High Availability Guide (Guide de haute
disponibilité).
2 Guide de déploiement
1.1 Remarques concernant le
déploiement d'un système
d'exploitation SUSE Linux
Enterprise Server
Au début de la phase de planification, vous devez tenter de définir les objectifs du projet
et les fonctions requises. Cette étape doit être répétée pour chaque projet. Vous devrez
chaque fois répondre aux questions suivantes :
• Comment allez-vous obtenir les mises à jour régulières ? Tous les correctifs sont
fournis en ligne pour les utilisateurs enregistrés. Pour l'enregistrement et les
correctifs, reportez-vous à la base de données de l'assistance technique (http://
www.novell.com/linux/suse/portal/index.html).
• Avez-vous besoin d'aide pour votre installation locale ? Novell propose des
formations, une assistance technique et des services de conseil pour tous les aspects
afférents à SUSE Linux Enterprise Server. Pour plus d'informations, reportez-vous
au site http://www.novell.com/products/server/.
• Avez-vous besoin de produits tiers ? Vérifiez que le produit requis est également
pris en charge par la plate-forme choisie. Novell peut vous aider à prendre en charge
des logiciels sur d'autres plates-formes, au besoin.
SUSE Linux Enterprise Server vous propose une vaste gamme de services. Pour obtenir
la vue d'ensemble des informations documentées dans le présent ouvrage, reportez-vous
à About This Guide (↑Administration Guide (Guide d'administration)). La plupart des
configurations requises peuvent être réalisées avec YaST, l'utilitaire de configuration
de SUSE. En outre, de nombreuses configurations manuelles sont décrites dans les
sections correspondantes.
4 Guide de déploiement
informatique sérieuse présentant des risques de perte de données, il est vivement
recommandé de procéder à une sauvegarde régulière.
Pour une sécurité optimale, notamment en ce qui concerne les données, vous devez
régulièrement effectuer des mises à jour de toutes les machines utilisées. Si vous utilisez
un serveur d'importance stratégique, il est vivement recommandé que vous disposiez
d'une deuxième machine identique (pré-exploitation) sur laquelle vous pourrez tester
les modifications avant de les appliquer au système de production. De plus, vous aurez
également la possibilité de changer de machine en cas de panne matérielle.
Pour plus d'informations sur la documentation associée à votre produit et pour les
dernières mises à jour de cette documentation, reportez-vous à http://www.novell
.com/documentation.
UC
Le nombre d'unités centrales prises en charge dépend du kernel utilisé. Les voici :
10 Guide de déploiement
Configuration requise pour le disque dur
La configuration du disque dur requise dépend fortement de l'installation. En règle
générale, pour que le système fonctionne correctement, vous devez avoir plus
d'espace disque que n'en nécessite le logiciel d'installation. La configuration
minimale des différents éléments est la suivante :
Méthodes de démarrage
Pour l'installation, l'ordinateur peut démarrer à partir d'un DVD, d'un disque dur
USB, d'une disquette ou du réseau. Un serveur de démarrage spécifique est requis
pour un démarrage sur le réseau. Ce serveur de démarrage peut être configuré avec
SUSE Linux Enterprise Server. Pour l'utilisation de disques durs USB, le BIOS et
le microprogramme doivent prendre en charge le démarrage à partir de périphériques
USB. Créez un disque dur USB de démarrage au moyen de l'outil mkbootdisk,
situé sur le premier DVD d'installation, dans le répertoire /boot/i386/ ou
/boot/x86_64. Pour plus d'informations, lisez la documentation disponible
dans le répertoire /boot.
UC
II (les anciennes unités centrales Itanium ne sont plus prises en charge). Les
processeurs bicoeurs et la technologie Hyperthread sont également pris en charge.
Mémoire
Il est conseillé d'avoir au minimum 1 Go de RAM par socket de processeur.
Minimum 4 Go
Recommandé 10 Go
Méthodes de démarrage
Les options disponibles pour le démarrage de l'ordinateur dépendent de votre
matériel. Toutes les méthodes de démarrage disponibles sur la machine doivent
fonctionner. Un serveur de démarrage spécifique est requis pour un démarrage
PXE sur le réseau. Vous pouvez également utiliser SUSE Linux Enterprise Server
pour configurer cette option.
12 Guide de déploiement
UC
Toutes les unités centrales disponibles sur le marché à ce jour sont prises en charge.
Cela comprend les processeurs bicoeurs.
Bureau KDE 3 Go
Méthodes de démarrage
L'ordinateur peut être démarré depuis un CD ou un réseau. Un serveur de démarrage
spécifique est requis pour un démarrage sur le réseau. Cela peut être configuré avec
SUSE Linux Enterprise Server.
Option de Utilisation
démarrage
Des disquettes ou Les images requises pour créer des disques de démarrage se
des disques USB trouvent sur le premier CD ou DVD dans le répertoire /boot.
Reportez-vous également au fichier README situé dans le
même répertoire. Le démarrage depuis une clé USB n'est
possible que si le BIOS de la machine prend en charge cette
méthode.
14 Guide de déploiement
Option de Utilisation
démarrage
Par défaut, la console graphique est utilisée. Si vous devez installer un grand nombre
d'ordinateurs similaires, il est recommandé de créer un fichier de configuration
AutoYaST ou une image KIWI préchargée et de le (ou la) rendre accessible au processus
d'installation. Reportez-vous également à la documentation d'autoyast2 au
Chapitre 21, Installation automatisée (p. 339) et celle de KIWI au Chapitre 17, KIWI
(p. 307).
16 Guide de déploiement
2.4 Support de démarrage et
d'installation
Lors de l'installation du système, le support de démarrage peut être différent du support
d'installation du système. Toutes les combinaisons de supports pris en charge pour le
démarrage et l'installation peuvent être utilisées.
Installation réseau
Si vous envisagez d'installer plusieurs systèmes, il est plus facile de fournir les
supports d'installation via le réseau. Il est possible d'effectuer l'installation via
plusieurs protocoles courants, comme NFS, HTTP, FTP ou SMB. Pour plus
d'informations sur l'exécution d'une telle installation, reportez-vous au Chapitre 14,
Installation à distance (p. 237).
1. Assurez-vous que le lecteur est entré comme lecteur amorçable dans le BIOS.
18 Guide de déploiement
3. Le menu de démarrage du CD, du DVD, de la disquette ou du disque USB permet
de transférer différents paramètres vers le système d'installation. Reportez-vous
également à la Section 14.4.2, « Utilisation des options de démarrage
personnalisées » (p. 269). Si vous souhaitez effectuer l'installation sur le réseau,
indiquez à cet endroit la source d'installation.
Si vous avez un serveur SLP, sélectionnez SLP comme source d'installation dans le
premier écran de démarrage. Lors de la procédure de démarrage, sélectionnez les sources
d'installation disponibles à utiliser.
Si le DVD est disponible sur le réseau, utilisez-le comme source d'installation. Dans
ce cas, spécifiez le paramètre install=<URL> avec des valeurs appropriées à l'invite
de démarrage. Pour plus d'informations sur ce paramètre, reportez-vous à la
Section 14.4.2, « Utilisation des options de démarrage personnalisées » (p. 269).
Vous pouvez tout de même effectuer l'installation sur la console sans mode graphique
établi. Le programme d'installation textuel offre la même fonctionnalité que la version
graphique. Pour quelques conseils sur la navigation dans ce mode, reportez-vous à la
section « Navigation in Modules » (Chapitre 3, YaST in Text Mode, ↑Administration
Guide (Guide d'administration)).
Sur la plupart des ordinateurs, il y a deux interfaces série : ttyS0 et ttyS1. Pour
l'installation, vous avez besoin d'un programme de terminal tel que minicom ou screen.
Pour initialiser la connexion série, lancez l'application Screen (Écran) dans une console
locale en entrant la commande suivante :
Cela signifie que l'écran reçoit les données du premier port série avec un débit en bauds
de 9 600. À partir de maintenant, l'installation est semblable à l'installation en mode
texte sur ce terminal.
20 Guide de déploiement
2.6.3 Installation avec le protocole SSH
Si vous n'avez pas d'accès direct au matériel informatique et si, par exemple, vous devez
lancer l'installation depuis une console de gestion, contrôlez tout le processus
d'installation sur le réseau. Pour ce faire, saisissez les paramètres UseSSH=1 et
SSHPassword=<secret> à l'invite de démarrage. Un daemon SSH est ensuite
lancé dans le système. Vous pouvez alors vous connecter au système en tant qu'utilisateur
root avec le mot de passe « secret ». Pour vous connecter, utilisez la commande
ssh -X root@<ipaddr>.
Dès que vous êtes logué dans le système d'installation, lancez l'installation grâce à la
commande yast pour une installation en mode texte ou à la commande yast2 pour
une installation graphique. Vous êtes ensuite guidé tout au long du processus
d'installation. Cette procédure est décrite en détail à la Section 14.1.5, « Installation à
distance simple via une configuration réseau dynamique/SSH » (p. 244).
Étant donné que des clients VNC appropriés sont également disponibles pour d'autres
systèmes d'exploitation tels que Microsoft Windows et MacOS, l'installation peut
également être contrôlée depuis des ordinateurs exécutant ces systèmes d'exploitation.
L'ordinateur se bloque
Modifiez la console de votre ordinateur pour rendre les sorties du kernel visibles.
Assurez-vous de vérifier les dernières sorties. Pour ce faire, appuyez sur Ctrl + Alt
+ F10. Si vous ne parvenez pas à résoudre le problème, consultez l'équipe de support
de SUSE Linux Enterprise Server. Pour consigner tous les messages système au
démarrage, utilisez une connexion série, comme décrit dans la Section 2.6,
« Contrôle de l'installation » (p. 19).
Disquette de démarrage
La disquette de démarrage est une solution provisoire utile si vous rencontrez des
difficultés lors de la configuration d'autres options ou si vous souhaitez reporter la
décision concernant le mécanisme de démarrage final. Une disquette de démarrage
peut également être une solution adaptée par rapport à OS/2 ou à Windows NT.
22 Guide de déploiement
Pour plus de détails sur la création des disquettes de démarrage, reportez-vous à la
section « Creating Boot CDs » (Chapitre 8, The Boot Loader GRUB, ↑Administration
Guide (Guide d'administration)).
• Vérifiez les sorties sur les différentes consoles. Vous pouvez passer d'une console
à l'autre avec la combinaison de touches Ctrl + Alt + Fn. Par exemple, pour obtenir
un shell dans lequel exécuter différentes commandes, appuyez sur Ctrl + Alt + F2.
• Saisissez la commande dmesg pour vérifier les messages système sur une console
dans le système d'installation.
24 Guide de déploiement
Installation sur IBM POWER
Ce chapitre décrit la procédure de préparation à l'installation de SUSE® Linux Enterprise
3
Server sur les systèmes IBM POWER.
Tous les modèles basés sur POWER3, POWER4, PPC970 et RS64 qui étaient pris en
charge par SUSE Linux Enterprise Server 9 sont désormais exclus de cette prise en
charge.
Une installation standard requiert au moins 256 Mo de RAM. L'installation d'un système
standard requiert au moins 2,0 Go d'espace disque.
Des informations récentes, classées par modèle, concernant les installations Linux sur
System p sont disponibles sur le site http://www-03.ibm.com/systems/p/.
BladeCenter
Les systèmes BladeCenter JS12, BladeCenter JS20, BladeCenter JS21 et
BladeCenter JS22 sont pris en charge.
JSxx BladeCenter
Vous trouverez la dernière version du microprogramme pour BladeCenter sur le site
http://www-304.ibm.com/systems/support/supportsite.wss/
26 Guide de déploiement
docdisplay?lndocid=MIGR-63017&brandind=5000020 (Logiciels et
pilotes de périphériques — IBM BladeCenter).
3.2 Préparation
Ce chapitre décrit en détail les étapes de préparation requises avant de procéder
effectivement à l'installation. La procédure d'installation dépend du système utilisé.
Reportez-vous à la documentation suivante :
• Pour les systèmes IBM eServer p5, reportez-vous à la Section 3.2.1, « Préparation
de l'installation sur les modèles IBM eServer p5, System p et OpenPower » (p. 28).
Si SUSE® Linux Enterprise Server doit être installé sur plusieurs systèmes ou partitions,
il est recommandé de créer une source d'installation réseau. Vous pouvez utiliser la
même source pour procéder à des installations simultanées sur plusieurs partitions ou
systèmes. Pour plus d'informations sur la configuration d'une source d'installation réseau,
reportez-vous à la Section 14.2.1, « Configuration d'un serveur d'installation à l'aide de
YaST » (p. 247).
L'installation peut être contrôlée avec un client VNC. Pour plus d'informations sur
VNC, reportez-vous à la Section 14.1.1, « Installation à distance simple via une
configuration réseau statique/VNC » (p. 238).
Cette section part du principe que vous avez configuré votre console HMC (Hardware
Management Console - console de gestion du matériel) et qu'elle est connectée à votre
système. Pour plus d'informations sur l'utilisation de l'assistant pour configurer la console
HMC, reportez-vous à la section « Configuring the HMC using the Guided Setup Wizard
(Configuration de la console HMC à l'aide de l'assistant de configuration guidée) »,
accessible à l'adresse : http://publib.boulder.ibm.com/infocenter/
systems/scope/hw/topic/iphai_p5/confighmcgs.htm?
28 Guide de déploiement
Pour préparer une partition LPAR pour SUSE Linux Enterprise Server, configurez le
système sur la console HMC (Hardware Management Console – console de gestion du
matériel). Pour plus d'informations, reportez-vous à la documentation IBM à l'adresse
suivante : http://publib.boulder.ibm.com/infocenter/systems/
scope/hw/topic/iphbi/iphbikickoff.htm
Espace disque
Avant d'installer SUSE Linux Enterprise Server, vérifiez que vous disposez de
suffisamment d'espace disque. L'installation d'un système standard requiert au moins
4 Go d'espace disque libre.
3 Cliquez avec le bouton droit de la souris sur le profil à utiliser pour l'installation,
puis sélectionnez Properties (Propriétés)—Voir Figure 3.1, « HMC : Gestion
des serveurs—Propriétés » (p. 29).
5 Dans la zone Managed system I/O devices (Périphériques E/S des systèmes gérés),
sélectionnez l'option Other Mass Storage Controller (Autre contrôleur de stockage
grande capacité) dans le bus d'installation. Pour assigner ce lecteur de CD-ROM
à la partition, cliquez sur Add as required (Ajouter comme requis).
Vous devez obtenir un résultat comparable à celui présenté à la Figure 3.2, « HMC :
Périphériques E/S des systèmes gérés » (p. 31).
30 Guide de déploiement
Figure 3.2 HMC : Périphériques E/S des systèmes gérés
3 Cliquez avec le bouton droit de la souris sur le profil à utiliser pour l'installation,
puis sélectionnez Properties (Propriétés)—Voir Figure 3.1, « HMC : Gestion
des serveurs—Propriétés » (p. 29).
5 Dans la zone Managed system I/O devices (Périphériques E/S des systèmes gérés),
sélectionnez PCI 10/100/1000Mbps Ethernet UTP 2-port (PCI 10/100/1000
Si SUSE Linux Enterprise Server doit être installé sur plusieurs partitions, créez une
source d'installation réseau. Ainsi, vous n'aurez pas besoin de changer de CD-ROM au
cours de l'installation. La même source peut également être utilisée pour l'installation
simultanée de plusieurs systèmes. Pour plus d'informations sur la configuration de la
source d'installation réseau, reportez-vous à la Section 14.2.1, « Configuration d'un
serveur d'installation à l'aide de YaST » (p. 247).
Démarrage de l'installation
Pour lancer l'installation, redémarrez le système. Cliquez avec le bouton droit de la
souris sur le nom du profil, sélectionnez Activate (Activer), puis cliquez sur OK dans
la boîte de dialogue suivante.
IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM
IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM
IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM
IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM
IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM
IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM
IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM
IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM
IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM IBM
32 Guide de déploiement
memory keyboard network scsi speaker
Version SF220_004
SMS 1.5 (c) Copyright IBM Corp. 2000,2003 All rights reserved.
---------------------------------------------------------------------
Main Menu
1. Select Language
2. Setup Remote IPL (Initial Program Load)
3. Change SCSI Settings
4. Select Console
5. Select Boot Options
---------------------------------------------------------------------
Navigation Keys:
Version SF220_011
SMS 1.5 (c) Copyright IBM Corp. 2000,2003 All rights reserved.
--------------------------------------------------------------------------
Select Device
Device Current Device
Number Position Name
1. - Virtual Ethernet
( loc=U9111.520.10D3CCC-V1-C3-T1 )
2. - Ethernet
( loc=U787A.001.DNZ00XG-P1-T5 )
3. - Ethernet
( loc=U787A.001.DNZ00XG-P1-T6 )
4. - IDE CD-ROM
( loc=U787A.001.DNZ00XG-P4-D3 )
5. 1 SCSI 73407 MB Harddisk
( loc=U787A.001.DNZ00XG-P1-T10-L8-L0 )
--------------------------------------------------------------------------
IDE CD-ROM
( loc=U787A.001.DNZ00XG-P4-D3 )
1. Information
2. Normal Mode Boot
3. Service Mode Boot
--------------------------------------------------------------------------
Navigation keys:
M = return to Main Menu
ESC key = return to previous screen X = eXit System Management Services
--------------------------------------------------------------------------
Type the number of the menu item and press Enter or select Navigation Key:
Le système lit les données à partir du lecteur de CD-ROM et l'utilitaire yaboot est lancé :
Welcome to SuSE:SLE-11:GA!
34 Guide de déploiement
Enter "help" to get some basic usage information
boot:
Pour continuer l'installation à partir d'une source d'installation réseau plutôt que d'un
CD-ROM (voir la section intitulée « Assignation d'un périphérique d'installation à une
partition LPAR » (p. 29)), ajoutez l'option manual au nom du kernel (install).
Pour une installation avec une connexion VNC, ajoutez les paramètres vnc=1 et
vncpassword=motdepasse au nom du kernel (install). Pour plus d'informations
sur VNC, reportez-vous à la Section 14.1.1, « Installation à distance simple via une
configuration réseau statique/VNC » (p. 238).
Étapes supplémentaires
Procédez de la façon décrite au Chapitre 6, Installation avec YaST (p. 103) pour lancer
l'installation du logiciel avec linuxrc et YaST.
Pour préparer une partition LPAR pour SUSE Linux Enterprise Server, configurez le
système sur la console HMC (Hardware Management Console – console de gestion du
matériel). Pour plus d'informations, reportez-vous au Redbook IBM eServer pSeries
690 System Handbook (SG24-7040-00), accessible à la page http://www.redbooks
.ibm.com/redbooks/SG247040/.
Espace disque
Avant d'installer SUSE Linux Enterprise Server, vérifiez que vous disposez de
suffisamment d'espace disque. Il est recommandé d'utiliser un disque dur à part.
SUSE Linux prend également en charge les installations sur des espaces de stockage
rattachés à Fibre Channel. Avant de lancer l'installation, configurez l'adaptateur FCHBA
(Fiber Channel Host Bus Adapter), le commutateur SAN Fabric et le système de stockage
de manière qu'ils fournissent un accès de l'adaptateur FCHBA aux unités logiques
(LUN) cibles sur le système de stockage, via le commutateur SAN Fabric.
Bien configurés, les périphériques de stockage SAN sont répertoriés parmi les disques
durs existants de votre système. L'option Create Custom Partitioning Setup (Créer une
36 Guide de déploiement
configuration de partitionnement personnalisé) ouvre la boîte de dialogue décrite à la
Section 15.1, « Utilisation de l'outil de partitionnement de YaST » (p. 277).
Démarrage de l'installation
Pour lancer l'installation, redémarrez le système. Entrez ensuite dans le microprogramme
du système. Pour cela, appuyez sur la touche F1 ou 1 lorsque vous utilisez une console
série pendant la phase de vérification du système, lors du redémarrage. Voir Figure 3.3,
« Accès au microprogramme système » (p. 37).
Version M2P01113
(c) Copyright IBM Corp. 2000 Tous droits réservés.
------------------------------------------------------------------------
Multi-amorçage
1 Sélection du logiciel
2 Valeurs logicielles par défaut
3 Sélectionner le périphérique à installer
4 Sélectionner les périphériques d'amorçage
5 Invite OK
6 Démarrage en multi-amorçage <ACTIVÉ>
.------.
|X=Quitter|
`------'
===>3
38 Guide de déploiement
Figure 3.5 Installation du système d'exploitation
Périphérique Périphérique
Numéro Nom
1 Disquette
2 ID bande SCSI=0 ( emplacement=50322f5a )
3 SCSI CD-ROM id=1 ( emplacement=50322f5a )
4 Ethernet ( Intégré )
5 Adaptateur SysKonnect PCI FDDI ( emplacement=4 )
6 Ethernet ( emplacement=2 )
7 Aucun
.------.
|X=Quitter|
`------'
===>3
->1 SuSE:SLE-11:GA<-
Welcome to SuSE:SLE-11:GA!
Saisissez install et appuyez sur Entrée. Vous pouvez aussi vous contenter d'appuyer
sur Entrée pour démarrer le programme d'installation (option par défaut).
En mode LPAR, le CD-ROM doit être inclus dans le profil de la partition à installer.
Étapes supplémentaires
Procédez de la façon décrite au Chapitre 6, Installation avec YaST (p. 103) pour lancer
l'installation du logiciel avec linuxrc et YaST.
40 Guide de déploiement
Espace de stockage sur le disque dur
Avant d'installer SUSE Linux Enterprise Server, vérifiez que vous disposez de
suffisamment d'espace disque. Il est recommandé d'utiliser un disque dur dédié.
Remarques et informations
Informations de présentation :
Assignez le lecteur de CD-ROM au serveur lame choisi pour l'installation. Pour cela,
ouvrez un navigateur Web, connectez-vous au module de gestion du serveur lame, puis
loguez-vous. Une fois logué, sélectionnez la fonction Remote Control (Contrôle à
distance) dans le menu Blade Tasks (Tâches des serveurs lame), puis activez Start
Remote Control (Lancer le contrôle à distance). Une nouvelle fenêtre s'ouvre. Assignez
le lecteur de CD-ROM au serveur lame de votre choix dans le menu Change Media
Tray Owner (Changer le propriétaire du porte-supports).
username: user
password: ********
system>
system> list -l 3
system
mm[1] primary
power[1]
power[2]
power[3]
power[4]
blower[1]
42 Guide de déploiement
blower[2]
switch[1]
switch[3]
blade[1]
sp
cpu[1]
cpu[2]
blade[3]
sp
blade[4]
sp
blade[6]
sp
blade[8]
sp
cpu[1]
cpu[2]
blade[9]
sp
cpu[1]
cpu[2]
blade[10]
sp
blade[11]
sp
blade[13]
sp
mt
system>
La cible de la commande est alors déterminée. Pour travailler avec, par exemple, le
serveur lame n° 9, entrez env -T system:blade[9]. Exécutez la commande
console pour établir une connexion série via un réseau local (connexion SOL ou
Serial over LAN) à la console du serveur lame JSxx.
Démarrage de l'installation
À la fin de la vérification système, le chargeur de démarrage de SUSE Linux Enterprise
Server démarre.
Welcome to SuSE:SLE-11:GA!
Pour une installation avec une connexion VNC, ajoutez les paramètres vnc=1 et
vncpassword=motdepasse dans la ligne de commande du kernel
(install).
Étapes supplémentaires
Procédez de la façon décrite au Chapitre 6, Installation avec YaST (p. 103) pour lancer
l'installation du logiciel avec linuxrc et YaST.
44 Guide de déploiement
Installation sur IBM System z
Ce chapitre décrit la procédure de préparation à l'installation de SUSE® Linux Enterprise
4
Server sur les systèmes IBM System z. Il fournit toutes les informations nécessaires
pour préparer l'installation sur le côté LPAR et z/VM.
Matériel
SUSE Linux Enterprise Server est exécuté avec succès sur les plates-formes suivantes :
Pour une installation depuis une source NFS, FTP ou SMB, ou à chaque fois
que VNC est utilisé, le minimum de mémoire requis pour que la tentative
d'installation n'échoue pas est de 512 Mo. Souvenez-vous que le nombre de
périphériques visibles par un invité z/VM ou une image LPAR affecte la
configuration de mémoire requise. Une installation avec des centaines de
périphériques accessibles peut nécessiter plus de mémoire (même si ces
périphériques ne sont pas utilisés pour l'installation).
46 Guide de déploiement
3,6 Go+ Recommandée (avec bureau graphique, paquetages de
développement et java).
Connexion réseau
Une connexion réseau est requise pour communiquer avec le système SUSE Linux
Enterprise Server. Il peut s'agir d'une ou de plusieurs des connexions ou des cartes
réseau suivantes :
• 10 GBE, VSWITCH
Les interfaces suivantes sont toujours incluses mais ne sont plus prises en charge :
• ESCON
Options IPL
Pour une installation LPAR, l'option Load from CD-ROM or Server (Charger depuis
un CD-ROM ou un serveur) est la meilleure façon d'exécuter un IPL sur le kernel
d'installation et initrd (disque virtuel initial). Si cette option n'est pas disponible et si
vous ne pouvez pas utiliser z/VM pour installer le système, vous devez exécuter un IPL
à partir d'une bande associée à un canal avec le kernel tapeipl, le fichier parmfile et le
fichier initrd. Vous devez donc accéder à un lecteur de bandes (3480, 3490 ou 3590
par exemple).
z/VM
z/VM 5.2
z/VM 5.3
z/VM 5.4
Négociez l'ordre d'installation avec votre support IBM, car il peut être nécessaire d'activer
les APAR VM avant d'installer les nouveaux niveaux MicroCode.
Logiciel
Pour installer SUSE Linux Enterprise Server via NFS ou FTP non basés sur Linux,
vous risquez de rencontrer des problèmes avec le logiciel du serveur NFS ou FTP. Le
serveur FTP standard de Windows peut générer des erreurs. L'installation via SMB sur
ces machines est donc généralement recommandée.
Pour vous connecter au système d'installation de SUSE Linux Enterprise Server, utilisez
l'une des méthodes suivantes :
Client VNC
Pour Linux, un client VNC appelé vncviewer est inclus dans SUSE Linux Enterprise
Server dans le paquetage tightvnc. Pour Windows, tightvnc est également
disponible. Vous pouvez le télécharger sur le site http://www.tightvnc
.com/. Vous pouvez également utiliser le client Java VNC et un navigateur Web
Java.
48 Guide de déploiement
Serveur X
Vous trouverez une mise en oeuvre du serveur X adaptée sur tous les postes de
travail Linux ou Unix. Il existe de nombreux environnements commerciaux de
systèmes X Window pour Windows et Macintosh. Certains d'entre eux peuvent
être téléchargés sous la forme de versions d'essai gratuites. Vous pouvez obtenir
une version d'essai du serveur Mocha X Server de MochaSoft sur le site http://
www.mochasoft.dk/freeware/x11.htm.
LPAR
Installation de SUSE Linux Enterprise Server à l'aide d'une partition logique
(LPAR).
VM (z/VM)
Installation de SUSE Linux Enterprise Server en tant que système d'exploitation
invité dans z/VM.
LPAR
Si vous installez SUSE Linux Enterprise Server pour les systèmes IBM System z dans
une partition logique séparée (LPAR), autorisez SUSE Linux Enterprise Server à utiliser
une quantité spécifique de mémoire physique sur votre système. Décidez également du
nombre de processeurs que SUSE Linux Enterprise Server va utiliser. Dans ce mode,
z/VM
Exécuter SUSE Linux Enterprise Server pour IBM System z dans z/VM signifie que
SUSE Linux Enterprise Server est un système invité dans z/VM. Avec ce mode,
l'avantage est que vous contrôlez entièrement SUSE Linux Enterprise Server depuis
z/VM. Cela s'avère très utile pour le développement du kernel ou le débogage basé sur
le kernel. Il est également très facile d'ajouter ou de supprimer du matériel vers et depuis
les invités Linux. La création d'invités SUSE Linux Enterprise Server supplémentaires
est simple et vous pouvez exécuter des centaines d'instances Linux simultanément.
Lecteur VM
Pour exécuter un IPL depuis un lecteur VM, transférez tout d'abord les fichiers
nécessaires vers le lecteur. Vous pouvez ensuite créer facilement plusieurs IPL. Il s'agit
de la méthode recommandée sur z/VM. Pour une meilleure administration, il est
recommandé de créer un utilisateur linuxmnt qui détient un minidisque avec les
fichiers et les scripts requis pour IPL. Les invités Linux peuvent ensuite accéder à ce
minidisque en lecture seule.
50 Guide de déploiement
Chargement depuis un CD ou DVD-ROM ou depuis
un serveur
Pour exécuter un IPL dans une partition LPAR, vous pouvez charger directement l'image
du kernel à partir de SE, depuis le CD/DVD-ROM de HMC ou à partir de tout système
distant accessible via FTP. Vous pouvez exécuter cette fonction depuis HMC. Le
processus d'installation requiert un fichier avec une assignation de l'emplacement des
données d'installation dans le système de fichiers et les emplacements de la mémoire
où les données doivent être copiées. Pour SUSE Linux Enterprise Server, ce fichier
s'intitule suse.ins et est situé dans le répertoire racine du système de fichiers sur le
DVD 1.
Ne partagez pas les disques DASD en écriture parmi les LPAR car vous risquez
de perdre des données. Prenez en compte la définition des ressources
nécessaires lors de la planification de la configuration de SUSE Linux Enterprise
Server sur les systèmes IBM System z.
Cet exemple montre comment dédier un DASD à un LPAR spécifique. Ce LPAR est
désigné sous le terme LPAR1.
Pour partager un DASD entre les LPAR, supprimez la partie PART=LPAR1 dans la
définition IOCDS. Cette action peut être utile pour des raisons de disponibilité ou pour
le partage de données par les LPAR en lecture seule.
Vous pouvez utiliser des cartes réseau comme OSA-Express de deux différents modes.
Ces modes sont appelés mode QDIO et mode non-QDIO. Définissez-les dans les IOCDS
à l'aide de l'instruction TYPE. Le mode QDIO est beaucoup plus rapide que le mode
non-QDIO, mais il utilise trois adresses de périphériques au lieu de deux en mode non-
QDIO. Prenez en compte le nombre limité d'adresses de périphériques lorsque vous
planifiez la configuration de votre environnement IBM System z Linux.
52 Guide de déploiement
Exemple 4.2 Partage de OSA Express Card parmi les LPAR (non-qdio) sur z9
CHPID PATH=(FE),SHARED,PARTITION=((LPAR1,LPAR2)),TYPE=OSE
CNTLUNIT CUNUMBR=FE00,PATH=(FE),UNIT=OSA
IODEVICE ADDRESS=(FE00,016),CUNUMBR=(FE00),UNIT=OSA
IODEVICE ADDRESS=(FEFE,001),CUNUMBR=(FE00),UNIT=OSAD
Exemple 4.3 Partage de OSA Express Card parmi les LPAR (qdio) sur z9
CHPID PATH=(FE),SHARED,PARTITION=((LPAR1,LPAR2)),TYPE=OSD
CNTLUNIT CUNUMBER=FE00,PATH=(FE),UNIT=OSA
IODEVICE ADDRESS=(FE00,016),CUNUMBR=(FE00),UNIT=OSA
IODEVICE ADDRESS=(FEFE,001),CUNUMBR=(FE00),UNIT=OSAD
54 Guide de déploiement
FTP est requise. Pour activer les nouveaux paramètres, entrez rcinetd restart
ou rcxinetd restart.
Sur les postes de travail Intel, démarrez depuis ce DVD, répondez aux questions
concernant la langue et la configuration du clavier, puis sélectionnez Démarrer le
système de secours. Pour cette opération, 64 Mo minimum de mémoire vive sont requis.
Aucun espace disque n'est requis, car tout le système de secours réside dans la mémoire
vive du poste de travail. Cette approche nécessite que vous soyez familier avec Linux
et la mise en réseau car vous devez configurer manuellement la mise en réseau du poste
de travail.
Pour le System z, exécutez l'IPL de votre invité LPAR/VM depuis ce DVD, comme
décrit à la la section intitulée « Exécution d'un IPL à partir d'un DVD SCSI associé
FCP » (p. 61). Après avoir entré les paramètres de votre réseau, le système d'installation
considère le DVD comme la source des données d'installation. Puisque System z ne
peut pas avoir de terminal associé prenant en charge X11, choisissez entre une
installation VNC ou SSH. SSH fournit également une installation graphique par le
tunnelage de la connexion x via SSH grâce à ssh -X.
56 Guide de déploiement
4.2.2 Types d'installation
Cette section traite des étapes à exécuter pour installer SUSE Linux Enterprise Server
pour tous les modes d'installation et du mode de recherche des informations appropriées.
Une fois les préparations décrites dans les chapitres précédents effectuées, suivez la
présentation du mode d'installation souhaité pour installer SUSE Linux Enterprise
Server sur votre système.
• Installation LPAR
• Installation z/VM
5 Lancez l'installation avec YaST et exécutez un IPL sur le système installé. Voir
Chapitre 6, Installation avec YaST (p. 103).
5 Lancez l'installation avec YaST et exécutez un IPL sur le système installé. Voir
Chapitre 6, Installation avec YaST (p. 103).
58 Guide de déploiement
Exemple 4.4 Exemple d'IOCDS
CHPID PATH=(CSS(0),FD),PCHID=120,TYPE=FC
CHPID PATH=(CSS(0),FE),PCHID=320,TYPE=OSD
CHPID PATH=(CSS(0),10),PCHID=3A0,TYPE=CNC
CNTLUNIT CUNUMBR=FD00,PATH=((CSS(0),FD)),UNITADD=((00,1)),UNIT=2105
IODEVICE ADDRESS=(FD00,1),CUNUMBR=(FD00),UNIT=3390B,UNITADD=00
CNTLUNIT CUNUMBR=FE20,PATH=((CSS(0),FE)),UNIT=OSA
IODEVICE ADDRESS=(FE20,1),CUNUMBR=(FE20),UNIT=OSA
IODEVICE ADDRESS=(FEFE,1),CUNUMBR=(FE20),UNIT=OSAD
CNTLUNIT CUNUMBR=100A,PATH=((CSS(0),10)),UNIT=3480,UNITADD=((0A,1))
IODEVICE ADDRESS=(100A,1),CUNUMBR=(100A),UNIT=3480,UNITADD=00
Installation z/VM
Ajout d'un invité Linux
Pour commencer, connectez et formatez un ou plusieurs DASD dans le système que
l'invité Linux doit utiliser dans z/VM. Créez ensuite un nouvel utilisateur dans z/VM.
Cet exemple illustre le répertoire pour un utilisateur LINUX1 avec le mot de passe
LINPWD, une mémoire de 256 Mo (pouvant atteindre 1024 Mo), une mémoire vive
étendue de 32 Mo (XSTORE), des minidisques (MDISK), deux unités centrales et un
périphérique OSA QDIO.
Cet exemple utilise un minidisque 201 comme disque d'un invité. Le minidisque 150
avec 200 cylindres est le périphérique de commutation Linux. Le disque 151 avec
2 800 cylindres contient l'installation Linux.
A ce stade, ajoutez (en tant qu'utilisateur MAINT) l'invité au répertoire utilisateur avec
la commande DIRM FOR LINUX1 ADD. Saisissez le nom de l'invité (LINUX1) et
appuyez sur la touche F5. Configurez l'environnement de l'utilisateur avec :
DIRM DIRECT
DIRM USER WITHPASS
60 Guide de déploiement
Assignez les répertoires à l'invité à l'aide de la commande DISKMAP USER DIRECT
A. Vous pouvez désormais vous loguer sur Invité en tant qu'utilisateur Linux1.
Il existe plusieurs façons de créer une bande sur laquelle un IPL peut être exécuté. Vous
pouvez par exemple copier les fichiers :
/boot/s390x/tapeipl.ikr
/boot/s390x/parmfile
/boot/s390x/initrd
comme fichiers binaires à partir du DVD 1 (par exemple, en utilisant le serveur FTP
depuis un poste de travail Linux)
Nommez-les
SLES11 IMAGE
SLES11 PARM
SLES11 INITRD
62 Guide de déploiement
Exemple 4.6 Script REXX pour créer une bande sur laquelle exécuter un IPL
'REWIND 181'
'FILEDEF IN1 DISK' SLES11 IMAGE A
'FILEDEF IN2 DISK' SLES11 PARM A
'FILEDEF IN3 DISK' SLES11 INITRD A
'FILEDEF OUT TAP1 (RECFM F BLOCK 1024 LRECL 1024 PERM'
say 'Writing: ' left(file1,23)
'MOVEFILE IN1 OUT'
say 'Writing: ' left(file2,23)
'MOVEFILE IN2 OUT'
say 'Writing: ' left(file3,23)
'MOVEFILE IN3 OUT'
say 'Done.'
'REWIND 181'
exit
La bande de ce script est connectée au format 181. Ajustez le script en fonction de vos
besoins.
Installation z/VM
Cette section traite du système d'installation sur lequel exécuter un IPL pour installer
SUSE Linux Enterprise Server pour IBM System z sur un système z/VM.
Connectez-vous en tant qu'invité Linux z/VM pour exécuter un IPL. Mettez à disposition
le contenu du répertoire /boot/s390x sur le DVD 1 de SUSE Linux Enterprise
Server pour IBM System z au moyen du serveur FTP sur votre réseau. Depuis ce
répertoire, récupérez les fichiers vmrdr.ikr, initrd, parmfile et sles11
.exec. Transférez les fichiers avec une taille de blocs fixe de 80 caractères. Spécifiez
la taille en exécutant la commande FTP locsite fix 80. Il est important de copier
les fichiers vmrdr.ikr (kernel Linux) et initrd (image d'installation) comme
fichiers binaires. Pour cela, utilisez le mode de transfert binary. Les fichiers
parmfile et sles11.exec doivent être transférés en mode ASCII.
64 Guide de déploiement
Exemple 4.7 Transfert de fichiers binaires via le serveur FTP
FTP 192.168.0.3
VM TCP/IP FTP Level 530
Connecting to 192.168.0.3, port 21
220 ftpserver FTP server (Version wu-2.4.2-academ[BETA-18](1)
Thu Feb 11 16:09:02 GMT 2010) ready.
USER
lininst
331 Password required for lininst
PASS
******
230 User lininst logged in.
Command:
binary
200 Type set to I
Command:
locsite fix 80
Command:
get /media/dvd1/boot/s390x/vmrdr.ikr sles11.image
200 PORT Command successful
150 Opening BINARY mode data connection for /media/dvd1/boot/s390x/vmrdr.ikr
(6757376 bytes)
226 Transfer complete.
6757376 bytes transferred in 8.826 seconds.
Transfer rate 766.70 Kbytes/sec.
Command:
get /media/dvd1/boot/s390x/initrd sles11.initrd
200 PORT Command successful
150 Opening BINARY mode data connection for /media/dvd1/boot/s390x/initrd
(12654815 bytes)
226 Transfer complete.
12194534 bytes transferred in 16.520 seconds.
Transfer rate 766.70 Kbytes/sec.
Command:
ascii
200 Type set to A
Command:
get /media/dvd1/boot/s390x/parmfile sles11.parmfile
150 Opening ASCII mode data connection for /media/dvd1/boot/s390x/parmfile
(71 bytes)
226 Transfer complete.
71 bytes transferred in 0.092 seconds.
Transfer rate 0.71 Kbytes/sec.
Command:
get /media/dvd1/boot/s390x/sles11.exec sles11.exec
150 Opening ASCII mode data connection for /media/dvd1/boot/s390x/sles11.exec
(891 bytes)
226 Transfer complete.
891 bytes transferred in 0.097 seconds.
Transfer rate 0.89 Kbytes/sec.
Command:
quit
Grâce à ce script, vous pouvez exécuter un IPL sur le système d'installation de SUSE
Linux Enterprise Server à l'aide de la commande sles11. Le kernel Linux démarre
et imprime ses messages de démarrage.
Pour continuer l'installation, passez à la la section intitulée « Installation z/VM » (p. 68).
Une fois le paramètre LOADDEV configuré avec les valeurs appropriées, exécutez un
IPL sur votre adaptateur FCP, par exemple :
IPL FC00
Pour continuer l'installation, passez à la la section intitulée « Installation z/VM » (p. 68).
66 Guide de déploiement
Pour continuer l'installation, passez à la la section intitulée « Installation z/VM » (p. 68).
Lorsque vous poursuivez l'installation, linuxrc affiche une liste de canaux de lecture,
d'écriture et, si applicable, de données fonctionnels. Après avoir saisi les adresses pour
chaque canal, vous devrez peut-être également saisir des informations supplémentaires,
telles que le nom de port des cartes Ethernet OSA.
Si vous utilisez une carte réseau OSA Express, vous êtes invité à indiquer un numéro
de port relatif. Cela a été ajouté pour permettre la prise en charge des nouveaux
périphériques réseau OSA Express 3 dotée de 2 ports. Si vous n'utilisez pas de
périphérique OSA Express 3, veuillez entrer 0. Les cartes OSA Express peuvent aussi
s'exécuter dans un mode de « prise en charge de la couche OSI de niveau 2 » ou utiliser
un mode commun plus ancien « couche de niveau 3 ». Le mode de la carte affecte tous
les systèmes qui partagent le périphérique, y compris les systèmes sur d'autres LPAR.
Si vous avez un doute, veuillez spécifier 2 pour assurer une compatibilité avec le mode
par défaut utilisé par les autres systèmes d'exploitation, comme z/VM et z/OS. Consultez
votre administrateur de matériel pour obtenir plus d'informations sur ces options.
Installation z/VM
Une fois que le kernel a terminé ses routines de démarrage, répondez à quelques
questions concernant la configuration du réseau. Sélectionnez tout d'abord le type de
connexion réseau à utiliser : OSA Express ou HiperSockets. Dans cet exemple
d'installation, OSA Express est utilisé.
Le système affiche une configuration OSA possible. Choisissez d'utiliser QDIO ou LCS
OSA. Ensuite, choisissez le support physique que vous souhaitez utiliser, puis saisissez
les adresses de périphériques. Si vous préférez une autre configuration, saisissez l'adresse
du périphérique du canal de lecture OSA (0.0.0700 dans cet exemple), puis celle du
canal d'écriture OSA (0.0.0701) et celle du canal de contrôle OSA (0.0.0702). Une fois
les canaux saisis, insérez le nom du port auquel la carte OSA est connectée.
SUSE Linux Enterprise Server tente désormais de charger le module réseau en créant
une ligne de paramètre avec les informations fournies et en affichant tous les modules
chargés. Le chargement a été exécuté avec succès si vous obtenez des résultats de ce
type :
68 Guide de déploiement
Exemple 4.9 Paramètres du pilote de périphérique réseau
(portname YSW2)
(Port 0)
qdio: 0.0.0702 OSA on SC 3 using AI:1 QEBSM:0 PCI:1 TDD:1 SIGA:RW AO
qeth.736dae: 0.0.0700: Device is a Guest LAN QDIO card (level: V540)
with link type GuestLAN QDIO (portname: YSW2)
qeth.47953b: 0.0.0700: Hardware IP fragmentation not supported on eth0
qeth.066069: 0.0.0700: Inbound source MAC-address not supported on eth0
qeth.d7fdb4: 0.0.0700: VLAN enabled
qeth.e90c78: 0.0.0700: Multicast enabled
qeth.5a9d02: 0.0.0700: IPV6 enabled
qeth.184d8a: 0.0.0700: Broadcast enabled
qeth.dac2aa: 0.0.0700: Using SW checksumming on eth0.
qeth.9c4c89: 0.0.0700: Outbound TSO not supported on eth0
Ensuite, saisissez votre adresse IP, le masque de réseau et la passerelle par défaut. Pour
effectuer une installation sur iucv ou ctc, entrez des informations supplémentaires,
comme l'adresse pair (pour un adaptateur poste à poste) ou le nom du port.
Un résumé s'affiche ensuite. Confirmez que votre entrée est correcte. Avant le démarrage
du réseau, saisissez un mot de passe valide uniquement lors de l'installation. Après
avoir exécuté un IPL sur le système installé, saisissez le mot de passe racine real.
Une fois tous les paramètres de base configurés, le réseau démarre. Vérifiez la sortie
de ifconfig qui devrait contenir deux entrées : une connexion de bouclage (lo) et une
connexion (eth0, ctc0, escon0, iucv0 ou hsi0) avec les paramètres adéquats.
Pour finir, linuxrc souhaite connaître le type d'affichage que vous souhaitez utiliser
pour contrôler la procédure d'installation. Vous pouvez choisir parmi X11 (système
X Window), VNC (protocole Virtual Network Computing) et SSH (mode texte ou
installation X11 via un shell sécurisé).
2 Démarrez une application client VNC sur votre système client. Utilisez vncviewer
ou le client Java VNC et un navigateur Web Java.
Si vous vous connectez via un navigateur Java, saisissez une URL contenant
l'adresse IP du système d'installation et le numéro de port approprié au format :
http://<IP address of installation system>:5801/
70 Guide de déploiement
Lancement de l'installation pour le système X
Window
IMPORTANT : Mécanisme d'authentification X
Les interfaces CTC, ESCON et IUCV ne sont plus officiellement prises en charge.
Pour des raisons de compatibilité, vous pouvez encore utiliser ces interfaces.
Toutefois, à partir de la prochaine édition de SUSE Linux Enterprise Server,
elles ne seront plus prises en charge.
4.3.1 HiperSockets
Sélectionnez votre périphérique dans la liste des périphériques réseau. Puis, saisissez
les numéros de canaux de lecture (0.0.700 par exemple), d'écriture (0.0.701 par exemple)
et de données (0.0.702 par exemple) du périphérique réseau.
72 Guide de déploiement
Exemple 4.11 Types de connexion réseau pris en charge et paramètres des pilotes
Choose the network device.
> 4
Choisissez une configuration manuelle, puis entrez l'adresse IP, le masque de réseau,
l'adresse de diffusion, l'adresse IP de la passerelle et la liste de recherche du serveur
DNS.
1) Yes
2) No
> 2
Enter the IP address of the gateway. Leave empty if you don't need one
> 192.168.0.1
74 Guide de déploiement
Exemple 4.13 Paramètres du pilote de périphérique réseau
Detecting and loading network drivers
netiucv.8db02b: driver initialized
> 4
> 1
Portname to use
> DT70
> 2
1) Yes
2) No
> 2
Enter the IP address of the gateway. Leave empty if you don't need one
> 192.168.0.2
Enter the IP address of your name server. Leave empty or enter "+++" if you
don't need one
> 192.168.0.1
Vous pouvez transférer les paramètres suivants à la routine d'installation. Ils sont alors
considérés comme des valeurs par défaut pour l'installation. Toutes les adresses IP, les
noms de serveurs et les valeurs numériques ne sont que des exemples. Remplacez ces
valeurs par celles dont vous avez besoin dans votre scénario d'installation.
Le nombre de lignes dans le fichier parmfile est limité à 10. Spécifiez plusieurs
paramètres par ligne. Les noms de ces paramètres ne tiennent pas compte des majuscules
76 Guide de déploiement
et des minuscules. Séparez les paramètres par des espaces. Vous pouvez spécifier les
paramètres dans n'importe quel ordre. Conservez toujours la chaîne
PARAMETER=value sur la même ligne. Par exemple :
Hostname=s390zvm01.suse.de HostIP=10.11.134.65
Par défaut, vous ne pouvez assigner à votre machine que des adresses réseau
IPv4. Pour activer IPv6 au cours de l'installation, entrez l'un des paramètres
suivants lors de l'invite de démarrage : ipv6=1 (accepter IPv4 et IPv6) ou
ipv6only=1 (n'accepter que IPv6).
Certains paramètres figurant ci-dessous sont requis. S'ils sont manquants, le processus
automatique s'interrompt et vous êtes invité à saisir manuellement la valeur.
Info=<URL>
Indique l'emplacement d'un fichier à partir duquel il est possible de lire plus
d'options. Cela permet d'ignorer la limite de 10 lignes (et de 80 caractères par ligne
sous z/VM) dans le fichier parmfile. Plus d'informations sur le fichier Info sont
disponibles à la Section 21.1.5, « Création du fichier info » (p. 348). Puisque le
fichier Info n'est accessible que par le réseau sur System z, vous ne pouvez pas
l'utiliser pour spécifier les options requises à la configuration du réseau, c'est-à-dire
les options décrites dans la Section 4.4.2, « Configuration de l'interface réseau »
(p. 78). Par ailleurs, les options spécifiques à linuxrc, comme l'option de débogage,
doivent être spécifiées dans le fichier parmfile pour être prises en compte.
Hostname=zseries.example.com
Entrez le nom d'hôte complet.
Domain=example.com
Chemin de recherche du domaine pour DNS. Cela vous permet d'utiliser des noms
d'hôtes plus courts à la place des noms d'hôtes complets.
HostIP=192.168.1.2
Saisissez l'adresse IP de l'interface à configurer.
Gateway=192.168.1.3
Spécifiez la passerelle à utiliser.
Nameserver=192.168.1.4
Spécifiez le serveur DNS responsable.
78 Guide de déploiement
InstNetDev=osa
Saisissez le type d'interface à configurer. osa, hsi. ctc, escon et iucv sont
des valeurs possibles. (Les CTC, ESCON et IUCV ne sont plus officiellement prises
en charge).
Pour les interfaces de type hsi et osa, spécifiez un maque réseau approprié et
une adresse de diffusion facultative :
Netmask=255.255.255.0
Broadcast=192.168.255.255
Pour les interfaces de type ctc, escon et iucv (les interfaces CTC, ESCON et
IUCV n'étant plus officiellement prises en charge), saisissez l'adresse IP du pair :
Pointopoint=192.168.55.20
OsaInterface=<lcs|qdio> OsaMedium=<eth|tr>
Pour les périphériques réseau osa, spécifiez l'interface hôte (qdio ou lcs) et le
support physique (eth pour Ethernet ou tr pour Token Ring, Anneau à jeton).
Layer2=<0|1>
Pour les périphériques Ethernet QDIO osa et hsi, spécifiez si vous souhaitez
activer ou non la prise en charge de la couche OSI niveau 2.
OSAHWAddr=02-00-65-00-01-09
Pour les périphériques Ethernet QDIO osa prenant en charge la couche 2, spécifiez
l'adresse MAC manuelle. Notez que cette adresse diffère de l'adresse HW, qui
contient l'adresse MAC par défaut détectée par linuxrc.
PortNo=<0|1>
Pour les périphériques réseau osa, spécifiez le numéro de port, à condition que le
périphérique prenne en charge cette fonction). La valeur par défaut est 0.
• Interfaces ctc et escon (les interfaces CTC et ESCON n'étant plus officiellement
prises en charge) :
ReadChannel=0.0.0424
WriteChannel=0.0.0425
• Pour l'interface ctc (qui n'est plus officiellement prise en charge), indiquez le
protocole à utiliser pour cette interface :
CTCProtocol=<0/1/2>
1 Mode étendu
• Interface iucv :
IUCVPeer=PARTNER
• Type de périphérique réseau osa avec interface qdio pour OSA-Express Gigabit
Ethernet et OSA-Express High-speed Token Ring :
ReadChannel=0.0.0524
WriteChannel=0.0.0525
DataChannel=0.0.0526
Portname=FEF400
80 Guide de déploiement
le canal de données. Pour Portname, saisissez un nom de port approprié. Assurez-
vous que le canal de lecture porte un numéro de périphérique égal.
Si une URL ftp ou smb est indiquée, spécifiez le nom d'utilisateur et le mot de
passe avec l'URL. Ces paramètres sont facultatifs et un login anonyme ou invité
est supposé si ces paramètres ne sont pas indiqués.
Install=ftp://user:password@server/directory/DVD1/
Dans le cas d'une installation Samba ou CIFS, vous pouvez également spécifier le
domaine à utiliser :
Install=smb://workdomain;user:password@server/directory/DVD1/
Exemple 4.15 Fichier parmfile pour une installation avec NFS, VNC et IUCV et
AutoYaST avec HTTP
ramdisk_size=131072 root=/dev/ram1 ro init=/linuxrc TERM=dumb
instnetdev=iucv iucvpeer=ROUTER01 pointopoint=192.168.0.1
hostip=192.168.0.2
nameserver=192.168.0.3
install=nfs://192.168.0.4/SLES/SLES-11-s390x/DVD1
autoyast=http://192.168.0.5/autoinst.xml
linuxrclog=/dev/console usevnc=1
vncpassword=testin
82 Guide de déploiement
Exemple 4.16 Fichier parmfile pour une installation avec NFS, SSH et HSI et
AutoYaST avec NFS
ramdisk_size=131072 root=/dev/ram1 ro init=/linuxrc TERM=dumb
AutoYast=nfs://192.168.1.1/autoinst/s390.xml
Hostname=zseries.example.com HostIP=192.168.1.2
Gateway=192.168.1.3 Nameserver=192.168.1.4
InstNetDev=hsi layer2=0
Netmask=255.255.255.128 Broadcast=192.168.1.255
readchannel=0.0.702c writechannel=0.0.702d datachannel=0.0.702e
install=nfs://192.168.1.5/SLES-11-s390x/DVD1/
UseSSH=1 SSHPassword=testing linuxrclog=/dev/console
Pour activer la prise en charge vt220 sur votre machine, définissez /etc/inittab
en tant qu'utilisateur root. Recherchez la ligne suivante et supprimez le signe # d'en-
tête :
#2:2345:respawn:/sbin/mingetty --noclear /dev/ttyS1 xterm
• http://www.ibm.com/developerworks/linux/linux390/
documentation_novell_suse.html
4.6.2 Matériel
Pour obtenir un aperçu des informations techniques de certains systèmes, reportez-vous
aux ouvrages suivants :
84 Guide de déploiement
• IBM System z10 Enterprise Class Technical Introduction (Introduction aux
caractéristiques techniques d'IBM System z10 Enterprise Class) (SG24-7515)
• IBM eServer zSeries 900: Technical Guide (Guide des caractéristiques techniques
d'IBM eServer zSeries 990) (SG24-5975)
• Linux on IBM eServer zSeries and S/390: ISP and ASP Solutions (Linux sur les
systèmes IBM eServer zSeries et S/390 : Solutions FAI et FAH) (SG24-6299)
Ces documents ne reflètent peut-être pas l'état courant de Linux, mais les principes du
déploiement Linux décrits à cet endroit restent justes.
• Linux on System z Device Drivers, Using the Dump Tools (Linux pour pilotes de
périphériques System z, utilisation des outils de vidage)
• IBM System z10 Enterprise Class Technical Guide (Guide des caractéristiques
techniques d'IBM System z10 Enterprise Class) (SG24-7516)
• Linux on IBM eServer zSeries and S/390: Application Development (Linux sur les
systèmes IBM eServer zSeries et S/390 : Développement des Applications) (SG24-
6807)
• Linux on IBM eServer zSeries and S/390: Large Scale Deployment (Linux sur les
systèmes IBM eServer zSeries et S/390 : Déploiement à grande échelle) (SG24-
6824)
• Linux on IBM eServer zSeries and S/390: Performance Measuring and Tuning
(Linux sur les systèmes IBM eServer zSeries et S/390 : Mesure et Ajustement des
Performances) (SG24-6926)
• Linux with zSeries and ESS: Essentials (Linux avec zSeries et ESS : Les bases
essentielles) (SG24-7025)
86 Guide de déploiement
• IBM TotalStorage Enterprise Storage Server Implementing ESS Copy Services
with IBM eServer zSeries (IBM TotalStorage Enterprise Storage Server avec ESS
Copy Services sur IBM eServer zSeries) (SG24-5680)
• Linux on IBM zSeries and S/390: High Availability for z/VM and Linux (Linux
sur les systèmes IBM zSeries et S/390 : Haute disponibilité pour z/VM et Linux)
(REDP-0220)
http://publibz.boulder.ibm.com/epubs/pdf/hcsg4a00.pdf
http://www.ibm.com/developerworks/linux/linux390/
development_documentation.html
Stratégies de déploiement 91
Installation à partir d'un serveur réseau (p. 93)
Envisagez cette approche si vous avez un poste de travail unique ou un petit nombre
de postes de travail et si un serveur d'installation réseau est disponible.
• Changement du support
Tâches contrôlées à Aucune, mais cette méthode peut être combinée avec
distance VNC
92 Guide de déploiement
Détails Section 6.1.1, « Installation à partir d'un serveur réseau
en utilisant SLP » (p. 105)
Tâches contrôlées à Aucune, mais cette méthode peut être combinée avec
distance VNC
Avant d'envisager une approche entièrement automatisée, tenez compte du fait que plus
le scénario devient complexe, plus elle est longue à configurer. Si votre déploiement
doit être limité dans le temps, il peut être judicieux de sélectionner une approche moins
Stratégies de déploiement 93
complexe pouvant être réalisée bien plus rapidement. L'automatisation se justifie pour
les déploiements à grande échelle et pour ceux qui doivent s'effectuer à distance.
Installation à distance simple via une configuration réseau statique/VNC (p. 95)
Envisagez cette approche dans un scénario de taille petite à moyenne avec une
configuration réseau statique. Un réseau, un serveur d'installation réseau et une
application de visualisation VNC sont requis.
Installation à distance simple via une configuration réseau dynamique/VNC (p. 96)
Envisagez cette approche dans un scénario de taille petite à moyenne avec une
configuration réseau dynamique par l'intermédiaire de DHCP. Un réseau, un serveur
d'installation réseau et une application de visualisation VNC sont requis.
Installation à distance simple via une configuration réseau statique/SSH (p. 97)
Envisagez cette approche dans un scénario de taille petite à moyenne avec une
configuration réseau statique. Un réseau, un serveur d'installation réseau et une
application client SSH sont requis.
Installation à distance avec démarrage PXE et fonction Wake on LAN/SSH (p. 98)
Envisagez cette approche dans un scénario de taille petite à moyenne impliquant
une installation via le réseau et sans intervention physique avec les cibles
d'installation. Un réseau, un serveur d'installation réseau, des images de démarrage
réseau, un matériel cible amorçable sur le réseau et une application client SSH sont
requis.
94 Guide de déploiement
Installation de masse simple (p. 99)
Envisagez cette approche pour les déploiements de grande taille sur des machines
identiques. Si elle est configurée pour utiliser le démarrage réseau, l'interaction
physique avec les systèmes cibles n'est pas nécessaire. Un réseau, un serveur
d'installation réseau, une application de contrôle à distance (application de
visualisation VNC ou client SSH, par exemple) et un profil de configuration
AutoYaST sont requis. Si vous utilisez un démarrage réseau, une image de
démarrage réseau et un matériel amorçable sur le réseau sont également requis.
Tableau 5.4 Installation à distance simple via une configuration réseau statique/VNC
Mieux adapté pour Scénarios de taille petite à moyenne avec des matériels
hétérogènes
Stratégies de déploiement 95
Détails Section 14.1.1, « Installation à distance simple via une
configuration réseau statique/VNC » (p. 238)
Mieux adapté pour Scénarios de taille petite à moyenne avec des matériels
hétérogènes
96 Guide de déploiement
Contrôle et surveillance À distance : VNC
Tableau 5.7 Installation à distance simple via une configuration réseau statique/SSH
Stratégies de déploiement 97
Tableau 5.8 Installation à distance via une configuration réseau dynamique/SSH
98 Guide de déploiement
Mieux adapté pour • Scénarios de taille petite à moyenne avec des
matériels hétérogènes
• Distribution du profil
OU
• Matériel identique
Stratégies de déploiement 99
• Aucun accès au système (démarrage réseau)
• Distribution du profil
OU
Si les paramètres utilisateur sont à définir lors du premier démarrage, vous pouvez aussi
créer des images préchargées avec les programmes Kiwi et Firstboot. Pour déployer
ces images, il vous sera même possible d'utiliser un serveur de démarrage PXE, spécialisé
dans cette tâche. Pour plus d'informations, reportez-vous à la Chapitre 17, KIWI (p. 307),
à la Chapitre 21, Installation automatisée (p. 339) et à la Chapitre 20, Déploiement de
pré-installations personnalisées (p. 323).
Option de Description
démarrage
Installation
Mode d'installation normal. Toutes les fonctions matérielles modernes sont activées.
Si l'installation échoue, reportez-vous à F5 Kernel (p. 110) pour savoir quelles
options de démarrage peuvent désactiver les fonctions susceptibles de poser
problème.
Système de secours
Lance un système Linux de base sans interface graphique. Pour plus d'informations,
reportez-vous à la section intitulée « Using the Rescue System » (Chapitre 32,
Common Problems and Their Solutions, ↑Administration Guide (Guide
d'administration)).
Test du microprogramme
Lance un vérificateur de BIOS qui valide l'interface ACPI et les autres composants
de votre BIOS.
Utilisez les touches de fonction spécifiées dans la barre en bas de l'écran pour modifier
la langue, la résolution de l'écran, la source d'installation ou pour ajouter un pilote
supplémentaire acheté chez votre fournisseur de matériel :
F1 Aide
Permet d'obtenir une aide contextuelle sur l'élément actif de l'écran de démarrage.
Utilisez les touches de direction pour naviguer, Entrée pour suivre un lien et Esc
pour quitter l'écran d'aide.
F2 Langue
Sélectionnez la langue d'affichage et la disposition du clavier correspondante pour
l'installation. La langue par défaut est l'anglais (américain).
F4 Source
L'installation est normalement effectuée à partir du support d'installation inséré.
Sélectionnez à cet endroit d'autres sources, telles que les serveurs FTP ou NFS. Si
l'installation est déployée sur un réseau doté d'un serveur SLP, cette option permet
de sélectionner une source d'installation disponible sur le serveur. Pour plus
d'informations sur le protocole SLP, reportez-vous à la Chapitre 19, SLP Services
in the Network (↑Administration Guide (Guide d'administration)).
F5 Kernel
Si vous rencontrez des problèmes avec l'installation classique, ce menu vous propose
de désactiver des fonctions susceptibles de poser problème. Si votre matériel ne
prend pas en charge l'interface ACPI (interface avancée de configuration et de
gestion de l'énergie), sélectionnez Pas d'ACPI pour effectuer une installation sans
prise en charge de l'interface ACPI. Pas d'APIC local désactive la prise en charge
de l'APIC (contrôleur programmable d'interruptions avancé) qui peut causer des
problèmes avec certaines installations matérielles. Paramètres sécurisés démarre
le système en désactivant le mode DMA (pour les lecteurs de CD/DVD-ROM),
ainsi que les fonctions de gestion de l'énergie.
Si vous avez un doute, essayez dans un premier temps les options suivantes :
Installation—ACPI désactivé ou Installation—Paramètres sécurisés. Les utilisateurs
expérimentés peuvent également utiliser la ligne de commande (Options de
démarrage) pour entrer ou modifier les paramètres du kernel.
F6 Pilote
Appuyez sur cette touche pour indiquer au système que vous disposez d'une mise
à jour d'un pilote en option pour SUSE Linux Enterprise Server. Si Fichier ou URL
est sélectionné, le chargement des pilotes a lieu avant le début de l'installation. Si
vous sélectionnez Oui, vous êtes invité à insérer le disque de mise à jour au cours
du processus d'installation.
Par défaut, vous ne pouvez assigner à votre machine que des adresses réseau
IPv4. Pour activer IPv6 au cours de l'installation, entrez l'un des paramètres
Après avoir lancé le processus d'installation, SUSE Linux Enterprise Server charge et
configure un système Linux de base qui permet d'exécuter la procédure d'installation.
Pour afficher les messages de démarrage et les mentions de copyright lors de ce
processus, appuyez sur Échap. Une fois le processus terminé, le programme d'installation
YaST démarre et affiche le programme d'installation graphique.
smturl
URL du serveur SMT. L'URL a un format défini
https://FQN/center/regsvc/, FQN correspondant au nom d'hôte complet
du serveur SMT. Exemple :
smturl=https://smt.example.com/center/regsvc/
URL
Emplacement distant (HTTP, HTTPS ou FTP) depuis lequel il est possible de
télécharger le certificat. Exemple :
smtcert=http://smt.example.com/smt-ca.crt
Disquette
Spécifie un emplacement sur une disquette. La disquette doit être insérée au
moment du démarrage. Si elle n'est pas dans son lecteur, vous ne serez pas
invité à l'insérer. La valeur doit commencer par la chaîne floppy suivie du
chemin du certificat. Exemple :
smtcert=floppy/smt/smt-ca.crt
Chemin local
Chemin complet du certificat sur la machine locale. Exemple :
smtcert=/data/inst/smt/smt-ca.cert
Interactif
Utilisez ask pour ouvrir un menu contextuel vous permettant d'indiquer le
chemin du certificat, lors de l'installation. N'utilisez pas cette option avec
AutoYaST. Exemple
smtcert=ask
Assurez-vous d'entrer des valeurs correctes. Si smturl n'a pas été saisi
correctement, il n'est pas possible d'enregistrer la source de mise à jour. Si une
valeur incorrecte est saisie pour smtcert, le chemin local du certificat vous sera
demandé.
supporturl
URL du serveur. L'URL a le format http://FQN/Path/ FQN doit être le nom
d'hôte complet du serveur et Path doit être remplacé par l'emplacement sur le
serveur. Exemple :
supporturl=http://support.example.com/supportconfig/data/
6.7 Bienvenue
Démarrez l'installation de SUSE Linux Enterprise Server par le choix de votre langue.
La modification de la langue a pour conséquence la présélection de la disposition du
clavier correspondante. Vous pouvez remplacer cette disposition en sélectionnant une
autre disposition de clavier dans le menu déroulant. La langue choisie détermine
également le fuseau horaire à utiliser pour l'horloge système. Ce paramètre, ainsi que
la sélection de langues secondaires à installer sur votre système, peut être modifié
ultérieurement dans le Résumé de l'installation, en comme décrit à la Section 6.13,
« Paramètres d'installation » (p. 121). Pour de plus amples informations sur les paramètres
de langue sur un système installé, reportez-vous à la Chapitre 13, Modification des
paramètres de langue et de pays avec YaST (p. 229).
Pour mettre à disposition un disque zFCP pour l'installation de SUSE Linux Enterprise
Server, choisissez un Numéro de canal disponible dans la liste déroulante. Obtenir des
WWPN (identifiant unique du port) et Obtenir des LUN (identifiant d'unité logique)
génèrent des listes avec les WWPN et FCP-LUN disponibles parmi lesquels choisir.
Une fois que vous avez terminé, quittez la boîte de dialogue zFCP en cliquant sur
Suivant et la boîte de dialogue de configuration générale de disque dur en cliquant sur
Terminer pour passer au reste de la configuration.
Pour tester plusieurs supports, attendez qu'un message de résultat apparaisse dans la
boîte de dialogue avant de changer de support. Si le dernier support vérifié n'est pas
celui avec lequel vous avez démarré l'installation, YaST vous demande de sélectionner
le support approprié avant de continuer l'installation.
Si la vérification du support s'exécute avec succès, cliquez sur Suivant pour continuer
l'installation.
Nouvelle installation
Sélectionnez cette option pour démarrer une nouvelle installation depuis le début.
Mise à jour
Sélectionnez cette option pour mettre à jour une installation existante avec une
version plus récente. Pour plus d'informations sur la mise à jour du système,
reportez-vous à la Chapitre 7, Mise à jour de SUSE Linux Enterprise (p. 143).
Cliquez sur Suivant pour continuer. Si vous avez choisi d'inclure un produit
complémentaire, passez à la Section 6.10.1, « Produits complémentaires » (p. 118),
sinon, ignorez la section suivante et passez directement à la Section 6.11, « Horloge et
fuseau horaire » (p. 119).
Cliquez sur Suivant et indiquez la source du produit. Les types de sources disponibles
sont CD, DVD, Disque dur, Périphérique de stockage de masse USB, Répertoire local
ou Image ISO locale (si aucun réseau n'a été configuré). Si le produit complémentaire
se trouve sur un support amovible, le système monte automatiquement le support et lit
son contenu. Si le produit complémentaire se trouve sur un disque dur, choisissez Disque
dur pour effectuer l'installation à partir d'un disque dur non monté ou Répertoire
local/Image ISO locale pour effectuer l'installation à partir du système de fichiers local.
Les produits complémentaires peuvent être livrés sous la forme d'un répertoire ou d'un
ensemble de fichiers rpm. Dans ce dernier cas, cochez Répertoire RPM uniquement.
Lorsqu'un réseau est disponible, vous pouvez choisir entre des sources à distance
supplémentaires comme HTTP, SLP, FTP, etc. Il est également possible de spécifier
directement une URL.
Configuration du réseau
Lorsque vous souhaitez configurer un réseau, YaST recherche les cartes réseau
disponibles. Si plusieurs cartes réseau sont détectées, vous devez choisir la carte à
configurer dans la liste. Si aucun adaptateur réseau Ethernet n'est connecté, un
avertissement apparaît. Assurez-vous que le câble réseau est bien branché et choisissez
Oui, l'utiliser.
Si votre réseau est doté d'un serveur DHCP, choisissez Configuration automatique de
l'adresse (via DHCP). Pour configurer manuellement le réseau, choisissez Configuration
de l'adresse statique et indiquez l'Adresse IP, le Masque de réseau, l'IP de la passerelle
par défaut et l'IP du serveur DNS.
Certains réseaux ont besoin d'un serveur proxy pour accéder à Internet. Cochez la case
Utiliser le proxy pour accéder à Internet et saisissez les spécifications appropriées.
Cliquez sur Accepter pour procéder à la configuration du réseau. La procédure
d'installation se poursuit par la configuration des dépôts et des produits complémentaires,
comme décrit à la Section 6.10.1, « Produits complémentaires » (p. 118).
Pour configurer l'horloge, choisissez si l'Horloge matérielle [est] définie sur UTC ou
non. Si un autre système d'exploitation est exécuté sur votre machine, par exemple
Microsoft Windows, il est probable que votre système utilise plutôt l'heure locale. Si
seul Linux est exécuté sur votre machine, définissez l'horloge matérielle sur UTC et
demandez que le changement entre heure standard et heure d'été se fasse
automatiquement.
Machine virtuelle
Choisissez ce scénario si l'installation a lieu sur une machine virtuelle, comme
XEN.
Vous pouvez réinitialiser tous les changements vers les paramètres par défaut
en cliquant sur Changer > Réinitialiser aux valeurs par défaut. YaST affiche alors
à nouveau la proposition de départ.
Si SUSE Linux Enterprise Server est installé sur des minidisques dans z/VM, qui
résident sur le même disque physique, le chemin d'accès des minidisques
(/dev/disk/by-id/) n'est pas unique, mais correspond a l'ID du disque physique.
Ainsi, si deux minidisques ou plus sont sur le même disque physique, ils auront
tous le même ID.
YaST propose une configuration de démarrage pour votre système. Les autres systèmes
d'exploitation de votre ordinateur, comme Microsoft Windows ou d'autres installations
Linux, sont détectés et ajoutés automatiquement au chargeur de démarrage. Cependant,
SUSE Linux Enterprise Server démarre par défaut. Vous pouvez normalement adopter
les réglages proposés sans modification. Si une configuration personnalisée vous est
nécessaire, modifiez les paramètres proposés en fonction de votre système. Pour plus
d'informations, reportez-vous à section « Configuring the Boot Loader with YaST »
(Chapitre 8, The Boot Loader GRUB, ↑Administration Guide (Guide d'administration)).
Le bureau par défaut de SUSE Linux Enterprise Server est GNOME. Pour installer
KDE, cliquez sur Logiciels et sélectionnez Environnement de bureau KDE dans
Environnements graphiques.
Une fois cette installation terminée, le système de base est configuré. « Terminer
l'installation de base » inclut, entre autres, l'installation du gestionnaire de démarrage
et l'initialisation des polices. Puis YaST démarre le nouveau système Linux pour lancer
sa configuration.
Si vous installez SUSE Linux Enterprise Server sur une machine comportant des
installations Linux, le programme d'installation importe automatiquement la
clé d'hôte SSH avec le temps d'accès le plus récent depuis une installation
existante.
Si un redémarrage automatique n'est pas possible, YaST affiche une boîte de dialogue
contenant des informations sur les périphériques qui doivent effectuer un IPL. Acceptez
l'option d'arrêt et effectuez un IPL après cet arrêt. La procédure varie selon le type
d'installation :
Installation LPAR
Dans IBM System z HMC, sélectionnez Charger, Effacer, puis entrez l'adresse de
chargement (l'adresse périphérique du périphérique contenant le répertoire /boot
avec le chargeur de démarrage). Si vous utilisez un disque ZFCP comme
périphérique de démarrage, choisissez Charger depuis SCSI et indiquez l'adresse
Installation z/VM
Loguez-vous à la machine virtuelle (VM – Virtual Machine) invitée (voir
Exemple 4.5, « Configuration d'un répertoire z/VM » (p. 60) pour la configuration)
en tant que LINUX1 et effectuez la procédure IPL sur le système installé :
IPL 151 CLEAR
FC00 est un exemple d'adresse de l'adaptateur ZFCP. Remplacez cette valeur par
la véritable adresse.
Une fois que le message apparaît, utilisez SSH pour vous loguer au système Linux en
tant que root. Si la connexion est refusée ou expirée, attendez l'expiration du timeout
de connexion, puis réessayez (ce délai dépend des paramètres du serveur).
À des fins de vérification, le mot de passe d'root doit être saisi deux fois. N'oubliez
pas le mot de passe d'root. Une fois défini, ce mot de passe ne peut pas être récupéré.
Lorsque vous entrez un mot de passe, les caractères sont représentés par des points à
l'écran, vous ne pouvez donc pas voir la chaîne que vous saisissez. Si vous n'êtes pas
certain d'avoir entré la bonne chaîne, utilisez le champ Tester disposition du clavier
pour vérifier qu'il n'y a pas d'erreur.
SUSE Linux Enterprise Server peut utiliser les algorithmes de codage DES, MD5 ou
Blowfish pour vos mots de passe. Le type de codage par défaut est Blowfish. Pour le
L'root peut être modifié à tout moment sur le système installé. Pour cela, exécutez
YaST et démarrez Sécurité et Utilisateurs > Gestion des utilisateurs et des groupes.
Dans de nombreux réseaux, le système reçoit son nom via DHCP. Dans ce cas, il n'est
pas nécessaire de modifier les noms d'hôte et de domaine proposés. Sélectionnez plutôt
Modifier le nom d'hôte via DHCP. Pour pouvoir vous connecter au système à l'aide de
ce nom d'hôte, même s'il est connecté au réseau, sélectionnez Écrire le nom d'hôte dans
/etc/hosts.
Pour modifier les paramètres du nom d'hôte après l'installation, dans YaST, cliquez sur
Périphériques réseau > Paramètres du réseau. Pour plus d'informations, reportez-vous
à section « Configuring the Network Card with YaST » (Chapitre 18, Basic Networking,
↑Administration Guide (Guide d'administration)).
Configuration réseau
ASTUCE : IBM System z : configuration réseau
Pour les plates-formes IBM System z, une connexion réseau opérationnelle est
nécessaire lors de l'installation pour se connecter au système cible, à la source
d'installation et au terminal YaST contrôlant le processus. Les différentes étapes
nécessaires à la configuration du réseau sont décrites dans la Section 4.2.5,
« Configuration réseau » (p. 67). Les plates-formes IBM System z ne prennent
en charge que les types d'interface réseau mentionnées ici (OSA Ethernet, OSA
Gigabit Ethernet, OSA Express Fast Ethernet, Escon et IUCV). La boîte de dialogue
de YaST affiche simplement l'interface avec ses paramètres déjà configurés. Il
suffit de confirmer cette boîte de dialogue pour continuer.
Vous pouvez également configurer le réseau une fois l'installation du système terminée.
Si vous l'annulez maintenant, votre système reste hors ligne et ne peut récupérer aucune
des mises à jour disponibles. Pour configurer votre connexion réseau ultérieurement,
sélectionnez Sauter la configuration, puis cliquez sur Suivant.
Les paramètres réseau suivants peuvent être configurés lors de cette étape :
Pare-feu
Par défaut, SuSEfirewall2 est activé sur toutes les interfaces réseau configurées.
Pour désactiver complètement le pare-feu sur cet ordinateur, cliquez sur Désactiver.
Si le pare-feu est activé, vous pouvez Ouvrir le port SSH afin d'autoriser les
connexions à distance via secure shell. Pour ouvrir la boîte de dialogue de
configuration détaillée du pare-feu, cliquez sur Pare-feu. Pour de plus amples
informations, reportez-vous à la section « Configuring the Firewall with YaST »
(Chapitre 15, Masquerading and Firewalls, ↑Security Guide (Guide de la sécurité)).
Services
Le serveur CIM (Common Information Model) est démarré par défaut. Cliquez sur
Désactiver pour éviter que le serveur ne démarre automatiquement au moment du
démarrage. Pour plus d'informations sur les services CIM, reportez-vous au
Chapitre 30, Web Based Enterprise Management using SFCB (↑Administration
Guide (Guide d'administration)).
Mandataire
Si un serveur proxy contrôle l'accès Internet de votre réseau, configurez les URL
du proxy et les détails d'authentification dans cette boîte de dialogue.
Pour que vos paramètres réseau retrouvent les valeurs par défaut, cliquez sur
Changer > Réinitialiser aux valeurs par défaut. Cela annule toutes les
modifications qui avaient été apportées.
Si vous disposez de plusieurs interfaces réseaux, vérifiez que la carte souhaitée est
utilisée pour la connexion à Internet. Si ce n'est pas le cas, cliquez sur Changer le
périphérique.
Pour démarrer le test, sélectionnez Oui, tester la connexion à Internet, puis cliquez sur
Suivant. Dans la boîte de dialogue suivante, observez la progression du test et ses
résultats. Des informations détaillées sur le processus du test sont disponibles via l'option
Afficher les journaux. Si le test échoue, cliquez sur Précédent pour retourner à la
configuration réseau et corriger les entrées.
Cliquez ensuite sur Suivant. Si le test est réussi, les dépôts de logiciels officiels de SUSE
Linux Enterprise Server et le dépôt de mise à jour seront configurés. Le premier
téléchargement des données du dépôt peut durer un certain temps.
Si vous ne voulez pas tester la connexion à ce stade, sélectionnez Non, ignorer ce test
puis Suivant. Cela annule également le téléchargement des notes de version, la
configuration de Customer Center et la mise à jour en ligne. Ces étapes peuvent être
effectuées après la configuration initiale du système.
Si vous êtes hors ligne ou si vous voulez ignorer cette étape, sélectionnez Configurer
ultérieurement. Cela annulera la mise à jour en ligne de SUSE Linux Enterprise Server.
Dans Inclure pour commodité, indiquez si vous souhaitez envoyer des informations
supplémentaires non demandées, comme le Profil matériel ou des Informations
facultatives lors de votre enregistrement. Cette opération simplifie le processus
d'enregistrement. Cliquez sur Détails pour obtenir des informations détaillées sur la
façon dont les données seront collectées. Afin d'obtenir des informations sur les données
qui seront envoyées pour votre produit, le serveur de Novell sera connecté. Lors de
Cliquez ensuite sur Suivant. La connexion avec le serveur de Novell est établie. Suivez
les instructions affichées à l'écran pour terminer l'enregistrement.
URL
Emplacement distant (HTTP, HTTPS ou FTP) depuis lequel il est possible de
télécharger le certificat. Exemple :
http://smt.example.com/smt-ca.crt
Disquette
Spécifie un emplacement sur une disquette. La disquette doit être insérée avant
de continuer. La valeur doit commencer par la chaîne floppy suivie du chemin
du certificat. Exemple :
floppy/smt/smt-ca.crt
Chemin local
Chemin complet du certificat sur la machine locale. Exemple :
/data/inst/smt/smt-ca.cert
Interactif
Utilisez ask pour ouvrir un menu contextuel vous permettant d'indiquer le
chemin du certificat. N'utilisez pas cette option avec AutoYaST. Exemple
ask
Gestion des AC
L'objectif d'une AC (autorité de certification) est de garantir une relation de
confiance parmi tous les services réseau communiquant les uns avec les autres. Si
vous n'avez pas d'AC, vous pouvez sécuriser les communications de serveur avec
SSL et TLS pour chaque service individuel. Par défaut, une AC est créée et activée
au cours de l'installation. Plus d'informations sur la création d'une AC avec YaST
sont disponibles dans le Chapitre 17, Managing X.509 Certification (↑Security
Guide (Guide de la sécurité)).
Serveur OpenLDAP
Vous pouvez exécuter un service LDAP sur votre hôte pour disposer d'une fonction
centralisée gérant un ensemble de fichiers de configuration. Généralement, un
serveur LDAP gère les données des comptes utilisateurs, mais, avec SUSE Linux
Enterprise Server, il peut également servir pour la messagerie, les données DHCP
et DNS. Par défaut, un serveur LDAP est configuré au cours de l'installation. Si
vous décidez de ne pas utiliser de serveur LDAP, le module YaST relatif aux
serveurs de messagerie ne fonctionnera pas car il dépend de la fonctionnalité LDAP.
Services
Le serveur CIM (Common Information Model) est démarré par défaut. Cliquez sur
Désactiver pour éviter que le serveur ne démarre automatiquement au moment du
démarrage. Pour plus d'informations sur les services CIM, reportez-vous au
Chapitre 30, Web Based Enterprise Management using SFCB (↑Administration
Guide (Guide d'administration)).
Si vous le souhaitez, vous pouvez ignorer cette configuration pour le moment. Lorsque
l'installation est terminée, configurez et démarrez ces services avec l'aide de YaST.
Vous pouvez restaurer les paramètres par défaut en cliquant sur Changer >
Réinitialiser aux valeurs par défaut. Cela annule toutes les modifications qui
avaient été apportées.
Par ailleurs, vous pouvez ajouter des comptes utilisateurs supplémentaires ou modifier
la méthode d'authentification des utilisateurs dans le système installé. Pour plus
d'informations sur la gestion des utilisateurs, reportez-vous au Chapitre 12, Gestion des
utilisateurs avec YaST (p. 211).
Entrez manuellement les utilisateurs locaux en cliquant sur Suivant. La boîte de dialogue
Nouvel utilisateur local s'ouvre. Après avoir saisi le prénom et le nom, vous pouvez
soit accepter la proposition d'identifiant, soit spécifier un nouveau Nom d'utilisateur
qui sera utilisé pour se loguer. Pour finir, entrez un mot de passe pour l'utilisateur.
Saisissez-le une seconde fois pour confirmer (et vous assurer que vous n'avez pas
commis d'erreur de frappe). Afin d'assurer une sécurité efficace, le mot de passe doit
contenir entre cinq et huit caractères. La longueur maximale d'un mot de passe est
de 72 caractères. Cependant, si aucun module de sécurité spécial n'est chargé, seuls les
huit premiers caractères sont utilisés pour distinguer le mot de passe. Les mots de passe
respectent la casse. Les caractères spéciaux (ASCII 7 bits) et les chiffres de 0 à 9 sont
autorisés. D'autres caractères spéciaux, comme les trémas ou les caractères accentués,
ne sont pas autorisés.
Les mots de passe que vous saisissez sont vérifiés afin de s'assurer qu'ils apportent une
sécurité suffisante. Si vous choisissez un mot de passe facile à deviner, comme un mot
du dictionnaire ou un nom, un avertissement s'affiche. Pour une question de sécurité,
il est fortement conseillé d'utiliser des mots de passe compliqués.
Les messages envoyés par les services du système sont stockés dans la boîte aux
lettres locale /var/spool/mail/nom d'utilisateur, où nom
d'utilisateur est le nom de login de l'utilisateur sélectionné. Pour lire les
messages électroniques après l'installation, vous pouvez utiliser tout client de
courrier électronique, par exemple KMail ou Evolution.
Pour saisir d'autres d'utilisateurs, utilisez le module de gestion des utilisateurs, comme
décrit au Chapitre 12, Gestion des utilisateurs avec YaST (p. 211).
Lorsque vous utilisez un serveur réseau pour l'authentification des utilisateurs, vous
pouvez configurer l'accès aux services suivants :
LDAP
Les utilisateurs sont gérés de façon centralisée sur un serveur LDAP, pour tous les
systèmes membres du réseau. De plus amples informations sont disponibles au
section « Configuring an LDAP Client with YaST » (Chapitre 4, LDAP—A
Directory Service, ↑Security Guide (Guide de la sécurité)).
NIS
Les utilisateurs sont gérés de façon centralisée sur un serveur NIS, pour tous les
systèmes membres du réseau. Pour plus d'informations, reportez-vous à la
section « Configuring NIS Clients » (Chapitre 3, Using NIS, ↑Security Guide (Guide
de la sécurité)).
Domaine Windows
L'authentification SMB est souvent employée dans les réseaux mixtes Linux et
Windows. Des informations plus détaillées sont disponibles à la section « Samba
Server in the Network with Active Directory » (Chapitre 24, Samba, ↑Administration
Guide (Guide d'administration)) et à la section « Configuring a Linux Client for
Active Directory » (Chapitre 5, Active Directory Support, ↑Security Guide (Guide
de la sécurité)).
Configuration du matériel
À l'issue de l'installation, YaST ouvre une boîte de dialogue pour la configuration d'une
imprimante, d'un système audio et de cartes TV. Cliquez sur les composants individuels
pour démarrer la configuration du matériel. Dans la majorité des cas, YaST détecte et
configure automatiquement les périphériques.
Sur les plates-formes IBM System z, il n'existe aucun écran pouvant être pris
en charge par XFree. Ainsi, vous ne trouverez aucune entrée Cartes graphiques
sur ces systèmes.
Le login graphique n'est pas disponible sur les plates-formes IBM System z.
Pour connaître les conditions exactes liées à la version du système vers laquelle
vous pouvez effectuer une mise à niveau, reportez-vous aux notes de versions
fournies avec le produit de mise à jour. Les notes de version contiennent des
informations supplémentaires sur les procédures de mise à jour.
7.1.1 Préparation
Avant d'effectuer la mise à jour, copiez les anciens fichiers de configuration sur un
support séparé (périphérique de bande, disque dur amovible, clé USB ou lecteur flash
USB, par exemple) pour protéger les données. Cela concerne principalement les fichiers
stockés dans /etc, ainsi que certains répertoires et fichiers sous /var. Vous pouvez
également écrire les données de l'utilisateur de /home (les répertoires HOME) dans un
support de sauvegarde. Sauvegardez ces données en tant que root. Seul l'utilisateur
root a le droit de lecture sur tous les fichiers locaux.
Avant de commencer votre mise à jour, prenez note de la partition root. La commande
df / énumère le nom de périphérique de la partition root. Dans l'Exemple 7.1, « List
with df -h » (p. 144), la partition root à écrire est /dev/sda3 (montée en tant que
/).
PostgreSQL
Avant de mettre à jour PostgreSQL (postgres), videz les bases de données. Reportez-
vous à la page de manuel pg_dump. Cela n'est nécessaire que si vous avez réellement
utilisé PostgreSQL avant votre mise à jour.
3 YaST détermine s'il existe plusieurs partitions root. S'il n'y en a qu'une, passez
à l'étape suivante. S'il en existe plusieurs, sélectionnez-en une et confirmez en
cliquant sur Suivant (/dev/sda3 était sélectionné dans l'exemple de la
Section 7.1.1, « Préparation » (p. 144)). YaST lit l'ancien fstab de cette partition
pour analyser et monter les systèmes de fichiers qu'il énumère.
Toutes les entrées situées sous /etc/fstab qui spécifient les partitions
à monter à l'aide du nom de périphérique kernel doivent être remplacées
en utilisant n'importe quelle méthode prise en charge avant l'exécution
d'une mise à jour. Les noms de périphérique kernel ne sont pas persistants
et donc non suffisamment fiables pour être utilisés dans le cadre de la
procédure de mise à jour. Vous pouvez utiliser le partitionneur en mode
expert de YaST en modifiant la méthode utilisée dans les paramètres des
options fstab ; pour plus d'informations, reportez-vous à la Section 15.1,
« Utilisation de l'outil de partitionnement de YaST » (p. 277).
4 Vérifiez les dépôts précédemment utilisés, le cas échéant. Activez tous les dépôts
que vous voulez encore utiliser et à partir desquels vous souhaitez mettre à jour
un logiciel tiers. Cliquez sur Changer l'état pour chaque élément de la liste, si
nécessaire.
Une fois l'installation de mise à niveau de base terminée, testez la connexion Internet
conformément aux instructions indiquées dans la boîte de dialogue YaST. Pour finir,
YaST met à jour le logiciel restant et affiche les notes de version. Cliquez sur Terminer
pour écrire la configuration de YaST.
Cette fonctionnalité est utile pour les utilisateurs avancés qui souhaitent exécuter des
mises à niveau à distance ou des mises à niveau sur plusieurs systèmes configurés de
la même façon. La mise à niveau avec YaST décrite dans la Section 7.1.3, « Mise à
jour avec YaST » (p. 145) est recommandée aux utilisateurs inexpérimentés.
Effectuez une mise à niveau à partir de la dernière version (SUSE Linux Enterprise 11)
vers cette version (SUSE Linux Enterprise 11 SP1) — N'oubliez aucune version de
Service Pack intermédiaire. Autrement dit, ne procédez pas à une mise à niveau directe
depuis SUSE Linux Enterprise 10 SP3 ou version antérieure vers ce Service Pack (SUSE
Linux Enterprise 11 SP1), ni de SUSE Linux Enterprise 11 vers SUSE Linux Enterprise
11 SP2, une fois disponible. Assurez-vous que toutes les mises à jour en ligne disponibles
sont correctement appliquées avant de démarrer la mise à niveau du système.
Fermez toutes les applications et tous les services inutiles et déloguez tous les utilisateurs
normaux.
Désactivez les dépôts tiers avant de procéder à la mise à niveau ou réduisez le niveau
de priorité de ces dépôts pour vous assurer que les paquetages des dépôts système par
défaut seront prioritaires. Activez-les de nouveau après la mise à niveau et modifiez
leur chaîne de version de façon à ce qu'elle corresponde au numéro de version de la
distribution du système mis à niveau en cours d'exécution.
1 Exécutez la mise à jour en ligne pour vous assurer que la pile de gestion des
logiciels est à jour. Pour plus d'informations, reportez-vous à la Chapitre 1, YaST
Online Update (↑Administration Guide (Guide d'administration)).
2 Configurez les dépôts que vous souhaitez utiliser en tant que source de mise à
jour. Il est essentiel de bénéficier de ce droit. Vous pouvez utiliser YaST (voir
Section 9.3, « Gestion des services et des dépôts de logiciels » (p. 190)) ou
zypper (voir section « Using Zypper » (Chapitre 4, Managing Software with
Command Line Tools, ↑Administration Guide (Guide d'administration))).
Les noms des dépôts utilisés dans les étapes suivantes peuvent varier
légèrement en fonction de vos personnalisations.
zypper dup garantit que tous les paquetages installés proviennent de l'un
des dépôts disponibles. Il ne prend en compte ni la version, ni l'architecture,
ni le fournisseur des paquetages installés. Ainsi, il émule une nouvelle
installation. Les paquetages qui ne sont plus disponibles dans les dépôts sont
considérés comme orphelins. De tels paquetages sont désinstallés si leurs
dépendances ne peuvent pas être satisfaites. Dans le cas contraire, ils restent
installés.
Lisez les instructions d'installation sur le support Service Pack pour connaître
les changements supplémentaires.
L'installation d'un Service Pack SUSE Linux Enterprise est très similaire à celle du
support SUSE Linux Enterprise original. Comme pour l'installation originale, vous
pouvez choisir d'effectuer l'installation à partir d'un lecteur de DVD local ou d'une
source d'installation réseau centralisée.
Installation réseau
Avant de lancer l'installation réseau d'un Service Pack SUSE Linux Enterprise, assurez-
vous que les exigences suivantes sont respectées :
• Une connexion réseau est établie sur le serveur d'installation et l'ordinateur cible,
avec un service de noms, DHCP (facultatif, mais requis pour le démarrage PXE)
et OpenSLP (facultatif).
5 Acceptez l'accord de licence, puis sélectionnez une langue, un bureau par défaut
et les autres paramètres d'installation.
Si vous ne sélectionnez pas le correctif Mettre à jour vers le Service Pack, votre
système restera au niveau de fonctionnalité précédent et vous obtiendrez des
correctifs de bogues et des mises à niveau de sécurité pendant une période
limitée (pour SUSE Linux Enterprise 11 GA, cette période s'étend désormais à
six mois). Pour garantir l'intégrité du système, il est donc recommandé de
changer de niveau de fonctionnalité le plus tôt possible.
REMARQUE
Sur les systèmes System z, l'option de mise à jour du CD de correctifs n'est pas
disponible.
• Le système doit rester en ligne tout au long du processus de mise à jour car ce
dernier nécessite l'accès à Novell Customer Center.
REMARQUE
Si vous n'êtes pas logué en tant que root, entrez le mot de passe root à l'invite.
4 Ensuite, cliquez sur Accepter pour appliquer toutes les mises à jour disponibles
avec un nouveau kernel. Une fois les mises à jour installées, redémarrez le
système.
7 Redémarrez le système.
Utilisation de zypper
Utilisez zypper si vous avez besoin d'une solution inscriptible pour la mise à jour.
7.3.3 Dépannage
Si le chargeur de démarrage du système mis à jour est endommagé après la mise à jour,
vous devez changer l'indicateur « Actif » et le définir pour la partition root de l'autre
système afin de le démarrer.
Si le système mis à jour ne démarre pas du tout, vous devez accéder au menu du chargeur
de démarrage et sélectionner l'autre système.
Pour plus d'informations sur GRUB, reportez-vous au Chapitre 8, The Boot Loader
GRUB (↑Administration Guide (Guide d'administration)).
Pour obtenir la liste détaillée des changements logiciels entre SUSE Linux
Enterprise Server 10 et SUSE Linux Enterprise Server 11 SP1, reportez-vous aux
notes de version du Service Pack. Vous pouvez les afficher dans le système
installé en utilisant le module YaST relatif aux notes de version.
2 Dans l'arborescence des informations sur le matériel, cliquez plusieurs fois sur
les icônes + pour développer les informations sur un périphérique spécifique.
4 Cliquez sur Fermer pour quitter l'aperçu des informations sur le matériel.
Modifiez la résolution si les polices sont trop petites ou si les cercles sont difformes.
Procédez de la façon suivante :
1 Dans YaST, cliquez sur Matériel > Carte graphique et moniteur. SaX2 vérifie
les ressources système et ouvre une fenêtre.
1 Dans YaST, cliquez sur Matériel > Carte graphique et moniteur. SaX2 vérifie
les ressources système et affiche la boîte de dialogue Propriétés de la carte
graphique et de l'écran.
3 Activez Activer le mode duplex et cliquez sur Configurer pour obtenir une
configuration avancée.
4 En fonction du pays sélectionné, vous pouvez choisir une certaine Variante. Les
sélections s'appliquent immédiatement à des fins de test.
1 Dans YaST, cliquez sur Matériel > Modèle de souris. L'outil de configuration
SaX2 lit les ressources système et affiche la boîte de dialogue Propriétés de la
souris.
2 Cliquez sur Changer et sélectionnez le modèle de votre souris dans la liste qui
s'affiche.
Pour démarrer le module de son, lancez YaST, puis cliquez sur Matériel > Son. Vous
pouvez également ouvrir directement la boîte de dialogue Configuration du son à partir
d'une ligne de commande en exécutant la commande yast2 sound & en tant
qu'utilisateur root.
Configuration normale
Permet de régler le volume de sortie et de tester le son pendant la configuration.
Pour accéder à une liste de références répertoriant les cartes son prises en charge
par ALSA avec leur module de son correspondant, accédez au répertoire /usr/
share/doc/packages/alsa/cards.txt ou visitez le site http://
www.alsa-project.org/alsa-doc/.
5 Une fois toutes les options définies selon votre choix, cliquez sur suivant.
La boîte de dialogue Configuration du son affiche la carte son qui vient d'être
configurée ou modifiée.
6 Pour supprimer la configuration d'une carte son que vous n'utilisez plus,
sélectionnez l'entrée correspondante, puis cliquez sur Supprimer.
1 Pour modifier la configuration d'une carte son individuelle (pour les utilisateurs
avancés uniquement), sélectionnez l'entrée de la carte son dans la boîte de dialogue
Configuration du son, puis cliquez sur Modifier.
2 Pour régler le volume d'une carte son déjà configurée ou pour tester la carte son,
sélectionnez l'entrée correspondante dans la boîte de dialogue Configuration du
son, puis cliquez sur Autre. Sélectionnez l'option de menu correspondante.
3 Pour la lecture des fichiers MIDI, sélectionnez Autre > Démarrer le séquenceur.
4 Lorsqu'une carte son prise en charge est détectée (comme une carte son Creative
Soundblaster Live, Audigy ou AWE), vous pouvez également installer
des fontes sonores pour lire les fichiers MIDI :
4b Sélectionnez Autre > Installer les fontes sonores pour copier SF2
SoundFonts™ sur votre disque dur. Les fontes sonores sont enregistrées
dans le répertoire /usr/share/sfbank/creative/.
5 Si vous avez configuré plusieurs cartes son dans votre système, vous pouvez
modifier l'ordre de vos cartes. Pour configurer une carte son en tant que
périphérique principal, sélectionnez la carte dans la section Configuration du
son, puis cliquez sur Autre > Définir comme carte primaire. Le périphérique
audio ayant l'index 0 est le périphérique par défaut utilisé par le système et les
applications.
6 Pour activer ou désactiver le système audio PulseAudio, cliquez sur Autre >
Configuration PulseAudio. S'il est activé, la daemon PulseAudio est utilisé pour
lire les sons. Désactivez l'option Prise en charge PulseAudio si vous souhaitez
utiliser une autre option au niveau du système.
Le volume et la configuration de toutes les cartes son s'enregistrent lorsque vous cliquez
sur OK et que vous quittez le module YaST relatif au son. Les paramètres de mixage
sont enregistrés dans le fichier /etc/asound.conf et les données de configuration
ALSA sont ajoutées à la fin des fichiers /etc/modprobe.d/sound et /etc/
sysconfig/hardware.
Dans YaST, cliquez sur Matériel > Imprimante pour lancer le module relatif aux
imprimantes. La vue Configurations d'imprimantes s'ouvre par défaut en affichant la
liste de toutes les imprimantes disponibles et configurées. Cette vue est particulièrement
utile en cas d'accès à un grand nombre d'imprimantes via le réseau. À partir de cette
vue, vous pouvez également Imprimer une page de test sur l'imprimante sélectionnée
et configurer les imprimantes locales.
Si aucun pilote n'est répertorié pour votre imprimante, vous pouvez essayer de
sélectionner un pilote générique avec une langue standard appropriée dans la liste.
Reportez-vous à la documentation de votre imprimante pour déterminer le langage
(ensemble de commandes contrôlant l'imprimante) pris en charge par votre imprimante.
Si cela ne fonctionne pas, reportez-vous à la la section intitulée « Ajout de pilotes avec
YaST » (p. 175) pour trouver une autre solution.
Une imprimante n'est jamais utilisée directement, mais toujours via une file d'attente
d'impression. Cette file d'attente garantit que les travaux simultanés peuvent être mis
en attente et traités les uns après les autres. Chaque file d'attente d'impression est affectée
à un pilote spécifique et l'imprimante peut comporter plusieurs files d'attente. Cela
permet de configurer une seconde file d'attente sur une imprimante couleur qui imprime
uniquement en noir et blanc, par exemple. Pour plus d'informations sur les files d'attente
d'impression, reportez-vous à la section « The Workflow of the Printing System »
(Chapitre 10, Printer Operation, ↑Administration Guide (Guide d'administration)).
1 Démarrez le module YaST relatif aux imprimantes en cliquant sur Matériel >
Imprimante.
4 Entrez le nom du fournisseur et/ou le nom du modèle dans le champ situé sous
Assigner un pilote, puis cliquez sur Rechercher.
8 L'imprimante est désormais configurée avec les paramètres par défaut et prête à
l'emploi. Cliquez sur OK pour revenir à la vue Configurations d'imprimantes.
L'imprimante qui vient d'être configurée apparaît désormais dans la liste
d'imprimantes.
Vous pouvez vous procurer les fichiers PPD directement auprès du fournisseur de votre
imprimante ou à partir du CD de pilotes de l'imprimante. Pour plus de détails, reportez-
vous à la section « No Suitable PPD File Available for a PostScript Printer »
1 Démarrez le module YaST relatif aux imprimantes en cliquant sur Matériel >
Imprimante.
4 Entrez le chemin d'accès complet au fichier PPD dans la zone de saisie sous
Rendre un fichier de description d'imprimante
disponible ou sélectionnez le fichier à partir d'une boîte de dialogue en
cliquant sur Parcourir.
6 Pour utiliser directement ce fichier PPD, suivez la Procédure 8.3, « Ajout d'une
nouvelle imprimante locale » (p. 174). Sinon, cliquez sur Annuler.
1 Démarrez le module YaST relatif aux imprimantes en cliquant sur Matériel >
Imprimante.
5 Modifiez les paramètres par défaut en cliquant sur Toutes les options du pilote
actuel. Pour modifier un paramètre, développez la liste des options en cliquant
sur le signe +. Modifiez le paramètre par défaut en cliquant sur une option.
Cliquez sur OK pour appliquer vos modifications.
Utilisation de CUPS
Dans un environnement Linux, CUPS est généralement utilisé pour imprimer via le
réseau. La configuration la plus simple consiste à imprimer via un seul serveur CUPS
auquel tous les clients peuvent accéder directement. L'impression via plusieurs serveurs
CUPS nécessite l'exécution du daemon CUPS local qui communique avec les serveurs
CUPS distants.
1 Démarrez le module YaST relatif aux imprimantes en cliquant sur Matériel >
Imprimante.
4 Cliquez sur Tester le serveur pour vous assurer que vous avez sélectionné le
nom/l'adresse IP appropriée.
1 Démarrez le module YaST relatif aux imprimantes en cliquant sur Matériel >
Imprimante.
5 Confirmez en cliquant sur OK, puis sur Oui lorsque vous êtes invité à démarrer
un serveur CUPS local. Une fois le serveur démarré, vous retournez à l'écran
Configurations d'imprimantes. Toutes les imprimantes disponibles sont désormais
répertoriées.
1 Démarrez le module YaST relatif aux imprimantes en cliquant sur Matériel >
Imprimante.
5 Ajoutez l'interface réseau qui sera utilisée par le serveur CUPS. Si vous souhaitez
partager votre ou vos imprimantes avec tous les hôtes du réseau, sélectionnez
également Publier les imprimantes par défaut via l'interface réseau ci-dessous.
8 Si un pare-feu est utilisé, assurez-vous que l'accès au port 631 via IPP est autorisé.
Si vous utilisez SUSEFirewall2, autorisez le service CUPS (voir
section « Configuring the Firewall with YaST » (Chapitre 15, Masquerading
and Firewalls, ↑Security Guide (Guide de la sécurité)) pour plus d'informations).
2 Lancez YaST et sélectionnez Matériel > Scanner. YaST crée la base de données
du scanner et tente de détecter automatiquement le modèle du périphérique.
Si un scanner USB/SCSI n'est pas correctement détecté, cliquez d'abord sur Autre
> Redémarrer la détection. Si cette manipulation n'entraîne aucun résultat ou si
votre scanner est connecté à un port parallèle, configurez-le manuellement,
conformément à la Procédure 8.10, « Configuration d'un scanner connecté à un
port parallèle » (p. 180).
2 Lancez YaST et sélectionnez Matériel > Scanner. YaST charge la base de données
du scanner.
4 Utilisez les options Autre > Test pour vous assurer que vous avez sélectionné le
bon pilote.
1 Lancez YaST et sélectionnez Matériel > Scanner. YaST charge la base de données
du scanner.
3 Entrez les noms d'hôtes des clients (séparés par une virgule) autorisés à utiliser
le scanner sous Paramètres du serveur > Clients autorisés pour saned, puis
quittez la boîte de dialogue de configuration en cliquant sur OK.
4 Cliquez sur OK pour quitter l'écran. Le scanner réseau apparaît maintenant dans
la fenêtre de configuration du scanner et est prêt à l'emploi.
YaST vous permet de modifier la liste des logiciels de votre système. Ce module YaST
est disponible en deux variantes (types de distribution Linux) de toolkit : Qt et ncurses ;
la variante Qt est décrite ici.
Produit
Un produit dans son ensemble, SUSE Linux Enterprise Server par exemple.
Logiciel
Fichier compressé au format RPM qui contient les fichiers d'un programme
particulier.
Correctif
Un ou plusieurs paquetages logiciels (paquetages complets, correctifs patchrpm
ou correctifs deltarpm). Un correctif peut également provoquer des dépendances
vis-à-vis de logiciels qui ne sont pas encore installés.
Correctif
Terme générique désignant un produit, un modèle, un logiciel ou un correctif. Les
types les plus utilisés sont le logiciel ou le correctif.
correctif patchrpm
Correctif ne contenant que les fichiers qui ont été mis à jour depuis sa première
diffusion pour SUSE Linux Enterprise Server 11 SP1. Sa taille de téléchargement
est généralement bien plus petite que celle du paquetage logiciel.
Correctif deltarpm
Correctif ne contenant que les différentiels binaires compris entre deux versions
définies d'un paquetage. Il a la taille de téléchargement la plus petite. Avant son
installation, le paquetage RPM doit être reconstruit sur la machine locale.
Recherche
L'interface de recherche de paquetages est la vue par défaut du gestionnaire de
logiciels. Entrez le mot sur lequel la recherche va être effectuée, puis appuyez sur
Entrée. Affinez votre recherche en spécifiant les champs Rechercher dans et en
modifiant le champ Mode de recherche.
Modèles
Répertorie tous les modèles pouvant être installés sur votre système.
Groupes de paquetages
Répertorie tous les paquetages classés par groupes tels que Graphiques,
Programmation ou Sécurité.
Groupes RPM
Répertorie tous les paquetages classés par groupes et sous-groupes tels que
Productivité > Graphiques > Visualiseurs.
Langues
Filtre permettant de répertorier tous les paquetages nécessaires pour ajouter une
nouvelle langue système.
Pour répertorier tous les paquetages qui n'appartiennent pas à un dépôt actif,
sélectionnez Vue > dépôts > @System, puis Filtre secondaire > Paquetages non
pris en charge. Par exemple, cela s'avère utile si vous avez supprimé un dépôt
et si vous souhaitez vous assurer qu'il ne reste plus de paquetage provenant
de ce dépôt.
2 Les paquetages trouvés s'affichent dans le volet droit. Pour installer ou supprimer
un paquetage, cliquez dessus avec le bouton droit de la souris et sélectionnez
Installer ou Supprimer. Si l'option appropriée n'est pas disponible, vérifiez l'état
du paquetage marqué par le symbole situé en regard de son nom. Appuyez sur
Maj + F1 pour obtenir de l'aide.
Pour appliquer une action sur tous les paquetages répertoriés dans le
volet droit, choisissez une action dans Paquetage > Tout dans cette liste.
Pour installer un modèle, cliquez avec le bouton droit de la souris sur son nom
et sélectionnez Installer. Il est impossible de supprimer des modèles.
Pour mettre à jour tous les paquetages à partir d'un dépôt spécifique,
sélectionnez le dépôt selon la procédure décrite dans la Section 9.2.1,
« Recherche de paquetages ou de modèles » (p. 185), puis cliquez sur Paquetage
> Tout dans cette liste > Mettre à jour si une version plus récente est disponible.
Pour mettre à jour tous les paquetages installés, sélectionnez Paquetage > Tous
les paquetages > Mettre à jour si une version plus récente est disponible.
Le fait de sélectionner Mettre à jour sans condition plutôt que Mettre à jour si
une version plus récente est disponible permettra de « mettre à jour » tous les
paquetages sélectionnés vers la version du dépôt ayant la plus haute priorité,
même si cela implique de redéfinir le paquetage avec une version moins récente.
Cette option se révèle utile, par exemple pour garantir que le paquetage a été
sélectionné à partir d'un dépôt spécifique.
S'il n'existe qu'une solution permettant de résoudre une dépendance ou un conflit, ces
derniers sont résolus automatiquement. Les solutions multiples entraînent toujours un
conflit qui nécessite une résolution manuelle. Si la résolution du conflit implique un
changement de fournisseur ou d'architecture, elle doit également être exécutée
manuellement. Lorsque vous cliquez sur Accepter pour lancer l'installation, vous obtenez
un aperçu de toutes les actions déclenchées par le résolveur que vous devez confirmer.
Par défaut, les dépendances sont automatiquement contrôlées. Un contrôle est exécuté
à chaque fois que l'état d'un paquetage change (par exemple, lors de la définition d'un
paquetage en vue de son installation ou de sa suppression). En général, cette opération
est utile mais peut vite devenir fastidieuse lors de la résolution manuelle d'un conflit
de dépendances. Pour désactiver ce paramètre, désélectionnez Dépendances >
Pour vérifier les dépendances d'un paquetage, cliquez dessus avec le bouton droit de la
souris, puis sélectionnez Afficher les informations sur le solutionneur. Une carte des
dépendances s'affiche. Les paquetages déjà installés s'affichent dans un cadre vert.
À ce stade, vous pouvez également gérer les abonnements aux Services. Dans ce
contexte, un service est un service d'index de dépôts (RIS - Repository Index Service)
qui peut contenir un ou plusieurs dépôts de logiciels. Un tel service peut être modifié
de façon dynamique par son administrateur ou son fournisseur.
Avant d'ajouter des dépôts de logiciels externes à votre liste de dépôts, assurez-
vous qu'ils sont approuvés. SUSE Linux Enterprise Server décline toute
responsabilité en cas de problème dû à un logiciel installé à partir de dépôts
de logiciels tiers.
3 Vous pouvez également fournir les données requises ou insérer le support. Cliquez
sur Continuer pour valider. YaST passe un certain temps à télécharger et à
analyser les métadonnées du dépôt. Après quoi, vous pouvez installer le logiciel
à partir de ce dépôt, conformément à la description indiquée dans la Section 9.2,
« Utilisation de l'interface Qt » (p. 184).
État
L'état du dépôt peut être Activé ou Désactivé. Les paquetages que vous pouvez
installer ne proviennent que des dépôts activés. Pour désactiver temporairement
un dépôt, cliquez sur Désactiver. Si vous souhaitez supprimer totalement un dépôt,
cliquez sur Supprimer.
ASTUCE
Rafraîchir
Lors du rafraîchissement d'un dépôt, la description de son contenu (noms des
paquetages, versions, etc.) est téléchargée sur un cache local utilisé par YaST. Il
suffit d'effectuer cette manipulation une fois pour les dépôts statiques, comme les
CD ou les DVD, alors que les dépôts dont le contenu est souvent modifié doivent
être rafraîchis fréquemment. La façon la plus simple de conserver le cache d'un
dépôt à jour consiste à sélectionner Rafraîchir automatiquement. Pour effectuer un
rafraîchissement manuel, cliquez sur Rafraîchir.
Priorité
La Priorité d'un dépôt est une valeur comprise entre 0 et 200, où 0 correspond à
la priorité la plus élevée. Si un paquetage est disponible dans plusieurs dépôts, le
dépôt ayant la plus haute priorité est prioritaire. Cela s'avère utile si vous souhaitez
attribuer à un dépôt local (un DVD, par exemple) une priorité supérieure pour éviter
Le dépôt ayant la priorité la plus élevée est prioritaire dans tous les cas.
Ainsi, assurez-vous que le dépôt de mises à jour a toujours la priorité la
plus élevée (20 par défaut), faute de quoi vous risquez d'installer une
version obsolète qui ne sera pas mise à jour avant la prochaine mise à jour
en ligne.
Nom et URL
Pour modifier le nom ou l'URL d'un dépôt, sélectionnez-le dans la liste, puis cliquez
sur Modifier.
Pour gérer toutes les clés importées, cliquez sur Clés GPG... dans le module Dépôts de
logiciels. Sélectionnez une entrée avec la souris pour afficher les propriétés de la clé.
Cliquez sur Ajouter, Modifier ou Supprimer pour ajouter, modifier ou supprimer des
clés.
1 Lorsque l'applet de mise à jour indique la disponibilité des correctifs, vous pouvez
cliquer dessus pour ouvrir la fenêtre d'installation de logiciels.
4 Si c'est la première fois que vous installez des correctifs, vous serez invité à entrer
le nom d'utilisateur et le mot de passe root pour continuer. Si vous cochez
Mémoriser l'autorisation, vous n'aurez plus à saisir le mot de passe.
Figure 9.2 Applet du programme de mise à jour KDE : affichage simple des mises
à jour
1 Lorsque l'applet de mise à jour indique la disponibilité des correctifs, vous pouvez
cliquer dessus pour ouvrir la fenêtre d'installation du logiciel.
4 Si c'est la première fois que vous installez des correctifs, vous serez invité à entrer
le nom d'utilisateur et le mot de passe root pour continuer. Si vous cochez
Mémoriser l'autorisation, vous n'aurez plus à saisir le mot de passe.
Figure 9.3 Applet du programme de mise à jour KDE : affichage détaillé des mises
à jour
Vous serez invité à spécifier le mot de passe root après avoir cliqué sur Installer. Le
programme de mise à jour procède à l'installation des correctifs. Consultez la barre
système (KDE) ou la zone de notification (GNOME) pour accéder aux messages d'état
et à la barre de progression.
Avant d'ajouter des dépôts de logiciels externes à votre liste de dépôts, assurez-
vous qu'ils sont approuvés. SUSE Linux Enterprise Server décline toute
responsabilité en cas de problème dû à un logiciel installé à partir de dépôts
de logiciels tiers.
Par défaut, l'applet du programme de mise à jour ne surveille pas les dépôts de nouvelles
versions logicielles. Pour activer cette fonctionnalité, ouvrez la fenêtre de configuration
conformément à la description indiquée dans la la section intitulée « Configuration de
l'applet du programme de mise à jour » (p. 197), puis cochez la case Afficher les mises
à niveau disponibles quand l'interface dorsale les fournit. Lorsque l'icône du programme
de mise à jour signale que des mises à jour sont disponibles, cliquez dessus pour ouvrir
la fenêtre d'installation des logiciels. Cliquez sur Détails, puis sur l'onglet Mettre à
niveau pour afficher la liste des nouvelles versions logicielles. Vous pouvez soit
sélectionner un seul paquetage unique en cochant la case en regard d'une entrée
spécifique, soit cliquer sur Sélectionner tous les paquetages. L'option Installer lance
l'installation des paquetages logiciels sélectionnés. Vous êtes alors invité à spécifier le
mot de passe root. Consultez la barre système (KDE) ou la zone de notification
(GNOME) pour accéder aux messages d'état et à la barre de progression.
Interface dorsale
Permet de choisir parmi les différentes interfaces dorsales. Le plug-in ZYpp est
utilisé par défaut. Si vous préférez le plug-in PackageKit, assurez-vous que le
paquetage kde4-kupdateapplet-packagekit est installé.
Vérifier la présence de mises à jour seulement lorsque le système est sous faible charge
Cette option bloque la vérification des mises à jour si le système est sous faible
charge. Cette option est activée par défaut.
Installation de correctifs
L'applet de mise à jour logicielle propose deux modes d'installation des correctifs : le
mode d'installation simple installe automatiquement tous les correctifs de sécurité. Les
correctifs importants ou facultatifs peuvent être installés avec le mode détaillé, qui vous
permet de choisir les correctifs à installer.
2 Entrez le mot de passe root dans l'écran d'authentification, puis cliquez sur
S'authentifier pour continuer.
2 Un aperçu du nombre de correctifs par catégorie s'affiche. Pour afficher une liste
détaillée de tous les correctifs et de leur description, cliquez sur Revoir. Cette
option permet d'accéder à la description, au numéro de version, au dépôt et (le
cas échant) à un lien vers Bugzilla, le système de suivi des bogues de Novell.
Sélectionnez ou désélectionnez un correctif en cochant ou en décochant la case
appropriée. Par défaut, tous les correctifs sont présélectionnés.
4 Entrez le mot de passe root dans l'écran d'authentification, puis cliquez sur
S'authentifier pour continuer.
Figure 9.5 Visionneur de mises à jour de logiciels GNOME : vue détaillée des mises
à jour
Installer automatiquement
Déterminez si les correctifs doivent être installés automatiquement ou non (par
défaut). L'installation automatique peut être sélectionnée soit pour les correctifs de
sécurité uniquement, soit pour tous les correctifs.
1 Cliquez sur Logiciel > Produits complémentaires pour afficher un aperçu des
produits complémentaires installés.
3 Vous pouvez également fournir les données requises ou insérer le support. Cliquez
sur Continuer pour valider. YaST met un certain temps à télécharger et à analyser
les métadonnées du dépôt.
Veuillez vous reporter aux listes de contrôle ci-dessous pour vous assurer que vous
disposez de toutes les données nécessaires avant de démarrer la configuration de l'accès
à Internet.
Spécifiez ensuite les données fournies par votre FAI (comme les informations de
connexion, la passerelle ou le nom du serveur). Votre FAI devrait vous avoir transmis
une fiche technique répertoriant toutes les données nécessaires.
Si vous avez configuré avec succès votre matériel et les données du FAI, utilisez
NetworkManager pour gérer la connexion Internet. Reportez-vous à rubrique
Le module de configuration DSL contient déjà les données des principaux FAI de
certains pays. Si votre FAI n'est pas répertorié, vous devrez connaître le mode de
résolution des noms (DNS) et d'allocation des adresses IP (dans la plupart des cas, ces
données sont automatiquement communiquées lors de la connexion). Même si votre
FAI ne figure pas dans la liste, vous devrez entrer au moins votre login et votre mot de
passe.
Pour configurer le périphérique RNIS, vous devez disposer des données suivantes :
• Le module de configuration RNIS contient déjà les données des principaux FAI de
certains pays. Si votre FAI n'est pas répertorié, vous devrez connaître le mode de
résolution des noms (DNS) et d'allocation des adresses IP (dans la plupart des cas,
ces données sont automatiquement communiquées lors de la connexion). Même si
votre FAI ne figure pas sur la liste, vous devez entrer au moins votre login et votre
mot de passe.
Le module de configuration du modem contient déjà les données des principaux FAI
de certains pays. Si votre FAI n'est pas répertorié, vous devrez connaître son numéro
d'appel, ainsi que le mode de résolution des noms (DNS) et d'allocation des adresses
IP (dans la plupart des cas, ces données sont automatiquement communiquées lors de
la connexion). Même si votre FAI ne figure pas sur la liste, vous devez entrer au moins
votre login et votre mot de passe.
Dans les sections suivantes, nous partons du principe que le réseau est connecté
à Internet et fournit des services de routage et de noms. Si ces services sont
fournis par un routeur, assurez-vous que le routeur est correctement configuré
avant de configurer le client.
Si le protocole DHCP n'est pas disponible, demandez à votre administrateur réseau les
détails suivants :
• Nom d'hôte
• Serveur de noms
Pour plus de détails sur la configuration des cartes réseau câblées, reportez-vous à la
section « Configuring the Network Card with YaST » (Chapitre 18, Basic Networking,
↑Administration Guide (Guide d'administration)). Pour les cartes réseau sans fil,
reportez-vous à la section « Configuration with YaST » (Chapitre 15, Wireless LAN,
↑Administration Guide (Guide d'administration)).
Pour la gestion des utilisateurs et des groupes, la boîte de dialogue offre une
fonctionnalité similaire. Vous pouvez facilement passer de la gestion des utilisateurs à
celle des groupes en sélectionnant l'onglet approprié en haut de la boîte de dialogue.
En fonction du filtre sélectionné, les options suivantes ne seront pas toutes accessibles
dans la boîte de dialogue.
La propriété des fichiers est liée à l'ID de l'utilisateur, et non à son nom. Suite
à la modification d'un ID utilisateur, les fichiers du répertoire privé de
l'utilisateur appliquent automatiquement cette modification. Néanmoins, après
une telle modification, l'utilisateur n'est plus propriétaire des fichiers qu'il a
créés ailleurs que dans le système de fichiers, sauf si la propriété de ces fichiers
a été modifiée manuellement.
La section suivante explique comment définir des comptes utilisateur par défaut. Pour
certaines options supplémentaires, telles que le login automatique, le login sans mot de
passe, la configuration de répertoires privés codés ou la gestion des quotas pour les
utilisateurs et les groupes, reportez-vous à la Section 12.3, « Options supplémentaires
des comptes utilisateur » (p. 216).
1 Ouvrez la boîte de dialogue Gestion des utilisateurs et des groupes dans YaST
et cliquez sur l'onglet Utilisateurs.
3 Pour modifier les options d'un utilisateur existant, sélectionnez une entrée et
cliquez sur Modifier.
4 Entrez les données de l'utilisateur appropriées dans le premier onglet, comme les
paramètres Nom d'utilisateur (utilisé pour se connecter) et Mot de passe. Ces
données sont suffisantes pour créer un nouvel utilisateur. Si vous cliquez sur OK
maintenant, le système affectera automatiquement un ID utilisateur et définira
toutes les autres valeurs en fonction des paramètres par défaut.
6 Pour obliger les utilisateurs à modifier régulièrement leur mot de passe ou définir
d'autres options de mot de passe, sélectionnez Paramètres de mot de passe et
modifiez les options.
8 Cliquez sur Options pour experts > Écrire les modifications maintenant pour
enregistrer toutes les modifications sans quitter la boîte de dialogue Gestion des
utilisateurs et des groupes. Cliquez sur OK pour fermer la boîte de dialogue de
gestion et enregistrer les modifications. Un utilisateur qui vient d'être ajouté peut
désormais se loguer au système à l'aide du nom de login et du mot de passe que
vous avez créés.
1 Ouvrez la boîte de dialogue Gestion des utilisateurs et des groupes dans YaST
et cliquez sur l'onglet Utilisateurs.
L'activation des options Login automatique ou Login sans mot de passe sur une
machine à laquelle plusieurs personnes peuvent accéder présente un risque
de sécurité. Si les utilisateurs n'ont pas besoin de s'authentifier, ils pourront
accéder à votre système et à vos données. Si votre système contient des données
confidentielles, n'utilisez pas cette fonctionnalité.
Si vous souhaitez activer les options de login automatique ou de login sans mot de
passe, accédez à la section Gestion des utilisateurs et des groupes dans YaST, puis
sélectionnez Options pour experts > Paramètres de login.
1 Ouvrez la boîte de dialogue Gestion des utilisateurs et des groupes dans YaST,
puis sélectionnez l'onglet Utilisateurs.
5 Pour obliger les utilisateurs à modifier leur mot de passe, renseignez les
paramètres Durée maximale d'un mot de passe (en jours) et Durée minimale
d'un mot de passe (en jours).
6 Pour rappeler aux utilisateurs de modifier leur mot de passe avant qu'il n'expire,
définissez le paramètre Délai de publication d'un avertissement (en jours)
avant l'expiration d'un mot de passe.
Avec YaST, vous pouvez créer des répertoires privés codés pour les utilisateurs nouveaux
et existants. Pour coder ou modifier les répertoires privés d'utilisateurs existants, vous
devez connaître leur mot de passe de login actuel. Par défaut, toutes les données des
utilisateurs existants sont copiées sur le nouveau répertoire privé codé, mais ne sont
pas supprimées du répertoire non codé.
Le codage du répertoire privé d'un utilisateur n'offre pas une sécurité élevée
par rapport aux autres utilisateurs. Si un niveau de sécurité élevé est requis, le
système ne doit pas être physiquement partagé.
Pour plus d'informations sur les répertoires privés codés et les actions à entreprendre
pour augmenter la sécurité, reportez-vous à la section « Using Encrypted Home
Directories » (Chapitre 11, Encrypting Partitions and Files, ↑Security Guide (Guide
de la sécurité)).
1 Ouvrez la boîte de dialogue Gestion des groupes et des utilisateurs dans YaST,
puis cliquez sur l'onglet Utilisateurs.
Vous pouvez également cliquer sur Ajouter pour créer un nouveau compte
utilisateur et entrer les données de l'utilisateur appropriées dans le premier onglet.
6 Cliquez sur Options pour experts > Écrire les modifications maintenant pour
enregistrer toutes les modifications sans quitter la boîte de dialogue de gestion.
1 Ouvrez la boîte de dialogue Gestion des utilisateurs et des groupes dans YaST,
puis sélectionnez la vue Utilisateurs.
Si vous souhaitez agrandir ou diminuer la taille du fichier image codé pour cet
utilisateur, modifiez le paramètre Taille du répertoire en Mo.
6 Cliquez sur Options pour experts > Écrire les modifications maintenant pour
enregistrer toutes les modifications sans quitter la boîte de dialogue Gestion des
utilisateurs et des groupes. Cliquez sur OK pour fermer la boîte de dialogue de
gestion et enregistrer les modifications.
Les empreintes peuvent être enregistrées avec YaST. Pour obtenir des informations
détaillées sur la configuration et l'utilisation de l'authentification par empreinte, reportez-
vous au Chapitre 7, Using the Fingerprint Reader (↑Security Guide (Guide de la
SUSE Linux Enterprise Server permet d'utiliser des quotas soft et hard. Les quotas
souples (soft) définissent généralement un niveau d'avertissement qui informe les
utilisateurs qu'ils approchent de leur limite, alors que les quotas stricts (hard) définissent
la limite à partir de laquelle les requêtes d'écriture sont refusées. En outre, il est possible
de définir des intervalles bonus qui permettent aux utilisateurs ou aux groupes de
dépasser temporairement leur quota, sous certaines limites.
Procédure 12.6 Activation de la prise en charge des quotas pour une partition
Pour configurer des quotas pour certains utilisateurs et groupes, vous devez commencer
par activer la prise en charge des quotas pour la partition concernée dans le
partitionneur en mode expert de YaST.
1 Dans YaST, sélectionnez Système > Partitionneur, puis cliquez sur Oui pour
poursuivre.
3 Cliquez sur Options Fstab et activez l'option Activer la prise en charge des
quotas. Si le paquetage quota n'est pas déjà installé, il le sera une fois que vous
aurez confirmé le message approprié en cliquant sur Oui.
Vous pouvez désormais définir des quotas souples ou stricts pour des utilisateurs ou
des groupes spécifiques, ainsi que des délais sous forme d'intervalles bonus.
2 Dans l'onglet Plug-Ins, sélectionnez l'entrée du quota et cliquez sur Lancer pour
ouvrir la boîte de dialogue Configuration des quotas.
5 Par ailleurs, vous pouvez limiter le nombre d'inodes que l'utilisateur ou le groupe
peut avoir sur cette partition. Sous Limites I-nodes, entrez les valeurs des champs
Limite douce et Limite dure.
8 Cliquez sur Options pour experts > Écrire les modifications maintenant pour
enregistrer toutes les modifications sans quitter la boîte de dialogue Gestion des
utilisateurs et des groupes. Cliquez sur OK pour fermer la boîte de dialogue de
gestion et enregistrer les modifications.
SUSE Linux Enterprise Server fournit également des outils de ligne de commande tels
que repquota ou warnquota qui permettent aux administrateurs système de
contrôler l'utilisation du disque ou d'envoyer des notifications par e-mail aux utilisateurs
qui dépassent leur quota. Avec quota_nld, les administrateurs peuvent également
transmettre à D-BUS les messages du kernel relatifs aux quotas dépassés. Pour plus
d'informations, reportez-vous à la page de manuel repquota, warnquota et
quota_nld (mot de passe de l'utilisateur root requis).
1 Ouvrez la boîte de dialogue Gestion des utilisateurs et des groupes dans YaST
et sélectionnez l'onglet Paramètres par défaut pour les nouveaux utilisateurs.
5 Pour modifier les répertoires privés récemment créés, changez la valeur umask
dans Umask pour le répertoire privé. Pour plus d'informations sur la valeur
umask, reportez-vous au Chapitre 10, Access Control Lists in Linux (↑Security
Guide (Guide de la sécurité)) et à la page de manuel umask.
6 Pour obtenir des informations sur les options individuelles, cliquez sur Aide.
1 Ouvrez la boîte de dialogue Gestion des utilisateurs et des groupes dans YaST
et cliquez sur l'onglet Utilisateurs. La liste des utilisateurs et des groupes auxquels
ils appartiennent s'affiche.
6 Cliquez sur Options pour experts > Écrire les modifications maintenant pour
enregistrer toutes les modifications sans quitter la boîte de dialogue Gestion des
utilisateurs et des groupes. Cliquez sur OK pour fermer la boîte de dialogue de
gestion et enregistrer les modifications.
1 Ouvrez la boîte de dialogue Gestion des groupes et des utilisateurs dans YaST,
puis cliquez sur l'onglet Groupes.
5 Vous pouvez entrer ou modifier les données dans la boîte de dialogue suivante.
La liste de droite présente un aperçu de tous les utilisateurs et utilisateurs système
disponibles qui peuvent être membres du groupe.
8 Cliquez sur Options pour experts > Écrire les modifications maintenant pour
enregistrer toutes les modifications sans quitter la boîte de dialogue Gestion des
utilisateurs et des groupes.
Pour pouvoir supprimer un groupe, celui-ci ne doit contenir aucun membre. Pour
supprimer un groupe, sélectionnez-le dans la liste, puis cliquez sur Supprimer. Cliquez
sur Options pour experts > Écrire les modifications maintenant pour enregistrer toutes
les modifications sans quitter la boîte de dialogue Gestion des utilisateurs et des groupes.
Cliquez sur OK pour fermer la boîte de dialogue de gestion et enregistrer les
modifications.
NIS
Les utilisateurs sont gérés de façon centralisée sur un serveur NIS, pour tous les
systèmes membres du réseau. Pour plus de détails, reportez-vous à la Chapitre 3,
Using NIS (↑Security Guide (Guide de la sécurité)).
LDAP
Les utilisateurs sont gérés de façon centralisée sur un serveur LDAP, pour tous les
systèmes membres du réseau. Pour obtenir des détails sur LDAP, reportez-vous au
Chapitre 4, LDAP—A Directory Service (↑Security Guide (Guide de la sécurité)).
Vous pouvez gérer les utilisateurs LDAP à l'aide du module YaST relatif aux
utilisateurs. Tous les autres paramètres LDAP, y compris les paramètres par défaut
des utilisateurs LDAP, doivent être définis à l'aide du module YaST relatif aux
clients LDAP, comme décrit dans la section « Configuring an LDAP Client with
YaST » (Chapitre 4, LDAP—A Directory Service, ↑Security Guide (Guide de la
sécurité)).
Kerberos
Avec Kerberos, un utilisateur s'enregistre une fois, puis est approuvé dans tout le
réseau pendant toute la session.
Samba
L'authentification SMB est souvent employée dans les réseaux mixtes Linux et
Windows. Pour plus de détails, reportez-vous à la Chapitre 24, Samba
(↑Administration Guide (Guide d'administration)).
eDirectory LDAP
L'authentification eDirectory est utilisée dans les réseaux Novell.
Pour ce faire, utilisez le module YaST relatif aux langues, conformément à la description
indiquée dans la Section 13.1, « Modification de la langue du système » (p. 230). Installez
des langues secondaires pour obtenir des localisations optionnelles si vous souhaitez
démarrer des applications ou des bureaux dans des langues autres que la langue
principale.
En dehors de cela, le module YaST relatif au fuseau horaire vous permet de régler les
paramètres de pays et de fuseau de votre ordinateur de façon appropriée. Il permet
également de synchroniser l'horloge de votre système par rapport au serveur horaire.
Pour plus d'informations, reportez-vous à la Section 13.2, « Modifications des paramètres
du pays et de l'heure » (p. 234).
Langues secondaires
Installez des langues secondaires pour transformer votre système en système
multilingue. Les langues secondaires installées peuvent être sélectionnées
manuellement pour une situation spécifique. Vous pouvez ainsi utiliser une langue
secondaire pour démarrer une application dans une certaine langue, par exemple
pour effectuer du traitement de texte dans cette langue.
Avant d'installer des langues supplémentaires, déterminez celle qui sera utilisée par
défaut par le système (langue principale) à l'issue de l'installation.
Pour accéder au module YaST relatif aux langues, démarrez YaST et cliquez sur Système
> Langue. Vous pouvez également ouvrir directement la boîte de dialogue Langues à
partir d'une ligne de commande en exécutant yast2 language & en tant
qu'utilisateur root.
1 Pour ajouter des langues dans le module YaST relatif aux langues, sélectionnez
les Langues secondaires que vous souhaitez installer.
2 Pour définir une langue en tant que langue par défaut, définissez-la en tant que
Langue principale.
3 En outre, adaptez le clavier pour la nouvelle langue principale, ainsi que le fuseau
horaire, le cas échéant.
ASTUCE
5 Si votre paramètre local n'a pas été inclus dans la liste des langues principales
disponibles, essayez de le spécifier à l'aide de l'option Paramètre local détaillé.
Toutefois, certaines de ces localisations peuvent être incomplètes.
Votre système est désormais multilingue. Cependant, pour démarrer une application
dans une langue autre que la langue principale, vous devez définir explicitement la
langue souhaitée, comme expliqué dans la Section 13.1.3, « Basculement des langues
pour des applications individuelles » (p. 234).
Si vous basculez vers une autre langue principale, les paquetages logiciels
localisés de l'ancienne langue principale seront supprimés du système.
Si vous souhaitez modifier la langue du système par défaut tout en
conservant l'ancienne langue principale en tant que langue
supplémentaire, ajoutez-la en tant que Langue secondaire en cochant la
case correspondante.
5 Une fois que YaST a appliqué les modifications, redémarrez toutes les sessions
X (par exemple, en vous déloguant, puis en vous reloguant) pour que YaST et
les applications du bureau s'affichent dans la nouvelle langue.
Applications KDE
Lancez l'application en utilisant la commande suivante:
KDE_LANG=language application
En fonction des systèmes d'exploitation exécutés sur votre poste de travail, réglez les
paramètres de l'horloge matérielle de façon appropriée:
• Si un autre système d'exploitation est exécuté sur votre machine, par exemple
Microsoft Windows*, il est probable que votre système utilise l'heure locale plutôt
que l'heure UTC. Si tel est le cas, désélectionnez Horloge matérielle définie sur
UTC.
• Si seul Linux est exécuté sur votre machine, définissez l'horloge matérielle sur UTC
et demandez que le changement entre heure standard et heure d'été se fasse
automatiquement.
1 Dans le module YaST relatif au fuseau horaire, cliquez sur Changer pour définir
la date et l'heure.
4 Cliquez sur Synchroniser maintenant pour que l'heure de votre système soit
correctement définie.
Chaque méthode est présentée par le biais de deux petites listes de contrôle : une liste
des conditions préalables et une description de la procédure de base. Des informations
supplémentaires vous sont ensuite fournies pour toutes les techniques utilisées dans ces
scénarios d'installation.
REMARQUE
IMPORTANT
• Dépôt distant: NFS, HTTP, FTP ou SMB avec connexion réseau établie.
• Support de démarrage physique (CD, DVD ou lecteur flash USB) pour le démarrage
du système cible.
6 Achevez l'installation.
• Dépôt distant: NFS, HTTP, FTP ou SMB avec connexion réseau établie.
6 Achevez l'installation.
• Dépôt distant: NFS, HTTP, FTP ou SMB avec connexion réseau établie.
• Serveur TFTP.
4 Préparez le système cible pour le démarrage PXE. Cette opération est décrite
plus en détail à la Section 14.3.5, « Préparation du système cible pour le
démarrage PXE » (p. 267).
8 Achevez l'installation.
• Dépôt distant: NFS, HTTP, FTP ou SMB avec connexion réseau établie.
• Système de contrôle doté d'une connexion réseau établie et d'un logiciel client SSH
fonctionnel.
2 Démarrez le système cible en utilisant le premier CD, DVD ou lecteur flash USB
du kit de supports SUSE Linux Enterprise Server.
6 Achevez l'installation.
• Dépôt distant: NFS, HTTP, FTP ou SMB avec connexion réseau établie.
• Système de contrôle doté d'une connexion réseau établie et d'un logiciel client SSH
fonctionnel.
• Support de démarrage physique (CD, DVD ou lecteur flash USB) pour le démarrage
du système cible.
2 Démarrez le système cible en utilisant le premier CD, DVD ou lecteur flash USB
du kit de supports SUSE Linux Enterprise Server.
6 Achevez l'installation.
• Dépôt distant: NFS, HTTP, FTP ou SMB avec connexion réseau établie.
• Serveur TFTP.
• Serveur DHCP en cours d'exécution pour votre réseau. Ce serveur doit fournir une
adresse IP statique à l'hôte à installer.
• système de contrôle doté d'une connexion réseau établie et d'un logiciel client SSH.
4 Préparez le système cible pour le démarrage PXE. Cette opération est décrite
plus en détail à la Section 14.3.5, « Préparation du système cible pour le
démarrage PXE » (p. 267).
8 Achevez l'installation.
Vous pouvez même utiliser une machine Microsoft Windows comme serveur
d'installation pour le déploiement de Linux. Reportez-vous à rubrique
Section 14.2.5, « Gestion d'un dépôt SMB » (p. 255) pour plus d'informations.
Définissez un alias pour le répertoire racine du serveur FTP ou HTTP sur lequel
les données d'installation doivent figurer. Par la suite, le dépôt sera situé sous
ftp://IP-serveur/Alias/Nom (FTP) ou sous
http://IP-serveur/Alias/Nom (HTTP). Nom désigne le nom du dépôt,
dont la définition s'effectue à l'étape suivante. Si vous avez sélectionné NFS à
l'étape précédente, définissez des caractères joker et des options d'exportation.
Le serveur NFS sera accessible sous nfs://IP-serveur/Nom. Pour plus
d'informations sur le serveur NFS et les exportations, reportez-vous au
ASTUCE
Si votre serveur d'installation doit fournir les données d'installation de plusieurs produits
de cette version, démarrez le module YaST relatif aux serveurs d'installation et
sélectionnez Ajouter dans l'aperçu des dépôts existants pour configurer le nouveau
dépôt.
Pour créer un répertoire qui contient les données d'installation, procédez de la façon
suivante :
3 Pour chaque DVD contenu dans le kit de supports, exécutez les commandes
suivantes :
Sous SUSE Linux Enterprise Server, vous pouvez exporter le dépôt par NFS à l'aide
de YaST. Procédez de la façon suivante :
3 Cliquez sur Démarrer et Ouvrir port dans pare-feu, puis cliquez sur Suivant.
5 Sélectionnez Ajouter hôte et entrez les noms d'hôte des machines vers lesquelles
exporter les données d'installation. Au lieu d'indiquer les noms d'hôte, vous
pouvez également utiliser des caractères joker, des plages d'adresses réseau ou
simplement le nom de domaine de votre réseau. Entrez les options d'exportation
appropriées ou laissez celles par défaut ; ces dernières fonctionnent correctement
dans la plupart des configurations. Pour plus d'informations sur la syntaxe utilisée
lors de l'exportation des partages NFS, reportez-vous à la page de manuel
consacrée à l'exportation.
6 Cliquez sur Terminer. Le serveur NFS qui contient le dépôt de SUSE Linux
Enterprise Server est démarré et intégré automatiquement au processus de
démarrage.
3 Pour ajouter le service NFS à la liste des serveurs démarrés au cours du démarrage
du système, exécutez les commandes suivantes :
insserv /etc/init.d/nfsserver
par
Options Indexes FollowSymLinks
Pour configurer un partage Windows exporté où est stocké votre dépôt SUSE Linux
Enterprise Server, procédez de la façon suivante :
Pour utiliser un partage SMB monté comme dépôt, procédez de la façon suivante:
2 Sélectionnez Installation.
Lorsque vous appuyez sur Entrée, YaST démarre. Vous pouvez procéder à
l'installation.
5 Pour monter et décompresser chaque image ISO dans son emplacement final,
exécutez la commande suivante :
mount -o loop path_to_iso path_to_repository/product/mediumx
Pour monter automatiquement les images ISO lors du démarrage, ajoutez les entrées
correspondantes dans /etc/fstab. Dans le cas ci-dessus, l'entrée ressemblerait à
l'exemple suivant :
path_to_iso path_to_repository/product
medium auto loop
4 Sélectionnez Paramètres expert, puis Oui lorsque vous êtes averti que vous allez
quitter la boîte de dialogue de démarrage.
Pour configurer DHCP afin de fournir une adresse IP statique à un hôte spécifique,
entrez les Paramètres expert du module de configuration du serveur DHCP (Étape 4
(p. 258)) et ajoutez une nouvelle déclaration du type d'hôte. Ajoutez les options
matériel et adresse-fixe à cette déclaration de l'hôte et fournissez les valeurs
appropriées.
Si vous avez l'intention d'utiliser le protocole SSH pour le contrôle distant d'une
installation PXE et Wake on LAN, indiquez de manière explicite l'adresse IP que le
protocole DHCP doit fournir à la cible d'installation. Pour ce faire, modifiez la
configuration DHCP mentionnée ci-dessus, conformément à l'exemple suivant :
group {
# PXE related stuff
#
# "next-server" defines the tftp server that will be used
next-server ip_tftp_server:
#
# "filename" specifies the pxelinux image on the tftp server
# the server runs in chroot under /srv/tftpboot
filename "pxelinux.0";
host test {
hardware ethernet mac_address;
fixed-address some_ip_address;
}
}
L'instruction d'hôte présente le nom d'hôte de la cible d'installation. Pour lier le nom
d'hôte et l'adresse IP à un hôte, vous devez connaître et indiquer l'adresse matérielle du
système (MAC). Remplacez toutes les variables utilisées dans cet exemple par les
valeurs réelles qui correspondent à votre environnement.
Une fois le serveur DHCP redémarré, une adresse IP statique est fournie à l'hôte spécifié ;
vous pouvez ainsi vous connecter au système via la fonctionnalité SSH.
2 Sélectionnez YaST > Services réseau > Serveur TFTP et installez le paquetage
demandé.
3 Cliquez sur Activer pour vous assurer que le serveur est démarré et inclus dans
les routines de démarrage. Aucune autre action de votre part n'est nécessaire pour
vérifier la réussite de cette opération. xinetd démarre tftpd au moment du
démarrage.
4 Cliquez sur Ouvrir port dans pare-feu pour ouvrir le port approprié dans le pare-
feu exécuté sur votre machine. Si aucun pare-feu n'est en cours d'exécution sur
votre serveur, cette option n'est pas disponible.
4a S'il n'existe pas, créez dans ce répertoire un fichier nommé tftp, à l'aide
de la commande touch tftp. Exécutez ensuite chmod 755 tftp.
6 Insérez les entrées suivantes sur les lignes d'ajout des libellés failsafe et
apic par défaut :
insmod=module du kernel
Cette entrée permet d'indiquer le module de kernel du réseau nécessaire pour
prendre en charge l'installation réseau sur le client PXE. Remplacez module
du kernel par le nom du module approprié de votre périphérique réseau.
netdevice=interface
Cette entrée définit l'interface réseau du client à utiliser pour l'installation
du réseau. Elle n'est nécessaire que si le client est équipé de plusieurs cartes
réseau et elle doit être adaptée en conséquence. Dans le cas d'une carte réseau
unique, vous pouvez omettre cette entrée.
install=nfs://ip_serveurinst/chemin_vers_dépôt/DVD1
Cette entrée définit le serveur NFS et le dépôt de l'installation client.
Remplacez ip_serveurinst par l'adresse IP réelle de votre serveur
d'installation. chemin_vers_dépôt doit être remplacé par le chemin
d'accès réel au dépôt. Les dépôts HTTP, FTP ou SMB sont désignés de
manière semblable, à l'exception du préfixe de protocole, qui doit être http,
ftp ou smb.
Il est possible d'utiliser des noms de fichier différents pour les images
kernel et initrd. Cette caractéristique vous sera utile si vous souhaitez
fournir des systèmes d'exploitation différents depuis le même serveur
de démarrage. Cependant, n'oubliez pas que les noms de fichier fournis
par TFTP pour le démarrage PXE ne peuvent contenir qu'un seul point.
# default
label linux
kernel linux
append initrd=initrd ramdisk_size=65536 \
install=nfs://ip_instserver/path_to_repository/product/DVD1
# repair
label repair
kernel linux
append initrd=initrd splash=silent repair=1 showopts
# rescue
label rescue
kernel linux
append initrd=initrd ramdisk_size=65536 rescue=1
# memory test
label memtest
kernel memtest
# hard disk
label harddisk
localboot 0
implicit 0
display message
prompt 1
timeout 100
La section suivante offre une brève référence aux options PXELINUX utilisées
dans cette configuration. Pour plus d'informations sur les options disponibles,
reportez-vous à la documentation du paquetage syslinux, située sous /usr/
share/doc/packages/syslinux/.
Les libellés sont tronqués comme s'il s'agissait de noms de fichier et ils doivent
être uniques après cette opération. Par exemple, les deux libellés « v2.6.30 » et
« v2.6.31 » ne pourraient pas être différenciés sous PXELINUX car, une fois
tronqués, ils portent tous deux le même nom de fichier DOS.
Il n'est pas impératif d'utiliser un kernel Linux ; vous pouvez avoir recours à un
secteur de démarrage ou un fichier COMBOOT.
APPEND -
N'ajoute rien. APPEND suivi d'un seul tiret, utilisé comme argument dans une
section LABEL peut servir à remplacer un APPEND global.
Argument Description
Aucune autre valeur n'est définie. Si vous ne savez pas à quoi correspondent les
piles UNDI et PXE, indiquez 0.
TIMEOUT timeout
Indique la durée d'attente (en 1/10e de seconde) dans l'invite de démarrage, avant
que le démarrage automatique soit lancé. Le timeout est annulé dès que l'utilisateur
commence à saisir des données ; le système considère que l'utilisateur termine la
commande initiée. Un timeout de zéro désactive entièrement le timeout (il s'agit
également de la valeur par défaut). La valeur maximale de timeout est 35 996 (un
peu moins d'une heure).
PROMPT val_drapeau
Si l'option val_drapeau a pour valeur 0, cet argument affiche l'invite de
démarrage uniquement si vous appuyez sur les touches Maj ou Alt, ou si vous
définissez les touches Verr. Maj. ou Défil (option par défaut). Si val_drapeau
a la valeur 1, cet argument affiche toujours l'invite de démarrage.
F2 filename
F1 filename
..etc...
F9 filename
F10 filename
Affiche le fichier indiqué à l'écran lorsque vous appuyez sur une touche de fonction
à l'invite de démarrage. Cette option peut être utilisée pour implémenter l'aide en
Ne placez pas l'option PXE avant l'option de démarrage du disque dur dans le
BIOS. Le système essaierait sinon de se réinstaller chaque fois que vous le
démarrez.
Si la machine de contrôle n'est pas située sur le même segment réseau que la
cible d'installation à réveiller, vous devez configurer les requêtes WOL afin
qu'elles soient envoyées en mode multidiffusion ou contrôler à distance une
machine de ce segment réseau afin qu'il joue le rôle de l'expéditeur de ces
requêtes.
Les utilisateurs de SUSE Linux Enterprise Server peuvent utiliser un module YaST
appelé WOL afin de configurer facilement Wake on LAN. Les utilisateurs d'autres
versions de systèmes d'exploitation basés sur SUSE Linux peuvent avoir recours à un
outil de ligne de commande.
3 Cliquez sur Ajouter, puis entrez le nom d'hôte et l'adresse MAC du système cible.
Le tableau suivant répertorie tous les scénarios d'installation mentionnés dans ce chapitre,
et indique les paramètres requis pour le démarrage et les options associées. Il suffit de
toutes les ajouter dans l'ordre dans lequel elles apparaissent dans ce tableau pour obtenir
une chaîne d'options de démarrage à transmettre aux routines d'installation. Par exemple
(toutes sur une seule ligne) :
install=xxx netdevice=xxx hostip=xxx netmask=xxx vnc=xxx vncpassword=xxx
• vncpassword=un
_motdepasse
Vous trouverez plus d'informations sur les options de démarrage linuxrc utilisées
pour le démarrage d'un système Linux à l'adresse http://en.opensuse
.org/Linuxrc.
La cible d'installation s'annonçant via OpenSLP, vous pouvez récupérer les informations
relatives à l'adresse de la cible d'installation par le biais d'un navigateur SLP ; aucun
contact physique avec l'installation n'est alors nécessaire, dans la mesure où votre
configuration réseau et toutes les machines qui y figurent prennent en charge OpenSLP :
À l'aide de VNC, vous pouvez contrôler l'installation d'un système Linux à partir de
tout autre système d'exploitation (notamment d'autres versions de Linux, Windows ou
Mac OS).
Sur une machine Linux, assurez-vous que le paquetage tightvnc est installé. Sur
une machine Windows, installez le port Windows de cette application ; il est disponible
sur la page d'accueil de TightVNC (http://www.tightvnc.com/download
.html).
Pour vous connecter au programme d'installation qui s'exécute sur la machine cible,
procédez de la façon suivante :
Une fenêtre s'ouvre sur votre bureau : elle affiche les écrans de YaST comme
dans une installation locale classique.
4 Lorsque vous y êtes invité, entrez le mot de passe qui a été défini avec l'option
de démarrage SSH. Une fois l'authentification réussie, une invite de ligne de
commande pour la cible d'installation apparaît.
Les systèmes IBM System z reconnaissent uniquement les disques durs DASD
et SCSI. Les disques durs IDE ne sont pas pris en charge. Pour cette raison, ces
périphériques apparaissent dans la table de partition au format de fichier dasda
ou sda pour le premier périphérique reconnu.
Toutes les partitions existantes ou proposées de l'ensemble des disques durs connectés
sont affichées dans la liste de l'Espace de stockage disponible de la boîte de dialogue
de l'outil de partitionnement en mode expert de YaST. Les disques durs complets sont
répertoriés sous forme de périphériques sans numéros, tels que /dev/sda (ou /dev/
dasda). Les partitions sont répertoriées comme des parties de ces périphériques, par
exemple /dev/sda1 (ou /dev/dasda1, respectivement). La taille, le type, l'état
La Vue système de gauche propose plusieurs vues fonctionnelles. Utilisez ces vues pour
rassembler des informations sur les configurations de stockage existantes ou pour
configurer des fonctions comme RAID, Gestion des volumes, Crypter des
fichiers ou encore NFS.
Si vous ouvrez cette boîte de dialogue au cours de l'installation, l'espace disque libre
est également répertorié et automatiquement sélectionné. Pour fournir plus d'espace
disque à SUSE® Linux Enterprise Server, libérez l'espace requis en commençant par
le bas de la liste et en remontant progressivement (c'est-à-dire de la dernière partition
d'un disque à la première). Par exemple, si vous disposez de trois partitions, vous ne
pouvez pas consacrer exclusivement la seconde à SUSE Linux Enterprise Server et
réserver la première et la troisième à d'autres systèmes d'exploitation.
Sur les plates-formes IBM System z, SUSE Linux Enterprise Server prend en
charge les disques durs SCSI et les DASD (Direct Access Storage Devices –
périphériques de stockage à accès direct). Si les disques SCSI peuvent être
partitionnés comme indiqué ci-dessous, les DASD ne peuvent pas avoir plus
de trois entrées de partition dans leurs tables de partition.
Chaque disque dur possède une table de partition pouvant accepter quatre entrées.
Chaque entrée d'une table de partition correspond à une partition principale ou à une
partition étendue. Une seule entrée de partition étendue est cependant autorisée.
Si vous avez besoin de plus de quatre partitions, créez une partition étendue en guise
de quatrième partition (ou avant). Cette partition étendue doit couvrir l'intégralité de la
plage restante de cylindres libres. Vous pouvez ensuite créer plusieurs partitions logiques
au sein de cette partition étendue. Le nombre maximum de partitions logiques est de
15 sur les disques SCSI, SATA et Firewire, tandis qu'elle atteint 63 pour les disques
(E)IDE. Le type de partition utilisé pour Linux n'a aucune importance. Les partitions
principale et logique fonctionnent normalement.
1 Sélectionnez la partition.
ID du système de fichiers
Même si vous ne souhaitez pas formater la partition à ce stade, affectez-lui
un ID de système de fichiers pour vous assurer qu'elle sera inscrite dans le
registre. Les valeurs possibles sont Linux, Linux Swap, LVM Linux et RAID
Linux.
Système de fichiers
Pour modifier le système de fichiers de la partition, cliquez sur Formater la
partition et sélectionnez le type de système de fichiers dans la liste Système
de fichiers.
Options Fstab
Définissez les divers paramètres compris dans le fichier d'administration du
système de fichiers global (/etc/fstab). Les paramètres par défaut doivent
convenir à la plupart des configurations. Vous pouvez, par exemple, modifier
l'identification du système de fichiers et passer d'un nom de périphérique à
une étiquette de volume. Pour l'étiquette de volume, vous pouvez utiliser
tous les caractères à l'exception de la barre oblique (/) et de l'espace.
Cloner ce disque
Cette option permet de cloner la disposition de la partition du périphérique et ses
données sur d'autres disques disponibles.
Configurer iSCSI
Pour accéder à SCSI sur les périphériques de bloc IP, vous devez d'abord configurer
iSCSI. Cela entraîne l'affichage de périphériques disponibles supplémentaires dans
la liste de la partition principale.
Configurer multipath
Cette option permet de configurer l'amélioration multipath vers les périphériques
de stockage de masse pris en charge.
Des outils de partition différents peuvent compter les cylindres d'une partition
en commençant par 0 ou par 1. Pour calculer le nombre de cylindres, calculez
la différence entre le dernier et le premier numéros de cylindre, puis ajoutez 1.
Linux utilise une page appelée « La moins récemment utilisée » (LRU) pour sélectionner
les pages à déplacer de la mémoire vers le disque. Par conséquent, les applications en
Si une application tente d'allouer autant de mémoire qu'elle peut en obtenir, des
problèmes d'espace d'échange surviendront. Il existe trois cas principaux :
Si votre système est sous contrôle mais s'il a besoin de plus d'espace d'échange après
quelque temps, vous pouvez augmenter l'espace d'échange en ligne. Si vous avez préparé
1 Créez un fichier vide sur votre système. Par exemple, si vous souhaitez ajouter
à /var/lib/swap/swapfile un fichier d'échange de 128 Mo, utilisez les
commandes suivantes :
mkdir -p /var/lib/swap
dd if=/dev/zero of=/var/lib/swap/swapfile bs=1M count=128
Au début de chaque volume physique, des informations sur le volume sont écrites dans
la partition. Pour réutiliser une partition de ce type avec un gestionnaire différent de
LVM, il est conseillé de supprimer le début de ce volume. Par exemple, avec le groupe
de volumes system et le volume physique /dev/sda2, utilisez la commande
dd if=/dev/zero of=/dev/sda2 bs=512 count=1.
Figure 15.2, « Partitionnement physique VS LVM » (p. 289) Appuyez-vous sur la pour
comparer le partitionnement physique (à gauche) et la segmentation LVM (à droite).
À gauche, un seul disque a été divisé en trois partitions physiques (PART), dotées
chacune d'un point de montage (MP) qui permet au système d'exploitation d'accéder à
ces partitions. À droite, les deux disques ont été divisés respectivement en deux et trois
partitions physiques. Deux groupes de volumes LVM (VG 1 et VG 2) ont été définis.
Le groupe de volumes VG 1 comporte les deux partitions du disque DISK 1 et une
partition du disque DISK 2. Le groupe de volumes VG 2 contient les deux partitions
restantes du disque DISK 2. Dans LVM, les partitions des disques physiques incorporées
dans un groupe de volumes sont appelées « volumes physiques » (ou PV pour Physical
Volume). Parmi les groupes de volumes, quatre volumes logiques (de LV 1 à LV 4)
ont été définis. Il peuvent être utilisés par le système d'exploitation via les points de
montage associés. La limite entre les différents LV n'a pas besoin d'être alignée sur la
limite d'une partition. Reprenez dans cet exemple la limite entre LV 1 et LV 2.
Fonctions de LVM :
• Plusieurs disques durs ou partitions peuvent être combinés au sein d'un même
volume logique de grande ampleur.
• Si la configuration est adaptée, il est possible d'agrandir un volume logique (tel que
/usr) lorsque l'espace libre vient à manquer.
• Grâce à LVM, vous pouvez même ajouter des disques durs ou des volumes logiques
sur un système en cours d'exécution. Pour ce faire, vous devez néanmoins disposer
d'un matériel échangeable à chaud adapté.
Ces fonctionnalités rendent LVM totalement adapté à une utilisation sur les ordinateurs
privés ou les petits serveurs très sollicités. Si votre stock de données croît en permanence
(comme avec les bases de données, les archives de musique ou les répertoires utilisateur),
LVM est exactement l'outil qu'il vous faut. En effet, il permet de disposer de systèmes
de fichiers plus volumineux que le disque dur physique. Un autre avantage de LVM
est que vous pouvez ajouter jusqu'à 256 volumes logiques. Toutefois, l'utilisation de
LVM diffère de celle de partitions conventionnelles. Pour obtenir des instructions, ainsi
que d'autres informations relatives à la configuration de LVM, reportez-vous aux
HOWTO (guides pratiques) officiels de LVM, disponibles à l'adresse suivante :
http://tldp.org/HOWTO/LVM-HOWTO/.
À partir du kernel version 2.6, LVM version 2 est disponible, garantissant une
compatibilité descendante avec la précédente version de LVM, ainsi que la gestion
continue des anciens groupes de volumes. Lorsque vous créez de nouveaux groupes de
volumes, vous pouvez utiliser soit le nouveau format de LVM, soit sa version à
compatibilité descendante. LVM 2 ne requiert aucun correctif de kernel. Il utilise le
système de transfert du périphérique intégré au kernel 2.6. Ce kernel ne prend en charge
que LVM version 2. Par conséquent, lorsque LVM est mentionné dans cette section,
cela correspond systématiquement à LVM version 2.
5 Répétez cette procédure jusqu'à ce que vous ayez défini tous les volumes
physiques souhaités sur les disques disponibles.
4 Sélectionnez Terminer pour que le groupe de volumes soit disponible lors des
prochaines étapes de la configuration.
Cliquez sur Ajouter et placez-vous sur la fenêtre popup qui s'ouvre (elle ressemble à
un assistant) :
1. Entrez le nom du LV. Pour une partition à monter dans /home, un nom explicite
comme HOME peut être utilisé.
3. Choisissez le système de fichiers à utiliser sur le LV, ainsi que le point de montage.
Si vous avez déjà configuré LVM sur votre système, vous pouvez également utiliser
les volumes logiques existants. Avant de poursuivre, assignez à ces volumes logiques
les points de montage appropriés. Cliquez sur Terminer pour revenir au partitionneur
en mode expert de YaST et terminer vos opérations grâce à cet outil.
Grâce à SUSE® Linux Enterprise Server, vous pouvez combiner plusieurs disques durs
dans un même système Soft RAID. RAID exploite plusieurs stratégies pour combiner
plusieurs disques durs en un seul système RAID, chacune avec des objectifs, des
caractéristiques et des avantages différents. Ces variantes sont généralement appelées
niveaux RAID.
RAID 0
Ce niveau améliore les performances de l'accès aux données, en répartissant des
blocs de chaque fichier sur plusieurs disques. En réalité, il ne s'agit pas vraiment
d'une configuration RAID, car elle n'assure pas la sauvegarde des données, mais
le nom RAID 0 attribué à ce système est devenu un standard. Dans la configuration
RAID 1
Ce niveau assure un degré de sécurité acceptable pour vos données, car elles sont
copiées sur un autre disque, selon un système 1:1, appelé mise en miroir de disques
durs. Si un disque est détruit, une copie de son contenu est toujours disponible sur
un autre disque. Tous les disques, sauf un, peuvent être endommagés sans mettre
vos données en danger. Toutefois, si le dommage n'est pas détecté, les données
endommagées peuvent être mises en miroir sur le disque sain. Ceci risque d'entraîner
une perte des données. Dans le cadre du processus de copie, les performances
d'écriture sont réduites par rapport à l'utilisation d'un accès disque unique (10 à 20
% plus lent), mais l'accès en lecture est beaucoup plus rapide par rapport à l'accès
à un disque dur physique normal. En effet, les données étant dupliquées, elles
peuvent être consultées en parallèle. En général, le niveau 1 offre une vitesse de
lecture presque deux fois supérieure à celle d'un disque unique et une vitesse
d'écriture presque égale.
RAID 2 et RAID 3
Ce ne sont pas des implémentations RAID courantes. Le niveau 2 segmente les
données au niveau du bit, et non du bloc. Le niveau 3 segmente les données au
niveau de l'octet avec un disque de parité dédié et ne peut pas gérer plusieurs
requêtes simultanées. Ces deux niveaux sont rarement utilisés.
RAID 4
Le niveau 4 segmente les données en blocs, comme le niveau 0, mais utilise un
disque de parité dédié. En cas de défaillance du disque de données, les données de
parité servent à créer un disque de remplacement. Cependant, le disque parallèle
risque de créer un goulot d'étranglement lors de l'accès en écriture.
RAID 5
RAID 5 est un compromis optimisé entre le niveau 0 et le niveau 1, en ce qui
concerne les performances et la redondance. L'espace disque dur équivaut au nombre
de disques utilisés moins un. Les données sont réparties sur les disques durs, comme
avec le RAID 0. Des blocs de parité sont créés sur l'une des partitions pour des
raisons de sécurité. Ils sont liés les uns aux autres par l'opérateur OR exclusif
(XOR) ; le contenu peut ainsi être reconstruit, avec ce même opérateur, par le bloc
de parité correspondant, en cas de défaillance du système. RAID 5 ne gère pas les
5 Répétez cette procédure jusqu'à ce que vous ayez défini tous les volumes
physiques souhaités sur les disques disponibles.
Pour RAID 0 et RAID 1, au moins deux partitions sont nécessaires ; pour RAID 1, vous
devez même en avoir exactement deux, pas plus. Si vous utilisez RAID 5, vous avez
besoin d'au moins trois partitions. Il est recommandé d'utiliser des partitions de même
taille. Les partitions RAID doivent être situées sur des disques durs différents afin de
diminuer le risque de perte de données au cas où l'une des partitions serait défectueuse
(RAID 1 et 5) et afin d'optimiser les performances de RAID 0. Après avoir créé toutes
les partitions à utiliser avec RAID, cliquez sur RAID > Ajouter un RAID pour démarrer
la configuration de RAID.
Pour ajouter une partition non assignée au volume RAID sélectionné, cliquez d'abord
sur la partition, puis sur Ajouter. Assignez toutes les partitions réservées pour RAID.
Sinon, l'espace de ces partitions reste inutilisé. Après avoir assigné toutes les partitions,
cliquez sur Suivant pour sélectionner les Options RAID disponibles.
15.3.2 Dépannage
Reportez-vous au fichier /proc/mdstat pour savoir si une partition RAID a été
endommagée. En cas de défaillance système, arrêtez votre système Linux et remplacez
le disque dur défectueux par un nouveau disque partitionné de la même manière.
Redémarrez ensuite votre système et entrez la commande mdadm /dev/mdX --add
/dev/sdX. Remplacez « X » par vos identificateurs de périphérique. Cette commande
intègre automatiquement le nouveau disque dur dans le système RAID et le reconstruit
complètement.
• /usr/share/doc/packages/mdadm/Software-RAID.HOWTO.html
• http://en.tldp.org/HOWTO/Software-RAID-HOWTO.html
Des listes de diffusion concernant Linux RAID sont disponibles, notamment à l'adresse
http://marc.theaimsgroup.com/?l=linux-raid.
Pour enregistrer un client auprès d'un serveur SMT, vous devez spécifier au client l'URL
du serveur. Puisque le client et le serveur communiquent via le protocole HTTPS pendant
l'enregistrement, vous devez également vous assurer que le client approuve le certificat
du serveur. Si votre serveur SMT est défini de façon à utiliser le certificat par défaut
du serveur, le certificat de l'autorité de certification (AC) sera disponible sur le serveur
SMT via le protocole HTTP à l'adresse http://FQDN/smt.crt (FQDN représentant
le nom de domaine complet). Dans ce cas, vous n'avez pas à vous préoccuper du certificat
: le processus d'enregistrement téléchargera automatiquement le certificat AC à partir
d'ici, sauf configuration contraire. Vous devez entrer un chemin d'accès au certificat
AC du serveur si le certificat a été émis par une autorité de certification externe.
regurl
URL du serveur SMT. L'URL doit être au format suivant :
https://FQDN/center/regsvc/, FQDN représentant le nom complet de
l'hôte du serveur SMT. Ce nom doit être identique au nom de domaine complet du
certificat du serveur utilisé sur le serveur SMT. Exemple :
regurl=https://smt.example.com/center/regsvc/
regcert
Emplacement du certificat AC du serveur SMT. Spécifiez l'un des emplacements
suivants :
URL
Emplacement distant (HTTP, HTTPS ou FTP) depuis lequel il est possible de
télécharger le certificat. Exemple :
regcert=http://smt.example.com/smt.crt
Chemin local
Chemin complet du certificat sur la machine locale. Exemple :
regcert=/data/inst/smt/smt-ca.cert
Interactif
Utilisez ask pour ouvrir un menu contextuel vous permettant d'indiquer le
chemin d'accès au certificat lors de l'installation. N'utilisez pas cette option
avec AutoYaST. Exemple :
regcert=ask
Assurez-vous d'entrer des valeurs correctes. Si regurl n'a pas été saisi
correctement, il sera impossible d'enregistrer la source de mise à jour.
Si une valeur incorrecte est saisie pour regcert, le chemin local d'accès au
certificat vous sera demandé. Si regcert n'est pas précisé, il sera défini par
défaut sur http://FQDN/smt.crt, FQDN représentant le nom du serveur
SMT.
Pour configurer les données spécifiques à SMT à l'aide de AutoYaST, procédez comme
suit :
Vous pouvez ouvrir l'interface client AutoYaST depuis une ligne de commande
en exécutant yast2 autoyast.
2 Vous pouvez ouvrir un profil existant en cliquant sur Fichier > Ouvrir, créer un
profil basé sur la configuration système actuelle en cliquant sur Outils > Créer
un profil de référence ou utiliser simplement un profil vide.
7 Exécutez toutes les autres configurations requises pour les systèmes à déployer.
Pour configurer une machine cliente afin qu'elle utilise SMT avec le script
clientSetup4SMT.sh, suivez les étapes ci-après :
2. KIWI est divisé en plusieurs paquetages utilisés avec différents types d'images.
Dans tous les cas, vous aurez besoin du paquetage de base kiwi. En fonction de
votre image cible, vous aurez besoin des paquetages suivants :
KIWI 307
Type d'image Nom du paquetage
Virtualisation kiwi-desc-xenboot
3. Déploiement Le type d'image obtenu peut être déployé via différentes méthodes
telles qu'une installation sur un disque dur ou une lecture par un système de
virtualisation (VMware, Qemu, VirtualBox).
Fichier/Répertoire Description
KIWI 309
Fichier/Répertoire Description
❶ Élément racine de tous les fichiers de configuration de KIWI. Chaque fichier doit
comporter un numéro de version. Un attribut facultatif kiwirevision peut
être utilisé pour spécifier une révision SVN de KIWI.
❷ Contient des descriptions obligatoires avec des informations sur l'auteur des
descriptions de cette image, son adresse et une brève explication.
❸ Contient des préférences obligatoires avec des informations sur la version de cette
image, le gestionnaire de paquetages utilisé, les types d'images pris en charge et
d'autres paramètres.
❹ L'élément facultatif users contient la liste de tous les utilisateurs ajoutés à
l'image. L'élément user contient le nom, le chemin d'accès au répertoire privé,
le mot de passe et le shell de l'utilisateur.
❺ Contient une liste obligatoire de dépôts utilisés par le gestionnaire de paquetages.
KIWI 311
❻ Contient une liste obligatoire des paquetages inclus dans l'image.
Pour plus d'informations sur le fichier de configuration, consultez la page HTML ci-
dessus.
KIWI 313
1 Ouvrez un shell et loguez-vous en tant qu'utilisateur root.
• http://developer.berlios.de/projects/kiwi—Page d'accueil de
KIWI
• file:///usr/share/doc/packages/kiwi/kiwi.pdf—Description
étendue du système de création d'images KIWI
2 Si vous n'avez pas exécuté ce module auparavant, cliquez sur Créer un nouveau
produit complémentaire pour démarrer. Si vous avez déjà créé un produit
complémentaire, la fenêtre affiche la liste de tous les produits complémentaires
créés. Cliquez sur Ajouter pour démarrer.
5 Modifiez les descriptions des paquetages. Cliquez sur Ajouter une langue pour
insérer une nouvelle langue et ajouter des descriptions traduites (cette étape
est facultative).
• Cliquez sur Fichiers en option... pour ajouter des fichiers à votre produit
complémentaire. La première partie peut être utilisée pour insérer les
informations relatives au produit complémentaire dans le fichier info
.txt. Utilisez les fichiers de licence pour afficher une fenêtre comportant
les boutons J'accepte et Je refuse avant le début de l'installation. Il est
possible d'ajouter davantage de fichiers dans la section README.
La seconde partie peut être utilisée pour stocker les fichiers COPYRIGHT
et COPYING dans différentes langues.
8 Signez votre produit complémentaire avec votre clé GPG. Le fait de signer
votre produit avec votre clé GPG prouve l'origine de votre produit. Si vous
ARCHIVES.gz
Contient le contenu compressé par Gzip de tous les fichiers RPM. Il s'agit d'une
liste de commandes rpm avec les options -qil pour chaque fichier RPM.
Changelog
Contient toutes les modifications des fichiers RPM.
content
Contient les informations relatives à votre produit complémentaire.
content.asc
Contient le fichier de signature de GnuPG.
content.key, gpg-pubkey-NUMÉRO.asc
La clé publique GPG.
INDEX.gz
Contient une liste de tous les fichiers RPM compressés avec gzip.
ls-lR.gz
Contient une liste de tous les fichiers du support de votre produit complémentaire.
suse/
Contient les sous-répertoires et les informations spécifiques à l'architecture, à
l'exception de noarch/, qui concerne les paquetages indépendants de l'architecture,
et de src/, qui concerne les paquetages sources. Les paquetages des logiciels
propriétaires sont stockés sous nosrc/.
• http://en.opensuse.org/KIWI—Projet KIWI
• http://en.opensuse.org/Creating_YaST_Installation
_Sources—Création d'une source d'installation YaST
• http://en.opensuse.org/Standards/YaST2_repository
_metadata—Description des métadonnées YaST
• http://developer.novell.com/wiki/index.php/Creating
_Add-ons—
Si vous avez déjà utilisé le Product Creator, sélectionnez Ajouter pour créer une
nouvelle définition de produit, entrez le nom de la configuration et choisissez la
méthode.
La définition de votre produit est désormais terminée. Le Product Creator vous permet
de sélectionner l'une des actions suivantes :
• Créer une image avec KIWI... Utilisez le menu déroulant pour choisir parmi
les différents formats cibles, tels que les supports Live ou les images Xen.
• http://en.opensuse.org/KIWI—Projet KIWI
• /usr/share/doc/packages/kiwi/kiwi.pdf—Documentation KIWI
Pour créer une installation personnalisée, l'exécuter sur votre matériel et personnaliser
le produit final, procédez comme suit:
1 Préparez la machine principale dont le disque doit être cloné sur les machines
clientes. Pour plus d'informations, reportez-vous à Section 20.1, « Préparation
de la machine principale » (p. 324).
2 Démarrez la machine.
• Personnalisation des notes de version à afficher, comme décrit dans la Section 20.2.3,
« Personnalisation des notes de version » (p. 327).
/etc/sysconfig/firstboot
Permet de configure les différents aspects de Firstboot (comme les notes de version,
les scripts et les opérations de licence).
/etc/YaST2/firstboot.xml
Permet de configurer le workflow d'installation en activant ou en désactivant les
composants, ou bien en ajoutant des composants personnalisés.
Si cette variable n'est pas définie, la valeur par défaut welcome.txt sera
utilisée.
arrêter
L'installation de Firstboot s'interrompt et le système tout entier s'éteint. Ce mode
correspond au paramétrage par défaut.
continuer
L'installation de Firstboot continue.
ignorer
L'installation de Firstboot s'interrompt, mais le système tente de démarrer.
1 Créez votre propre fichier de notes de version. Utilisez le format RTF comme
dans le fichier donné en exemple dans /usr/share/doc/release-notes,
puis enregistrez le résultat sous la forme RELEASE-NOTES.en.rtf (pour la
langue anglaise).
• Sélection de la langue
• Bienvenue
• Accord de licence
• Nom d'hôte
• Réseau
• Heure et date
• Desktop
• Configuration du matériel
• Terminer la configuration
Cette disposition standard d'un workflow d'installation de Firstboot n'est pas obligatoire.
Vous pouvez activer ou désactiver certains composants, ou encore intégrer vos propres
modules au workflow. Pour modifier le workflow Firstboot, modifiez manuellement
le fichier de configuration de Firstboot /etc/YaST2/firstboot.xml. Ce fichier
XML est un sous-ensemble du fichier standard control.xml utilisé par YaST pour
contrôler le workflow d'installation.
…
<proposals config:type="list">❶
<proposal>❷
<name>firstboot_hardware</name>❸
<mode>installation</mode>❹
<stage>firstboot</stage>❺
<label>Hardware Configuration</label>❻
<proposal_modules config:type="list">❼
<proposal_module>printer</proposal_module>❽
</proposal_modules>
</proposal>
<proposal>
…
</proposal>
</proposals>
❶ Conteneur de toutes les propositions qui doivent faire partie du workflow Firstboot
❷ Conteneur d'une proposition individuelle
❸ Nom interne de la proposition
❹ Mode de cette proposition. N'effectuez aucune modification ici. Pour une
installation de Firstboot, ce paramètre doit être défini sur installation.
❺ Stade du processus d'installation auquel cette proposition est appelée. N'effectuez
aucune modification ici. Pour une installation de Firstboot, ce paramètre doit être
défini sur firstboot.
❻ Libellé à afficher sur la proposition
❼ Conteneur de tous les modules de l'écran de proposition
❽ Un ou plusieurs modules de l'écran de proposition
<workflows config:type="list">
<workflow>
<defaults>
<enable_back>yes</enable_back>
<enable_next>yes</enable_next>
<archs>all</archs>
</defaults>
<stage>firstboot</stage>
<label>Configuration</label>
<mode>installation</mode>
… <!–– list of modules ––>
</modules>
</workflow>
</workflows>
…
enable_back
Inclut le bouton Retour dans toutes les boîtes de dialogue.
enable_next
Inclut le bouton Suivant dans toutes les boîtes de dialogue.
archs
Spécifie les architectures matérielles sur lesquelles ce workflow doit être utilisé.
<modules config:type="list">❶
<module>❷
<label>Language</label>❸
<enabled config:type="boolean">false</enabled>❹
<name>firstboot_language</name>❺
</module>
<modules>
Vous pouvez toujours modifier le workflow des étapes de la configuration lorsque les
valeurs par défaut ne correspondent pas à vos besoins. Activez ou désactivez certains
modules du workflow (ou ajoutez vos modules personnalisés).
<module>
<label>Time and Date</label>
<enabled config:type="boolean">true</enabled>
<name>firstboot_timezone</name>
</module>
3 Déterminez à quel point du workflow votre nouveau module doit être exécuté.
Ce faisant, assurez-vous que les dépendances possibles avec d'autres étapes du
workflow sont prises en compte et résolues.
4b Assurez-vous que le paramètre enabled est défini sur true pour que votre
module soit inclus dans le workflow.
2 Créez votre script shell, stockez-le dans le répertoire spécifié, puis appliquez les
autorisations du fichier appropriées.
Pour utiliser l'interface graphique de AutoYaST en vue de créer un profil à partir d'une
configuration système et de le modifier selon vos besoins, procédez de la façon suivante :
4 Tout comme les ressources par défaut (telles que le chargeur de démarrage, le
partitionnement et la sélection des logiciels), vous pouvez ajouter d'autres aspects
de votre système au profil en sélectionnant les éléments de la liste dans Créer
un fichier de contrôle de référence.
5 Cliquez sur Créer pour que YaST rassemble les informations système et les
écrive dans un nouveau profil.
directory — file:///
autoyast.xml s'il se
trouve dans le répertoire de
niveau supérieur d'un
CD-ROM).
Remplacez les espaces réservés serveur et chemin par des valeurs adaptées à votre
configuration.
AutoYaST comporte une fonction qui permet de lier certains profils à l'adresse MAC
du client. Sans avoir à modifier le paramètre autoyast=, vous pouvez faire installer
par la même configuration plusieurs instances différentes en utilisant des profils
différents.
1 Créez des profils en utilisant l'adresse MAC du client comme nom de fichier et
placez-les sur le serveur HTTP où sont stockés vos profils AutoYaST.
C000025B
C000025
C00002
C0000
C000
C00
C0
C
0080C8F6484C
default
Pour fournir les sources d'installation sur le réseau, configurez un serveur d'installation
réseau (HTTP, NFS, FTP) comme décrit dans Section 14.2.1, « Configuration d'un
serveur d'installation à l'aide de YaST » (p. 247). Utilisez un fichier info pour
transmettre l'emplacement du serveur aux routines d'installation.
Démarrage réseau
Comme pour une installation distante normale, l'installation automatique peut être
initiée avec Wake on LAN et PXE, l'image de démarrage et le fichier de contrôle
peuvent être récupérés via TFTP, et les sources d'installation à partir d'un serveur
d'installation réseau quelconque.
CD-ROM amorçable
Vous pouvez utiliser le support SUSE Linux Enterprise d'origine pour démarrer le
système pour l'installation automatique et récupérer le fichier de contrôle à partir
d'un emplacement réseau ou d'une disquette. Vous pouvez également créer un CD-
ROM personnalisé contenant les sources d'installation et le profil AutoYaST.
Les sections qui suivent décrivent brièvement les procédures de démarrage réseau ou
de démarrage à partir du CD-ROM.
default linux
Remplacez les exemples d'adresses IP et de chemins par les données utilisées dans votre
configuration.
• D'une disquette contenant le fichier info qui indique aux routines d'installation
où trouver le profil
OU
OU
Les paramètres suivants sont généralement utilisés pour linuxrc. Pour plus d'informations,
reportez-vous à la documentation du paquetage AutoYaST, dans /usr/share/doc/
packages/autoyast.
Si vous préférez une configuration réseau statique lors de l'installation, votre fichier
info ressemblera à cela :
autoyast:profile_source
install:install_source
hostip:some_ip
netmask:some_netmask
gateway:some_gateway
Chaque option doit être entrée sous forme de chaîne continue sur une ligne distincte.
Les données info peuvent être mises à disposition de linuxrc de plusieurs manières :
• Sous la forme d'un fichier enregistré sur une disquette ou un CD-ROM qui se trouve
sur l'unité du client au moment de l'installation. Ajoutez le paramètre info, par
exemple info=floppy:/info ou info=cd:/info.
• Sous forme de fichier dans le répertoire racine du disque RAM initial utilisé pour
démarrer le système fourni à partir du support d'installation personnalisé ou via le
démarrage PXE.
• Sous la forme d'un élément du profil AutoYaST. Dans ce cas, le fichier AutoYaST
doit être nommé info pour que linuxrc l'analyse. Un exemple de cette approche
est donné ci-dessous.
# end_linuxrc_conf
# Do not remove the above comment
#
]]>
</info_file>
</init>
......
</install>
....
linuxrc charge le profil contenant les paramètres de démarrage au lieu du fichier info
classique. Le paramètre install: pointe vers l'emplacement des sources d'installation.
Les paramètres vnc et vncpassword indiquent si VNC est utilisé pour la surveillance
de l'installation. Le paramètre autoyast signale à linuxrc que le fichier info doit
être traité comme un profil AutoYaST.
• Si le client n'est pas activé via Wake on LAN, vous devez au moins activer la
machine cliente.
Pour activer l'installation automatique contrôlée à distance, utilisez les paramètres VNC
ou SSH décrits dans Section 21.1.5, « Création du fichier info » (p. 348) et connectez-
vous au client à partir d'une autre machine comme indiqué dans Section 14.5,
« Surveillance du processus d'installation » (p. 272).
• Les machines de votre site ont-elles des configurations matérielles différentes (par
exemple, avec des périphériques différents ou des tailles de mémoire et de disque
différentes) ?
Globalement, l'installation automatique basée sur des règles génère un profil personnalisé
pour correspondre à un scénario hétérogène en fusionnant plusieurs profils en un seul.
Chaque règle décrit une caractéristique de la configuration (par exemple, la taille du
disque) et indique à AutoYaST quel profil appliquer aux éléments qui respectent la
règle. Plusieurs règles décrivant différentes caractéristiques de la configuration sont
regroupées dans un fichier rules.xml de AutoYaST. La pile de règles est ensuite
traitée et AutoYaST génère le profil final en fusionnant les différents profils qui
correspondent aux règles AutoYaST. Pour illustrer cette procédure, reportez-vous au
Section 21.2.2, « Exemple de scénario d'installation automatique basée sur des règles »
(p. 355).
L'installation AutoYaST basée sur des règles vous offre une grande souplesse de
planification et d'exécution de votre déploiement SUSE Linux Enterprise. Vous pouvez :
• Créer des règles pour chacun des attributs prédéfinis du système dans AutoYaST
Pour préparer une installation AutoYaST en masse basée sur des règles, procédez de
la façon suivante :
Un serveur d'impression
Cette machine n'a besoin que d'une installation minimale sans environnement de
bureau et un nombre limité de paquetages logiciels.
Répertoire AutoYaST
Ordinateurs du service
d'ingénierie
Fichier rules.xml
Règle 1
Règle 3
Profil commercial
Portables du service
commercial
Serveur d'impression
Dans une première étape, utilisez l'une des méthodes décrites dans Section 21.1.1,
« Création d'un profil AutoYaST » (p. 340) pour créer des profils pour chaque cas
d'utilisation. Dans cet exemple, vous allez créer print.xml, engineering.xml
et sales.xml.
Dans les grandes lignes, cela se traduit par un fichier rules.xml dont le contenu est
le suivant :
<?xml version="1.0"?>
<!DOCTYPE autoinstall SYSTEM "/usr/share/autoinstall/dtd/rules.dtd">
<autoinstall xmlns="http://www.suse.com/1.0/yast2ns"
xmlns:config="http://www.suse.com/1.0/configns">
<rules config:type="list">
<rule>
<hostaddress>
<match>192.168.2.253</match>
<match_type>exact</match_type>
</hostaddress>
<result>
<profile>print.xml</profile>
<continue config:type="boolean">false</continue>
</result>
</rule>
<rule>
<haspcmcia>
<match>1</match>
<match_type>exact</match_type>
</haspcmcia>
<custom1>
<script>
if grep -i intel /proc/cpuinfo > /dev/null; then
echo -n "intel"
else
echo -n "non_intel"
fi;
</script>
<match>*</match>
<match_type>exact</match_type>
</custom1>
<result>
Pour créer ce type d'image, reportez-vous à la Section 17.4.2, « Création d'une image »
(p. 313). Lorsque vous créez l'image ISO, vous pouvez trouver le fichier BRUT dans le
dossier de destination. Il existe plusieurs façons de copier une image brute sur un disque.
• Fournissez l'image brute à l'aide d'un serveur HTTP ou FTP et transférez-la sur le
disque de la machine cliente.
• Créez une image de démarrage réseau pour récupérer l'image et la transférer sur le
disque. Ceci est une bonne méthode pour le déploiement de masse.
Pour un démarrage rapide, il est recommandé d'utiliser l'une des méthodes décrites dans
la Section 22.1, « Déploiement manuel du système à partir d'une image de secours »
(p. 360).
1. Gravez l'image ISO obtenue via le processus de création de KIWI sur le CD/DVD.
Reportez-vous à la Section 17.4.2, « Création d'une image » (p. 313).
3. Configurez votre réseau. Si le protocole DHCP est disponible sur votre réseau,
utilisez uniquement la commande ifup-dhcp eth0. Si vous devez effectuer
cette procédure manuellement, utilisez la commande ip pour configurer votre
réseau. Le protocole DHCP de sortie vous indique également l'adresse IP de
l'ordinateur.
4. Utilisez un port inutilisé de votre réseau, comme 1234, et transférez les données
entrantes sur le disque à l'aide de la commande suivante:
netcat -l -p 1234 > /dev/sda
5. Sur le serveur de création d'images, envoyez l'image brute vers la machine cliente
à l'aide de la commande:
netcat <IP of client> 1234 < $HOME/preload_image/<image_name>
Les actions suivantes doivent être exécutées dans l'ordre afin d'accomplir cette tâche:
2 Configurez un serveur TFTP pour conserver une image de démarrage (qui sera
créée à l'étape suivante). Cela est décrit à la Section 14.3.2, « Configuration d'un
serveur TFTP » (p. 260).
Notez que le processus d'installation actuel gagnera en rapidité si vous dotez cette
machine de suffisamment de mémoire pour héberger l'image de préchargement. Par
ailleurs, l'utilisation de Gigabit Ethernet accélère considérablement le processus de
déploiement par rapport à des réseaux plus lents.
L'image actuelle à déployer doit être disponible sur le serveur FTP ou HTTP que vous
avez spécifié·sur le serveur d'installation.
Les principales fonctionnalités devant être fournies par le système initial sont l'activation
de l'accès au disque dur et la mise à disposition de la connexion réseau. Ces deux
fonctions dépendent du matériel sur lequel vous voulez effectuer le déploiement. En
théorie, il est possible de créer un système initial de toutes pièces, mais pour simplifier
cette tâche, vous pouvez également modifier le système de fichiers RAM utilisé par la
machine pendant le démarrage.
La procédure suivante montre comment créer le système de fichiers RAM initial requis:
Notez que eth0 représente le périphérique Ethernet auquel votre câble réseau
est relié. Le paramètre -f busybox ajoute le binaire MultiCall busybox
au système de fichiers RAM. Après quoi, de nombreuses commandes Unix
standard seront disponibles dans ce système.
Le système de fichiers RAM initial est maintenant prêt à traiter deux nouveaux
paramètres de ligne de commande de kernel. Le paramètre rawimage=<URL> permet
d'identifier l'emplacement de l'image de préchargement. Toute URL comprise par wget
peut être utilisée. Le paramètre rawdevice=<device> permet d'identifier le
périphérique de bloc du disque dur sur la machine cible.