« ZFS » : différence entre les versions
Aller à la navigation
Aller à la recherche
Aucun résumé des modifications |
|||
(6 versions intermédiaires par le même utilisateur non affichées) | |||
Ligne 2 : | Ligne 2 : | ||
[[Category:debian]] | [[Category:debian]] | ||
[[Category:raid]] | [[Category:raid]] | ||
=Recommandation de mémoire= | |||
Un calcul efficace est de 4GB de mémoire + 1GB de mémoire pour chaque TB d'espace disque alloué au pool ZFS. | |||
Pour 4GB de mémoire allloué à ARC : | |||
<pre> | |||
#$ echo "$[4 * 1024*1024*1024]" > /sys/module/zfs/parameters/zfs_arc_max | |||
#$ echo "options zfs zfs_arc_max=$[4 * 1024*1024*1024]" >> /etc/modprobe.d/zfs.conf | |||
</pre> | |||
=Création d'un pool en RAID-10= | |||
<pre> | |||
# zpool create -f -o ashift=12 main mirror /dev/sda4 /dev/sdb4 mirror /dev/sdc4 /dev/sdd4 | |||
# zfs create main/vms | |||
# zfs set canmount=off main/vms | |||
# zfs set canmount=off main | |||
</pre> | |||
Si vous êtes sur SSD : | |||
<pre> | |||
#$ zpool set autotrim=on main | |||
</pre> | |||
=Commandes utiles= | |||
<pre> | |||
#$ zfs get canmount | |||
#$ zfs get compression | |||
#$ zfs get dedup | |||
</pre> | |||
<pre> | |||
#$ zfs list | |||
#$ zpool list | |||
#$ zpool status | |||
#$ zpool iostat | |||
</pre> | |||
<pre> | |||
#$ arcstat | |||
#$ arc_summary | |||
</pre> | |||
<pre> | |||
#$ zpool scrub main | |||
#$ zpool scrub -s main | |||
#$ zpool scrub -p main | |||
</pre> | |||
=Remplacement d'un disque défectueux= | =Remplacement d'un disque défectueux= | ||
Ligne 41 : | Ligne 89 : | ||
<pre> | <pre> | ||
#$ zpool status storage | #$ zpool status storage | ||
NAME | NAME STATE READ WRITE CKSUM | ||
storage | storage DEGRADED 0 0 0 | ||
raidz1-0 | raidz1-0 DEGRADED 0 0 0 | ||
sda3 | sda3 ONLINE 0 0 0 | ||
sdb3 | sdb3 ONLINE 0 0 0 | ||
sdc3 | replacing-2 DEGRADED 0 0 0 | ||
sdc3/old OFFLINE 0 0 0 | |||
sdc3 ONLINE 0 0 0 | |||
</pre> | </pre> |
Dernière version du 12 mai 2024 à 19:39
Recommandation de mémoire
Un calcul efficace est de 4GB de mémoire + 1GB de mémoire pour chaque TB d'espace disque alloué au pool ZFS.
Pour 4GB de mémoire allloué à ARC :
#$ echo "$[4 * 1024*1024*1024]" > /sys/module/zfs/parameters/zfs_arc_max #$ echo "options zfs zfs_arc_max=$[4 * 1024*1024*1024]" >> /etc/modprobe.d/zfs.conf
Création d'un pool en RAID-10
# zpool create -f -o ashift=12 main mirror /dev/sda4 /dev/sdb4 mirror /dev/sdc4 /dev/sdd4 # zfs create main/vms # zfs set canmount=off main/vms # zfs set canmount=off main
Si vous êtes sur SSD :
#$ zpool set autotrim=on main
Commandes utiles
#$ zfs get canmount #$ zfs get compression #$ zfs get dedup
#$ zfs list #$ zpool list #$ zpool status #$ zpool iostat
#$ arcstat #$ arc_summary
#$ zpool scrub main #$ zpool scrub -s main #$ zpool scrub -p main
Remplacement d'un disque défectueux
#$ zpool status storage NAME STATE READ WRITE CKSUM storage ONLINE 0 0 0 raidz1-0 ONLINE 0 0 0 sda3 ONLINE 0 0 0 sdb3 ONLINE 0 0 0 sdc3 ONLINE 0 0 0
#$ zpool offline storage /dev/sdc3 #$ zpool status storage NAME STATE READ WRITE CKSUM storage DEGRADED 0 0 0 raidz1-0 DEGRADED 0 0 0 sda3 ONLINE 0 0 0 sdb3 ONLINE 0 0 0 sdc3 OFFLINE 0 0 0
Remplacez le disque physique sdc
Formater le nouveau disque (sdc) à l'identique, par exemple ici avec sgdisk (pour partition GPT) :
#$ sgdisk --replicate=/dev/sdc /dev/sda #$ sgdisk --randomize-guids /dev/sdc
Ajoutez le nouveau disque :
#$ zpool replace storage /dev/sdc3
#$ zpool status storage NAME STATE READ WRITE CKSUM storage DEGRADED 0 0 0 raidz1-0 DEGRADED 0 0 0 sda3 ONLINE 0 0 0 sdb3 ONLINE 0 0 0 replacing-2 DEGRADED 0 0 0 sdc3/old OFFLINE 0 0 0 sdc3 ONLINE 0 0 0