Nur kurz notiert. Als ich meine defekte Festplatte austauschte, wurden auch gleich alle gegen größere Modelle ausgetauscht. Ich liebe Upgrades. Bei der Datenmigration ist mir erst später aufgefallen, dass die tatsächliche Größe des Pools nicht mitgewachsen ist. Das lässt sich mit einem kleinen Schritt beheben.
Der Wert EXPANDSZ
zeigt an, dass es ungenutzten Platz im Pool gibt, der "erweitert" werden könnte.
NAME SIZE ALLOC FREE CKPOINT EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
data 14.5T 10.9T 3.65T - 14.5T 0% 74% 1.00x ONLINE -
Normalerweise wird das automatisch gemacht, aber ich habe vergessen, das Attribut autoexpand=on
beim Einrichten der Festplatten zu setzen. Für die Zukunft ist das Attribut mit zpool set autoexpand=on data
(in meinem Pool data
) gesetzt (und im Artikel ergänzt).
Manuell wird das Expandieren nun nachgeholt. Ein zpool status data
zeigt vorher die Liste der Pool Mitglieder.
pool: data
state: ONLINE
scan: resilvered 37.0G in 00:06:47 with 0 errors on Sat Dec 21 20:45:42 2024
config:
NAME STATE READ WRITE CKSUM
data ONLINE 0 0 0
raidz2-0 ONLINE 0 0 0
gpt/HTYM ONLINE 0 0 0
gpt/HDSM ONLINE 0 0 0
gpt/8VZK ONLINE 0 0 0
gpt/56WK ONLINE 0 0 0
Die letzte Festplatte ist entscheidend = gpt/56WK
.
Mit dem Befehl zpool online -e data gpt/56WK
weisen wir den Pool dem Speicherplatz zu.
NAME SIZE ALLOC FREE CKPOINT EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
data 29.1T 10.9T 18.2T - - 0% 37% 1.00x ONLINE -
Das war's und der gesamte Plattenplatz steht dem ZFS-Pool data
zur Verfügung.