EN JA
ZPOOL(8)
ZPOOL(8) FreeBSD System Manager's Manual ZPOOL(8)

名称

zpoolZFS 記憶域プールの設定

書式

zpool [ -?]

zpool add [ -fn] pool vdev ...

zpool attach [ -f] pool device new_device

zpool clear [ -F [ -n]] pool [ device]

zpool create [ -fnd][ -o property= value] ... [ -O file-system-property= value] ... [ -m mountpoint][ -R root] pool vdev ...

zpool destroy [ -f] pool

zpool detach pool device

zpool export [ -f] pool ...

zpool get all | property[ , ...] pool ...

zpool history [ -il][ pool] ...

zpool import [ -d dir | -c cachefile][ -D]

zpool import [ -o mntopts][ -o property= value] ... [ -d dir | -c cachefile][ -D][ -f][ -m][ -N][ -R root][ -F [ -n]] -a

zpool import [ -o mntopts][ -o property= value] ... [ -d dir | -c cachefile][ -D][ -f][ -m][ -N][ -R root][ -F [ -n]] pool | id [ newpool]

zpool iostat [ -T d| u][ -v][ pool] ...

zpool labelclear [ -f] device

zpool list [ -H][ -o property[ , ...]][ -T d| u][ pool] ... [ inverval [ count]]

zpool offline [ -t] pool device ...

zpool online [ -e] pool device ...

zpool reguid pool

zpool remove pool device ...

zpool replace [ -f] pool device [ new_device]

zpool scrub [ -s] pool ...

zpool set property= value pool

zpool split [ -n][ -R altroot][ -o mntopts][ -o property= value] pool newpool [ device ...]

zpool status [ -vx][ -T d| u][ pool] ... [ interval [ count]]

zpool upgrade [ -v]

zpool upgrade [ -V version] -a | pool ...

解説

zpool コマンドは、 ZFS 記憶域プールを設定します。記憶域プールは、 ZFS データセットのための物理的な記憶域とデータの複製を提供するデバイスの収集です。

記憶域プール中のすべてのデータセットは、同じ空間を共有します。データセットを管理に関する情報については、 zfs(8) を参照してください。

仮想デバイス (vdev)

“仮想デバイス” (vdev) は、特定の性能と障害の特徴に従って組織化された単一のデバイスまたはデバイスの収集について説明しています。次の仮想デバイスが、サポートされています:
disk
通常、 /dev の下に位置するブロックデバイス。推奨される操作のモードは、全体のディスクを使用することですが、 ZFS は、個々のスライスまたはパーティションを使用することができます。デバイスまたは geom(4) プロバイダ名へのフルパスによってディスクを指定することがきます。すべてのディスクが与えられたとき、必要なら、 ZFS は、自動的にディスクをラベル付けします。
file
通常のファイル。外部記憶装置としてファイルの使用は、強く勧められません。ファイルの耐障害性 (フォールトトレランス) が、一部分であるファイルシステム次第であるように、主として実験目的のために設計されています。ファイルは、フルパスで指定されなければなりません。
mirror
2 つ以上のデバイスのミラー。データは、ミラーのすべての構成要素にわたって同じ方法で複写されます。サイズ XN 個のディスクがあるミラーは、 X バイトを保持でき、データの整合性が危険にさらされる前に失敗する ( N-1) 個のデバイスに耐えることができます。
raidz
(または raidz1 raidz2 raidz3)。パリティのより良い配布と (データとパリティが停電の後に矛盾するようになる) “ RAID-5”書き込みホールの削除を可能にする RAID-5 の変種。データとパリティは、 raidz グループ内のすべてのディスクにわたって取り除かれます。

raidz グループは、 raidz グループがあらゆるデータを失わないで、それぞれ 1、2 または 3 つの障害を持ちこたえできることを意味する、単一のパリティ、二重のパリティまたは三重のパリティを持つことができます。 raidz1 vdev タイプは、単一のパリティ raidz グループを指定し、 raidz2 vdev タイプは、二重のパリティ raidz グループを指定し、 raidz3 vdev タイプは、三重のパリティ raidz グループを指定します。 raidz vdev タイプは、 raidz1 の別名です。

P パリティディスクでサイズ XN ディスクがある raidz グループは、およそ ( N-P)*X バイトを保持することができ、データ整合性が危うくなる前に失敗する P の (複数の) デバイスを持ちこたえることができます。 raidz グループのデバイスの最小の数は、パリティディスクの数より 1 つ上です。お勧めの数は、性能を向上させる手助けとなる 3 から 9 です。

spare
プールのために利用可能なホットスペアの経過を追う特別な疑似 vdev。 pseudo-vdev 詳細については、“ ホットスペア”セクションを参照してください。
log
分割された目的 (separate-intent) ログデバイス。 2 つ以上のログデバイスが指定されるなら、書き込みは、デバイスの間で負荷分散されます。ログデバイスをミラーすることができます。しかしながら、目的 (intent) ログに対して raidz vdev タイプをサポートしません。詳細については、“ 目的 (intent) ログ”セクションを参照してください。
cache
記憶域プールデータをキャッシュするために使用されるデバイス。ミラーまたは raidz グループとしてキャッシュデバイスを設定することができません。詳細については、“ キャッシュデバイス”セクションを参照してください。

仮想のデバイスを入れ子にすることができないので、ミラーまたは raidz 仮想デバイスは、ファイルまたはディスクだけを含むことができます。ミラーのミラー (または、他の組み合わせ) は、許可されていません。

プールは、設定 (“root” vdev として知られている) の先頭でいくつもの仮想デバイスを持つことができます。データは、デバイスの間のデータのバランスをとるためにすべてのトップレベルのデバイスにわたって動的に配布されます。新しい仮想デバイスが追加されるとき、 ZFS は、自動的に新たに利用可能なデバイスにデータを置きます。

仮想デバイスは、空白類によって分離されたコマンド行で 1 度に 1 つ指定されます。キーワードの“mirror”と“raidz”は、グループの終りと、別のものの始まりのところを区別するために使用されます。例えば、次は、それぞれが 2 つのディスクのミラーである、2 つの root vdev を作成します:

# zpool create mypool mirror da0 da1 mirror da2 da3

デバイスの故障と復旧

ZFS は、デバイスの故障とデータの破損を取り扱うためのメカニズムの贅沢なセットをサポートします。すべてのメタデータとデータは、チェックサムがとられ、 ZFS は、破損が検出されるとき、自動的に良いコピーから悪いデータを修復します。

これらの機能を利用するために、プールは、ミラーされるか、または raidz グループのいずれかを使用して、冗長ないくつかの形式を使用しなければなりません。 ZFS が、冗長でない設定での実行をサポートしている間に、それぞれの root vdev が、単にディスクまたはファイルであるところで、これは、強く失望させます。単一のビット破損の場合は、利用者のデータのいくつかまたはすべてを利用不可能にすることができます。

プールの健全な状態は、次の 3 つの状態の 1 つで説明されます: オンライン、品質低下、または障害。オンラインプールには、正常に動作しているすべてのデバイスがあります。品質低下プールは、1 台以上のデバイスに障害があるものですが、データは、冗長な設定のためにまだ利用可能です。障害プールには、破損したメタデータがあるか、1 台以上の障害があるデバイスがあり、機能し続けるために不十分な複製があります。

ミラーまたは raidz デバイスのような、トップレベルの vdev の健全性は、関連する vdev、またはコンポーネントデバイスの状態によって潜在的に影響されます。トップレベルの vdev またはコンポーネントデバイスは、次の状態の 1 つとなります:

DEGRADED
1 つ以上のコンポーネントデバイスは、オフラインであるので、 1 つ以上のトップレベルの vdev は、品質低下している状態にあります。十分な複製は、機能し続けるために存在しています。

1 つ以上のコンポーネントデバイスが品質低下されているか、または障害のある状態ですが、十分な複製は、機能し続けるために存在しています。基本的な状態は、次の通りです:

  • チェックサムエラーの数は、受け付け可能な水準を超え、デバイスは、何かが間違っていることを示すように品質低下されています。 ZFS は、必要に応じてデバイスを使用し続けます。
  • I/O エラーの数は、受け付け可能な水準を超えています。機能し続けるために不十分な複製があるので、デバイスは、障害があるとマークされませんでした。
FAULTED
1 つ以上のコンポーネントデバイスがオフラインであるので、1 つ以上のトップレベルの vdev は、障害のある状態にあります。十分な複製は、機能し続けるために存在しています。

1 つ以上のコンポーネントデバイスは、障害のある状態にあり、不十分な複製は、機能し続けるために存在しています。基本的な状態は、次の通りです:

  • デバイスをオープンすることができましたが、内容が、期待された値にマッチしていませんでした。
  • I/O エラーの数は、受け付け可能な水準を超えて、デバイスは、デバイスのさらなる使用を防ぐために失敗しました。
OFFLINE
デバイスは、“ zpool offline”コマンドによって明白にオフラインにされました。
ONLINE
デバイスは、オンラインで機能しています。
REMOVED
デバイスは、システムが実行している間に、物理的に取り外されました。デバイスの取り外し検出は、ハードウェアに依存していて、すべてのプラットフォームでサポートされないかもしれません。
UNAVAIL
デバイスをオープンすることができませんでした。デバイスが利用可能できなかったときに、プールがインポートされているなら、デバイスは、パスがまず初めの段階で決して正しくないので、パスの代わりにユニークな識別子によって識別されます。

デバイスが取り外されて、後でシステムに再アタッチされるなら、 ZFS は、オンラインで自動的にデバイスを管理下に置くことを試みます。デバイスのアタッチの検出は、ハードウェアに依存していて、すべてのプラットフォームでサポートされないかもしれません。

ホットスペア (予備)

ZFS によって、デバイスは、“ホットスペア”としてプールと関連付けることができます。これらのデバイスは、プール中でアクティブに使用されませんが、アクティブなデバイスが故障するとき、自動的に、ホットスペアによって置き換えられます。ホットスペアがあるプールを作成するには、いくつものデバイスで“スペア” vdev を指定します。例えば、

# zpool create pool mirror da0 da1 spare da2 da3

スペアを複数のプールに渡って共有することができ、“ zpool add”コマンドで追加することができ、“ zpool remove”コマンドで削除することができます。いったんスペア置き換えが開始されると、新しい "スペア" vdev は、オリジナルのデバイスが置き換えられるまで、残っている設定内で作成されます。現時点では、ホットスペアは、別のデバイスが故障するなら、再び利用可能になります。

プールに現在使用されている共有されたスペア (予備) があるなら、他のプールが潜在的なデータの破損を導くかもしれない、この共有されたスペアを使用するので、プールを、エクスポートすることはできません。

ホットスペアをデタッチすることによって、進行中のスペア置き換えをキャンセルすることがきます。オリジナルの故障したデバイスがデタッチされるなら、ホットスペアは、設定の場所を仮定して、すべてのアクティブなプールのスペアリストから削除されます。

スペアは、ログデバイスを置き換えることができません。

目的 (intent) ログ

ZFS 目的 (intent) ログ (ZIL) は、同期トランザクションのための POSIX 要件を満たしています。例えば、データベースは、システムコールから戻るとき、しばしば、それらのトランザクションが安定した記憶域デバイスであることを必要とします。また、 NFS と他のアプリケーションは、データの安定性を確実にするために fsync(2) を使用することできます。デフォルトで、目的 (intent) ログは、メインプール中のブロックから割り付けられます。しかしながら、 NVRAM または専用ディスクのような、別々の目的 (intent) ログデバイスを使用してより良い性能を得ることができるかもしれません。例えば:

# zpool create pool da0 da1 log da2

また、複数のログデバイスも指定でき、それらをミラーすることができます。複数のログデバイスをミラーする例についていは、 「使用例」 セクションを参照してください。

より大きいプールの一部として、ログデバイスを追加して、置き換えて、アタッチして、デタッチして、インポートして、エクスポートすることができます。ログのためのトップレベルのミラーを指定することによって、ミラーリングされたログデバイスを取り外すことができます。

キャッシュデバイス

記憶域プールに "キャッシュデバイス"として、デバイスを追加することができます。これらのデバイスは、主メモリとディスクの間のキャッシュの追加層を提供します。重い読み込み作業負荷については、ワーキングセットサイズが、主メモリでキャッシュされるものよりはるかに大きいところで、キャッシュデバイスを使用して、このワーキングセットのさらに多くが、低遅延メディアに役に立つことができます。キャッシュデバイスを使用して、ほとんど静的な内容のランダムな読み込み作業負荷のための最も大きな性能改善を提供します。

キャッシュデバイスでプールを作成するには、いくつかのデバイスで "キャッシュ" vdev を指定します。例えば:

# zpool create pool da0 da1 cache da2 da3

キャッシュデバイスを、ミラーするか、または raidz 設定の一部とすることができません。読み込みエラーがキャッシュデバイスで遭遇するなら、読み込み I/O は、ミラーされるか、または raidz 設定の一部であるかもしれない、オリジナルの記憶域プールデバイスに再発行されます。

他のシステムキャッシュと同様に、キャッシュデバイスの内容は、volatile (揮発性がある) と考えられます。

プロパティ (特性)

各プールには、それに関連しているいくつかのプロパティがあります。いくつかのプロパティは、読み込み専用の統計ですが、他のものは、設定可能であり、プールの振る舞いを変更します。次は、読み込み専用のプロパティです:
alloc
物理的に割り付けられたプール内の記憶域空間の量。
capacity
使用されたプール空間の割合。また、短いカラム名、"cap"によって、このプロパティを参照できます。
comment
たとえプールが障害となるようになっても、それが利用可能となるように、格納される印刷可能な ASCII 文字から成るテキスト文字列。管理者は、このプロパティを使用してプールに関する追加情報を提供することができます。
dedupratio
乗数として表現されるプールのために指定された細分化 (deduplication) 比率。例えば、1.76 の dedupratio 値は、1.76 ユニットのデータが格納されましたが、ディスク空間の 1 ユニットのみが実際に消費されたことを示します。細分化 (deduplication) 機能の説明については、 zfs(8) を参照してください。
free
割り付けられないプール内のブロックの番号。
freeing
ファイルシステムまたはスナップショットが破壊された後に、それに使用された空間は、非同期にプールに返されます。 freeing は、取り戻される残りの空間の量です。時間とともに、 free が増加する間に、 freeing は、減少します。
expandsize
このプロパティには、現在、FreeBSD で値がありません。
guid
プールのためのユニークな識別子。
health
プールの現在の健全性。健全性は、“ ONLINE”, “ DEGRADED”, “ FAULTED”, “ OFFLINE”, “ REMOVED”または“ UNAVAIL”を指定できます。
size
記憶域プールの合計サイズ。
unsupported@ feature_guid
プールで有効にされたサポートされない機能に関する情報。詳細については、 zpool-features(7) を参照してください。
used
プール中で使用された記憶域空間の量。

空間の使用法のプロパティは、記憶域プールに利用可能な実際の物理的な空間を報告します。物理的な空間は、任意の含まれたデータセットが実際に使用できる空間の合計量と異なっているかもしれません。 raidz 設定で使用される空間の量は、書き込まれているデータの特徴に依存します。さらに、 ZFS は、 zfs(8) コマンドが考慮する内部のアカウントのためのいくらかの空間を予約しますが、 zpool(8) コマンドは、行いません。妥当なサイズの満杯でないプールに関して、これらの効果は、目に見えないはずです。小さいプール、または全く満杯に近いプールに関して、これらの食い違いは、より顕著になるかもしれません。

作成時とインポート時に、次のプロパティを設定することができます:

altroot
代替のルートディレクトリ。設定されるなら、このディレクトリは、プール中の任意のマウントポイントの先頭に追加されます。典型的なパスが有効でないところで、マウントポイントを信じることができないか、または代替のブート環境で未知のプールを調べるとき、これを使用できます。 altroot は、永続的なプロパティではありません。それは、システムが動作している間のみ有効です。 altroot を設定すると cachefile=none を使用することをデフォルトとしますが、これは、明白な設定を使用して上書きされるかもしれません。

次のプロパティは、インポート時のみ設定することができます:

readonly= on | off
on に設定されるなら、プールは、次の制限で読み込み専用モードでインポートされます:
  • 目的 (intent) ログの同期データは、アクセス可能となりません
  • プールのプロパティを変更することができません
  • 読み込み専用でのみこのプールのデータセットをマウントすることができます
  • 読み込み専用のプールに書き込むために、プールのエクスポートとインポートが要求されます。

作成時とインポート時に、次のプロパティを設定することができ、後で zpool set コマンドで変更できます:

autoexpand= on | off
基本的な LUN が成長されるとき、自動的にプールの拡張を制御します。“ on”に設定されるなら、プールは、拡張デバイスのサイズに従ってリサイズされます。デバイスがミラーまたは raidz の一部であるなら、新しい空間がプールで利用可能となる前に、 mirror/raidz グループの中のすべてのデバイスは、拡張されなければなりません。デフォルトの振る舞いは、“off”です。また、短くされたカラム名、 expand、によって、このプロパティを参照することができます。
autoreplace= on | off
自動デバイス置換を制御します。“ off”に設定されるなら、デバイス置換は、“ zpool replace”コマンドを使用して管理者によって開始されなければなりません。“ on”に設定されるなら、以前にプールに属したデバイスと同じ物理的な位置で見つけらる任意の新しいデバイスは、自動的にフォーマットされ、置き換えられます。デフォルトの振る舞いは、“ off”です。また、短いカラム名 "replace"で、このプロパティを参照することができます。
bootfs= pool/ dataset
root プールのためのデフォルトのブート可能なデータセットを識別します。このプロパティは、主にインストールとアップグレードプログラムで設定されると予想されます。
cachefile= path | none
プール設定がキャッシュされる位置を制御します。すべてのプールをシステム起動時に発見することは、ルートファイルシステムに格納された設定データのキャッシュされたコピーを必要とします。このキャッシュのすべてのプールは、システムブート時に自動的にインポートされます。インストールとクラスタリングのような、いくつかの環境は、プールが自動的にインポートできないように、別の場所で、この情報をキャッシュする必要があります。このプロパティを設定すると、後で“ zpool import -c”でインポートすることができる別の場所でプール設定をキャッシュします。それを特別な値“ none”に設定すると、決してキャッシュされない一時的なプールが作成され、特別な値 '' (空文字列) は、デフォルト位置を使用します。
comment= text
たとえプールが故障になっても、利用可能であるようにに格納される印刷可能な ASCII 文字から成るテキスト文字列。管理者は、このプロパティを使用してプールに関する追加情報を提供することができます。
dedupditto= number
ブロックの複製のコピーの数のための閾値。細分化 (deduplicated) されたブロックのための参照カウントが、この数を越えて増加するなら、このブロックの新しい複製コピーは、自動的に格納されます。デフォルトの設定は、 0 です。
delegation= on | off
非特権ユーザが、データセットで定義されたデータセットのパーミッションに基づいてアクセスを許可されるかどうかを制御します。委任された ZFS 管理に関しる詳しい情報については、 zfs(8) を参照してください。
failmode= wait | continue | panic
壊滅的なプールの障害の場合のシステムの振る舞いを制御します。この状態は、通常基本的な (複数の) 記憶デバイスへの接続性の損失の結果か、またはプール中のすべてのデバイスの障害の結果です。そのようなイベントの振る舞いは、次のように決定されます:
wait
デバイスの接続性が復旧されて、エラーがクリアされるまで、すべての I/O アクセスをブロックします。これは、デフォルトの振る舞いです。
continue
任意の新しい書き込み I/O 要求に EIO を返しますが、残っている健全なデバイスのいずれにも読み込みを許可します。まだ、ディスクにコミットされたあらゆる書き込み要求は、ブロックされます。
panic
コンソールへのメッセージを印刷して、システムのクラッシュダンプを生成します。
feature@ feature_name= enabled
このプロパティの値は、 feature_name の現在の状態です。このプロパティを設定することが、 feature_name を有効な値に移動する enabled にされるとき、唯一の有効な値。機能の状態の詳細については、 zpool-features(7) を参照してください。
listsnaps= on | off
zfs list”が -t オプションなしで実行されるとき、このプールに関連しているスナップショットに関する情報が出力されるかどうかを制御します。デフォルト値は、 off です。
version= version
プールの現在のディスク上のバージョン。これを増加することができますが、決して減少されません。プールを更新するのに好ましい方法は、“ zpool upgrade”コマンドですが、特定のバージョンが後方互換性のために必要であるとき、このプロパティを使用することができます。いったん、機能フラグは、このプロパティがもはや値を持たないプールで有効にされます。

サブコマンド

状態を変更するすべてのサブコマンドは、それらの元の形式で、プールに永続的にログ記録されます。

zpool コマンドは、記憶域プールを作成して破壊する、記憶域プールに容量を追加する、記憶域プールに関して情報を提供するサブコマンドを提供しています。次のサブコマンドがサポートされています:

zpool [ -?]

ヘルプメッセージを表示します。

zpool add [ -fn] pool vdev ...

指定された仮想のデバイスを与えられたプールに追加します。 vdev 仕様は、“ 仮想のデバイス”セクションで説明されています。 -f オプションの振る舞いと、実行されたデバイスチェックは、“ zpool create”サブコマンドで説明されています。

-f
たとえ、それらが、使用中であると思われるか、または競合する複製レベルを指定したとしても、 vdev の使用を強制します。このように、すべてのデバイスを上書きできるというわけではありません。
-n
実際に vdev を追加せずに使用される設定を表示します。実際のプールの作成は、不十分な特権またはデバイス共有のために、まだ失敗するかもしれません。

現在、quorum デバイスとして設定されているディスクを zpool に追加しません。ディスクがプールにある後に、quorum デバイスとして、そのディスクを設定することができます。

zpool attach [ -f] pool device new_device

new_device を既存の zpool デバイスにアタッチします。既存のデバイスを raidz 設定の一部とすることはできません。 device 現在ミラーリングされた設定の一部でなければ、 device は、自動的に devicenew_device の双方向のミラーに変換します。 device が双方向のミラーの一部であるなら、 new_device をアタッチすることは、3 方向のミラーを作成し、その他もろもろ。どちらの場合にも、 new_device は、直ちに再ミラーリングを始めます。

-f
たとえ、使用中であるように思えたとしても、 new_device の使用を強制します。このように、すべてのデバイスを上書きできるというわけではありません。
zpool clear [ -F [ -n]] pool [ device]

プール中のデバイスエラーをクリアします。引数が指定されていないなら、プール中のすべてのデバイスエラーは、クリアされます。 1 つ以上のデバイスが指定されるなら、指定されたデバイスまたはデバイスに関連しているそれらのエラーだけがクリアされます。

-F
オープンできないプールのための復旧モードを始めます。オープン可能な状態に戻すためにプール中の最後の少しのトランザクションを廃棄しようと試みます。すべての破損したプールを、このオプションを使用することによって復旧することができるわけではありません。成功するなら、廃棄されたトランザクションからのデータは、取り返しのつかないほど失われます。
-n
-F フラグと組み合わせて使用されます。トランザクションの廃棄は、プールをオープン可能とするかどうかチェックしますが、実際にはあらゆるトランザクションを廃棄しません。
zpool create [ -fnd][ -o property= value] ... [ -O file-system-property= value] ... [ -m mountpoint][ -R root] pool vdev ...

コマンド行で指定された仮想デバイスを含む新しい記憶域プールを作成します。プール名は、文字で始まらなけれならず、下線 ("_")、ダッシュ dash ("-") とピリオド (".") と同様に英数字のみを含むことができます。プール名、"mirror"、"raidz"、"spare"と "log"は、パターン "c[0-9]"で始まる名前のように予約されています。 vdev 仕様は、“ 仮想デバイス”セクションで説明されています。

コマンドは、指定されたそれぞれのデバイスがアクセス可能で、現在、別のサブシステムによって使用中でないことを確かめます。デバイスが ZFS によっていつも使用し続けることを防ぐ、現在マウントされているか、または専用ダンプデバイスとして指定されるような、いくつかの用途があります。前もって存在する UFS ファイルシステムを持つことなどの、他の用途を -f オプションで上書きすることができます。

また、コマンドは、プールのための複製の戦略が一貫していることをチェックします。単一のプールの冗長と冗長でない記憶域を組み合わせる試み、またはディスクとファイルを混在させる試みは、 -f が指定されないなら、エラーの結果となります。単一の raidz またはミラーグループ内のサイズの異なるデバイスの使用は、 -f が指定されないなら、エラーとして、またフラグが揚げられます。

-R オプションが指定されないなら、デフォルトのマウントポイントは、“ /pool”です。マウントポイントは、存在してはいけません、または空でなければなりません、あるいは、root のデータセットをマウントすることができません。 -m オプションで、これを上書きすることができます。

デフォルト、すべてのサポートされた機能は、 -d オプションが指定されなければ、新しいプールで有効にされます。

-f
それらが、たとえ使用中に現れるか、または競合する複製レベルを指定するとしても、強制的に vdev を使用します。このように、すべてのデバイスを上書きできるというわけではありません。
-n
実際にプールを作成しないで使用される設定を表示します。実際のプールの作成は、不十分な特権またはデバイス共有のために、いまだに失敗するかもしれません。
-d
新しいプールであらゆる機能を有効にしません。 -o オプションをつけて 有効にされた それらの対応するプロパティを設定することにより個々の機能を有効にすることができます。機能のプロパティに関する詳細については、 zpool-features(7) を参照してください。
-o property= value [ -o property= value] ...
与えられたプールのプロパティを設定します。設定できる有効なプロパティのリストについては、“ プロパティ”を参照してください。
-O file-system-property= value [ -O file-system-property= value] ...
プールのルートファイルシステムに与えられたファイルシステムのプロパティを設定します。設定できる有効なプロパティのリストについては、 zfs(8) の“ プロパティ”のセクションを参照してください。
-R root
-o cachefile=none,altroot= root”と同等です。
-m mountpoint
root のデータセットのためのマウントポイントを設定します。デフォルトのマウントポイントは、 altroot が指定されているなら、“ /pool”または“ altroot /pool”です。マウントポイントは、絶対パス、“ legacy”または“ none”でなければなりません。データセットのマウントポイントに関する詳細については、 zfs(8) を参照してください。
zpool destroy [ -f] pool

他の使用のための任意のデバイスを解放して、与えられたプールを破壊します。このコマンドは、プールを破壊する前に、任意のアクティブなデータセットをアンマウントしようと試みます。

-f
プール内に含まれる任意のアクティブなデータセットをアンマウントするように強制します。
zpool detach pool device

ミラーから device をデタッチします。データの他の有効な複製がないなら、操作は、拒否されます。

zpool export [ -f] pool ...

与えられたプールをシステムからエクスポートします。すべてのデバイスは、エクスポートされるとマークされますが、また、他のサブシステムによって使用中であると見なされます。 (異なったエンディアンのものさえ) デバイスをシステム間で移動でき、十分な数のデバイスが存在している限り、インポートすることができます。

プールをエクスポートする前に、プールの中のすべてのデータセットは、アンマウントされます。現在使用されている共有されたスペア (予備) があるなら、プールをエクスポートすることはできません。

プールに移植性があるようにするために、 ZFS が移植性がある EFI ラベルでディスクをラベル付けでききるように、利用者は、スライスだけではなく、全体のディスクを zpool コマンドに与えなければなりません、そうでなければ、異なったエンディアンのプラットフォームのディスクドライバは、ディスクを認識しません。

-f
unmount -f”コマンドを使用して、強制的にすべてのデータセットをアンマウントします。

このコマンドは、たとえ現在使用されている共有されたスペア (予備) があっても、プールを強制的にエクスポートします。これは、潜在的なデータの破損を導くかもしれません。

zpool get all | property[ , ...] pool ...

指定された記憶域プールに対して、プロパティ (または“ all”が使用されるなら、すべてのプロパティ) の与えられたリストを検索します。これらのプロパティは、次のフィールドとともに表示されます:

name 記憶域プールの名前
property プロパティの名前
value プロパティの値
source プロパティのソース, 'default' または 'local' のいずれか.

利用可能なプールのプロパティの詳しい情報については、“ プロパティ”セクションを参照してください。

zpool history [ -il][ pool] ...

指定されたプールまたは、プールが指定されないなら、すべてのプールのコマンド履歴を表示します。

-i
ユーザが開始しているイベントに追加された内部的にログ記録された ZFS イベントを表示します。
-l
標準形式に加えて、ユーザ名、ホスト名と操作が実行されたゾーン (zone) の長い形式のログ記録を表示します。
zpool import [ -d dir | -c cachefile][ -D]

インポートするために利用可能なプールをリストします。 -d オプションが指定されないなら、このコマンドは、“ /dev”でデバイスを検索します。複数回 -d オプションを指定でき、すべてのディレクトリが検索されます。デバイスがエクスポートされたプールの一部として現れるなら、このコマンドは、 vdev レイアウトと各デバイスまたはファイルに対するデバイスの現在の健全性と同様に、プールの名前をつけてプールの概要、数値識別子を表示します。“ zpool destroy”コマンドで以前に破壊されたプールである、破壊されたプールは、 -D オプションが指定されないなら、リストされません。

数値識別子は、ユニークであり、同じ名前の複数のエクスポートされたプールが利用可能であるときに、プール名の代わりに使用することができます。

-c cachefile
cachefile”プールのプロパティで作成された、与えられた cachefile から設定を読み込みます。この cachefile は、デバイスを検索する代わりに使用されます。
-d dir
dir 中のデバイスまたはファイルを検索します。複数回 -d オプションを指定することができます。
-D
破壊されたプールだけをリストします。
zpool import [ -o mntopts][ -o property= value] ... [ -d dir | -c cachefile][ -D][ -f][ -m][ -N][ -R root][ -F [ -n]] -a

検索ディレクトリで見つけられたすべてのプールをインポートします。利用可能な十分な数のデバイスがあるすべてのプールがインポートされることを除いて、前のコマンドと同じです。“ zpool destroy”コマンドで以前に破壊されたプールである、破壊されたプールは、 -D オプションが指定されないなら、インポートされません。

-o mntopts
プール内でマウントされたデータセットであるときに使用するマウントオプションのコンマで区切られたリスト。データセットのプロパティとマウントオプションの説明については、 zfs(8) を参照してください。
-o property= value
インポートされたプールで指定されたプロパティを設定します。利用可能なプールのプロパティの詳しい情報については、“ プロパティ”セクションを参照してください。
-c cachefile
cachefile”プールのプロパティで作成された、与えられた cachefile から設定を読み込みます。この cachefile は、デバイスを検索する代わりに使用されます。
-d dir
dir 中のデバイスまたはファイルを検索します。複数回 -d オプションを指定することができます。このオプションは、 -c オプションとともに使用できません。
-D
破壊されたプールだけをインポートします。また、 -f オプションも必要です。
-f
プールが潜在的にアクティブであるように思われても、強制的にインポートします。
-m
失われたログデバイスでインポートを有効にします。
-N
インポートされたプールから任意のファイルシステムをマウントしません。
-R root
cachefile”プロパティを“ none”に、“ altroot”プロパティを“ root”に設定します。
-F
インポート不可能なプールのための復旧モード。最後の少ないトランザクションを廃棄することによって、インポート可能な状態にプールに戻すことを試みます。すべての破損したプールを、このオプションを使用することによって復旧することができるわけではありません。成功するなら、廃棄されたトランザクションからのデータは、取り返しのつかないほど失われます。このオプションは、プールがインポート可能か、または既にインポートされているなら、無視されます。
-n
-F 復旧オプションとともに使用されます。インポート不可能なプールを再びインポート可能にすることができるかどうか判断しますが、実際にはプールの復旧を行ないません。プールの復旧モードに関するより詳細については、上記の -F オプションを参照してください。
-a
見つかったすべてのプールを検索して、インポートします。
zpool import [ -o mntopts][ -o property= value] ... [ -d dir | -c cachefile][ -D][ -f][ -m][ -N][ -R root][ -F [ -n]] pool | id [ newpool]

特定のプールをインポートします。名前または数値識別子によってプールを識別することができます。 newpool が指定されるなら、プールは、 newpool という名前を使用してインポートされます。そうでなければ、エクスポートされた名前として同じ名前でインポートされます。

デバイスが、最初に“ zpool export”を実行することなしにシステムから削除されるなら、デバイスは、潜在的にアクティブであると見なされます。これが失敗したエクスポートであったか、またはデバイスが実際に別のホストから使用中であるかどうかは決定することはできません。この状態でプールをインポートするためには、 -f オプションが必要です。

-o mntopts
プール内のデータセットをマウントするときに使用するマウントオプションのコンマで区切られたリスト。データセットのプロパティとマウントオプションの説明については、 zfs(8) を参照してください。
-o property= value
インポートされたプールで指定されたプロパティを設定します。利用可能なプールのプロパティの詳しい情報については、“ プロパティ”セクションを参照してください。
-c cachefile
cachefile”プールのプロパティで作成された、与えられた cachefile から設定を読み込みます。この cachefile は、デバイスを検索する代わりに使用されます。
-d dir
dir 中のデバイスまたはファイルを検索します。複数回 -d オプションを指定することができます。このオプションは、 -c オプションとともに使用できません。
-D
破壊されたプールをインポートします。また、 -f オプションも必要です。
-f
たとえプールが潜在的にアクティブであるように思われても、強制的にインポートします。
-m
失われたログデバイスでインポートを有効にします。
-N
インポートされたプールから任意のファイルシステムをマウントしません。
-R root
-o cachefile=none,altroot= root”と同等です。
-F
インポート不可能なプールのための復旧モード。最後の少ないトランザクションを廃棄することによって、インポート可能な状態にプールに戻すことを試みます。すべての破損したプールを、このオプションを使用することによって復旧することができるわけではありません。成功するなら、廃棄されたトランザクションからのデータは、取り返しのつかないほど失われます。このオプションは、プールがインポート可能か、または既にインポートされているなら、無視されます。
-n
-F 復旧オプションとともに使用されます。インポート不可能なプールを再びインポート可能にすることができるかどうか判断しますが、実際にはプールの復旧を行ないません。プールの復旧モードに関するより詳細については、上記の -F オプションを参照してください。
zpool iostat [ -T d| u][ -v][ pool] ... [ interval [ count]]

与えられたプールのための I/O 統計値を表示します。間隔を与えるとき、統計値は、 Ctrl-C が押されるまで、 interval 秒毎に印刷されます。 pools が指定されないなら、システムのあらゆるプールに対する統計値が表示されます。 count が指定されるなら、 count レポートが印刷された後にコマンドは、終了します。

-T d| u
タイムスタンプを印刷 (表示) します。

標準の日付の形式のためには、修飾子 d を使用します。 date(1) を参照してください。 UNIX 時間 (“ date +%s”と等しい) のためには、修飾子 u を使用します。

-v
冗長な統計。プール全体の統計に加えて、プール内の個々の vdev のための使用状況の統計値を報告します。
zpool labelclear [ -f] device

指定された device から ZFS ラベル情報を取り除きます。 device は、アクティブなプール設定の部分であってはなりません。

-v
アクティブでないとしてエクスポートされているか、または外部のデバイスを扱います。
zpool list [ -Hv][ -o property[ , ...]][ -T d| u][ pool] ... [ inverval [ count]]

健全な状態と空間の使用法とともに与えられたプールをリストします。引数を与えないとき、システム中のすべてのプールがリストされます。

間隔を与えるとき、出力は、 Ctrl-C が押されるまで、 interval 秒毎に印刷されます。 count が指定されるなら、 count レポートが印刷された後にコマンドは、終了します。

-H
スクリプトモード。ヘッダと任意の空白の代わりに単一のタブによって分離されたフィールドを表示しません。
-v
より多くの詳細情報を表示します。
-o property[ , ...]
表示するためのプロパティのコンマで区切られたリスト。有効なプロパティのリストについては、“ プロパティ”セクションを参照してください。デフォルトのリストは、 name, size, used, available, capacity, health, altroot です。
-T d| u
タイムスタンプを印刷 (表示) します。

標準の日付の形式のためには、修飾子 d を使用します。 date(1) を参照してください。 UNIX 時間 (“ date +%s”と等しい) のためには、修飾子 u を使用します。

zpool offline [ -t] pool device ...

指定された物理的なデバイスをオフラインと見なします。 device がオフラインである間に、デバイスへの読み込み、または書き込みを試みません。

-t
一時的。リブートのときに、指定された物理的なデバイスは、前の状態に戻ります。
zpool online [ -e] pool device ...

指定された物理的なデバイスをオンラインにします。

このコマンドは、スペアまたはキャッシュデバイスに適用可能ではありません。

-e
すべての利用可能な空間を使用するデバイスを拡張します。デバイスがミラーまたは raidz の一部であるなら、新しい空間がプールで利用可能になる前に、すべてのデバイスは、拡張されなければなりません。
zpool reguid pool

プールのための新しいユニークな識別子を生成します。このプールのすべてのデバイスがこのアクションを行なう前にオンラインであり健全であることを保証しなければなりません。

zpool remove pool device ...

プールから指定されたデバイスを削除します。このコマンドは、現在、ホットスペア、キャッシュとログデバイスの削除のみをサポートしています。ログのためのトップレベルのミラーを指定することによって、ミラーリングされたログデバイスを削除することができます。“ zpool detach”コマンドを使用して、ミラーリングされた設定の一部であるログデバイス以外を削除することができます。プールから冗長でない、 raidz デバイスを削除することはできません。

zpool replace [ -f] pool device [ new_device]

old_devicenew_device で置き換えます。これは、 new_device のアタッチと同等で、 resilver をウェートし、次に old_device をデタッチします。

new_device のサイズは、ミラーまたは raidz 設定のすべてのデバイスの最小のサイズ以上でなければなりません。

プールが冗長ででないなら、 new_device が要求されます。 new_device が指定されないなら、 old_device をデフォルトとします。既存のディスクが故障して、物理的に置き換えられた後に、この置き換えの形式は、役に立ちます。この場合、新しいディスクには、それが実際に異なったディスクであっても、古いデバイスと同じ /dev パスがあります。 ZFS は、これを認識します。

-f
たとえ使用中に現れても、 new_device の使用を強制します。このようにすべてのデバイスを上書きすることができるというわけではありません。
zpool scrub [ -s] pool ...

scrub を始めます。 scrub は、チェックサムが正しいか確認するために指定されたプールのすべてのデータを調査します。複製された (ミラーまたは raidz) デバイスに関しては、 ZFS は、自動的に scrub の間に発見されたあらゆる損傷を修理します。“ zpool status”コマンドは、scrub の進捗を報告して、完了するときに scrub の結果を要約します。

scrubbing と resilvering は、たいへんよく似た操作です。違いは、resilvering が、 ZFS が (例えば、新しいデバイスをミラーにアタッチするか、または既存のデバイスを置き換えるとき) 期限切れであることを知っているデータを調査するためだけであるのに対して、scrubbing が、ハードウェアの故障またはディスクの故障によって静かなエラーを発見するためにすべてのデータを調査することです。

scrubbing と resilvering が、 I/O 集中的な操作であるので、 ZFS は、一度に 1 つだけ許可されます。 scrub が既に進行しているなら、“ zpool scrub”コマンドは、エラーを返します。新しい scrub を開始するためには、最初に古い scrub を“ zpool scrub -s”コマンドで停止しなければなりません。 resilver が進行しているなら、 ZFS は、scrub が resilver が完了するまで、開始することを scrub に許可しません。

-s
scrubbing を停止します。
zpool set property= value pool

指定されたプールで与えられたプロパティを設定します。どのようなプロパティを設定できるか、と受け付け可能な値に関する詳しい情報については、“ プロパティ”セクションを参照してください。

zpool split [ -n][ -R altroot][ -o mntopts][ -o property= value] pool newpool [ device ...]

プール中の各ミラーされたトップレベルの vdev から 1 つのディスクを切り離し、切り離されたディスクから新しいプールを作成します。元のプールは、1 つ以上のミラーから構成されていなければならず、 resilvering が進行中ではあってはなりません。 split サブコマンドは、コマンド行のデバイス指定によって上書きされなければ、各ミラー vdev の最後のデバイスを選択します。

device 引数を使用するとき、 split は、新しいプールで指定されたデバイスを含み、どんなデバイスも指定されないままにするべきで、それが通常行うように、そのプールに各ミラー vdev の最後のデバイスを割り当てます。 split コマンドの結果について確信がないなら、利用者のコマンドが意図する効果があることを保証するために -n ("予行演習") オプションを使用していください。

-R altroot
新しいプールの代替のルートのために指定された altroot パラメータを使用して、分割された後に、新しく作成されたプールを自動的にインポートします。上記の“ プロパティ”セクションの altroot の説明を参照してください。
-n
実際にプールを分割せずに作成される設定を表示します。分割された実際のプールは、まだ、不十分な特権またはデバイス状態のために失敗するかもしれません。
-o mntopts
プール内のデータセットをマウントするとき使用するマウントオプションのコンマで区切られたリスト。データセットのプロパティとマウントオプションの説明については、 zfs(8) を参照してください。 -R オプションと共に指定されるときだけ有効です。
-o property= value
新しいプール上で指定されたプロパティを設定します。利用可能なプールのプロパティに関する詳細については、上記の“ プロパティ”セクションを参照してください。
zpool status [ -vx][ -T d| u][ pool] ... [ interval [ count]]

与えられたプールのための詳細な健全な状態を表示します。 pool が指定されないなら、システムのそれぞれのプールの状態が、表示されます。プールとデバイスの健全性に関する詳しい情報については、“ デバイスの故障と復旧”セクションを参照してください。

間隔を与えるとき、出力は、 Ctrl-C が押されるまで、 interval 秒毎に印刷されます。 count が指定されるなら、 count レポートが印刷された後にコマンドは、終了します。

scrub または resilver が進行しているなら、このコマンドは、行われた割合と完了するためのおよそ時間を報告します。システムのプール内のデータ量と他の仕事量は、変更できるので、これらの両方は、おおよそのみです。

-x
エラーの表示、またはそうでなければ利用不可能なプールのための状態のみを表示します。最新のディスク上の形式を使用しないプールに関する警告は、含まれません。
-v
詳細なデータエラー情報を表示し、最後の完全なプール scrub 以来のすべてのデータエラーの全てのリストを印刷します。
-T d| u
タイムスタンプを印刷 (表示) します。

標準の日付の形式のためには、修飾子 d を使用します。 date(1) を参照してください。 UNIX 時間 (“ date +%s”と等しい) のためには、修飾子 u を使用します。

zpool upgrade [ -v]

有効にされたすべてのサポートされた機能と古い ZFS バージョン番号を使用するフォーマットされたプールがないプールを表示します。これらのプールは、使用し続けることができますが、いくつかの機能は、利用可能ではありません。すべてのプールですべての機能を有効にするためには、 zpool upgrade -a を使用します。

-v
現在のソフトウェアによってサポートされている古い ZFS バージョンを表示します。現在のソフトウェアによってサポートされている機能フラグの説明については、 zpool-features.5 を参照してください。
zpool upgrade [ -V version] -a | pool ...

与えられたプールでサポートされているすべての機能を有効にします。いったん、これが行われるなら、プールは、もはや機能フラグをサポートしないシステムでアクセス可能となりません。システム sthat サポート機能フラグと互換性に関する詳細については、 zpool-features.5 を参照しますが、プールで有効にされたすべての機能をサポートしません。

-a
すべてのプールでサポートされているすべての機能を有効にします。
-V version
指定された古いバージョンをアップグレードします。 -V フラグが指定されるなら、機能は、プールで有効にされません。最後にサポートされている古いバージョン番号までバージョン番号を増加させるためだけに、このオプションを使用することができます。

終了ステータス

次の終了値が返されます:
0
成功して終了。
1
エラーが発生しました。
2
無効のコマンド行のオプションが指定されました。

使用例

使用例 1 RAID-Z 記憶域プールを作成する

次のコマンドは、6 つのディスクから成る単一の raidz root vdev でプールを作成します。

# zpool create tank raidz da0 da1 da2 da3 da4 da5
使用例 2 ミラーリングされた記憶域プールを作成する

次のコマンドは、各ミラーが 2 つのディスクを含む、2 つのミラーがあるプールを作成します。

# zpool create tank mirror da0 da1 mirror da2 da3
使用例 3 パーティションを使用することによって ZFS 記憶域プールを作成する

次のコマンドは、2 つの GPT パーティションを使用してミラーされないプールを作成します。

# zpool create tank da0p3 da1p3
使用例 4 ファイルを使用することによって ZFS 記憶域プールを作成する

次のコマンドは、ファイルを使用してミラーされないプールを作成します。推薦されませんが、ファイルに基づくプールは、実験目的のために役に立たつかもしれません。

# zpool create tank /path/to/file/a /path/to/file/b
使用例 5 ZFS 記憶域プールへのミラーを追加する

次のコマンドは、プールが既に 2 つの方法でミラーを作っていることを仮定して、プール tank に 2 つのミラーされたディスクを追加します。追加された空間は、プール内のあらゆるデータセットを直ちに利用可能とします。

# zpool add tank mirror da2 da3
使用例 6 利用可能な ZFS 記憶域プールをリストする

次のコマンドは、システムで利用可能なすべてのプールをリストします。

# zpool list 
NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT pool 2.70T 473G 2.24T 17% 1.00x 
ONLINE - test 1.98G 89.5K 1.98G 0% 1.00x ONLINE -
使用例 7 プールのためのすべてのプロパティをリストする

次のコマンドは、プールのためのすべてのプロパティをリストします。

# zpool get all pool 
pool size 2.70T - pool capacity 17% - pool altroot - default pool health 
ONLINE - pool guid 2501120270416322443 default pool version 28 default pool 
bootfs pool/root local pool delegation on default pool autoreplace off default 
pool cachefile - default pool failmode wait default pool listsnapshots off 
default pool autoexpand off default pool dedupditto 0 default pool dedupratio 
1.00x - pool free 2.24T - pool allocated 473G - pool readonly off -
使用例 8 ZFS 記憶域プールを破壊する

次のコマンドは、プール“ tank”と中に含まれたあらゆるデータセットを破壊します。

# zpool destroy -f tank
使用例 9 ZFS 記憶域プールをエクスポートする

次のコマンドは、それらを再配置するか、または後でインポートすることができるように、プール tank のデバイスをエクスポートします。

# zpool export tank
使用例 10 ZFS 記憶域プールをインポートする

次のコマンドは、利用可能なプールを表示して、次に、システムで使用するプール“ tank”をインポートします。

このコマンドの結果は、次と同様です:

# zpool import 
 
  pool: tank 
    id: 15451357997522795478 
 state: ONLINE 
action: The pool can be imported using its name or numeric identifier. 
config: 
 
        tank        ONLINE 
          mirror    ONLINE 
               da0  ONLINE 
               da1  ONLINE
使用例 11 すべての ZFS 記憶域プールを現在の版にアップグレードする

次のコマンドは、すべての ZFS 記憶域プールをソフトウェアの現在の版にアップグレードします。

# zpool upgrade -a 
This system is currently running ZFS pool version 28.
使用例 12 ホットスペアを管理する

次のコマンドは、利用可能なホットスペアで新しいプールを作成します:

# zpool create tank mirror da0 da1 spare da2

ディスクの 1 つが故障したなら、プールは、低下している状態に減少されます。次のコマンドを使用して故障したデバイスを取り替えることができます:

# zpool replace tank da0 da2

いったんデータが resilver されると、スペアは、自動的に取り除かれ、利用可能にされ、別のデバイスの障害とするべきです。次のコマンドを使用してプールからホットスペアを永久に削除することができます:

# zpool remove tank da2
使用例 13 ミラーされ分離された目的 (intent) ログのある ZFS プールを作成する

次のコマンドは、両方向のミラーとミラーされたログデバイスの 2 つから成る ZFS 記憶域プールを作成します:

# zpool create pool mirror da0 da1 mirror da2 da3 log mirror da4 da5
使用例 14 ZFS プールにキャッシュデバイスを追加する

次のコマンドは、 ZFS 記憶域プールにキャッシュデバイスとして使用される 2 つのディスクを追加します:

# zpool add pool cache da2 da3

いったん追加されると、キャッシュデバイスは、主メモリからの内容で徐々に満たされます。利用者のキャッシュデバイスのサイズによって、満杯になるには 1 時間かかるかもしれません。次のように iostat サブコマンドを使用して容量と読み込みをモニタすることができます:

# zpool iostat -v pool 5
使用例 15 ミラーリングされたログデバイスを取り外す

次のコマンドは、ミラーリングされたログデバイス mirror-2 を取り外します。

次の設定を与えます:

   pool: tank 
  state: ONLINE 
  scrub: none requested 
 config: 
 
         NAME        STATE     READ WRITE CKSUM 
         tank        ONLINE       0     0     0 
           mirror-0  ONLINE       0     0     0 
                da0  ONLINE       0     0     0 
                da1  ONLINE       0     0     0 
           mirror-1  ONLINE       0     0     0 
                da2  ONLINE       0     0     0 
                da3  ONLINE       0     0     0 
         logs 
           mirror-2  ONLINE       0     0     0 
                da4  ONLINE       0     0     0 
                da5  ONLINE       0     0     0

ミラーリングされたログ mirror-2 を取り除くコマンドは、次の通りです:

# zpool remove tank mirror-2
使用例 16 障害となった ZFS プールを復旧する

プールが障害となったが、復元可能であるなら、この状態を示すメッセージは、プールがキャッシュされているなら、 (上記の -c cachefile 引数を参照) または、プールの障害となった“ zpool import”からのエラー出力の一部として、“ zpool status”によって提供されます。

zpool clear”コマンドでキャッシュされたプールを復旧します:

# zpool clear -F data 
Pool data returned to its state as of Tue Sep 08 13:23:35 2009. 
Discarded approximately 29 seconds of transactions.

プール設定がキャッシュされていなかったなら、次の復旧モードフラグを付けて“ zpool import”を使用します:

# zpool import -F data 
Pool data returned to its state as of Tue Sep 08 13:23:35 2009. 
Discarded approximately 29 seconds of transactions.

関連項目

zpool-features(7), zfs(8)

作者

このマニュアルページは、 FreeBSD のために修正されカスタマイズされ、 Common Development and Distribution License (CDDL) (共通の開発と配布ライセンス) の下で許諾されている OpenSolaris マニュアルページ zpool(1M)mdoc(7) の再実装です。

このマニュアルページの mdoc(7) の実装は、最初に Martin Matuska <mm@FreeBSD.org>によって書かれました。

March 14, 2013 FreeBSD