Skip site navigation (1)Skip section navigation (2)
Date:      Sun, 5 Apr 2015 15:21:55 +0000 (UTC)
From:      Benedict Reuschling <bcr@FreeBSD.org>
To:        doc-committers@freebsd.org, svn-doc-all@freebsd.org, svn-doc-head@freebsd.org
Subject:   svn commit: r46472 - in head/de_DE.ISO8859-1/books/handbook: . zfs
Message-ID:  <201504051521.t35FLtVR087186@svn.freebsd.org>

next in thread | raw e-mail | index | archive | help
Author: bcr
Date: Sun Apr  5 15:21:54 2015
New Revision: 46472
URL: https://svnweb.freebsd.org/changeset/doc/46472

Log:
  This is a complete re-translation of the current HEAD-revision of the
  ZFS chapter.  Some ZFS terms were translated into german where appropriate,
  but most of them (vdev, pool states and such) were left to make it easier
  to relate to the ZFS outputs of FreeBSD.
  
  Obtained from:	The FreeBSD German Documentation Project

Added:
  head/de_DE.ISO8859-1/books/handbook/zfs/
  head/de_DE.ISO8859-1/books/handbook/zfs/chapter.xml   (contents, props changed)
Modified:
  head/de_DE.ISO8859-1/books/handbook/Makefile
  head/de_DE.ISO8859-1/books/handbook/book.xml
  head/de_DE.ISO8859-1/books/handbook/chapters.ent

Modified: head/de_DE.ISO8859-1/books/handbook/Makefile
==============================================================================
--- head/de_DE.ISO8859-1/books/handbook/Makefile	Sat Apr  4 23:40:15 2015	(r46471)
+++ head/de_DE.ISO8859-1/books/handbook/Makefile	Sun Apr  5 15:21:54 2015	(r46472)
@@ -243,6 +243,7 @@ SRCS+= dtrace/chapter.xml
 SRCS+= eresources/chapter.xml
 SRCS+= filesystems/chapter.xml
 SRCS+= firewalls/chapter.xml
+SRCS+= zfs/chapter.xml
 SRCS+= geom/chapter.xml
 SRCS+= install/chapter.xml
 SRCS+= introduction/chapter.xml

Modified: head/de_DE.ISO8859-1/books/handbook/book.xml
==============================================================================
--- head/de_DE.ISO8859-1/books/handbook/book.xml	Sat Apr  4 23:40:15 2015	(r46471)
+++ head/de_DE.ISO8859-1/books/handbook/book.xml	Sun Apr  5 15:21:54 2015	(r46472)
@@ -252,6 +252,7 @@
     &chap.audit;
     &chap.disks;
     &chap.geom;
+    &chap.zfs;
     &chap.filesystems;
     &chap.vinum;
     &chap.virtualization;

Modified: head/de_DE.ISO8859-1/books/handbook/chapters.ent
==============================================================================
--- head/de_DE.ISO8859-1/books/handbook/chapters.ent	Sat Apr  4 23:40:15 2015	(r46471)
+++ head/de_DE.ISO8859-1/books/handbook/chapters.ent	Sun Apr  5 15:21:54 2015	(r46472)
@@ -43,6 +43,7 @@
   <!ENTITY chap.audit		SYSTEM "audit/chapter.xml">
   <!ENTITY chap.disks		SYSTEM "disks/chapter.xml">
   <!ENTITY chap.geom		SYSTEM "geom/chapter.xml">
+  <!ENTITY chap.zfs		SYSTEM "zfs/chapter.xml">
   <!ENTITY chap.filesystems	SYSTEM "filesystems/chapter.xml">
   <!ENTITY chap.vinum		SYSTEM "vinum/chapter.xml">
   <!ENTITY chap.virtualization	SYSTEM "virtualization/chapter.xml">

Added: head/de_DE.ISO8859-1/books/handbook/zfs/chapter.xml
==============================================================================
--- /dev/null	00:00:00 1970	(empty, because file is newly added)
+++ head/de_DE.ISO8859-1/books/handbook/zfs/chapter.xml	Sun Apr  5 15:21:54 2015	(r46472)
@@ -0,0 +1,4769 @@
+<?xml version="1.0" encoding="iso-8859-1"?>
+<!--
+     The FreeBSD Documentation Project
+     The FreeBSD German Documentation Project
+
+     $FreeBSD$
+     basiert auf: r45602
+-->
+
+<chapter xmlns="http://docbook.org/ns/docbook"
+  xmlns:xlink="http://www.w3.org/1999/xlink" version="5.0"
+  xml:id="zfs">
+
+  <info>
+    <title>Das Z-Dateisystem (<acronym>ZFS</acronym>)</title>
+
+    <authorgroup>
+      <author>
+	<personname>
+	  <firstname>Tom</firstname>
+	  <surname>Rhodes</surname>
+	</personname>
+	<contrib>Geschrieben von </contrib>
+      </author>
+      <author>
+	<personname>
+	  <firstname>Allan</firstname>
+	  <surname>Jude</surname>
+	</personname>
+	<contrib>Geschrieben von </contrib>
+      </author>
+      <author>
+	<personname>
+	  <firstname>Benedict</firstname>
+	  <surname>Reuschling</surname>
+	</personname>
+	<contrib>Geschrieben von </contrib>
+      </author>
+      <author>
+	<personname>
+	  <firstname>Warren</firstname>
+	  <surname>Block</surname>
+	</personname>
+	<contrib>Geschrieben von </contrib>
+      </author>
+    </authorgroup>
+    <authorgroup>
+      <author>
+	<personname>
+	  <firstname>Benedict</firstname>
+	  <surname>Reuschling</surname>
+	</personname>
+	<contrib>Übersetzt von </contrib>
+      </author>
+    </authorgroup>
+  </info>
+
+  <para>Das <emphasis>Z-Dateisystem</emphasis>, oder kurz
+    <acronym>ZFS</acronym>, ist ein fortgeschrittenes Dateisystem, das
+    entwickelt wurde, um viele der grossen Probleme in vorherigen
+    Entwicklungen zu überwinden.</para>
+
+  <para>Ursprünglich von &sun; entworfen, wird die weitere Entwicklung
+    von <acronym>ZFS</acronym> heutzutage als Open Source vom <link
+    xlink:href="http://open-zfs.org">OpenZFS Projekt</link>
+    vorangetrieben.</para>
+
+  <para><acronym>ZFS</acronym> hat drei grosse Entwurfsziele:</para>
+
+  <itemizedlist>
+    <listitem>
+      <para>Datenintegrität: Alle Daten enthalten eine Prüfsumme
+	(<link linkend="zfs-term-checksum">checksum</link>) der Daten.
+	Wenn Daten geschrieben werden, wird die Prüfsumme berechnet
+	und zusammen mit den Daten gespeichert.  Wenn diese Daten
+	später wieder eingelesen werden, wird diese Prüfsumme erneut
+	berechnet.  Falls die Prüfsummen nicht übereinstimmen, wurde
+	ein Datenfehler festgestellt.  <acronym>ZFS</acronym> wird
+	versuchen, diesen Fehler automatisch zu korrigieren, falls
+	genug Datenredundanz vorhanden ist.</para>
+    </listitem>
+
+    <listitem>
+      <para>Gepoolter Speicher: physikalische Speichermedien werden zu
+	einem Pool zusammengefasst und der Speicherplatz wird von
+	diesem gemeinsam genutzten Pool allokiert.  Der Speicherplatz
+	steht allen Dateisystemen zur Verfügung und kann durch das
+	Hinzufügen von neuen Speichermedien vergrössert werden.</para>
+    </listitem>
+
+    <listitem>
+      <para>Geschwindigkeit: mehrere Zwischenspeichermechanismen
+	sorgen für erhöhte Geschwindigkeit.  Der <link
+	linkend="zfs-term-arc">ARC</link> ist ein weiterentwickelter,
+	hauptspeicherbasierter Zwischenspeicher für Leseanfragen.  Auf
+	einer zweiten Stufe kann ein plattenbasierter <link
+	linkend="zfs-term-l2arc">L2ARC</link>-Lesezwischenspeicher
+	hinzugefügt werden. Zusätzlich ist auch noch ein
+	plattenbasierter, synchroner Schreibzwischenspeicher
+	verfügbar, der sog. <link
+	linkend="zfs-term-zil">ZIL</link>.</para>
+    </listitem>
+  </itemizedlist>
+
+  <para>Eine vollständige Liste aller Eigenschaften und der
+    dazugehörigen Terminologie ist in <xref linkend="zfs-term"/> zu
+    sehen.</para>
+
+  <sect1 xml:id="zfs-differences">
+    <title>Was <acronym>ZFS</acronym> anders macht</title>
+
+    <para><acronym>ZFS</acronym> ist signifikant unterschiedlich zu
+      allen bisherigen Dateisystemen, weil es mehr als nur ein
+      Dateisystem ist.  Durch die Kombination von traditionell
+      getrennten Rollen von Volumenmanager und Dateisystem ist
+      <acronym>ZFS</acronym> mit einzigartigen Vorteilen ausgestattet.
+      Das Dateisystem besitzt jetzt Kentniss von der zugrundeliegenden
+      Struktur der Speichermedien.  Traditionelle Dateisysteme konnten
+      nur auf einer einzigen Platte gleichzeitig angelegt werden.
+      Falls es zwei Festplatten gab, mussten auch zwei getrennte
+      Dateisysteme erstellt werden.  In einer traditionellen
+      Hardware-<acronym>RAID</acronym>-Konfiguration wurde dieses
+      Problem umgangen, indem dem Betriebssystem nur eine einzige
+      logische Platte angezeigt wurde, die sich aus dem Speicherplatz
+      von der Anzahl an physischen Platten zusammensetzte, auf dem
+      dann das Betriebssystem ein Dateisystem erstellte.  Sogar im
+      Fall von Software-<acronym>RAID</acronym>-Lösungen, wie die, die
+      von <acronym>GEOM</acronym> bereitgestellt werden, war das
+      <acronym>UFS</acronym>-Dateisystem der Ansicht, dass es auf nur
+      einem einzigen Gerät angelegt wurde.  <acronym>ZFS</acronym>'
+      Kombination eines Volumenmanagers und eines Dateisystems löst
+      dies und erlaubt das Erstellen von vielen Dateisystemen, die
+      sich alle den darunterliegenden Pool aus verfügbarem Speicher
+      teilen.  Einer der grössten Vorteile von <acronym>ZFS</acronym>'
+      Kentniss des physikalischen Layouts der Platten ist, dass
+      existierende Dateisysteme automatisch wachsen können, wenn
+      zusätzliche Platten zum Pool hinzugefügt werden.  Dieser neue
+      Speicherplatz wird dann allen Dateisystemen zur Verfügung
+      gestellt.  <acronym>ZFS</acronym> besitzt ebenfalls eine Menge
+      an unterschiedlichen Eigenschaften, die für jedes Dateisystem
+      angepasst werden könnnen, was viele Vorteile bringt, wenn man
+      unterschiedliche Dateisysteme und Datasets anlegt, anstatt ein
+      einziges, monolitisches Dateisystem zu erzeugen.</para>
+  </sect1>
+
+  <sect1 xml:id="zfs-quickstart">
+    <title>Schnellstartanleitung</title>
+
+    <para>Es existiert ein Startmechanismus, der es &os; erlaubt,
+      <acronym>ZFS</acronym>-Pools während der Systeminitialisierung
+      einzubinden.  Um diesen zu aktivieren, fügen Sie diese Zeile
+      in <filename>/etc/rc.conf</filename> ein:</para>
+
+    <programlisting>zfs_enable="YES"</programlisting>
+
+    <para>Starten Sie dann den Dienst:</para>
+
+    <screen>&prompt.root; <userinput>service zfs start</userinput></screen>
+
+    <para>Die Beispiele in diesem Abschnitt gehen von drei
+      <acronym>SCSI</acronym>-Platten mit den Gerätenamen
+      <filename><replaceable>da0</replaceable></filename>,
+      <filename><replaceable>da1</replaceable></filename> und
+      <filename><replaceable>da2</replaceable></filename> aus.  Nutzer
+      von <acronym>SATA</acronym>-Hardware sollten stattdessen die
+      Bezeichnung <filename><replaceable>ada</replaceable></filename>
+      als Gerätenamen verwenden.</para>
+
+    <sect2 xml:id="zfs-quickstart-single-disk-pool">
+      <title>Pools mit einer Platte</title>
+
+      <para>Um einen einfachen, nicht-redundanten Pool mit einem
+      einzigen Gerät anzulegen, geben Sie folgendes ein:</para>
+
+      <screen>&prompt.root; <userinput>zpool create <replaceable>example</replaceable> <replaceable>/dev/da0</replaceable></userinput></screen>
+
+      <para>Um den neuen Pool anzuzeigen, prüfen Sie die Ausgabe von
+	<command>df</command>:</para>
+
+      <screen>&prompt.root; <userinput>df</userinput>
+Filesystem  1K-blocks    Used    Avail Capacity  Mounted on
+/dev/ad0s1a   2026030  235230  1628718    13%    /
+devfs               1       1        0   100%    /dev
+/dev/ad0s1d  54098308 1032846 48737598     2%    /usr
+example      17547136       0 17547136     0%    /example</screen>
+
+      <para>Diese Ausgabe zeigt, dass der
+	<literal>example</literal>-Pool erstellt und eingehängt wurde.
+	Er ist nun als Dateisystem verfügbar.  Dateien können darauf
+	angelegt werden und Anwender können sich den Inhalt
+	ansehen:</para>
+
+      <screen>&prompt.root; <userinput>cd /example</userinput>
+&prompt.root; <userinput>ls</userinput>
+&prompt.root; <userinput>touch testfile</userinput>
+&prompt.root; <userinput>ls -al</userinput>
+total 4
+drwxr-xr-x   2 root  wheel    3 Aug 29 23:15 .
+drwxr-xr-x  21 root  wheel  512 Aug 29 23:12 ..
+-rw-r--r--   1 root  wheel    0 Aug 29 23:15 testfile</screen>
+
+      <para>Allerdings nutzt dieser Pool noch keine der Vorteile von
+	<acronym>ZFS</acronym>.  Um ein Dataset auf diesem Pool mit
+	aktivierter Komprimierung zu erzeugen, geben Sie ein:</para>
+
+      <screen>&prompt.root; <userinput>zfs create example/compressed</userinput>
+&prompt.root; <userinput>zfs set compression=gzip example/compressed</userinput></screen>
+
+      <para>Das <literal>example/compressed</literal>-Dataset ist nun
+	ein komprimiertes <acronym>ZFS</acronym>-Dateisystem.
+	Versuchen Sie, ein paar grosse Dateien auf
+	<filename>/example/compressed</filename> zu kopieren.</para>
+
+      <para>Deaktivieren lässt sich die Komprimierung durch:</para>
+
+      <screen>&prompt.root; <userinput>zfs set compression=off example/compressed</userinput></screen>
+
+      <para>Um ein Dateisystem abzuhängen, verwenden Sie
+	<command>zfs umount</command> und überprüfen Sie dies
+	anschliessend mit <command>df</command>:</para>
+
+      <screen>&prompt.root; <userinput>zfs umount example/compressed</userinput>
+&prompt.root; <userinput>df</userinput>
+Filesystem  1K-blocks    Used    Avail Capacity  Mounted on
+/dev/ad0s1a   2026030  235232  1628716    13%    /
+devfs               1       1        0   100%    /dev
+/dev/ad0s1d  54098308 1032864 48737580     2%    /usr
+example      17547008       0 17547008     0%    /example</screen>
+
+      <para>Um das Dateisystem wieder einzubinden und erneut verfügbar
+	zu machen, verwenden Sie <command>zfs mount</command> und
+	prüfen Sie erneut mit <command>df</command>:</para>
+
+      <screen>&prompt.root; <userinput>zfs mount example/compressed</userinput>
+&prompt.root; <userinput>df</userinput>
+Filesystem         1K-blocks    Used    Avail Capacity  Mounted on
+/dev/ad0s1a          2026030  235234  1628714    13%    /
+devfs                      1       1        0   100%    /dev
+/dev/ad0s1d         54098308 1032864 48737580     2%    /usr
+example             17547008       0 17547008     0%    /example
+example/compressed  17547008       0 17547008     0%    /example/compressed</screen>
+
+      <para>Den Pool und die Dateisysteme können Sie auch über die
+	Ausgabe von <command>mount</command> prüfen:</para>
+
+      <screen>&prompt.root; <userinput>mount</userinput>
+/dev/ad0s1a on / (ufs, local)
+devfs on /dev (devfs, local)
+/dev/ad0s1d on /usr (ufs, local, soft-updates)
+example on /example (zfs, local)
+example/compressed on /example/compressed (zfs, local)</screen>
+
+      <para>Nach der Erstellung können <acronym>ZFS</acronym>-Datasets
+	wie jedes undere Dateisystem verwendet werden.  Jedoch sind
+	jede Menge undere Besonderheiten verfügbar, die individuell
+	auf Dataset-Basis eingestellt sein können.  Im Beispiel unten
+	wird ein neues Dateisystem namens <literal>data</literal>
+	angelegt.  Wichtige Dateien werden dort abgespeichert, deshalb
+	wird es so konfiguriert, dass zwei Kopien jedes Datenblocks
+	vorgehalten werden.</para>
+
+      <screen>&prompt.root; <userinput>zfs create example/data</userinput>
+&prompt.root; <userinput>zfs set copies=2 example/data</userinput></screen>
+
+      <para>Es ist jetzt möglich, den Speicherplatzverbrauch der Daten
+	durch die Eingabe von <command>df</command> zu sehen:</para>
+
+      <screen>&prompt.root; <userinput>df</userinput>
+Filesystem         1K-blocks    Used    Avail Capacity  Mounted on
+/dev/ad0s1a          2026030  235234  1628714    13%    /
+devfs                      1       1        0   100%    /dev
+/dev/ad0s1d         54098308 1032864 48737580     2%    /usr
+example             17547008       0 17547008     0%    /example
+example/compressed  17547008       0 17547008     0%    /example/compressed
+example/data        17547008       0 17547008     0%    /example/data</screen>
+
+      <para>Sie haben vermutlich bemerkt, dass jedes Dateisystem auf
+	dem Pool die gleiche Menge an verfügbarem Speicherplatz
+	besitzt.  Das ist der Grund dafür, dass in diesen Beispielen
+	<command>df</command> verwendet wird, um zu zeigen, dass die
+	Dateisysteme nur die Menge an Speicher verbrauchen, den sie
+	benötigen und alle den gleichen Pool verwenden.
+	<acronym>ZFS</acronym> eliminiert Konzepte wie Volumen und
+	Partitionen und erlaubt es mehreren Dateisystemen den gleichen
+	Pool zu belegen.</para>
+
+      <para>Um das Dateisystem zu zerstören und anschliessend den
+	Pool, da dieser nicht mehr benötigt wird, geben Sie
+	ein:</para>
+
+      <screen>&prompt.root; <userinput>zfs destroy example/compressed</userinput>
+&prompt.root; <userinput>zfs destroy example/data</userinput>
+&prompt.root; <userinput>zpool destroy example</userinput></screen>
+    </sect2>
+
+    <sect2 xml:id="zfs-quickstart-raid-z">
+      <title>RAID-Z</title>
+
+      <para>Platten fallen aus.  Eine Methode, um Datenverlust durch
+	Festplattenausfall zu vermeiden, ist die Verwendung von
+	<acronym>RAID</acronym>.  <acronym>ZFS</acronym> unterstützt
+	dies in seiner Poolgestaltung.  Pools mit
+	<acronym>RAID-Z</acronym> benötigen drei oder mehr Platten,
+	bieten aber auch mehr nutzbaren Speicher als gespiegelte
+	Pools.</para>
+
+      <para>Dieses Beispiel erstellt einen
+	<acronym>RAID-Z</acronym>-Pool, indem es die Platten angibt,
+	die dem Pool hinzugefügt werden sollen:</para>
+
+      <screen>&prompt.root; <userinput>zpool create storage raidz da0 da1 da2</userinput></screen>
+
+      <note>
+	<para>&sun; empfiehlt, dass die Anzahl der Geräte in einer
+	  <acronym>RAID</acronym>-Z Konfiguration zwischen drei und
+	  neun beträgt.  Für Umgebungen, die einen einzelnen Pool
+	  enötigen, der aus 10 oder mehr Platten besteht, sollten Sie
+	  in Erwägung ziehen, diesen in kleinere
+	  <acronym>RAID-Z</acronym>-Gruppen aufzuteilen.  Falls nur
+	  zwei Platten verfügbar sind und Redundanz benötigt wird,
+	  ziehen Sie die Verwendung eines
+	  <acronym>ZFS</acronym>-Spiegels (mirror) in Betracht.  Lesen
+	  Sie dazu &man.zpool.8;, um weitere Details zu
+	  erhalten.</para>
+      </note>
+
+      <para>Das vorherige Beispiel erstellte einen ZPool namens
+	<literal>storage</literal>.  Dieses Beispiel erzeugt ein neues
+	Dateisystem, genannt <literal>home</literal>, in diesem
+	Pool:</para>
+
+      <screen>&prompt.root; <userinput>zfs create storage/home</userinput></screen>
+
+      <para>Komprimierung und das Vorhalten von mehreren Kopien von
+	Dateien und Verzeichnissen kann aktiviert werden:</para>
+
+      <screen>&prompt.root; <userinput>zfs set copies=2 storage/home</userinput>
+&prompt.root; <userinput>zfs set compression=gzip storage/home</userinput></screen>
+
+      <para>Um dies als das neue Heimatverzeichnis für Anwender zu
+	setzen, kopieren Sie die Benutzerdaten in dieses Verzeichnis
+	und erstellen passende symbolische Verknüpfungen:</para>
+
+      <screen>&prompt.root; <userinput>cp -rp /home/* /storage/home</userinput>
+&prompt.root; <userinput>rm -rf /home /usr/home</userinput>
+&prompt.root; <userinput>ln -s /storage/home /home</userinput>
+&prompt.root; <userinput>ln -s /storage/home /usr/home</userinput></screen>
+
+      <para>Daten von Anwendern werden nun auf dem frisch erstellten
+	<filename>/storage/home</filename> abgelegt.  Überprüfen Sie
+	dies durch das Anlegen eines neuen Benutzers und das
+	anschliessende Anmelden als dieser Benutzer.</para>
+
+      <para>Versuchen Sie, einen Dateisystemschnappschuss anzulegen,
+	den Sie später wieder zurückrollen können:</para>
+
+      <screen>&prompt.root; <userinput>zfs snapshot storage/home@08-30-08</userinput></screen>
+
+      <para>Schnappschüsse können nur auf einem Dateisystem angelegt
+	werden, nicht auf einem einzelnen Verzeichnis oder einer
+	Datei.</para>
+
+      <para>Das Zeichen <literal>@</literal> ist der Trenner zwischen
+	dem Dateisystem- oder dem Volumennamen.  Wenn ein wichtiges
+	Verzeichnis aus Versehen gelöscht wurde, kann das Dateisystem
+	gesichert und dann zu einem früheren Schnappschuss
+	zurückgerollt werden, in welchem das Verzeichnis noch
+	existiert:</para>
+
+      <screen>&prompt.root; <userinput>zfs rollback storage/home@08-30-08</userinput></screen>
+
+      <para>Um all verfügbaren Schnappschüsse aufzulisten, geben Sie
+	<command>ls</command> im Verzeichnis
+	<filename>.zfs/snapshot</filename> dieses Dateisystems ein.
+	Beispielsweise lässt sich der zuvor angelegte Schnappschuss
+	wie folgt anzeigen:</para>
+
+      <screen>&prompt.root; <userinput>ls /storage/home/.zfs/snapshot</userinput></screen>
+
+      <para>Es ist möglich, ein Skript zu schreiben, um regelmässig
+	Schnappschüsse von Benutzerdaten anzufertigen.  Allerdings
+	verbrauchen Schnappschüsse über lange Zeit eine grosse Menge
+	an Speicherplatz.  Der zuvor angelegte Schnappschuss kann
+	durch folgendes Kommundo wieder entfernt werden:</para>
+
+      <screen>&prompt.root; <userinput>zfs destroy storage/home@08-30-08</userinput></screen>
+
+      <para>Nach erfolgreichen Tests kann
+	<filename>/storage/home</filename> zum echten
+	<filename>/home</filename>-Verzeichnis werden, mittels:</para>
+
+      <screen>&prompt.root; <userinput>zfs set mountpoint=/home storage/home</userinput></screen>
+
+      <para>Prüfen Sie mit <command>df</command> und
+	<command>mount</command>, um zu bestätigen, dass das System
+	das Dateisystem nun als <filename>/home</filename>
+	verwendet:</para>
+
+      <screen>&prompt.root; <userinput>mount</userinput>
+/dev/ad0s1a on / (ufs, local)
+devfs on /dev (devfs, local)
+/dev/ad0s1d on /usr (ufs, local, soft-updates)
+storage on /storage (zfs, local)
+storage/home on /home (zfs, local)
+&prompt.root; <userinput>df</userinput>
+Filesystem   1K-blocks    Used    Avail Capacity  Mounted on
+/dev/ad0s1a    2026030  235240  1628708    13%    /
+devfs                1       1        0   100%    /dev
+/dev/ad0s1d   54098308 1032826 48737618     2%    /usr
+storage       26320512       0 26320512     0%    /storage
+storage/home  26320512       0 26320512     0%    /home</screen>
+
+      <para>Damit ist die <acronym>RAID-Z</acronym> Konfiguration
+	abgeschlossen.  Tägliche Informationen über den Status der
+	erstellten Dateisysteme können als Teil des nächtlichen
+	&man.periodic.8;-Berichts generiert werden.  Fügen Sie dazu
+	die folgende Zeile in die Datei
+	<filename>/etc/periodic.conf</filename> ein:</para>
+
+      <programlisting>daily_status_zfs_enable="YES"</programlisting>
+    </sect2>
+
+    <sect2 xml:id="zfs-quickstart-recovering-raid-z">
+      <title><acronym>RAID-Z</acronym> wiederherstellen</title>
+
+      <para>Jedes Software-<acronym>RAID</acronym> besitzt eine
+	Methode, um den Zustund (<literal>state</literal>) zu
+	überprüfen.  Der Status von <acronym>RAID-Z</acronym> Geräten
+	wird mit diesem Befehl angezeigt:</para>
+
+      <screen>&prompt.root; <userinput>zpool status -x</userinput></screen>
+
+      <para>Wenn alle Pools
+	<link linkend="zfs-term-online">Online</link> sind und alles
+	normal ist, zeigt die Meldung folgendes an:</para>
+
+      <screen>all pools are healthy</screen>
+
+      <para>Wenn es ein Problem gibt, womöglich ist eine Platte
+	im Zustund <link linkend="zfs-term-offline">Offline</link>,
+	dann wird der Poolzustund ähnlich wie dieser aussehen:</para>
+
+      <screen>  pool: storage
+ state: DEGRADED
+status: One or more devices has been taken offline by the administrator.
+	Sufficient replicas exist for the pool to continue functioning in a
+	degraded state.
+action: Online the device using 'zpool online' or replace the device with
+	'zpool replace'.
+ scrub: none requested
+config:
+
+	NAME        STATE     READ WRITE CKSUM
+	storage     DEGRADED     0     0     0
+	  raidz1    DEGRADED     0     0     0
+	    da0     ONLINE       0     0     0
+	    da1     OFFLINE      0     0     0
+	    da2     ONLINE       0     0     0
+
+errors: No known data errors</screen>
+
+      <para>Dies zeigt an, dass das Gerät zuvor vom Administrator mit
+	diesem Befehl abgeschaltet wurde:</para>
+
+      <screen>&prompt.root; <userinput>zpool offline storage da1</userinput></screen>
+
+      <para>Jetzt kann das System heruntergefahren werden, um
+	<filename>da1</filename> zu ersetzen.  Wenn das System wieder
+	eingeschaltet wird, kann die fehlerhafte Platte im Pool
+	ersetzt werden:</para>
+
+      <screen>&prompt.root; <userinput>zpool replace storage da1</userinput></screen>
+
+      <para>Von diesem Punkt an kann der Status erneut geprüft werden.
+	Dieses Mal ohne die Option <option>-x</option>, damit alle
+	Pools angezeigt werden:</para>
+
+      <screen>&prompt.root; <userinput>zpool status storage</userinput>
+ pool: storage
+ state: ONLINE
+ scrub: resilver completed with 0 errors on Sat Aug 30 19:44:11 2008
+config:
+
+	NAME        STATE     READ WRITE CKSUM
+	storage     ONLINE       0     0     0
+	  raidz1    ONLINE       0     0     0
+	    da0     ONLINE       0     0     0
+	    da1     ONLINE       0     0     0
+	    da2     ONLINE       0     0     0
+
+errors: No known data errors</screen>
+
+      <para>In diesem Beispiel ist alles normal.</para>
+    </sect2>
+
+    <sect2 xml:id="zfs-quickstart-data-verification">
+      <title>Daten verifizieren</title>
+
+      <para><acronym>ZFS</acronym> verwendet Prüfsummen, um die
+	Integrität der gespeicherten Daten zu gewährleisten.  Dies
+	wird automatisch beim Erstellen von Dateisystemen
+	aktiviert.</para>
+
+      <warning>
+	<para>Prüfsummen können deaktiviert werden, dies wird jedoch
+	  <emphasis>nicht</emphasis> empfohlen!  Prüfsummen
+	  verbrauchen nur sehr wenig Speicherplatz und sichern die
+	  Integrität der Daten.  Viele Eigenschaften vom
+	  <acronym>ZFS</acronym>  werden nicht richtig funktionieren,
+	  wenn Prüfsummen deaktiviert sind.  Es gibt keinen merklichen
+	  Geschwindigkeitsunterschied durch das Deaktivieren dieser
+	  Prüfsummen.</para>
+      </warning>
+
+      <para>Prüfsummenverifikation ist unter der Bezeichnung
+	<emphasis>scrubbing</emphasis> bekannt.  Verifizieren Sie die
+	Integrität der Daten des <literal>storage</literal>-Pools mit
+	diesem Befehl:</para>
+
+      <screen>&prompt.root; <userinput>zpool scrub storage</userinput></screen>
+
+      <para>Die Laufzeit einer Überprüfung hängt ab von der Menge an
+	Daten, die gespeichert sind.  Grössere Mengen an Daten
+	benötigen proportional mehr Zeit zum überprüfen.  Diese
+	Überprüfungen sind sehr <acronym>I/O</acronym>-intensiv und
+	es kann auch nur eine Überprüfung zur gleichen Zeit
+	durchgeführt werden.  Nachdem eine Prüfung beendet ist, kann
+	der Status mit dem Unterkommundo <command>status</command>
+	angezeigt werden:</para>
+
+      <screen>&prompt.root; <userinput>zpool status storage</userinput>
+ pool: storage
+ state: ONLINE
+ scrub: scrub completed with 0 errors on Sat Jan 26 19:57:37 2013
+config:
+
+	NAME        STATE     READ WRITE CKSUM
+	storage     ONLINE       0     0     0
+	  raidz1    ONLINE       0     0     0
+	    da0     ONLINE       0     0     0
+	    da1     ONLINE       0     0     0
+	    da2     ONLINE       0     0     0
+
+errors: No known data errors</screen>
+
+      <para>Das Datum der letzten Prüfoperation wird angezeigt, um zu
+	verfolgen, wann die nächste Prüfung benötigt wird.
+	Routinemässige Überprüfungen helfen dabei, Daten vor stiller
+	Korrumpierung zu schützen und die Integrität des Pools sicher
+	zu stellen.</para>
+
+      <para>Lesen Sie &man.zfs.8; und &man.zpool.8;, um über
+	weitere <acronym>ZFS</acronym>-Optionen zu erfahren.</para>
+    </sect2>
+  </sect1>
+
+  <sect1 xml:id="zfs-zpool">
+    <title><command>zpool</command> Administration</title>
+
+    <para>Administration von <acronym>ZFS</acronym> ist unterteilt
+      zwischen zwei Hauptkommandos.  Das
+      <command>zpool</command>-Wekzeug steuert die Operationen des
+      Pools und kümmert sich um das Hinzufügen, entfernen, ersetzen
+      und verwalten von Platten.  Mit dem <link
+      linkend="zfs-zfs"><command>zfs</command></link>-Befehl können
+      Datasets erstellt, zerstört und verwaltet werden, sowohl
+      <link linkend="zfs-term-filesystem">Dateisysteme</link> als
+      auch <link linkend="zfs-term-volume">Volumes</link>.</para>
+
+    <sect2 xml:id="zfs-zpool-create">
+      <title>Pools anlegen und zerstören</title>
+
+      <para>Einen <acronym>ZFS</acronym>-Pool
+	(<emphasis>zpool</emphasis>) anzulegen beinhaltet das Treffen
+	von einer Reihe von Entscheidungen, die relativ dauerhaft
+	sind, weil die Struktur des Pools nachdem er angelegt wurde,
+	nicht mehr geändert werden kann.  Die wichtigste Entscheidung
+	ist, welche Arten von vdevs als physische Platten
+	zusammengefasst werden soll.  Sehen Sie sich dazu die Liste
+	von <link linkend="zfs-term-vdev">vdev-Arten</link> an, um
+	Details zu möglichen Optionen zu bekommen.  Nachdem der Pool
+	angelegt wurde, erlauben die meisten vdev-Arten es nicht mehr,
+	weitere Geräte zu diesem vdev hinzuzufügen.  Die Ausnahme sind
+	Spiegel, die das Hinzufügen von weiteren Platten zum vdev
+	gestatten, sowie stripes, die zu Spiegeln umgewandelt werden
+	können, indem man zusätzliche Platten zum vdev anhängt.
+	Obwohl weitere vdevs eingefügt werden können, um einen Pool zu
+	vergrössern, kann das Layout des Pools nach dem Anlegen nicht
+	mehr verändert werden.  Stattdessen müssen die Daten
+	gesichert, der Pool zerstört und danach neu erstellt
+	werden.</para>
+
+      <para>Erstellen eines einfachen gespiegelten Pools:</para>
+
+      <screen>&prompt.root; <userinput>zpool create <replaceable>mypool</replaceable> mirror <replaceable>/dev/ada1</replaceable> <replaceable>/dev/ada2</replaceable></userinput>
+&prompt.root; <userinput>zpool status</userinput>
+  pool: mypool
+ state: ONLINE
+  scan: none requested
+config:
+
+        NAME        STATE     READ WRITE CKSUM
+        mypool      ONLINE       0     0     0
+          mirror-0  ONLINE       0     0     0
+            ada1    ONLINE       0     0     0
+            ada2    ONLINE       0     0     0
+
+errors: No known data errors</screen>
+
+      <para>Mehrere vdevs können gleichzeitig angelegt werden.  Geben
+	Sie zusätzliche Gruppen von Platten, getrennt durch das
+	vdev-Typ Schlüsselwort, in diesem Beispiel
+	<literal>mirror</literal>, an:</para>
+
+      <screen>&prompt.root; <userinput>zpool create <replaceable>mypool</replaceable> mirror <replaceable>/dev/ada1</replaceable> <replaceable>/dev/ada2</replaceable> mirror <replaceable>/dev/ada3</replaceable> <replaceable>/dev/ada4</replaceable></userinput>
+  pool: mypool
+ state: ONLINE
+  scan: none requested
+config:
+
+        NAME        STATE     READ WRITE CKSUM
+        mypool      ONLINE       0     0     0
+          mirror-0  ONLINE       0     0     0
+            ada1    ONLINE       0     0     0
+            ada2    ONLINE       0     0     0
+          mirror-1  ONLINE       0     0     0
+            ada3    ONLINE       0     0     0
+            ada4    ONLINE       0     0     0
+
+errors: No known data errors</screen>
+
+      <para>Pools lassen sich auch durch die Angabe von Partitionen
+	anstatt von ganzen Platten erzeugen.  Durch die Verwendung von
+	<acronym>ZFS</acronym> in einer separaten Partition ist es
+	möglich, dass die gleiche Platte andere Partitionen für andere
+	Zwecke besitzen kann.  Dies ist besonders von Interesse, wenn
+	Partitionen mit Bootcode und Dateisysteme, die zum starten
+	benötigt werden, hinzugefügt werden können.  Das erlaubt es,
+	von Platten zu booten, die auch Teil eines Pools sind.  Es
+	gibt keinen Geschwindigkeitsnachteil unter &os; wenn eine
+	Partition anstatt einer ganzen Platte verwendet wird.  Durch
+	den Einsatz von Partitionen kann der Administrator die Platten
+	<emphasis>unter provisionieren</emphasis>, indem weniger als
+	die volle Kapazität Verwendung findet.  Wenn in Zukunft ein
+	Ersatzfestplatte mit der gleichen Grösse als die
+	Originalplatte eine kleinere Kapazität aufweist, passt die
+	kleinere Partition immer noch passen und die Ersatzplatte
+	immer noch verwendet werden.</para>
+
+      <para>Erstellen eines <link
+	linkend="zfs-term-vdev-raidz">RAID-Z2</link>-Pools mit
+	Partitionen:</para>
+
+      <screen>&prompt.root; <userinput>zpool create <replaceable>mypool</replaceable> raidz2 <replaceable>/dev/ada0p3</replaceable> <replaceable>/dev/ada1p3</replaceable> <replaceable>/dev/ada2p3</replaceable> <replaceable>/dev/ada3p3</replaceable> <replaceable>/dev/ada4p3</replaceable> <replaceable>/dev/ada5p3</replaceable></userinput>
+&prompt.root; <userinput>zpool status</userinput>
+  pool: mypool
+ state: ONLINE
+  scan: none requested
+config:
+
+        NAME        STATE     READ WRITE CKSUM
+        mypool      ONLINE       0     0     0
+          raidz2-0  ONLINE       0     0     0
+            ada0p3  ONLINE       0     0     0
+            ada1p3  ONLINE       0     0     0
+            ada2p3  ONLINE       0     0     0
+            ada3p3  ONLINE       0     0     0
+            ada4p3  ONLINE       0     0     0
+            ada5p3  ONLINE       0     0     0
+
+errors: No known data errors</screen>
+
+      <para>Ein Pool, der nicht länger benötigt wird, kann zerstört
+	werden, so dass die Platten für einen anderen Einsatzzweck
+	Verwendung finden können.  Um einen Pool zu zerstören, müssen
+	zuerst alle Datasets in diesem Pool abgehängt werden.  Wenn
+	die Datasets verwendet werden, wird das Abhängen fehlschlagen
+	und der Pool nicht zerstört.  Die Zerstörung des Pools kann
+	erzwungen werden durch die Angabe der Option
+	<option>-f</option>, jedoch kann dies undefiniertes Verhalten
+	in den Anwendungen auslösen, die noch offene Dateien auf
+	diesen Datasets hatten.</para>
+    </sect2>
+
+    <sect2 xml:id="zfs-zpool-attach">
+      <title>Hinzufügen und Löschen von Geräten</title>
+
+      <para>Es gibt zwei Fälle für das Hinzufügen von Platten zu einem
+	Pool: einhängen einer Platte zu einem existierenden vdev mit
+	<command>zpool attach</command> oder einbinden von vdevs zum
+	Pool mit <command>zpool add</command>.  Nur manche <link
+	linkend="zfs-term-vdev">vdev-Arten</link> gestatten es,
+	Platten zum vdev hinzuzufügen, nachdem diese angelegt
+	wurden.</para>
+
+      <para>Ein Pool mit nur einer einzigen Platte besitzt keine
+	Redundanz.  Datenverfälschung kann erkannt, aber nicht
+	repariert werden, weil es keine weiteren Kopien der Daten
+	gibt.  Die Eigenschaft <link
+	linkend="zfs-term-copies">copies</link> kann genutzt werden,
+	um einen geringen Fehler wie einen beschädigtem Sektor
+	auszumerzen, enthält aber nicht die gleiche Art von Schutz,
+	die Spiegelung oder <acronym>RAID-Z</acronym> bieten.  Wenn
+	man mit einem Pool startet, der nur aus einer einzigen
+	vdev-Platte besteht, kann mit dem Kommando
+	<command>zpool attach</command> eine zustätzliche Platte dem
+	vdev hinzugefügt werden, um einen Spiegel zu erzeugen.  Mit
+	<command>zpool attach</command> können auch zusätzliche
+	Platten zu einer Spiegelgruppe eingefügt werden, was die
+	Redundanz und Lesegeschwindigkeit steigert.  Wenn die Platten,
+	aus denen der Pool besteht, aus partitioniert sind,
+	replizieren Sie das Layout der ersten Platte auf die Zweite
+	und verwenden dann <command>gpart backup</command>, gefolgt
+	von <command>gpart restore</command>, um diesen Vorgang
+	einfacher zu gestalten.</para>
+
+      <para>Umwandeln eines (stripe) vdevs namens
+	<replaceable>ada0p3</replaceable> mit einer einzelnen Platte
+	zu einem Spiegel durch das Einhängen von
+	<replaceable>ada1p3</replaceable>:</para>
+
+      <screen>&prompt.root; <userinput>zpool status</userinput>
+  pool: mypool
+ state: ONLINE
+  scan: none requested
+config:
+
+        NAME        STATE     READ WRITE CKSUM
+        mypool      ONLINE       0     0     0
+          ada0p3    ONLINE       0     0     0
+
+errors: No known data errors
+&prompt.root; <userinput>zpool attach <replaceable>mypool</replaceable> <replaceable>ada0p3</replaceable> <replaceable>ada1p3</replaceable></userinput>
+Make sure to wait until resilver is done before rebooting.
+
+If you boot from pool 'mypool', you may need to update
+boot code on newly attached disk 'ada1p3'.
+
+Assuming you use GPT partitioning und 'da0' is your new boot disk
+you may use the following command:
+
+        gpart bootcode -b /boot/pmbr -p /boot/gptzfsboot -i 1 da0
+&prompt.root; <userinput>gpart bootcode -b /boot/pmbr -p /boot/gptzfsboot -i 1 <replaceable>ada1</replaceable></userinput>
+bootcode written to ada1
+&prompt.root; <userinput>zpool status</userinput>
+  pool: mypool
+ state: ONLINE
+status: One or more devices is currently being resilvered.  The pool will
+        continue to function, possibly in a degraded state.
+action: Wait for the resilver to complete.
+  scan: resilver in progress since Fri May 30 08:19:19 2014
+        527M scanned out of 781M at 47.9M/s, 0h0m to go
+        527M resilvered, 67.53% done
+config:
+
+        NAME        STATE     READ WRITE CKSUM
+        mypool      ONLINE       0     0     0
+          mirror-0  ONLINE       0     0     0
+            ada0p3  ONLINE       0     0     0
+            ada1p3  ONLINE       0     0     0  (resilvering)
+
+errors: No known data errors
+&prompt.root; <userinput>zpool status</userinput>
+  pool: mypool
+ state: ONLINE
+  scan: resilvered 781M in 0h0m with 0 errors on Fri May 30 08:15:58 2014
+config:
+
+        NAME        STATE     READ WRITE CKSUM
+        mypool      ONLINE       0     0     0
+          mirror-0  ONLINE       0     0     0
+            ada0p3  ONLINE       0     0     0
+            ada1p3  ONLINE       0     0     0
+
+errors: No known data errors</screen>
+
+      <para>Wenn das Hinzufügen von Platten zu einem vdev keine Option
+	wie für <acronym>RAID-Z</acronym> ist, gibt es eine
+	Alternative, nämlich einen anderen vdev zum Pool hinzuzufügen.
+	Zusätzliche vdevs bieten höhere Geschwindigkeit, indem
+	Schreibvorgänge über die vdevs verteilt werden.  Jedes vdev
+	ist dafür verantwortlich, seine eigene Redundanz
+	sicherzustellen.  Es ist möglich, aber nicht empfohlen,
+	vdev-Arten zu mischen, wie zum Beispiel
+	<literal>mirror</literal> und <literal>RAID-Z</literal>.
+	Durch das Einfügen eines nicht-redundanten vdev zu einem
+	gespiegelten Pool oder einem <acronym>RAID-Z</acronym> vdev
+	riskiert man die Daten des gesamten Pools.  Schreibvorgänge
+	werden verteilt, deshalb ist der Ausfall einer
+	nicht-redundanten Platte mit dem Verlust eines Teils von jedem
+	Block verbunden, der auf den Pool geschrieben wird.</para>
+
+      <para>Daten werden über jedes vdev gestriped.  Beispielsweise
+	sind zwei Spiegel-vdevs effektiv ein <acronym>RAID</acronym>
+	10, dass über zwei Sets von Spiegeln die Daten schreibt.
+	Speicherplatz wird so allokiert, dass jedes vdev zur gleichen
+	Zeit vollgeschrieben wird.  Es gibt einen
+	Geschwindigkeitsnachteil wenn die vdevs unterschiedliche Menge
+	von freiem Speicher aufweisen, wenn eine
+	unproportionale Menge an Daten auf das weniger volle vdev
+	geschrieben wird.</para>
+
+      <para>Wenn zusätzliche Geräte zu einem Pool, von dem gebootet
+	wird, hinzugefügt werden, muss der Bootcode aktualisiert
+	werden.</para>
+
+      <para>Einbinden einer zweiten Spiegelgruppe
+	(<filename>ada2p3</filename> und <filename>ada3p3</filename>)
+	zu einem bestehenden Spiegel:</para>
+
+      <screen>&prompt.root; <userinput>zpool status</userinput>
+  pool: mypool
+ state: ONLINE
+  scan: resilvered 781M in 0h0m with 0 errors on Fri May 30 08:19:35 2014
+config:
+
+        NAME        STATE     READ WRITE CKSUM
+        mypool      ONLINE       0     0     0
+          mirror-0  ONLINE       0     0     0
+            ada0p3  ONLINE       0     0     0
+            ada1p3  ONLINE       0     0     0
+
+errors: No known data errors
+&prompt.root; <userinput>zpool add <replaceable>mypool</replaceable> mirror <replaceable>ada2p3</replaceable> <replaceable>ada3p3</replaceable></userinput>
+&prompt.root; <userinput>gpart bootcode -b /boot/pmbr -p /boot/gptzfsboot -i 1 <replaceable>ada2</replaceable></userinput>
+bootcode written to ada2
+&prompt.root; <userinput>gpart bootcode -b /boot/pmbr -p /boot/gptzfsboot -i 1 <replaceable>ada3</replaceable></userinput>
+bootcode written to ada3
+&prompt.root; <userinput>zpool status</userinput>
+  pool: mypool
+ state: ONLINE
+  scan: scrub repaired 0 in 0h0m with 0 errors on Fri May 30 08:29:51 2014
+config:
+
+        NAME        STATE     READ WRITE CKSUM
+        mypool      ONLINE       0     0     0
+          mirror-0  ONLINE       0     0     0
+            ada0p3  ONLINE       0     0     0
+            ada1p3  ONLINE       0     0     0
+          mirror-1  ONLINE       0     0     0
+            ada2p3  ONLINE       0     0     0
+            ada3p3  ONLINE       0     0     0
+
+errors: No known data errors</screen>
+
+      <para>Momentan können vdevs nicht von einem Pool entfernt und
+	Platten nur von einem Spiegel ausgehängt werden, wenn genug
+	Redundanz übrig bleibt.  Wenn auch nur eine Platte in einer
+	Spiegelgruppe bestehen bleibt, hört der Spiegel auf zu
+	existieren und wird zu einem stripe, was den gesamten Pool
+	riskiert, falls diese letzte Platte ausfällt.</para>
+
+      <para>Entfernen einer Platte aus einem Spiegel mit drei
+	Platten:</para>
+
+      <screen>&prompt.root; <userinput>zpool status</userinput>
+  pool: mypool
+ state: ONLINE
+  scan: scrub repaired 0 in 0h0m with 0 errors on Fri May 30 08:29:51 2014
+config:
+
+        NAME        STATE     READ WRITE CKSUM
+        mypool      ONLINE       0     0     0
+          mirror-0  ONLINE       0     0     0
+            ada0p3  ONLINE       0     0     0
+            ada1p3  ONLINE       0     0     0
+            ada2p3  ONLINE       0     0     0
+
+errors: No known data errors
+&prompt.root; <userinput>zpool detach <replaceable>mypool</replaceable> <replaceable>ada2p3</replaceable></userinput>
+&prompt.root; <userinput>zpool status</userinput>
+  pool: mypool
+ state: ONLINE
+  scan: scrub repaired 0 in 0h0m with 0 errors on Fri May 30 08:29:51 2014
+config:
+
+        NAME        STATE     READ WRITE CKSUM
+        mypool      ONLINE       0     0     0
+          mirror-0  ONLINE       0     0     0
+            ada0p3  ONLINE       0     0     0
+            ada1p3  ONLINE       0     0     0
+
+errors: No known data errors</screen>
+    </sect2>
+
+    <sect2 xml:id="zfs-zpool-status">
+      <title>Den Status eines Pools überprüfen</title>
+
+      <para>Der Status eines Pools ist wichtig.  Wenn ein Gerät sich
+	abschaltet oder ein Lese-, Schreib- oder Prüfsummenfehler
+	festgestellt wird, wird der dazugehörige Fehlerzähler erhöht.
+	Die <command>status</command>-Ausgabe zeigt die Konfiguration
+	und den Status von jedem Gerät im Pool und den Gesamtstatus
+	des Pools.  Aktionen, die durchgeführt werden sollten und
+	Details zum letzten <link
+	  linkend="zfs-zpool-scrub"><command>scrub</command></link>
+	werden ebenfalls angezeigt.</para>
+
+      <screen>&prompt.root; <userinput>zpool status</userinput>
+  pool: mypool
+ state: ONLINE
+  scan: scrub repaired 0 in 2h25m with 0 errors on Sat Sep 14 04:25:50 2013
+config:
+
+        NAME        STATE     READ WRITE CKSUM
+        mypool      ONLINE       0     0     0
+          raidz2-0  ONLINE       0     0     0
+            ada0p3  ONLINE       0     0     0
+            ada1p3  ONLINE       0     0     0
+            ada2p3  ONLINE       0     0     0
+            ada3p3  ONLINE       0     0     0
+            ada4p3  ONLINE       0     0     0
+            ada5p3  ONLINE       0     0     0
+
+errors: No known data errors</screen>
+    </sect2>
+
+    <sect2 xml:id="zfs-zpool-clear">
+      <title>Clearing Errors</title>
+
+      <para>Wenn ein Fehler erkannt wurde, werden die Lese-, Schreib-
+	oder Prüfsummenzähler erhöht.  Die Fehlermeldung kann
+	beseitigt und der Zähler zurückgesetzt werden mit
+	<command>zpool clear
+	  <replaceable>mypool</replaceable></command>.  Den
+	Fehlerzustand zurückzusetzen kann wichtig sein, wenn
+	automatisierte Skripte ablaufen, die den Administrator
+	informieren, sobald der Pool Fehler anzeigt.  Weitere Fehler
+	werden nicht gemeldet, wenn der alte Fehlerbericht nicht
+	entfernt wurde.</para>
+    </sect2>
+
+    <sect2 xml:id="zfs-zpool-replace">
+      <title>Ein defektes Gerät entfernen</title>
+
+      <para>Es gibt eine Reihe von Situationen, in denen es nötig
+	wird, eine defekte Platte mit einer anderen auszutauschen.
+	Wenn eine funktionierende Platte ersetzt wird, hält der
+	Prozess die alte Platte während des Ersetzungsvorganges noch
+	aktiv.  Der Pool wird nie den Zustand <link
+	  linkend="zfs-term-degraded">degraded</link> erhalten, was
+	das Risiko eines Datenverlustes minimiert.  Alle Daten der
+	alten Platte werden durch das Kommando
+	<command>zpool replace</command> auf die Neue übertragen.
+	Nachdem die Operation abgeschlossen ist, wird die alte Platte
+	vom vdev getrennt.  Falls die neue Platte grösser ist als die
+	alte Platte , ist es möglich den Pool zu vergrössern, um den
+	neuen Platz zu nutzen.  Lesen Sie dazu <link
+	  linkend="zfs-zpool-online">Einen Pool vergrössern</link>.</para>
+
+      <para>Ersetzen eines funktionierenden Geräts in einem
+	Pool:</para>
+
+      <screen>&prompt.root; <userinput>zpool status</userinput>
+  pool: mypool
+ state: ONLINE
+  scan: none requested
+config:
+
+        NAME        STATE     READ WRITE CKSUM
+        mypool      ONLINE       0     0     0
+          mirror-0  ONLINE       0     0     0
+            ada0p3  ONLINE       0     0     0
+            ada1p3  ONLINE       0     0     0
+
+errors: No known data errors
+&prompt.root; <userinput>zpool replace <replaceable>mypool</replaceable> <replaceable>ada1p3</replaceable> <replaceable>ada2p3</replaceable></userinput>

*** DIFF OUTPUT TRUNCATED AT 1000 LINES ***



Want to link to this message? Use this URL: <https://mail-archive.FreeBSD.org/cgi/mid.cgi?201504051521.t35FLtVR087186>