nun hab ich mich entschlossen mein eigenes NAS zu bauen und als OS TrueNAS zu nutzen. Meine bisherige private Cloud sieht so aus, dass auf einem Mini-PC Proxmox läuft. Hab hier einen Ubuntu-Container mit Samba-Freigaben auf den die Linux- und Mac-Clients zugreifen. Der Datenbestand (ca. 200 - 300 GB) wird regelmäßig per rsync gesichert.
Als zukünftiges NAS soll mir ein CWWK X86-P6 N150 Mini PC dienen. Er bietet Platz für 4 NVMe-SSDs. Dem entsprechend plane ich, 3 SSDs mit je 1 TB (WD Red SN700) für die Daten und eine vierte, kleinere SSD für das System. Weiterhin wird der PC mit einem 16 GB RAM Riegel bestückt.
Bis ich das System zusammenbauen kann vergeht noch etwas Zeit und ich will die Zeit nutzen um mich noch etwas in die Materie einzuarbeiten. Ich habe mir bereits einige Videos zur Installation und Einrichtung von TrueNAS angeschaut und suche zur Zeit noch nach weiteren verständlichen Quellen zur Einarbeitung in TrueNAS in deutsch oder englisch. Vielleicht könnt ihr mir dazu ein par Links posten.
Was mich auch beschäftigt ist Frage, wie ich die SSDs konfiguriere. Könnt ihr mir raten wie ich ZFS einstellen soll? Ich würde es gern so einrichten, das beim Ausfall einer SSD die Daten noch sicher sind.
Auch Gedanken und Meinungen zu meiner Hardwarewahl sind willkommen.
Vielen Dank für’s lesen und die Antworten,
freundliche Grüße
Hardy
Ok, viel Erfolg mit deinem vorhaben. Schau dir am besten die Offizielle Dokumentation an, das sollte IMMER die erste Wahl sein.
Ich habe damals ca. 6 Monate vorher mit dem Passiv mitlesen im Forum gestartet und gezielt nach meiner Umsetzung Idee das Forum durchsucht
Hier gibt es einen ZFS-Kalkulator, da kannst Du alle möglichen Kombinationen von Platten “durchspielen” um zu einem für Dich akzeptablen Preis-/Leistungsergebnis zu kommen (vergiß nicht die 20% space limit). Und vielleicht kommst Du ja dann zu dem Schluß, doch alle vier NVMe-SSDs für die Daten und als Bootmedium z.B. einen SSD-USB-Stick oder eine 5. NVMe mittels eines M.2 E-Key-zu-NVMe-Adapter zu verwenden An sonst wird das Ganze wohl problemlos funktionieren.
Die meisten TrueNAS Videos auf YouTube sind irrefuehrend bis gefaehrlich. Weil sie unterhalten wollen und eine falsche Definition von “funktioniert” verwenden. Ein NAS funktioniert nicht, wenn ich es zum Laufen bekomme. Sondern wenn unter keinen Umstaenden Daten verloren gehen bzw. verfaelscht werden.
Der einzig gute mir bekannte, gute Kanal ist Lawrence Systems. Explizite Warnung vor Linus Tech Tips. So gross er ist, so viel Falschinformationen zu TrueNAS/ZFS kamen schon von dort.
Dein Setup ist da ein wenig ein Spezialfall, da nur SSDs und eher kleinere Datenmengen. Die Nachteile von blockstorage sind dann bei dir nicht relevant.
Du könntest tatsächlich TrueNAS auf einer billigen 64GB SSD installieren (regelmässig Backup Datei runterladen) und die Daten auf einen RAIDZ1 pool über die drei anderen SSDs machen.
Fragezeichen stellen sich bei mir aber noch woanders:
Wie gut ist der Support, wenn du das Teil einschicken musst?
Wie sehen die PCI lanes aus? Kann das Ding wirklich 4x PCIe 3.0 1x?
Ansonsten natürlich auch noch die Hardware requirements von TrueNAS gut durchlesen und die offizielle Doku. Oder hier im Forum nachlesen
Mal ein wenig OT , welchen Nachteil soll denn Blockspeicher haben? Ich verwende seit Freenas zwei Kisten und seit nun auch schon einem Jahren zwei weitere (eine davon ziemlich mini: klick!) nicht als NAS, sondern als SAN mit Blockspeicher und iSCSI und kann bisher keine Probleme erkennen. Im Gegenteil, bei Einbindung in eine Domäne erspare ich mich die doppelte Rechteverwaltung, das macht alles der Domänencontroller.
Was jetzt aber nicht heißt, dass ich eine solche Lösung dem TE empfehle
Vielen Dank für die Antworten.
Der Calculator wirft mir bei Verwendung von RaidZ1 mit 3 Volumen eine nutzbare Speicherkapazität von 1,9 TB aus.
Gibt es denn einen wesentlichen Vorteil bei 4 SSd’s bzw. Nachteil bei Dreien?
Sollte ich evtl. von Anfang an das System auf USB installieren um so den 4ten Port frei zu haben damit ich den Pool bei Platzbedarf einfacher erweitern kann?
Danke, aber geht es ein bißchen genauer, wie definierst Du z.B. “enorm” ? An sonst - alles Gute ist eben nie beisammen, dass man mit der Blockgröße die Perfomance steigern oder verringern kann, ist klar, aber auch ziemlich Wurscht, wenn der Flaschenhals nicht die Disk I/O, sondern z.B. das Netzwerk ist
Naja, nicht wirklich.
4 Platten mit RAIDZ1 ergibt sogar die gleiche Kapazität wie 3 Platten mit RAIDZ1.
Zumindest bei default von 16k.
RAIDZ1 with 3 drives
With 3 drives, we get a stripe that is 3 drives wide.
Each stripe has two 4k data sectors (8k) and one 4k parity sector.
For a volblock of 16k, we need two stripes, because one stripe stores 8k data and two stripes will store the needed 16k (16k/8k).
Each stripe has two 4k data sectors, two stripes are in total 16k. Each stripe has one 4k parity sector, two stripes are in total 8k.
That gets us to 24k in total to store 16k.
24k is 6 sectors and that can be divided by 2 so there is no padding needed.
Storage efficiency is 66.66%, as expected.
RAIDZ1 with 4 drives
With 4 drives, we get a stripe 4 drives wide.
Each stripe has three 4k data sectors (12k) and one 4k parity sector.
For a volblock of 16k, we need 1.33 stripes (16k/12k).
The first stripe has three 4k data sectors, in total 12k.
The first stripe also has one 4k sector for parity. The second stripe has one 4k data sector.
The second stripe also has one 4k sector for parity.
In total, we have four 4k data sectors and two 4k parity sectors.
That gets us to 24k in total to store 16k.
24k is 6 sectors and that can be divided by 2 so there is no padding needed.
We expected a storage efficiency of 75%, but only got 66.66%!
Siehe oben für ein storage efficiency Beispiel.
Wenn ich gleich viel Speicher bei 3 SSDs bekomme wie bei 4 SSDs weil die Pool Geometrie nicht stimmt, ist das in meinen Augen ein enormer Nachteil.
Wenn mein 16GB Film in über eine Millionen chunks geteilt wird (16k Blockstorage) statt in 1024 chunks (16MiB Dataset).
Wenn ich mit vielen kleineren Files arbeite (4k) und diese unter rw amplification leiden.
Kommt eben immer auf den Anwendungsfall an.
99% der User fahren nicht schlecht mit:
VMs und Apps auf einen schnellen mirror oder gar 3way SSD mirror legen
die grossen Daten (welche sequentiell gelesen und geschrieben werden) auf RAIDZ2 mit riesigen HDDs legen.
Keine Ahnung wie der Speicherbedarf von @hardlink ist (vermutlich nicht besonders hoch, wenn er/sie 1TB SSDs verwendet), aber ich würde an seiner/ihrer Stelle vermutlich einen 3way mirror verwenden für den pool und eine schrottige SSD für den boot.
Wie schnell willst Du denn den Film gucken, wenn Du meinst hier am IOPS drehen zu müssen Im Ernst, Deine 99% der User betreiben kein Rechenzentrum, sortieren ihre Daten nicht nach I/O-Anforderungen und haben im System genug Flaschenhälse, so dass ein Herumdrehen am Festplattendurchsatz nachgerade sinnlos ist - meine Meinung und Erfahrung. Rein theoretisch (und natürlich auch praktisch) hast Du sicherlich Recht
Naja, plötzlich musst du in einem RAIDZ1 eine Platte ersetzten und wunderst dich, warum es mehrere Tage dauert
Zudem wie bereits erwähnt; Kompression, Pool Geometrie, metadata performance.
Aber ja, wenns nur um Filme lesen geht über einen 1GBit NIC, geht es lange gut. Ich persönlich finde es auch einfach nicht besonders handlich. Zu häufig habe ich schon im Proxmox Forum user mit 24TB Windows Server RAW disks gesehen, die sich nachher mit Problemen wie Backup, transfer und mieser Performance rumgeschlagen haben.