[Sammelthread] Server / NAS: Hardwareguide, Bauvorschläge, Diskussion 2025

Guten Abend Leute,

ich überlege schon länger mir ein NAS anzuschaffen und würde gerne direkt dazu übergehen mir selbst eines zu bauen, da ich weder von Synology noch von den Qnap NAS sonderlich überzeugt bin.

Im Grunde habe ich keine exorbitanten Anforderungen an mein NAS, es sollte nur folgendes in den nächsten Jahren zuverlässig, sparsam und möglichst leise erledigen können.

- Medienbibliothek, egal ob Filme, Bilder, Musik, Dokumente. Streamen der Filme muss gehen, im besten fall auch mal auf mehrere Geräte.
- Dementsprechend auch Cloudfunktion, auch außerhalb des Heimnetzwerkes. Freunde und Familie sollen auf bestimmte Dateien zugreifen können.
- Zusätzliches Backup für meinen PC
- Werbeblocker übers Netzwerk wie Pi Hole (Sollte via Docker möglich sein?)
- Eigenen Mail Server drüber laufen lassen
- In Zukunft sollen die Smart Home Geräte damit gesteuert werden, sobald das eigene Haus mal steht.

Folgendes config. habe ich mir mal zusammengesucht:

Geizhals Link

Kann man das so nutzen? Habe ich etwas übersehen? Sollte ich etwas ersetzen oder hinzufügen?

Das nächste Thema ist natürlich das Betriebssystem worauf das ganze dann später laufen soll. Anfangs hatte ich mich auf Unraid fixiert, es wirkt modern, mit vielen Möglichkeiten und man kann sich offenbar recht gut einarbeiten. Es gibt dazu viele Videos und Tutorials die gerade den Anfang leichter gestalten sollten. Was mich jedoch etwas davon abhält sind die 50$ pro Jahr für die Nutzung.

Daher habe ich mir die letzten Tage mal OMV (Openmediavault) angeschaut. Prinzipiell scheint es auch recht einfach zu sein sich darin zurechtzufinden. Es gibt zwar nicht so viele Infos zu finden wie zu Unraid, aber noch immer mehr als genug. Das UI ist jetzt nicht so schick und modern wie bei Unraid, aber das stört mich ehrlichgesagt gar nicht wirklich. Das tolle dabei, es ist kostenlos.

Was meint ihr zu dem Plan, kann man das so umsetzen? Was würdet ihr einem Neuling in diesem Bereich raten?

Einen Punkt gibt es noch der mich ebenso beschäftigt. Das Board mit CPU ist passiv gekühlt mit einer Kupferplatte. Ich kann es schwer einschätzen ob das so reicht für meine Zwecke oder ob ich lieber ein anderes Board mit aktivem Lüfter nutzen sollte wie das folgende:

AliExpress Link

Ich würde mal vermuten dass der Lüfter nicht unbedingt leise arbeitet, hat da jemand Erfahrungen damit?

Grüße
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Medienbibliothek, egal ob Filme, Bilder, Musik, Dokumente. Streamen der Filme muss gehen, im besten fall auch mal auf mehrere Geräte.
Jellyfin. Für "Dokumente" PDF und epubs gibts calibre.

Dementsprechend auch Cloudfunktion, auch außerhalb des Heimnetzwerkes. Freunde und Familie sollen auf bestimmte Dateien zugreifen können.
Cloudflare tunnel, oder DDNS mit einer Domain.
Duckdns zbsp.

Eigenen Mail Server drüber laufen lassen
Hast du bereits einen? Wenn nein dann lass es lieber sein.
Eigener Mailserver ist nur ein unnötiges Sicherheits risiko.

In Zukunft sollen die Smart Home Geräte damit gesteuert werden, sobald das eigene Haus mal steht.
Also Home Assistant.
Am besten in einer VM und nicht im Docker damit es mit allen addons kompatibel ist.

Kann man das so nutzen? Habe ich etwas übersehen? Sollte ich etwas ersetzen oder hinzufügen?
Was willst du mit einer 128GB SSD?
das müssten mind. 512-1TB sein wenn du es für Apps/Cache nutzen willst.

Das nächste Thema ist natürlich das Betriebssystem
Also wenn du VIEL zeit und Muse hast dich einzuarbeiten ist TrueNAS Scale die beste Wahl.
Aber es ist wirklich mühsam.

Das Board mit CPU ist passiv gekühlt mit einer Kupferplatte.
Nein. Das Board hat eine Kupferplatte damit die Höhe Kompatibel ist zu den standard Kühlern die man daraufsetzen kann.
 
Guten Morgen,

vielen Dank für deine Antwort @Haldi.

Hast du bereits einen? Wenn nein dann lass es lieber sein.
Eigener Mailserver ist nur ein unnötiges Sicherheits risiko.
Ich habe bisher keinen und mich auch noch nicht wirklich mit dem Betrieb auseinander gesetzt. Ist es tatsächlich so kritisch das in Eigenverwaltung zu betreiben? Ich kann tatsächlich auch drauf verzichten da ich mit meinem aktuellen Anbieter auch soweit zufrieden bin, der Gedanke war einfach das in die eigenen Hände zu legen.

Was willst du mit einer 128GB SSD?
das müssten mind. 512-1TB sein wenn du es für Apps/Cache nutzen willst.
Die SSD sollte eigentlich bisher lediglich als Medium für OMV bzw. das Betriebssystem dienen. An die Cachefunktion habe ich jetzt tatsächlich noch nicht gedacht, ist jedoch eine Überlegung wert.

Also wenn du VIEL zeit und Muse hast dich einzuarbeiten ist TrueNAS Scale die beste Wahl.
Aber es ist wirklich mühsam.
Eine gewisse Zeit kann und möchte ich mich durchaus damit beschäftigen, allerdings hat alles Grenzen. In diversen Videos wurde bereits aufgrund der Komplexität von TrueNAS abgeraten, daher habe ich mir da erst gar nichts dazu angesehen. Ich habe bisher lediglich einiges zu Unraid gesehen und gelesen, als auch zu OMV.

Nein. Das Board hat eine Kupferplatte damit die Höhe Kompatibel ist zu den standard Kühlern die man daraufsetzen kann.
Heißt also ich könnte da doch einen Topblower Kühler drauf packen? Das wäre natürlich eine super Sache!
 
Wait what? Das ist gang und gebe das Firmen mit Tausenden Arbeitsplätzen die Dinger nur noch Leasen und dann alle par Jahre automatisch die neusten Modelle bekommen ?
Eigentlich verständlich. Will ja niemand mehr größere ausgaben einplanen. Ein kontinuierlicher Kostenfaktor ist überall beliebter.
Was sind denn so normale Zeitrahmen? 2-3 Jahre? 4-6 Jahre?
Was meinste du, wo deine/unsere FertigStromsparPCs herkommen?
Das sind alles Leasingrückläufer.

Das ist schon lange Standard. Angefangen bei sehr großen Firmen und Konzernen.
Nicht nur der (Invest)Kostenfaktor an sich, sondern auch das Thema Garantie, Service usw. ist dabei unerlässlich.
Weiter geht es beim Software-/GeräteMGMT.
Man kann ja mal versuchen einen Gerätepark mit 1000 Geräten (und das ist bei großen Firmen nen feuchter Furz) in Softwarepflege zu halten, wenn es sich dabei um 200 komplett unterschiedliche Geräte handelt.
Daher gibt es im FlottenMGMT eine bestimmte Auswahl an Geräten (das können schon ein paar sein, sagen wir mal 12), die dann eben alle 3 Jahre rotieren. So hat man in der Regel halt nur 12 Geräte vom ersten Lifecycle und nochmal 12 Geräte im 2. Lifecycle, also in Summe 24 Geräte, die man zu pflegen hat. (ist aber in der Regel noch nen 3. Lifecycle, weil das ja nicht immer auf den Tag genau läuft)
Die Anzahl reduziert sich aber meist dadurch, dass die 12 auswählbaren Geräte eigentlich oft nur andere Geschmacksrichtungen des quasi gleichen Gerätes sind. Unterschiedlicher Displaygröße (Notebook), mehr RAM, mehr SSD usw., andere Größe z.B. Mini, SFF, TWR.... D.h. von den 12 Geräte sind realistisch nur 6 wirklich unterschiedlich.
 
Eigener Mailserver ist nur ein unnötiges Sicherheits risiko.
Vielleicht weniger ein Sicherheitsrisiko, wenn man mit genug Paranoia ran geht, so wie bei jedem anderen öffentlichen Server auch. Aber bei E-Mail gibt es vieles zu beachten und auf einige Abhängigkeiten hat man auch quasi keinen Einfluss, z.B. Provider X hat plötzlich keine Lust mehr, Post von Dir anzunehmen usw.
Einen eigenen Mailserver für interne Dinge kann man aber immer hosten, z.B. für E-Mails von der Fritzbox und vergleichbares Monitoring.
 
Zuletzt bearbeitet:
Zum Thema LifeCycle: Ich habe gar keine Lust auf die Mehrarbeit die mir gesetzlich aufgezwungen wird, wenn irgendwo noch ein Legacy-System rennt in der Bank.Und ich Sitz nicht am in der IT 😉

Zum Thema OS: Also ich rate zu einer verbreiteten linux Distribution auf Basis von Debian/ubuntu oder alternativ redhat. Nichts außergewöhnliches.

Ich empfinde den bedienkomfort bei truenas eigentlich sehr angenehm, auch wenn ich selbst meinen Mini-Pool direkt mit zfs auf proxmox auf der Konsole verwalte.gibt genug (online) Literatur dazu.
 

AOOSTAR WTR MAX AMD R7 PRO 8845HS 11 Bays NAS​

Im PreOrder jetzt für 700$ Ohne RAM.
  • 6x SATA
  • 5x NVME
  • 2x 10Gbit SFP (Intel X710)
  • 2x 2.5Gbit RJ45
  • 2x SODIMM DDR5 mit ECC Support
  • OccuLink
  • USB 4.0 40Gbits
  • AMD R7 PRO 8845HS 8 Core 16 Thread Zen4 (4nm)
  • MicroSD Card Reader
  • Mini Display
  • 25x25x20cm
Aber ich fürchte das ding wird so zwischen 25-45W im Idle benötigen :( Ohne Platten.
Edit:
Ach du scheisse der RAM dazu....
250 Euro für 48GB Riegel.
und für die 32GB Riegel siehts auch nicht positiv aus...
Das ding wird am RAM verhungern.
 
Zuletzt bearbeitet:
Nen Stromsparer dürfte das definitiv nicht werden :d
 
Wobei die CPU durchaus sparsam und sehr effektiv ist, da Monolith und somit kein Chiplet, aber mindestens die NIC dürfte es rausreißen. Wer so was aber eh verbauen wollte, kann zuschlagen, sofern es sich leisten mag.
 
sofern es sich leisten mag.
Was heißt denn hier sofern man es sich leisten mag?
Ist ja nicht mal Zen5 sondern Zen4
Wie viel bezahlt man für AM5 Octacore, MiniITX mit Gehäuse, Netzteil und Lüfter + 2x10gbit NIC?

Oder meinst du im Vergleich zur alten AM4 Plattform?
Die ist gleich nochmal wie viel günstiger? Vorwiegend der RAM und selbst da ist ECC komplett überteuert. Mit 100€ für 32GB
 
@Haldi Preislich sicherlich sehr fair, aber a ausverkauft, b kommt wohl noch Steuer/Zoll drauf, c gibt es keinerlei Reviews, d überzeugt mich das Kühlkonzept nicht. Die Luft soll von vorne reingezogen werden, aber größere Einlässe sehe ich nicht und der Luftstrom kommt alleine von den rückseitigen Lüftern, es wird also definitiv laut. Interessant wäre auch noch die PCIe-Anbindung, denn die ist bei Ryzen 8000 arg beschnitten worden. Und hat der Festplattenkäfig eine Backplane? Wird dieses NAS auch viele große HDDs zuverlässig mit Strom versorgen können?

Unten auf der Webseite sehe ich dann das Ali 2-Bay NAS, welches mich überhaupt nicht überzeugen konnte, außer beim Preis. Da haben sie wirklich vieles verkackt, was nicht hätte sein müssen...

Oder anders gesagt, ich bin lieber für den Eigenbau, da weiß ich dann, was ich bekomme.
 
Im PreOrder jetzt für 700$ Ohne RAM.
Ziemlicher Papiertiger, aber nicht uninteressant.
Die Frage ist halt, womit das so läuft... das Mini-Display wird wohl nur mit irgend einer proprietären Software laufen?

Ob sparsam ist die Frage, wies gemacht ist, kann schon ganz gut sein, irgendwer hat hier doch mal was ähnliches vorgestellt, was ziemlich faszinierend war. Besonders leise wirds halt wsl. nicht sein.


Was ich interessant und gut finde an den Chinesensachen ist eine "sinnvolle" PCIe Verteilung.
Diese M.2 Slots mit PCIe 4.0x2 oder PCIe 4.0x1 finde ich einfach sinnvoll, das ist allemal genug. Sowas fehlt mir an "normalen" Mainboards. Gerade am Chipsatz, wo man ja wohl recht flexibel ist, fände ich sowas super.

Nachdem es ja keine SATA SSDs mehr gibt, muss irgendwie Speicherplatz ran, dafür braucht man keine 8gb/s, da wären mir persönlich lieber 4x 2gb/s...
... das ist btw. ne geile Idee, nen PCIe x16 Slot auf den Chipsatz, dann den 1., 5., 9. und 13. Kanal belegen. Dann könnte man mit den üblichen PCIe x16 auf 4x M.2 Karten arbeiten... wäre super kompakt und richtig nice.
Müsste eigentlich so funktionieren, nachdem es Boards gibt, die umschalten können je nach Slotbelegung... entweder 1 Slot mit 4 Lanes oder z.B. 4 Slots mit 1 Lane (Asus Strix B... imho). Müsste dann auch mit 4x in einem Slot gehen, sofern nicht diese ersten "Meta-Pins" nötig sind dafür.
 
Hat jemand Erfahrungen mit den Shuttle XPC slim DS50x Barebones? Die Teile sind komplett lüfterlos und bieten 2x NVMe Slots, 2,5Gbit LAN und USB 3.1.

https://geizhals.de/shuttle-xpc-slim-ds50u-a3076448.html

Wäre das eine sinnvolle Basis für ein leises Selbstbau-NAS oder sollte man lieber was von der Stange kaufen (Ugreen etc.)?
Bin nicht ganz auf dem Laufenden. "Früher" hatte Asrock sowas wie den DeskMini, aber inzwischen gibt es ja viele Hersteller/Produkte...
 
Mir wurde per Zaunpfahl dezent signalisiert, dass mein jugendlicher Jungspund von Heimserver, mit 7 Jahren quasi gerade mal aus dem Gröbsten raus, doch vielleicht eventuell mal einen Nachfolger bräuchte. Kann ich gar nicht verstehen. 😁 Aber dennoch will ich mich mal umsehen. Was mache ich damit, was brauche ich?

  • Virtualisiert (aktuell noch ESXi, Umstieg auf Proxmox bei der Backup-Kiste schon vollzogen, würde hier dann auch passieren)
  • Napp-It VM, SATA-Controller durchgereicht.
  • Media VM mit Nextcloud, Docker für Paperless und weitere kleinere Dienste, UPNP-Server (aktuell miniDLNA, aber manchmal wünsche ich mir Transcoding-Fähigkeiten)
  • Hausautomation VM (Zoneminder, 2 - 4 Kameras, mind. HD, Home Assistant, Homebridge)
  • Ein bißchen Luft nach oben zum Spielen (Technikspielkram, nicht zocken)
Meine Vorstellungen zur Hardware:
  • Server Board, gutes Preis-/Leistungsverhältnis. Mit meinem jetzigen Supermicro war ich immer zufrieden, war nicht zu teuer
  • Mind. 64 GB ECC RAM, gerne mehr
  • 8-fach Onboard SATA Controller bevorzugt, nicht gleich alle PCIe Plätze von Beginn an voll knallen.
  • Kein Stromfresser
  • IPMI
  • LAN: irgenwann wird der große gemanagte GBit-Switch ins zweite Glied zurücktreten. Dann dürfen es gerne 2, besser 4 Ports mit mind. 2,5 GBit oder mehr sein.
  • 2 interne M2 SSD Anschlüsse wünschenswert, mindestens aber einer.
Gehäuse, HDDs, Netzteil (ist noch nicht so alt) werden möglichst erst einmal übernommen, vielleicht stelle ich mir den alten Server noch als Bastel-/Backupserver in die Ecke, mal sehen.
 
Screenshot_2025-05-27-21-19-56-91_3aea4af51f236e4932235fdada7d1643.jpg



210$ Preorder.
  • N150 CPU
  • 6xNVME Slots
  • 2x2.5GBE nic
  • 12GB RAM und 64GB eMMC fürs OS.
  • Integriertes Netzteil.
Ca 8Watt Idle mit 6x NVME drin laut Raid owl.


Ich hab leider absolut keinen Bedarf dafür... Aber sonst ein ziemlich cooles ding oder?
Gab ja sonst nur die N100 Dev Boards mit 4x NVME Slots.
Für 200$ ein sehr fairer Preis IMHO.

Wobei der Preis 3400€ mit 6x 8TB SSDs nimmer so gut ist...xD
Die Preise sind aber gut gesunken... Nur noch 66€ pro TB für 8TB Drives.
 
Zuletzt bearbeitet:
Den gab es schon die ganze Zeit zu bestellen, leider nur mit einer SSD. Jetzt ohne habe ich Ihn geordert. :-)
 
Zuletzt bearbeitet:
Derzeit betreibe ich ein X570D4U-2L2T mit einem alten Ryzen 3800x und 128 GB DDR4 ECC.

In der PCIE 16 sitzt eine ASUS Hyper M.2 x16 Gen 4 Card mit 4 m.2 und auf dem Board sind auch 2 m.2 verbaut.
An einem der beiden anderen PCIE hängt eine einfache PCIE x4 zu 4xSATA Karte. Die SATA sind alle belegt.

Jetzt würde ich zu gerne noch eine Intel ARC hinzufügen, aber das wird auf dem Board schwierig, da er mir dann die PCIE 16 (die mit Bifurication 4x4x4x4x betrieben wird) auf PCIE 8x umstellt (Lanes...)

Meine Recherche kommt immer wieder bei DDR5,PCIE 5.0 - Serverboards aus. Die Boards gehen teilweise ja noch, aber dann neuen RAM und dafür eine neue CPUs gehen Richtung richtig teuer...

Jemand eine Idee wie es dennoch gehen könnte, bzw. nach welchen Boards ich mich stattdessen umsehen könnte?
 
Zuletzt bearbeitet:
Jemand eine Idee wie es dennoch gehen könnte
Das sind ja echte Luxx-Probleme. ;) Vielleicht statt der ASUS Hyper so was verwenden. Dabei würden die m.2 dann bei dir noch mit PCIe 3.0 x2 angesprochen werden. Selbst nicht probiert.
 
Zuletzt bearbeitet:
Das sind ja echte Luxx-Probleme. ;) Vielleicht statt der ASUS Hyper so was verwenden. Dabei würden die m.2 dann bei dir noch mit PCIe 3.0 x2 angesprochen werden. Selbst nicht probiert.
Naja, wenn in beiden PCIe dann eine Karte stekt macht er mir trotzdem zwei 8x draus. Glaube nicht das die o.g. Karte dann noch mit 4 m.2 SSDs funktioniert.
 
Tjo, die ewige Crux der Consumer Plattformen (CPUs). CPU Power reicht für fast alles. Wenn man die aber wirklich halbwegs ausfahren will, gehen einem ratzfatz die Lanes aus.

Ich hab für mich entschieden, entweder bei Hardware gleich dick (Threadripper, Xeon, Epyc) oder Minimal-Hardware - vor allem keine NVMe SSDs nativ am Mainboard.

@Fischje: Du könntest mit nem Tripple HBA und ggf. ein paar Adaptern m.2 auf U.2/3 Dein Storage auf einem Slot konsolidieren. Dann hättest Du einen Slot frei (könntest den HBA sogar in den x4 packen, wenn Dir das leistungsmässig reicht). Adapter könnte sowas sein:


Hab das aber selbst noch nicht ausprobiert.
 
Hallo HardwareLuxxe,

Hoffe ich bin hier im Thread richtig.

Ich bin Neuling in dem Thema Home Server und NAS Systeme.
Auf YouTube und natürlich hier am rum suchen, was denn so das Beste für meine Anwendungsfälle ist, schwanke immer hin und her.

Anforderungen:
NAS (VM/LCX), Docker (Home assistant/softPLC/pfsense/python Scripts ….), 2-4 VM's Windows / Linux on demand, media Server und was ich hier noch so nützliches aufschnappe.

Eine Idee war Hardware out of the box -> Minis Forum MS 01 + Ugreen DXP6800
Idee nichts zusammenbauen zu müssen und ein funktionsfähiges stabiles System zu haben.
Außerdem das NAS getrennt von dem Home Server zu haben.
Kosten hierfür 1650€, einfach mal über den Daumen gepeilt und ohne Platten, da diese auch beim 19" rein müssen

Zweite Idee 19" Eigenbau, siehe unten.
Würde gegebenfalls mit Proxmox + TrueNas als VM mich versuchen, wobei das auch meine Lösung zur ersten Idee ist.

Was ist eure Meinung, da ich jedes Mal, wenn ich durch das Forum scrolle, immer wieder neue Zusammenstellungen finde aber ich mich nicht wirklich traue die Komponenten anzugehen einmal mit dem Hintergrund, dass der Verbrauch später mir durch die Decke geht oder zum anderen ich zu wenig Leistung habe oder es ggf mit SW und HW Probleme geben kann.

Vielleicht könnt ihr mir ein paar Erfahrungen geben beziehungsweise auch Komponenten empfehlen, die ihr kennt und die ihr mir an die Hand geben könnt.

Hier mal was ich so zusammen gesucht und gefunden habe im Netz:
KomponenteModellPreisKommentar
Gehäuse19" Inter-Tech 88887203 Case IPC Storage 4U-4410>300€hab im Keller kein Platzproblem und will für die Zukunft Platz haben
CPUIntel Core i5-13500 (12C/16T, 65W TDP)~250€12 Kerne (4P+8E), integrierte UHD 770 für Hardware-Transcoding.
MainboardASRock B760M PG Riptide~140€4x M.2, 2.5GbE, 6x SATA, PCIe 5.0 x16. Energieeffizientes Design.
RAM64GB (2x 32GB) DDR4-3200 Kingston Fury Beast ECC~200€ECC für Datensicherheit (wird vom MB unterstützt!).
Boot-SSD2x 1TB NVMe Crucial P5 Plus (RAID1 via ZFS)~120€RAID1 für Proxmox-Installation.
Netzteilbe quiet! Pure Power 12 M 550W~80€leise, effizient – ausreichend für spätere HDDs/Erweiterungen.
KühlungNoctua NH-L12S~55€Flacher Top-Blower, hält CPU im Idle <40°C (passiv optimiert).
SATA-ControllerLSI SAS 9207-8i IT-Mode (gebraucht)~50€8x SATA-Ports, notwendig für ZFS-Pools (direkter HDD-Zugriff ohne Mainboard-Limits).
NetzwerkkarteIntel X520-DA2 (10GbE Dual-Port, gebraucht)~40€Trennung WAN/LAN (für pfSense VM) + Highspeed-NAS.
HDD4TB Netto?WD ggf. für NAS -> pathrough TrueNas

Vielen Dank vorab für die Hilfe
Gruß Silberbart
 
Ich pushe meine Anfrage noch einmal ein wenig nach oben, vielleicht habt Ihr ja doch ein paar sachdienliche Hinweise. 😉

Mir wurde per Zaunpfahl dezent signalisiert, dass mein jugendlicher Jungspund von Heimserver, mit 7 Jahren quasi gerade mal aus dem Gröbsten raus, doch vielleicht eventuell mal einen Nachfolger bräuchte. Kann ich gar nicht verstehen. 😁 Aber dennoch will ich mich mal umsehen. Was mache ich damit, was brauche ich?

  • Virtualisiert (aktuell noch ESXi, Umstieg auf Proxmox bei der Backup-Kiste schon vollzogen, würde hier dann auch passieren)
  • Napp-It VM, SATA-Controller durchgereicht.
  • Media VM mit Nextcloud, Docker für Paperless und weitere kleinere Dienste, UPNP-Server (aktuell miniDLNA, aber manchmal wünsche ich mir Transcoding-Fähigkeiten)
  • Hausautomation VM (Zoneminder, 2 - 4 Kameras, mind. HD, Home Assistant, Homebridge)
  • Ein bißchen Luft nach oben zum Spielen (Technikspielkram, nicht zocken)
Meine Vorstellungen zur Hardware:
  • Server Board, gutes Preis-/Leistungsverhältnis. Mit meinem jetzigen Supermicro war ich immer zufrieden, war nicht zu teuer
  • Mind. 64 GB ECC RAM, gerne mehr
  • 8-fach Onboard SATA Controller bevorzugt, nicht gleich alle PCIe Plätze von Beginn an voll knallen.
  • Kein Stromfresser
  • IPMI
  • LAN: irgenwann wird der große gemanagte GBit-Switch ins zweite Glied zurücktreten. Dann dürfen es gerne 2, besser 4 Ports mit mind. 2,5 GBit oder mehr sein.
  • 2 interne M2 SSD Anschlüsse wünschenswert, mindestens aber einer.
Gehäuse, HDDs, Netzteil (ist noch nicht so alt) werden möglichst erst einmal übernommen, vielleicht stelle ich mir den alten Server noch als Bastel-/Backupserver in die Ecke, mal sehen.
 
Hi,

habt ihr euer NAS virtualisiert oder als separate Kiste? Falls letzteres, wo seht ihr die Vorteile?

Ich hab folgenden Proxmox Server:
- Intel Xeon E-2146G, 6C/12T, 3.50-4.50GHz
- Supermicro X11SCH-LN4F
- 64GB ECC RAM
- LSI SAS9300-8i
- Intel X710-DA2 10G SFP+ Karte
- 6x 6TB WDRed/IronWolf HDDs

Darauf läuft TrueNAS als VM, SAS9300 mit den HDDs ist durchgereicht. Funktioniert seit Jahren absolut zuverlässig.
Aber ich hab immer wieder den "will haben" Gedanken, das NAS als separate Kiste hinzustellen.

Die die Platten jetzt quasi voll sind und eine davon nach 7 Jahren jetzt Zicken macht, wäre nun vielleicht ein guter Zeitpunkt das mal zu machen.
Aber außer "will haben" weiß ich nicht so recht was ich dadurch gewinne. Funktioniert ja...

Aber der höhere Stromverbrauch ist mir ein Dorn im Auge... aktuell verbraucht mein Kram ~100-120W.
Da ist aber auch Modem, Firewall, Switches, AccessPoint mit drin.

Ich hätte noch eine zweite "E-2146G" ohne Kosten zur Verfügung. Aber die hat eigentlich zu viel Power für ein NAS und Grafik brauch ich auch nicht.
Und ein Board mit ECC und IPMI (X11SCM-F) kostet halt auch wieder 300€.

Ich will unvernünftig sein, aber irgendwie bin ich zu vernünftig dazu... oder zu geizig. :d
 
Und ein Board mit ECC und IPMI (X11SCM-F) kostet halt auch wieder 300€.
Warum so teuer einkaufen?
oder auch so mal schauen, es gibt genügend gute Angebote im 1151v2 Bereich.
Da muss man bei weitem nicht neu kaufen.
Die Plattform ist so alt, dass hin und wieder ausgemustert wird.
Im Idealfall kommt man an Fujitsu/Kontron Boards. Die sind extrem stromsparend ausgelegt, was besonders bei 24/7 gut was bringt. Die bringen dann auch vPro mit, so spart man sich den IPMI. Das sind bei solchen Boards mal eben 1/3 der Stromaufnahme, die man da sparen kann.

Separat oder nicht, ist immer ne persönliche Entscheidung.
Separat bietet einfach den Vorteil, dass man an den anderen Sachen auch mal rumspielen kann. Hypervisor austauschen (aktuell ein Thema bei ESX-Basis) usw.
Wenn der Storage nur nice to have ist, braucht man das ggf. nicht. Klingelt aber immer sofort das Telefon, sieht das anders aus.
Auch NAS als FertigNAS hat so seine Vorteile.
Das hängt alles von vielen Faktoren ab. Ich habe FertigNAS, Storageserver, Backupserver, Virtualisierer usw. getrennt.
Virtualisierer sind passive ITX PCs, die laufen seit >10Jahren 24/7. Downtime so gut wie keine.

Das hat freilich auch Nachteile. Ggf. muss man Storage erst hochfahren, wenn das cold ist. Aber auch Platzbedarf oder Stromaufnahme sind so Themen.

Es gibt da kein Patentrezept.

Ansonsten sind 100W Leistungsaufnahme nicht mehr zeitgemäß.
System ohne HDDs bekommt man mit 15W hingestellt. (IDLE) (oder sogar noch weniger, OfficePCs kommen da auf bald 5W)
Aber auch bei Switches kann man, je nach Featureset, in dem Bereich fündig werden.
APs ist nen Thema der Standards, die angezogen werden. Da kann man schonmal ins "klo" gegriffen haben.
Aber auch Firewall ist so nen Thema. Es gibt genug Systeme, die unter 10W kommen. Angesprochene OfficePCs z.B. oder auch die China mini passiv Kisten.
Ggf. sollte man mal genau ermitteln, was genau jede einzelne Komponenten braucht.
1W 24/7 sind in einem Jahr grob um 3EUR an Kosten.
Spart man also bspw. 10W bei einer Komponenten ein. Hätte man einen Invest von 100EUR in grob 3Jahren raus.

Ansonsten, würde ich versuchen, Virtualisierer bzw. Applikationsserver im Storage zu trennen. Je nach System geht das in einem oder aber eben getrennt.
Apps dann auf SSDs. Ziel ist, dass 24/7 Apps nicht auf den HDDs rumrödeln und diese dann schlafen. Storage direkt braucht man ja im Regelfall nur, wenn man auch da/wach ist. Das ist im Regelfall nur grob 1/3 der Gesamtzeit.
Ansonsten kann man auch bei den Stromsparmodis nochmal viel optimieren. Gibt hier ja so "kaputte" die wissen genau, welche Komponente welchen Modus im System (und damit auch CPU) erlaubt, damit man möglichst tief beim Strom ansetzen kann.
Das kann in eine wissenschaftliche Arbeit ausarten.
 
Zuletzt bearbeitet:
Die Platten drehen bei mir halt wirklich 24/7 weil ich noch im Kopf habe dass ständig starten/stoppen mehr Belastung ist und die Lebensdauer verkürzt.
Und außerdem geht es mir auf den Sack wenn ich ne Datei vom NAS brauche und dann erst mal 10 Sekunden warten muss.
Aber ja, Platten schlafen legen wäre wohl die größte Einsparung an Stromverbrauch...

~100-120W für:
meinen Server + Modem + Firewall (N100 MiniPC) + 1x großer Switch + 1x kleiner Switch + Access Point
empfand ich bisland eigentlich immer als relativ gut, da es ja doch einige Geräte sind.
Ist dem tatsächlich nicht so?

Ich werde demnächst wohl wirklich mal die einzelnen Geräte durchmessen wie viel sie verbrauchen um ein besseres Gesamtbild davon zu bekommen.
 
Naja, der reine Netzwerkkram "darf" 5-evtl. 10W per device haben.
Wären also 20-40W.
Die Firewall ">"10W.
Bleiben für den Server nen sehr hoher 2stelliger Wert über. Das ist, für das, was das Ding kann, zu viel.

Und einige Geräte sind das nun nicht wirklich. Da können wir jetzt rumgrübeln, wie wir wollen.
Kann sein, dass der Server sehr stromsparend ist und du den AP lieber als heizenden Untersetzer für den Kaffeepott auf den Schreibtisch stellen solltest.

Nachmessen, dann kann man die Werte plausibilisieren.

Wegen der Platten, der Komfort muss dir das Wert sein.
Ggf. macht es auch Sinn, wenn man das Storage selber nochmal unterteilt.
Also so "Officedateikram" und "Bilder/Videos" oder halt ne andere Stückelung. Dann kann man sich überlegen, ob man die ständigen Sachen, mit wenig Kappa vermutlich, auf SSDs legt und den Rest dann auf HDDs.
Es gibt unterschiedlichste Konzepte, die alle ihre Vor-/Nachteile haben.

Man kann auch das Storage selber nochmal auf unterschiedliche Systeme aufteilen.
Also miniSBC PC für 24/7 Kram und die dicke Berta wirklich nur anwerfen, wenn es sein muss.
(die haben in der Regel kein ECC, so wegen ZFS und so...)
Wie gesagt, wenn andere User noch posten, kommen noch 20 andere Vorschläge. Es alles geht und alles geht nicht, ist beim Design solcher Systeme so.
Es gibt da keine eierlegende Wollmilchsau, wird es nie.

EDIT:
Wegen dem Start/Stopp, da würde ich mir "keine" Gedanken machen.
Müsste man mal genau ins Datenblatt schauen. Aber so ~10k Vorgänge pro Jahr ist da die Regel.
Das war vor 20 Jahren noch anders. Da waren Serverplatten auf 24/7 durchlaufen ausgelegt, Office eher anders rum.
 
Zuletzt bearbeitet:
Ansonsten sind 100W Leistungsaufnahme nicht mehr zeitgemäß.

In Bezug auf welche Ausstattung?
Bei 5x HDD, 5x m.2, einen HBA, Epyc 8224 und 256 GB Ram - wo sollte man da deiner Meinung nach auskommen. Da bin auch über 100 W inkl. 10Gbit auf dem SM-Board.

Vielleicht muss ich nochmal die ganzen Sachen wie Powertop / C-States, PCie-Bios-Einstellungen und CPU governor nachprüfen...
 
Wo genau siehst du die Korrelation zwischen
Intel Xeon E-2146G, 6C/12T, 3.50-4.50GHz
und
Epyc 8224
?
Bezüglich welcher Parameter sind beide Systeme vergleichbar, so dass sich eine Vergleichbarkeit bei der Stromaufnahme ergibt?
Komm mir nicht mit ECC und IPMI.

EDIT:
Mal so zur Einordnung:

2ndEDIT:
Nur so zum Einblick.
Ich habe hier Rechner, die haben 450W im IDLE, und selbst das ist nicht so super extrem, da gibt es ganz andere Dimensionen. Brauchst mir also nicht erklären, dass ich der Meinung wäre, dass aktuelle immer Systeme unter 100W hätten.
Es geht, wie immer im Leben, um den Kontext.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh