8x RAID für Fileserver - Welches RAID, welcher Conroller?

Michael`

Enthusiast
Thread Starter
Mitglied seit
08.09.2005
Beiträge
734
Hallo,

in drei Wochen fängt mein Vertrag für ne Colocation in Frankfurt an und ich hab noch keinen RAID-Controller. Vor allem weiß ich noch nicht welcher RAID-Level.


Festplatten hab ich schon da:

10x Western Digital Caviar RE2 WD5000YS 500GB SATA

Zwei davon sind reserve, also acht werden eingebaut (vollausbau).
PCI-X (2) und PCIe x16/x8 (2) Steckplätze frei.

Das RAID muss Datensicherheit bieten, jedoch gehe ich davon aus, das maximal eine Platte gleichzeitig den Geist aufgibt. Schnell muss es net sein, ein rebuild sollte aber net zu lange dauern. Betriebssystem ist Debian Sarge. Die durchschnittliche Dateigröße beträgt 866MB. Mit mehreren RAID`s hab ich kein Problem, wenn das sinn macht.

Gebraucht werden ca. 2,8TB. Datenaufkommen wächst langsam, wenn`s zuviel wird, kommt noch ein Server dazu.

Der/Die Controller sollte/n nicht mehr als 400€ kosten.


MfG,
Michael
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Für 2,8 TB brauchst Du schon ein Raid 5 aus 7-8 Platten. Dann bleibt allerdings nichts mehr für das Betriebssystem übrig. Dafür würde ich noch 2x 80 GB im Raid1 kaufen. Ein Betriebssytem auf so einem Raid 5 ist nicht empfehlenswert.

Bei 400 € Budget bleibt fast nur ein Promise Controller übrig. Ich würde aber noch auf ein paar Meinungen warten, ob er für ein professionelles System zu empfehlen ist.
 
Ein RAID bietet nie Datensicherheit... allerhöchstens Datenverfügbarkeit.
Datensicherheit erreichst du nur durch ein Backup!

Ich mache mir nur sorgen, weil du Linux als OS verwenden willst. Da musste genau drauf achten, dass du einen Controller bekommst, der unterstützt wird. Ob das beim Promise gegeben ist?!
 
Promise EX8350 läuft prima unter Linux, ab Kernel 2.6 ist der Treiber im Kernel (Marvell) vorhanden.
 
Das Array, jedenfalls unter dem von mir getesteten Gentoo. Und mit Partitionen über 2GB hat Linux auch kein Problem :-)
Aber die Samba-Performance war ziemlich mieß, deshalb ist jetzt wieder nen Windoof auf dem Rechner *duck*
 
Zuletzt bearbeitet:
http://geizhals.at/eu/a202679.html

liegt zwar drüber ABER:

ein raid5 bei 8 platten: wenn eine ausfällt dann entweder gleich mal -> oder später wenn die platten alt werden -> wenns dann soweit ist sind alle platten gleich alt und wenn eine ausfällt musst du händisch ne neue einbauen und rebuilden lassen (downtime) und während des rebuilds hast du 7 gleich alte platten die je einmal ihre ganze kapazität lesen müssen -> ergo ein risiko dass noch eine hops geht

so könntest du ein raid6 über 9 platten +1 hotspare machen.
so können 2 platten gleichzeitig ausfallen und ne vollautomatische hotspare hast auch noch! (keine downtime wenn nur eine ausfällt)
bei 3,5TB platz

erweitern kannst du im übrigen auch noch, platten dazu -> raid6 migrieren -> das commando xfsgrow ausführen :)
 
RAID6 ist auch mit Areca oder 3Ware Controller möglich ;)
mit Hotspare zu arbeiten ist ein vernünftiger Vorschlag.
 
Mit einem 8-Kanal Controller ergäbe ein RAID6 + Hotspare effektiv nur 2,5 TB Speicherplatz. Evtl. würde das ja noch ausreichen?
Ansonsten das Budget ein wenig nach oben anpassen - zu viel am falschen Ende zu sparen kann später teuer werden. Die meist optional angebotene BBU ist für produktiven Serverbetrieb auch eine empfehlenswerte Sache.
 
Hi,

suche Ähnliches wie der Fredersteller:
- RAID-Controller für SATA-LW
- mind. 4 Ports
- Raid 5
- Debian-kompatibel

Einsatzzweck ist Dateispeicherung, sowie VM-Ware Server.

Jetzt meine eigentliche Frage:
Geplant ist, den Server als VMware-Host für mehrere MA zu nutzen. Bzgl. CPU-Last und RAM-Ausbau habe ich keine Probleme. Jedoch kenne ich bei VMware die Festplattenbelastung..
Ist es eurer Meinung nach besser, die VMX-Files auf einem Raid 5 zu lagern (das dann performant sein muss), oder sie auf Single-LW zu verteilen?

Ich habe mir die von euch verlinkten Controller auch schon angeschaut und außer meiner persönlichen Antipatie für Promise klingen die auch alle gut - die Performance kann man aber anhand der reinen Daten nicht beurteilen. Kennt ihr irgendwelche halbwegs aktuellen Benchmarks für solche Controller?
Ich finde irgendwie nichts gescheites..

Achja, PCIe oder PCI-X wäre egal, da das geplante Board beides hat. Gibt es hier Unterschiede bzgl. der Performance?
 
wenn du maximal eine oder zwei vmdk's auf eine platte legst, sollte das von der geschwindigkeit ausreichen.
meine test-vm lief auf einer 320gb t166 samsung und selbst bei transfern von und auf die vmdk war nix am ruckeln. wenn die vm nicht massiv dazu gebraucht wird daten zu verschieben brauchst du kein raid. ein nächtliches backup nützt mehr.
 
Ja, das funktioniert auch bis zu drei VMs noch problemlos. Wobei es da schon langsamer wird, wenn die alle gleichzeitig booten wollen.. ;)
Erfahrung im Betrieb mit 1-3 VMs habe ich schon von meinem Home Server.

Der neu geplante Server soll jedoch für mehrere Mitarbeiter VMs zur Verfügung stellen. Ich hab keine Ahnung wie intensiv das dann genutzt wird, rechne aber eher mit viel Nutzung.
Zieht man die Leistungsfähigkeit der übrigen Maschine in Betracht, sollten da schon 8 VMs parallel laufen .. und da denke ich mir halt, wird das mit den HDD I/Os etwas knapp!?

Hier die Planung zum übrigen System:
- Xeon DP E5440, 4x 2.83GHz
- Tyan Tempest i5100X
- 8 GB FB-DIMM
.. (Rest is ja Banane..)

Achja, Platten sollen die Hitachi Deskstar 7K1000 1000GB SATA II werden.
 
Ja, also für das was Du benötigst, würde ich jetzt mal sagen, wären SAS-Platten besser geeignet, als SATAII-Platten. Frage mich natürlich schon wofür Du denn so viel Platz benötigst. Das gibt ja enormen Speicherblatt mit 1TB-Platten :-o
 
Der Speicherplatz ist großzügig bemessen, das ist richtig. Wobei zu bemerken ist, dass die Zahl der 8 parallelen VMs (und damit = 8 MA) nicht mit der MA-Zahl übereinstimmt, die den Server als Fileserver benutzt. Das sind weitaus mehr.

Wir wollen auch erstmal nur mit drei Platten im Raid 5 beginnen (+1 fürs System), mit der Option, dann später aufstocken zu wollen. Der Platz wird schon benötigt, da wir komplette Software-(CD/DVD)-Images, Backups von VMwares, Clean VMware Systems und unsre eigene Software dort speichern wollen (bisher TeraStation mit 750 GB zu etwa ~60-70% gefüllt).

Aber darum geht es eigentlich nicht.

Mir geht es viel dringender um die Performanceverteilung der HDD-Belastung beim parallelen VMware-Betrieb. Mit SAS hatte ich noch nie etwas zu tun - ist das preislich im gleichen Rahmen? Macht das dann einen großen Performance-Unterschied? Ich dachte bisher, die Unterschiede von SATA-SAS lägen eher in der logischen Adressierung (flexible SAS-Domänen, Anschluss von SAS-Platten an mehrere PCs und solche Spielereien, die nicht unbedingt etwas mit Performance zu tun haben)..

//Edit: Für unsere Zwecke würde auch ein 4-Port Controller reichen
 
Zuletzt bearbeitet:
SAS-Platten sind Server-Platten und eigentlich die Nachfolge von SCSI.
Bei SAS-Platten sind die Datendurchsatz-raten ein wenig höher als bei SATAII. Die Zugriffszeit ist jedoch um einiges besser.

Zudem sind die Platten optimiert für den Dauereinsatz und für mehrere gleichzeitige Zugriffe im Serverbereich.

Natürlich sind dadurch die Platten auch teurer. Qualität und Leistung will ja bezahlt sein.

Ich nehme mal nicht an, dass du die VM-Ware Daten auf dem gleichen Array haben willst, wie all die übrigen Daten (Fileserver). Sprich also es muss mindestens zwei Arrays geben. Eins für VM-Ware und eins für Files. Das Array für VMWare sollte dann schon SAS-Platten beinhalten, würde ich mal meinen.
 
Ohjee, da hab ich grad mal nach den Preisen geschaut.. die SAS-Platten sind ja erstmal deutlich kleiner und dann gleichzeitig teurer! :fresse:

Unsre VMs haben schonmal Größen von 20-40 GB (bitte darauf jetzt nicht eingehen, ich verzweifel hier selbst an einigen Kollegen! ;) ).

Das ist also keine Option.

Wäre weiterhin zu überlegen, ob Einzelfestplatten mit jeweils 2-3 VMDK-Files besser bzgl. der Performance sind als alle auf einem Raid5.

Inzwischen habe ich sogar einen Testbericht zu einem Raid-Controller gefunden!!
Testbericht Highpoint RocketRAID 3520: http://www.techwarelabs.com/reviews/storage/highpoint_raid_3520/index.shtml

Wie ist das der Erfahrung so; kann man Rückschlüsse von der Performance des Top-Gerätes auf die kleineren Brüder ziehen? Ist also der RocketRAID 3510 vermutlich in der gleichen Performanceklasse?
 
Ich würde zu nem 3ware Controller greifen.
Die Linux Unterstützung ist bei denen gut.

Den 9550SX-8LP gibts es für 400€ neu, den kleinen Bruder 9550SX-4LP für 250€.
Beides PCI-X Controller.
Oder wenn es nen PCIe Controller sein darf, der 9650SE-4LPML oder 9650SE-8LPML für ca den gleichen Preis.
 
Oh danke, das war sehr hilfreich!

Macht PCI-X nen Performance-Unterschied zu PCIe?

Wenn nein, gibt es irgendwelche anderen Pro/Contra-Argumente?
 
PCIe gibt's auf fast jedem Board. Die Boards, wo PCI-X drauf ist, sind arschteuer.

gruß
hostile
 
PCI-X ist ein aussterbender Ast und wird über Kurz oder Lang durch PCIe im Serverbereich ersetzt werden, wo PCI-X hauptsächlich zum Einsatz kommt.

Performance mässig hält sich das die Wage ob nun PCIe oder PCI-X.
Die 64-Bit-Variante ermöglicht mit 133 MHz Taktfrequenz Übertragungsraten von bis zu 1,06 GByte/s. Also mehr als ausreichend ;)

Jedoch kann man an ein gebrauchtes PCI-X System relativ günstig rankommen, da die meisten ihre Server halt auf PCIe umstellen.
Ich selbst konnte nen Intel SE7500C Board, 2x Xeon 2,4GHz und 2GB RAM bei ebay vor einigerzeit für 135€ abstauben :d
Einen gebrauchten PCI-X Controller kann man des öfteren auch bei ebay erwischen ;)

Mittlerweile würde ich aber auch zu nem PCIe Board und Controller greifen.
Dazu nen stromsparenden core2duo.
Mein Dual Xeon braucht schon richtig Saft.
Mit 8x 120 IDE HDDS warens 150W Leistungsaufnahem :)
 
Aha ok, also ist es egal.

Das von mir geplante Board hat PCI-X und PCIe, ist aber nicht besonders teuer:
http://geizhals.at/deutschland/a306595.html
http://www.tyan.com/product_board_spec.aspx?pid=566

..jetzt weiß ich immer noch nicht, wie ich das mit den VMDK-Files machen soll.. wenn ich die Variante der Single-LWe überdenke, wie ist das denn dann mit den parallelen I/O-Operationen - muss man das auch noch bedenken, dass die sich behindern?

Also wenn beispielsweise zwei Single HDDs an der ICH9R hängen und zwei am Raid-Controller (oder 3vs1, weil der Controller ja noch das Raid5 hat) ... bricht da der Durchsatz zu den Platten irgendwo ein?

Dafür würde ich dann natürlich kleinere Platten nehmen.
 
Die Variante mit einzelnen Platten kann natürlich immer nur so schnell seine wie eine einzelne HDD und wie das System ans Netzwerk angebunden ist.

RAID5 wird mit jeder HDD schneller, was zwar ab einem bestimmten Wert gleich bleibend ist aber den sollte man nicht so schnell erreichen. Irgendwann limitiert allerdings auch die 1GBit Leitung ;)
 
Zuletzt bearbeitet:
Ja, aber um Datenübertragung übers Netzwerk geht es ja bei VMware-Einsatz nicht .. bzw. doch natürlich, aber der ist vernachlässigbar.

Mir gehts doch um die Platten I/O's, der durch Zugriff auf die VMDK-Files entsteht.
Nur falls das unklar ist: VMDK = Virtual Machine Disk File (warum da ein "K" am Ende ist .. kA :d)

Meine Entscheidung war jetzt, den 3ware Escalade 9650SE mit vier Ports zu nehmen (8-Port Variante siehe Posting von jraf oben) und das Ganze mit Raid 5 eben einfach mal zu testen.
Wenn dann Performance-Probleme auftreten wird Cheffe zwar sowieso sagen, dann halt weniger VMs parallel :fresse: aber wir haben ja dennoch die Option, noch zusätzliche LWe anzuklöppeln..

Danke an alle.
 
Hi,

uns beschäftigt diese Thematik in unserer Firma zur Zeit auch.
Würdet ihr für den Einsatz von virtuellen Images auf dem Server wirklich RAID-5 vorschlagen? Wäre bei einem Einsatz von WD RE2 Platten (wo nicht auf Euro/MB geschaut werden muss) nicht ein RAID-10 oder RAID 0+1 Verbund performanter?
Welche Zugriffscharakteristik hat man eigentlich bei einem Server mit mehreren laufenden virtuellen Images?

MfG
 
Zuletzt bearbeitet:
Hi,

uns beschäftigt diese Thematik in unserer Firma zur Zeit auch.
Würdet ihr für den Einsatz von virtuellen Images auf dem Server wirklich RAID-5 vorschlagen? Wäre bei einem Einsatz von WD RE2 Platten (wo nicht auf Euro/MB geschaut werden muss) nicht ein RAID-10 oder RAID 0+1 Verbund performanter?
Welche Zugriffscharakteristik hat man eigentlich bei einem Server mit mehreren laufenden virtuellen Images?

MfG

Raid 1+0 bzw. 10 wäre wohl das performanteste.


Hier ein kleiner Raid Guide. Auf dieser Seite findet man eine Pyramide mit den wichtigsten Raid Varianten, aufgeteilt nach Performance, Kosten & Ausfallsicherheit.
 
Würdet ihr für den Einsatz von virtuellen Images auf dem Server wirklich RAID-5 vorschlagen? Wäre [..] nicht ein RAID-10 oder RAID 0+1 Verbund performanter?
Doch, zweifelsohne. Raid5 ist immer ein Kompromiss. Unser Budget ist aber leider gedeckelt.. ;)
(das Zeuch ist schon da, nur Mainboard und CPU fehlen noch -.-)

Welche Zugriffscharakteristik hat man eigentlich bei einem Server mit mehreren laufenden virtuellen Images?
Das ist eine gute Frage. Zum Einen haben wir für die virtuellen Platten ja große Files, auf der anderen Seite werden die aber nicht auf einen Schlag komplett gelesen (außer Option Fit-all-in-RAM oder wie das heißt ist enabled).
Wie VMware nun die Daten innerhalb der VMDK-Files organisiert ist jetzt so spontan gesehen nicht transparent. Vielleicht ist das aber irgendwo dokumentiert..
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh