Raid0 auf AMD x870e erstellen?

Holzmann

The Saint
Thread Starter
Mitglied seit
02.05.2017
Beiträge
43.762
Möchte einen Raid0 mit 2NVMs Samsung 990 evo plus 2TB erstellen, dazu habe ich in win11 einen Speicherpool mit beiden ssds erstellt der eingerichtet wurde:

Problem ist aber, dass sich die Übertragungswerte nicht verbessert haben bzw. verdoppelt, woran könnte das liegen, im Bios wurde auch Raid für NVMe aktiviert?

raid0.png
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
So wie hier beschrieben gemacht?


Möchte ja nur einen Software Datenraid0 unter win11 mit 2 nvmes erstelle, muss ich dazu wirklich im Bios die Einstellungen dazu vornehmen?

Oder anders gefragt, muss das in jedem Fall über das Bios eingerichtet werden?
 
Zuletzt bearbeitet:
Imho kannst unter Windooze nur ein Softwareraid machen, aber vllt. lieg ich falsch.
Ok du meinst aber nicht als Bootlaufwerk sondern nur als Datenraid richtig?
Ist doch egal, obs "bootbar" ist oder nicht, musst ja nicht davon booten.
Problem ist aber, dass sich die Übertragungswerte nicht verbessert haben bzw. verdoppelt, woran könnte das liegen, im Bios wurde auch Raid für NVMe aktiviert?
Wsl. ist das Vorhaben auch für die Fische, aber lass uns wissen, wies läuft und zeig Benchmarks, ich bin neugierig.

Wo hängen die SSDs?
CPU Lanes?
Chipsatz Lanes? Der X870 ist an der CPU nur mit PCIe 4.0x4 angebunden (und der zweite Chipsatz am ersten Chipsatz ebenso), insofern ist fraglich, ob du da mehr bekommen kannst.
 
Also ich habe den sata mode auf raid gestellt im bios nach reboot kann ich im Bios aber nicht Create an Array auswählen?
Beitrag automatisch zusammengeführt:

Wo hängen die SSDs?
am chipsatz
 
Auf jeden Fall wirst die in M2_2 und M2_3 stecken müssen und die CPU auf Bifuricaton x8x4x4 stellen... wenn ich das richtig sehe bei dem Brett.
 
Auf jeden Fall wirst die in M2_2 und M2_3 stecken müssen und die CPU auf Bifuricaton x8x4x4 stellen... wenn ich das richtig sehe bei dem Brett.

also dann geht das gar nicht, wenn man die 16 Lanes für die GPU behalten möchte?
 
Ja, ist doch logisch.

OK also die beiden NVMs sind ja im M2_2 und M2_3 Slot und ich habe somit noch 16x für die GPU aktiv.
War mir nicht klar, dass man dann diese beiden Laufwerke nicht zu einen Rai0 zusammen führen kann eben auch mit entsprechender Übertragung.
 
OK also die beiden NVMs sind ja im M2_2 und M2_3 Slot und ich habe somit noch 16x für die GPU aktiv.
Nein, das kann eigentlich nicht möglich sein...

Die CPU hat 16+4+4+4 Lanes.
16 Lanes (5.0) gehen auf den x16 Slot, evtl. aufn 2. Slot und M.2 Stellen, je nach Mainboard, bei dir dürften das M2_2 und M2_3 sein.
4 Lanes (5.0) gehen zu M2_1
4 Lanes (5.0 theoretisch, obwohl der Chip wohl nur 4.0 oder 3.0 braucht) gehen zum USB4 Chip
4 Lanes (4.0) gehen zum 1. Chipsatz (da dieser nur 4.0 kann, ob die CPU hier 5.0 könnte, weiss ich nicht).

=> Wenn du M2_2 und M2_3 bestückt hast, und auf diese Laufwerke auch zugreifen kannst, muss die GPU daher mit x8 laufen, anders kann das eigentlich nicht möglich sein.
 
Nein, das kann eigentlich nicht möglich sein...

M.2.1 ist belegt mit einer gen5 ssd und
M.2.4 und M.2.5 mit einer gen4 ssd

lanes.png


damit bleibt x16 für die GPU:

x16.png




Sollte doch dann eigentlich gehen oder nicht mit dem Raid0 mit der Übertragung?
 
Sollte doch dann eigentlich gehen oder nicht?
Natürlich geht es - aber langsam.
Aber M2_4 und M2_5 hängen am Chipsatz, welcher selbst nur mit PCIe 4.0x4 an der CPU hängt (siehe oben und siehe Gigabyte Blockdiagramm, CPU/X870E Chipsatz sind bei Asus und Gigabyte ja gleich weil AMD Vorgabe/Produkteigenschaften).
Also müssen sich M2_4 und M2_5 die 4 PCIe 4.0 Lanes vom Chipsatzt teilen, was in Summe 8gb/s macht.

Steck sie mal um in M2_2 und M2_3.

Einerseits zum Testen, ob du dann mehr schaffst, andererseits wirst du keinen Unterschied merken bei der GPU. Ob die CPU mit 8 Lanes langsamer ist als mit 16 Lanes kannst du ja auch gleich Benchen / testen, ich wette, du wirst nix feststellen, da PCIe 5.0 so schnell ist, dass das schon geht.
 
Also müssen sich M2_4 und M2_5 die 4 PCIe 4.0 Lanes vom Chipsatzt teilen, was in Summe 8gb/s macht.
Ok das war der Punkt, danke.

Dann lass ich es so, auf x16 GPU möchte ich nicht verzichten....


Edit: Würde das mit dem x870e Apex funktionieren, wenn sich die beiden NVMEs in dem Dimm2 Modul befinden?
 
Dann lass ich es so, auf x16 GPU möchte ich nicht verzichten....
Probiers doch aus, ich wäre neugierig, was es bringt... und x16 GPU ist einfach unnötig.
Das ist ja das schöne an PCIe 5.0, dass du einfach weniger Lanes für die gleiche Leistung brauchst und somit mehr Geräte verwenden kannst.
Edit: Würde das mit dem x870e Apex funktionieren, wenn sich die beiden NVMEs in dem Dimm2 Modul befinden?
RTFM? Kann aber imho nicht funktionieren, weil einfach Chipsatz / CPU nicht entsprechend aufgebaut sind, verstehst du?
Der Mainboardhersteller kann hier nix machen, weil CPU/Chipsatz das einfach nicht hergeben.
Beitrag automatisch zusammengeführt:

Nachtrag:

Man ist ja am Diskutieren, ob PCIe 3.0x8 Nachteile bringt bei den alten PCIe 3.0 Boards (alte Zen1/2) mit den PCIe 4.0x8 Grakas ausm unteren Preissegment (4060, 5060TI...). Bei entsprechenden Karten ist bei PCIe 3.0x8 gegenüber 4.0x8 ein geringfügiger Leistungseinbruch feststellbar (!), der aber in der realen Benutzung recht egal ist.

Klar, wir reden von einer geringeren Leistungsklasse.
Aber bedenke, PCIe 5.0x8 ist das 4-Fache (!) von PCIE 3.0x8, wo der Unterschied schon überschaubar ist.

PCIe 4.0x16 entspricht PCIe 5.0x8.

Ich hätte da keine Angst davor.
 
Zuletzt bearbeitet:
Das verdoppeln geht niemals mit AMD.
Zumindest nicht mit AM 1bis 5

Wie bereits erwähnt ist der Chipsatz daran Schuld (pcie 4x4 max).
Sein Durchsatz wird bereits mit nur einer pcie4 SDD komplett belegt.

Intel hingegen, mit pcie4x8 Chip-anbindung, rockt im raid0 wie eine first-gen pcie5 SSD:

intel raid0.JPG
 
Zuletzt bearbeitet:
Chipsatz ist bei AMD doch nur mit Gen4 x 4 angebunden, ergo deine angegebenen Werte sind das Limit.

Da müsste mindestens eine der SSDs direkt an die CPU um das Limit zu umgehen.
 
Intel hingegen, mit pcie4x8 Chip-anbindung, rockt im raid0 wie eine first-gen pcie5 SSD:
Jo, und diese waren schon relativ useless, rnd4k ist meh.
Dann lieber ne SN850X 8tb kaufen und sich das Theater sparen... war bei SSDs aber eigentlich eh immer schon so.

Und naja, man kanns ja an die CPU hängen, die Möglichkeit besteht ja. Wenn man das aus Prinzip nicht will, kann man auch nix tun.

Aber ja, der Z890 ist halt wirklich gut, AMD war da beim X870E leider faul.
 
Bevor du weiter suchst:
Es liegt weder an der internen Anbindung deiner SSDs noch an sonst etwas. MS hat da schon eine zeitlang etwas am Storagepool geändert.
Bei mir funktioniert das seit geraumer Zeit auch nicht mehr.

Die seq. Datenratenanhebung bekommst du nur noch über ein boardseitiges Intel Volume, bei dir dann halt AMD, zustande.
 
Lol.

Setz dir halt ein Linux LVM auf und probiers, wennst denkst, dass man über 4 PCIe 4.0 Lanes mehr als 8gb/s drüber bekommt... oder deinstallier Norton, lel...


Ich mein... dass man sich ein "Software-Raid" unter Windows nicht antun muss, das ist die eine Sache, da geh ich schon mit. Trotzdem... wenn du zu faul bist, es zu testen (SSDs umstecken, Raid im Bios einrichten, mitm anderen OS/FS testen...), kann dir auch keiner helfen.
RTFM... und dieses M sagt eben, dass es nur 4 Lanes gibt zum Chipset. Selbst wenn du Gott auf deine Igno setzt, und ihm das mitteilst, wirds nix ändern.
 
Möchte ja nur einen Datenraid0 unter win11 mit 2 nvmes erstelle, muss ich dazu wirklich im Bios die Einstellungen dazu vornehmen?

Oder anders gefragt, muss das in jedem Fall über das Bios eingerichtet werden?
Ein raid solltest du auch als solches initialisieren und darauf Windows installieren. Nachträglich mit Software oder Hardware mag funktionieren.
 
wennst denkst, dass man über 4 PCIe 4.0 Lanes mehr als 8gb/s drüber bekommt...

Tu ich ja nicht, das Limit habe ich schon geschluckt, daher war ich so überrascht von der Aussagte von @Erklärbär und habe einfach mal nachgefragt, wie er das meint, weiter nichts .....
 
Nur das du als Herr Überheblich nicht verstehst, was Holzmanns aktuelle Frage ist.
Ach, den Post kannst du ja eh nicht sehen, weil du unliebsame Meinungen auf die Ignore packst. :ROFLMAO:
 
Ja, das ist total lächerlich, diese IL-Prahlerei... das ist ohnehin so total am Sinn vorbei, wobei, welchen Sinn hat so eine Funktion überhaupt? Kommt halt von früher, dass man nicht zugespammt wurde in Chats oder so.
Das Lustige ist ja, dass das gerade diese selbsternannten Hochgrad-Spezialisten hier machen, von den "normalen" Usern macht das keiner. Eigentlich total lächerlich und sowas von am Sinn vorbei... aber so what.

Ein raid solltest du auch als solches initialisieren und darauf Windows installieren. Nachträglich mit Software oder Hardware mag funktionieren.
Naja, er hat ja nicht gesagt, dass er davon booten will.
Es soll ja Leute geben, die haben mehr als 1 Volume gemountet... :fresse2: :rofl:
und habe einfach mal nachgefragt, wie er das meint, weiter nichts .....
Das weiss er selbst wahrscheinlich nicht so genau,

Ich weiss aber schon, was du noch probieren könntest.
Kannst du diese M2_4 und M2_5 auf PCIe 3.0 stellen im Bios? Bin mir nicht sicher, ob das irgendwo geht.
Wenn du das könntest, müsstest du sie einzeln mit 4gb/s benchen können und die Summe müsste dann auch größer werden können... wenn das deutlich was bringt, kannst es ja mit M2_2 und M2_3 probieren.


Was ist eigentlich den Ziel? Magst "Benchmark Zocken" oder hast ne Anwendung, wo das gut ist?
SSD-Raid ist im Random 4k Read nie besonders gut, und das ist der meist wichtigere Wert.. insofern lohnt speziell ein Raid0/Stripe nur in Ausnahmefällen.
 
Kannst du diese M2_4 und M2_5 auf PCIe 3.0 stellen im Bios? Bin mir nicht sicher, ob das irgendwo geht.

Glaub nicht aber ich schau mal.
Edit: ja lässt auf gen3 umstellen pro Sockel aber was aber die Bandbreite weiter um die Hälfte reduziert.
Könnte höchstens zum Test die gen5 ssd in M2.1 mal auf gen 4 reduzieren?

gen3.png


Was ist eigentlich den Ziel? Magst "Benchmark Zocken" oder hast ne Anwendung, wo das gut ist?

Im wesentlichen schnellerer Zugriff auf größerer Bilddateien, das hatte auch ganz gut funktioniert als ich diesen Softwareraid auf Intel mal aktiv hatte.
 
Zuletzt bearbeitet:
Edit: ja lässt auf gen3 umstellen pro Sockel aber was aber die Bandbreite weiter um die Hälfte reduziert.
Spannend, und dein Benchmark hier ist jetzt der ganze Raid Verbund?
Weil wenn dus auf Gen3 umstellst, also diese Schnittstellen, müsste der Chipsatz-CPU-Link imho trotzdem mit Gen4 laufen, imho kann man da nicht eingreifen (aber was weiss ich schon).

Vielleicht macht dein Software-Dings hier nur ein JBOD.

Ich muss gestehen, ich habs unter Windows nie getestet.
Unter Linux hab ichs probiert mit XFS, Ext4 und btrfs, wobei XFS und Ext4 quasi gleichwertig waren.


Wahrscheinlich wirst du deine Komfortzone in irgend eine Richtung verlassen müssen... wahrscheinlich Richtung M2_2 / M2_3, damit müsste eigentlich auch so ein "Hardware-Raid" funktionieren... Sonst kannst dir ein ZFS on Windows anschauen, ist idR. nicht schneller, aber ggf. mit etwas ARC Cache interessant...
Keine Ahnung, was dein genauer Use-Case ist.
Vielleicht auch einfach Norton runterputzen? Keine Ahnung, ob das nen "spürbaren" (evtl. nicht so einfach benchbaren) Einfluss hat.
 
Spannend, und dein Benchmark hier ist jetzt der ganze Raid Verbund?

Ist oben auf Seite 1.
wie gesagt könnte zum Test mal M2.1 von gen5 auf gen4 Stellen?
Aber das wird die Anbindung von den an den Chipsatz gebundenen M2 Sockels wohl auch nicht erhöhen.
Und auf X16 bei der GPU zu verzichten möchte ich nicht daher auch kein Test.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh