Komisch: Quadcore Laptop raucht Dual-Quad Xeon Desktop in der Pfeife ?!

lügner

Neuling
Thread Starter
Mitglied seit
18.04.2007
Beiträge
175
Ort
Zürich
Hej Leudde
Ich hab hier ein kniffliges Problem:
Ich habe bemerkt, dass mein Desktop Dual-Quadcore XEON 5520 @ 2.26 im Vergleich zu meinem Quad i7 2760QM @ 2.40 Laptop
voll Oberschnecken-mässig aussieht. Sollte in diesem Vergleich nicht die Desktop-Maschine haushoch gewinnen?

Aufgefallen ist mir das bei Flüssigkeitssimulationen mit Realflow 2013. Hab dann einen kleinen Vergleich angestellt und
das Ergebnis war ... nunja ... ziemlich vernichtend ... aber seht selbst: Die Simulation in diesem Video wurde exakt im gleichen
Moment gestartet ... und währen die 8 Core-Maschine noch Frame 3 berechnet ist der 4 Core-Laptop mit Frame 200 fertig.



Irgendjemand ne Idee, was mit der Desktop-Maschine nicht stimmen könnte?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Vielleicht unterstützt der 5520er einen neuen Befehlssatz wie AVX oder SSE 4.2 nicht welcher die Berechnungen beschleunigt.
 
Hm ... kann das wirklich so ein riesen Unterschied machen? (Noob-Alarm: Bin eher der User und weniger der Techie, Sorry)

Und die Systemanforderungen sehen ziemlich kompatibel aus:

Windows XP, Windows 7, Windows Vista, or Windows Server 2008
2 GHz Intel® Pentium® 4 processor, Athlon 64 AMD or better
2GB RAM minimum, 4GB of RAM memory is highly recommended
Hardware-Accelerated OpenGL® graphics card
400 MB available hard disk space for installation
3 button mouse
 
wenn ich das richtig sehe nutzt diese simulation nur wenige threads?

der i7 ist pro kern eben deutlich schneller als der 4 jahre alte xeon (und taktet dazu auch noch höher).
 
Wichtig ist, dass dort etwas ganz stark im Argen liegen muss, wenn solch ein Unterschied vorliegt. Ich meine, der Laptop ist 66 Mal so schnell! Allein mit "nutz wenig Threads" und "i7 hat höheren Takt" kann das nicht erklärt werden. Kann Quicksync da so viel rausholen, dass eine Steigerung dieser Größenordnung auftritt?
(Habe mich jetzt auf die Angabe "währen die 8 Core-Maschine noch Frame 3 berechnet ist der 4 Core-Laptop mit Frame 200 fertig." gestützt.)
 
Zuletzt bearbeitet:
Quicksync war falsch; Laut dem Entwickler wird gpu-accelerated-computing unterstützt -> welche Grafikkarte steckt im DPsystem? Die Kerne werden ja weder im Notebook noch im Rechner ausgelastet, daher denke ich dass die gpu hier am meisten arbeitet.....
"RealFlow provides support for CPU-, GPU-based and OpenCL accelerator devices. By default, RealFlow detects these devices automatically and activates their associated checkboxes. More information about the specifications can be found when you click on the “System information…” button. The window which opens contains detailed information about the detected devices and their computation capabilities."
Was spuckt die Zusammenfassung aus?
 
Richtig ist, dass Realflow GPU-Power benutzen KANN. Da diese Option aber noch im Beta-Stadium ist, habe ich sie auf beiden Kisten abgeschaltet.
Das heisst, Realflow rechnet im Moment nur auf den CPUs.

Aber trotzdem zur Info:
Laptop: GTX 560M
Desktop: 2 x GTX 690 + GTX 760
(Also auch hier wäre die DT-Kiste einiges heftiger unterwegs)

Bin bald so verzweifelt, dass ich mir ein neues MB, Prozessor und RAM kaufe in der Hoffnung es ginge dann besser.

Kann es wirklich sein, dass es mit dem "Alter" des Systems zu tun hat? Oder vielleicht eine verirrte OS-Einstellung?
Was wäre denn ein guter Benchmark-Test um zu sehen, wo die beiden Systeme liegen?
 
Zuletzt bearbeitet:
Aber es kann nicht sein, dass bei der Desktopinstallation aus Versehen die Threads limitiert wurden? (oder auf beiden?) Normalerweise sollte Realflow sich ja alles nehmen, was es kriegen kann... dein Taskmanager sieht da aber anders aus.

Naja, aber selbst dann würde es ja wahrscheinlich nicht viel anders ausschauen - der Unterschied ist einfach zu extrem. Da bewegt sich ja gar nichts...
Aber die Datei ist absolut dieselbe? Es können auch nicht irgendwo unterschiedliche Einheiten (Skalierung) oder so eingestellt sein?
Ich würd es vielleicht mal neu installieren, denk ich.
 
Zuletzt bearbeitet:
bringt denn die Xeon Kiste in anderen Benches die Punkte, die er bringen soll?
Beispielsweise Cinebench ST/MT?

Weil die Unterschiede sehen doch schon arg enorm aus.
Könnte aber durchaus sein, das es an Befehlssätzen liegt... Da ist einiges an Optimierungspotential vorhanden.

Und man sieht auf dem Video ziemlich eindeutig, das die Software nur einen einzigen Core/Thread belastet. Das aber bei beiden Systemen...
Sprich der Mobile Quad läuft im vollen Turbo Modus von ~3,5GHz und ist zu nem viertel ausgelastet. Die Xeons laufen zwar ebenso im vollen Turbo Modus (~2,5GHz), dafür aber wird nur eine einzige der beiden CPUs zu nem viertel ausgelastet. Die andere macht effektiv nix.
 
hm ... die Cinebench ist auch bissel verwirrend ...

Desktop:
OpenGL: 27.02 fps
CPU: 7.76 pts

Laptop:
OpenGL: 45.02 fps
CPU: 5.46 pts

;-)) ... fdsonne ... bald bin ich reif für Deinen Vorschlag mit dem i7 3930K auf nem P9X79-E WS
Hab nämlich soeben auch noch entdeckt, dass meine zweite 690 GTX nicht mehr im Nvidia-Panel erscheint.
Obwohl mein 2x690GTX+760GTX-Setup jetzt seit über ne Woche perfekt gegeigt hat. Könnte
das auch mit dem "lahmen" Realflow berechnungen zusammenhängen?

Wie könnt ich das mit den Befehlssätzen denn optimieren ?
 
mhhh
also der CPU Wert für die Workstation schaut für mich in Ordnung aus. Sind halt nur "langsame" Quadcores... Da kommt dennoch der kleine Mobile Quad nicht ganz mit.

Der OpenCL Wert hingegen schaut in der Tat komisch aus. Zumahl du sagst, du hättest dort ne 760 oder 690 am tuckern. Da scheint was nicht zu stimmen.
Das würde aber auch fast darauf hindeuten, das dein Tool oben eben doch die GPU belastet.

Kannst du das mal gegenprüfen? Sprich geht der GPU Load hoch, wenn du die Simulation startest?



Die Befehlssätze kannst du selbst nicht optimieren. Die CPU stellt diese Befehlssätze bereit und die Software nutzt diese. So hat ne neuere CPU unter Umständen hier deutlich die Nase vorn, weil diese eben auf neuere Befehlssätze zurückgreifen kann. Wärend die alte CPU diese nicht hat und ggf. eben alte Versionen der Befehlssätze nutzt, oder eben die Software kann gar nix damit anfangen und läuft in ner Art "lagacy" Mode. Das geht dann zwar fast überall, aber ist eben nicht wirklich fix.
Hier müsste dir aber dein Ansprechpartner bei der Software auskunft geben können, was an Befehlssätzen da benötigt wird, bzw. was welchen Speedvorteil bringt.


Thema zweite 690er. Das ist auch irgendwie komisch. Normal muss diese wenigstens da sein. Siehst du sie noch im Gerätemanager vom OS?
Bzw. was sagt GPU-Z als Tool?
 
Überigens wird solche Software in der Regel stark auf neuere Prozessoren optimiert was teils drastische Effizienzverluste für älterer Prozessoren bedeuten kann. Du solltest daher mal probieren ob eine ältere Version dieser Software auf der alten Hardware besser läuft und uns das hier nachreichen.
 
die Last aller GPUs ist laut GPU-Z fast null während einer Sim ... sogar wenn ich bei Realflow den Miteinbezug der GPUs aktiviert habe ... (aber das ist auf der Realflowseite schon angekündigt worden. Ist eben noch Beta und da laufen gewisse Konfigurationen noch nicht)
Nach einem Neustart ist nun auch die zweit 690er zurück..
Die Sim-Geschwindigkeit konnte ich nur mit einer Realflow2012 Version austesten: Kein Unterschied. Auch lahm. Leider habe ich alle
früheren Versionen nicht mehr am Start, da ich die damals über den VPN-Server meiner VFX-Uni bezogen habe.
 
AVX ist ein Befehlssatz, der in die CPU integriert sein muss. Bei Intel ist das seit Sandy Bridge der Fall. Also nein du kannst es nicht aktivieren. ;)
 
upz ... versteh nur bahnhof (me = user) .. Was bedeutet das für mich? Kann ich AVX auf meinem Desktop-Dinosaurier einfach aktivieren ?

Nein... Das geht nur dann, wenn die CPU es unterstützt. Was sie aber wohl nicht tut. (aber das schrieb ich oben bereits :()
 
Quicksync war falsch; Laut dem Entwickler wird gpu-accelerated-computing unterstützt -> welche Grafikkarte steckt im DPsystem? Die Kerne werden ja weder im Notebook noch im Rechner ausgelastet, daher denke ich dass die gpu hier am meisten arbeitet.....
"RealFlow provides support for CPU-, GPU-based and OpenCL accelerator devices. By default, RealFlow detects these devices automatically and activates their associated checkboxes. More information about the specifications can be found when you click on the “System information…” button. The window which opens contains detailed information about the detected devices and their computation capabilities."
Was spuckt die Zusammenfassung aus?
In die Richtung habe ich auch schon tendiert, allerdings viel mir bei der CPU Auslastung etwas auf.
Der Laptop wird trotz höherem Takt deutlich besser ausgelastet, was mich zu der Frage bringt, läuft der Desktop Xeon mit den 2.26GHz?

AVX verdoppelt die Leistung pi mal Auge, aber das sind ja xx mal schneller, also da liegt es wo anders im argen.
Evt. wird wirklich die iGPU genutzt vom Lappi. ;)
 
Nein... Das geht nur dann, wenn die CPU es unterstützt. Was sie aber wohl nicht tut. (aber das schrieb ich oben bereits :()

Heisst also: Neue hardware. Hm. Kann ich den Thread hier in eine Kaufberatung ummünzen ohne dass ich dafür Kloppe bekomme? ;-)

Was würdet ihr mir empfehlen? Entgegen meiner bisherigen Einstellung würde ich neu auch mal gerne bissel übertakten ... habe einen Maschinenraum und
ein offenes PC-"Gehäuse" (Tech Station | Rich Chomiczewski) und drum spielt lautstärke nicht so ne grosse Rolle.

3939K auf einem P9X79? OC mit all-in-one-WaKü oder Luft?
 
Warte bis Herbst (September???) und hol dir Ivy-E hat eine bessere Energie-Effizienz und lässt sich eventuell besser Kühlen/Takten. Würde ich im Moment abwarten, du bist ja nicht Hardwarelos. ;) Ansonsten dürfte ein Sechskerner schon ein ordentliches Plus darstellen. :)
 
hm ... habe den Hardware-Terror lieber heut als morgen gelöst ... und der Ivy-E tönt jetzt nicht gerade nach einem Quantensprung, odr?
Habe grad noch ein gutes Asus Rampage IV Angebot gesehen ... wär das auch okay ... oder lieber das P9X79?
 
Hast du jetzt schon mal nachgeschaut woher die performance kommt? Laut Entwickler hat das Programm ja eine Art eingebauten Benchmark drin.....
 
eingebauten benchmark? hab ich nirgends entdecken können. Für die 2012er Version gabs mal ne Benchmark-Scene, aber glaubs nicht fürs 2013 ... aber die GPUs laufen beim Simulieren quasi auf Null. Von da her sind nur CPUs an der Berechnung beteiligt, beim Desktop wie auch beim Laptop ...
 
all16.jpg

Und bei einer massiven Production-Sim mit über 33 Mio Partikel rechnen alle Cores mit.
Langsam, aber wenigstens rechnen alle mit.

Eine weitere Spekulation wäre, dass Realflow mit den aktuellen Nvidia-Treibern Mühe hat, egal
ob die GPU-Berechnung aktiviert ist oder nicht ... einen Hinweis habe ich in diesem Blog gefunden.

News: NVidia Drivers to work without problems in RealFlow | LuisM´s RealFlow blog

Aber kann das sein? Das ein Nvidiatreiber einer GPU, die gar nichts zur Berechnung beiträgt, die
ganze SIM lahmlegt?
 
Von da her sind nur CPUs an der Berechnung beteiligt, beim Desktop wie auch beim Laptop ...
Hast du die hd3000 des Notebooks auch deaktiviert? Teste doch mal die Sequenz aus dem video und lass mal gpuz mitlaufen, vielleicht läuft da doch die igpu und du merkst das nur nicht..^^
 
Hej senbei ... vielen Dank für Deine Hilfe!
Hab das nochmals nachgeprüft ... da läuft sonst nix mit. gpu-z sieht nur die 570M und die hat nen GPU-Load von 2% während der Sim ;-( ...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh