Bin zwar kein Informatiker, aber so in etwa seh ich das auch. Wobei wahrscheinlich neben der Effektivität des Compilers auch noch die des OS (Kernels) eine Rolle spielt. Wie gut geht der Kernel mit dem Prozessor um, wie gut handhabt er die Verteilung der Aufgaben und wieviele Resourcen werden von OS Prozessen belegt und stehen somit dem eigentlichen Programm (hier PI) gar nicht mehr zur verfügung. So viel von meinem Halbwissen
Und die Unterschiede bei Pi zwischen GNU/Linux und Windows sind bei mir erstaunlich groß ausgefallen:
33s zu 42s bzw. 46s zu 58s jeweils Linux zu Windows (Details siehe Linux SuperPi Thread)
Wenn jetzt das Linux System komplett auf den Rechner angepasst wäre (z.B. ein selbst kompiliertes Gentoo) und PI im Quellcode zum selbst kompilieren vorliegen würde könnte ich mir vorstellen, dass da noch mal die ein oder andere Sekunde drin wären.
Ich hab übrigens gerade aus Interesse noch UT2004 (Antalus, fly-by, 1280x1024) unter Windows gebencht und da sieht die Sache etwas anders aus:
Code:
System min | avg | max fps Score
Linux* (OpenGL) 93 158 477 80
Windows XP (DirectX) 66 190 665 190
Windows XP (OpenGL) 96 165 450 165
* Ubuntu 7.04, Kernel 2.6.20-16, Nvidia Treiber 1.0-9631
Wobei ich mir weder sicher bin ob die drei fps Werte die UT da ausspuckt wirklich minimum, average und maximum sind noch was die "Score" genau zu bedeuten hat. Bei Windows ist die "Score" nämlich immer (hab verschiedene Durchläufe gemacht) ungefähr der mittlere fps Wert bei Linux hingegen immer deutlich weniger.
Insgesammt lässt sich bei mir aber festhalten, dass UT2004 unter Linux ein bisschen schlechter läuft als unter Windows XP. Wobei das wahrscheinlich nicht mal an GNU/Linux selber liegt sondern an den im Vergleich zu Windows schlechteren Linux Treibern von Nvidia und/oder UT selbst.
Btw, alle PI Versionen gibts direkt bei
http://www.super-computing.org/ und die (Linux?) Kommandozeilenversion zeigt die ms immer an.