die wird nochmehr strom fressen, 512 Bit SI + hungrige DDR5 speicher

Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
die wird nochmehr strom fressen, 512 Bit SI + hungrige DDR5 speicher
Nein, die Übertragungsrate wird bei wohl gleichem Takt auf 1000MB/sec gesteigert, sprich 500MB pro Richtung...
Glaubst du daran,das die GTX 380 keine stromschleuder wird unter vollastUnd die Stromschleuder GTX280 kommt mir garantiert net in die Kiste...
Nvidia GT300 erreicht finale Designphase
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/mai/nvidia_gt300_designphase/
....Neuesten Gerüchten zufolge hat Nvidias nächster High-End-Chip GT300 sein Tape-Out bereits im ersten Quartal hinter sich gebracht und liegt aktuell in der Version A1 vor...
sry. habe ich übersehen!
Dennoch eine schöne Meldung
Kann man sich auch zweimal anschauen![]()
Interessante Gedanken, aber stimmt leider nicht. Ein großes SI frisst nicht mehr oder weniger Strom als seine kleineren Artverwandten und GDDR5 ist im Vergleich mit GDDR3 sogar stromsparend.
Das ist halt die frage,wie ist dort die herangehensweisse?
Wenn der takt u die lanes gleich bleiben,welche methode wird genutzt um bei 3.0 die bandbreite trotzdem fast zu verdoppeln
Vielleicht sollten wir das aber im technik thread weiterdiskutieren,weil es nur indirekt zum g300 passt![]()
Glaubst du daran,das die GTX 380 keine stromschleuder wird unter vollast
Durch denn 40nm prozess kann man die leistungsaufnahme nur bedingt senken,manchmal gelingt das besser,manchmal bringt der shrink aber auch keinen vorteil ( siehe 55nm G200)
Ich sag aber mal so, ich gehe stark davon aus, das läuft analog zum PCIe 1.x zu 2.0 Umstieg, denn dort wurde die Datenrate Pro Lane und Richtung ja ebenfalls bei gleichem Takt verdoppelt.
Ja moment mal ist es nicht so das die taktfrequenz des pcie slots zwischen 1.x u 2.0 auch verdoppelt wurde um die höheren transferraten zu erreichen
Oder bin ich jetzt auf dem holzweg
Edit
Machen wir hier weiter zu der pcie slot diskussion,weil es dort besser passt
http://www.hardwareluxx.de/community/showpost.php?p=12045741&postcount=157
hast du eine Quelle?
@Froggi
Die Aussage von Scully ist auch ned so verkehrt das die CPU nicht ausreichen wird aber indirekt.Weil das grosse prob beim zukünftigen Grakas wird nicht der pci-e 2.0 oder sogar 3.0 das prob sein sondern der chipsatz.Spricht AMD's HT3 oder Intels QPI wird limietieren.Man wird nicht drum herumkommen pci-e controlle in die CPU zu integrieren weil der schneller ist als AMD oder Intel lösungen und da werden sich die 2 durchaus wehren dagegen.
Man wird nicht drum herumkommen pci-e controlle in die CPU zu integrieren weil der schneller ist als AMD oder Intel lösungen und da werden sich die 2 durchaus wehren dagegen.
Was nutzt die schnelle Verbindung überhaupt, wenn die Daten von einer HDD kommen?![]()
.
Was ich damit sagen will.Jetzt mag das reichen aber schaut mal zum G80 100% mehr leistung zum Vorgänger.G200 etwa 65%bis 85% zum G80.G300 vorraussichtlich(meine Meinung)70% zum G200. Was kommt danach? Vieleicht 120% zum G300 und schon ist das ende der Fahnenstange mit QPI/HT zum pci-e und zurück.
Gleichwohl der Vergleich zum G200, stellvertretend GTX 280, etwas hinkt, weil es sich beim G300 nicht mehr um klassische SIMD-Einheiten handeln wird, sondern MIMD-ähnliche Einheiten, offenbart der reine, quantitative Vergleich eine 163 Prozent höhere Rechenleistung
Sehs doch so, evtl reicht dir schon eine Karte aus um ordentlich Leistung zu haben ?
Mit 2 biste auf jeden Fall auf der sicheren Seite...Warum sollte man sich dann noch Tri SLI holen ?
Irgendwann ist es ja auch wirklich nur noch Verschwendung...
![]()
War ja auch nur n spässchen
Obwohl mal sehen wie lange es dauert bis aus spass ernst wird
Mal ganz vorsichtig nach 3 fach pcie x 16 board umschauen ...asus revolution![]()
Du hast doch ein Super System...Junkie halt,wah
:
Is wie ferrari fahren man braucht ihn nicht wirklich,aber es macht einfach spass![]()
solche muß es auch geben...sonst würde nvidia und co nie ne 280gtx machen....wir alle wären heute noch aufm niveau von ner 7900gt oder sowas...konsum muß sein!!!
was bekommst eig. bei 3dmark06@standard raus?
Genau ich bin bekennender hardware junkie
Keine ahnung was der 3d mark 06 macht,dieser ist eh in grossen teilen cpu limitierend,aber schau einfach mal in den vantage benchmark thread
http://www.hardwareluxx.de/community/showthread.php?t=533385
Aber nun wieder back to the g300![]()