- Mitglied seit
- 12.12.2007
- Beiträge
- 1.545
- Ort
- Düsseldorf
- Details zu meinem Desktop
- Prozessor
- Intel Core Ultra 7 285K
- Mainboard
- ASRock Z890 Taichi OCF
- Kühler
- Thermalright Core Matrix 360
- Speicher
- 48GB Patriot Viper Extreme 8200Mhz
- Grafikprozessor
- Sapphire RX 6800XT Nitro+ SE @ Eiswolf 2
- Display
- LG 32GS95UE 32" 4k 240 Hz OLED
- SSD
- Crucial T700 2TB
- Gehäuse
- NZXT H7 Elite
- Netzteil
- Seasonic Prime PX-850W
- Keyboard
- Wooting Two HE
- Mouse
- Razer Viper Ultimate
- Betriebssystem
- Windows 11 Pro
- Internet
- ▼1000 ▲50
Die Einstellung speziell nicht, aber unter 200w ist bei Nvidia keine Kunst. Spiele auf 4K mit'm 120fps Cap. Bin mit meiner 4080 inkl. UV in den meisten Games (die ich spiele) bei 165-195w. In der Vergangenheit war das eigentlich ein Punkt, den AMD gut konnte (Effizienz sein), aber an die Effizienz von Lovelace kommt Radeon 7000 einfach nicht dran.
Jo mit viel Fummelei für den Endkunden über Drittanbieter Software. Chill ist ein einfaches Feature im Treiber, idiotensicher. Wie ist denn dein Verbrauch bei Total War: Warhammer 3, das würde mich mal interessieren? (wenn du das hast) Wenn ich das Taktziel der 7900 XTX runterdrehe, kann die auch sehr effizient, wenn auch nicht auf Ada Niveau.
Kann ich jetzt nicht unbedingt bestätigen. Spiele nach wie vor auf meinen beiden Free Sync Premium Pro/ G-Sync kompatibel Monitoren und sehe da jetzt nicht wirklich einen nennenswerten Unterschied. Hab jetzt aber auch nicht großartig mit irgendwelchen Einstellungen diesbezüglich herumgespielt oder irgendwelche Ansprüche, die Competetive Gaming betreffen. War ehrlich gesagt immer zufrieden wie es war und mit Nvidia immer noch ist.
Das Bild ist in hektischen Situationen mit viel Kamerabewegung deutlich klarer als es bei der 4080 mit G-Sync kompatibel der Fall war. Ich hatte den direkten Vergleich an einem Tag und es ist ein Unterschied wie Tag und Nacht. Das ist eine subjektive Erfahrung, nachdem ich morgens mit der 4080 Hunt gezockt hab und nachmittags mit der 7900XTX. Die Kombination aus Freesync Premium Pro und Radeon GPU halte ich nach der Erfahrung in meinem Anwendungsfall für deutlich überlegen.
Beide Hersteller haben ihre Vor- und Nachteile. Ich selbst bin Befürworter von FSR/ DLSS und FG und nutze es immer, wenn es verfügbar ist, weil es den Verbrauch deutlich verbessert. Während man bei AMD nur FSR nutzen kann, kann man mit ner Nvidia-GPU DLSS, FG und FSR nutzen.
Das ist so, allerdings geht mir Nvidia mit seinem propietären Ansatz schon immer auf den Zeiger und gängelt sogar die eigene Kundenschaft -> DLSS 3 nur auf 40er Serie ist da ein Beispiel. Uns als Enthusiasten juckts vielleicht nur bedingt, für die meisten Leute die sich alle 5 Jahre Mal ne GPU kaufen ist das schon eine Sauerei. Warten wir was AMD mit FSR 3 im Gepäck hat, auch wenn ich hier keine Wunder erwarte. Bei AMD kann man auch noch XeSS nutzen wenn es angeboten wird.