[Sammelthread] AMD RDNA4 RX 90x0 (XT) Smalltalk-Thread

Naja, dafür fehlen dort dann die Kühllamellen. Und auch sonst ist die aktuelle Nitro gerade für nix ein gutes Beispiel. Außer Hoher Preis ist da nichts gemeinsames mit den früheren Karten von denen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ist schon faszinierend wie viel Tuning potenzial es gibt und wie sehr das Takt Offset vernachlässigt wird.

Als Beispiel:
Meine Karte läuft normal mit -60 mV bei egal welchem PT stabil.
Bei -80 oder gar -100 kommt es schon stark auf das Spiel an - da jedes Spiel ein etwas anderen Takt anlegt.

Welches verhalten aber immer gleich bleibt ist: Das die Karte ohne FPS Limit immer bis ins PT Limit Boostet und folglich quasi immer mit ihrer vollen Verbrauch rennt.

2 Beispiele aus der Praxis:
COD BO6 im MP rennt mit meinen Settings (-60mV PT 260w) immer um die 2,8 - 2,9 GHz bei vollen 260w Verbrauch. - würde aber bis -100 mV Stabil laufen.
Fortnite rennt immer um die 3,1-3,2 GHz bei 260w verbrauch - Crasht aber bei allem über -60mV.

Setz ich jetzt ein Negativ Takt Offset auf -300 passiert folgendes:

COD BO6 taktet weiterhin mit seinen 2,8-2,9 GHz (hier greift also kein Takt Offset) und läuft weiterhin beim maximal gestatteten Verbrauch von 260w. Also so als wäre gar nichts verändert worden.
Fortnite taktet nur noch bis max 3,0 GHz (Hier greift das Takt Offset) und der Verbrauch sinkt sogar auf etwa 230-240w da der Max Takt erreicht ist.

Da mir das Takt Offset auf Max 3 GHz nun aber erlaubt auch -100 mV zu fahren ist es im Endeffekt so:

COD BO6 rennt jetzt sogar bei seinen 3 GHz und der Verbrauch pendelt zwischen 250 und 260w.
Fortnite bleibt ebenso bei seinen 3 GHz und der Verbrauch sinkt weiter auf rund 220w.

Das ist echt geil :d
Also rennt meine Karte jetzt in quasi jedem Game bei ihren 3GHz und fährt nicht immer automatisch in die PT Wand bei Max Verbrauch sondern bleibt, je nach Game, auch mal darunter.
Im Prinzip also das Verhalten was die nV Karten an den Tag legen wenn man sie mit der Curve und festen Max Takt bearbeitet.
Man lotet das Max UV also nicht mehr an einem Game was wahnsinnig boostet aus, sondern sucht sich den maximalen Takt XY aus und ermittelt wie viel UV damit möglich sind und hat in der Folge, je nach Game, nicht zwangsläufig immer den Max Verbrauch anliegen und eine noch sparsamere Karte.


Klar könnte man für jedes Game einzeln das UV / Max Takt etc. ausloten aber das ist nicht mein Fall. Da muss es schon ein allgemeines Setting geben was überall rund läuft :)
 
Zuletzt bearbeitet:
Moin Leute. Ich hab nochmal eine Frage zum Optiscaler, daher spreche ich auch direkt dich an @m4looney

Wir sind so eure Erfahrung? Läuft es stabil, wenn es denn läuft @FSR4? Soweit ich das mitbekommen habe, ist die Quelle per DLSS sogar besser als FSR 3.x?
Und wird Optiscaler für jedes Spiel irgendwie angepasst, bzw. muss es angepasst werden?

Ich frage, weil im CB Forum wieder wild diskutiert wird. Optiscaler sei ja total instabil und co.
 
Wo es bisher gelaufen ist war es bei mir auch immer stabil.
Wenn es nicht läuft crasht das Game meist von Anfang an und weiß es.
 
So nach langem hin und her habe ich doch wieder zur 9070 XT gegriffen :d
Diesmal aber zu Red Devil und die Temperaturen gehen für mich klar vor allem bei der lautstärke ist es ein unterschied wie Tag und Nacht im vergleich zu Mercury OC und dank des Samsung VRAM ist der Speicher endlich kühl.

Stock:
1747826856613.png


Mit etwas Feintuning
-75mV, +10PT, 2750mHz VRAM
1747826894020.png


Kann sich mMn sehen lassen. Die Werte die man beim Furmark bekommt sind auch keine Reallife werte.

edit:
Ach Fuck grad die Werte der Merc gefunden misst dann muss die Karte vermutlich doch wieder weg -.-
 
Zuletzt bearbeitet:
Ne die Mercury OC brauchte 700RPM weniger, der Hotspot war um 10°C niedriger und mir ist das Delta von ca. 38°C zwischen GPU und HotSpot zu hoch.

1747826671876.png


Zum Feierabend mal den 3D Mark Loop laufen lassen um einen richtigen vergleich zu machen..
 
Ja diese Tabelle ist mir bekannt aus dem Thread zum Test weiter Custom Modelle aus dem CB. Forum. Im CB Test hat die XT Tuf eine Speichertemp von 94 Grad. Da kommt meine Tuf nie hin und die hier in der Tabelle scheinbar auch nicht. Keine Ahnung, was in dem Falle schief gelaufen ist.

Aber wäre es die letzten Jahre nicht auch schon aufgefallen, wenn es bei einem bestimmten Custom Model verschiedene Rambestückungen gegeben hätte, die durchweg 10 Grad auseinander liegen in der Temperatur?
 
Wenn der Speicher auf der selben Kupferplatte wie die GPU ist wird der nie kühl mit Luft.
 
Ich hatte mit meiner ASUS Prime 9070XT bisher maximal 92° Speichertemperatur. Das war im Flugsimulator XPlane12. Der scheint sehr den Speicher zu belasten. Ansonsten immer unter 90°C.
 
Der Speicher selber verheizt ja nur paar Watt im Gegensatz zu dem anderem Zeug, das heizt sich halt gegenseitig.
 
@LDNV Ja, das mit dem Takt-Offset konnte ich auch beobachten und es hat sich auch wie bei dir als nützlich für die Stabilität erwiesen. Bei DOOM The Dark Ages (GamePass) gab es Crashes im 3D-Map-Menü so unter -60 mV.

Es mag auch daran liegen, dass ich hier Optiscaler implementiert habe. Das Optiscaler habe ich derzeit aber nur wegen dem Reflex-Frame-Capper drin und auch, um FSR3.1.3 zumindest implementiert zu haben. FSR4 wird mir nicht angeboten. Nun ist mein Gaming-Setup etwas anders, als bei den meisten anderen. Ich nutze den MSI VA UWQHD Monitor hauptsächlich als Fernseher mit einem Android-TV-Kabelreceiver, für die ablenkende Doppelberieselung, aber ich zocke dennoch am PC. Dazu nutze ich meinen Laptop als Empfangsgerät meines PC über Apollo (nicht der Apollo von hier 😅) und Moonlight (4K, HEVC, 200 MBit/s, LAN-Kabel) im Bett, weil Chilliger und ich bin ein Chiller vor dem Herren. Rumsitzen ist da schon fast wie stehen für manche ^^.

Nun zum Thema zurück, wieso ich das überhaupt erzähle: die GPU muss neben der 3D-Last auch noch eine 142-Hz-4k-Encoding-Last stemmen, was mehr Einheiten auslastet und scheinbar auch empfindlicher auf Unterspannung reagiert. So -80 mV waren eigentlich immer stabil, bis Oblivion Remastered und DOOM ankamen.

Bei Oblivion Remastered habe ich zunächst -75 mV und -100 MHz eingestellt, was dann "stabiler" war als ohne Takt-Offset und keine Hard-Crashes mehr verursachte. Oblivion Remastered stürzt halt trotzdem noch gerne ab. Das liegt aber IMO am Spiel, was auf UE5 läuft und bei vielen anderen auch crasht. Bei Oblivion habe ich auch Optiscaler implementiert, da FSR3-Frame-Generation (nativ) mir kaum mehr als 10 FPS mehr gibt und in manchen Fällen auch noch langsamer als ohne FG läuft. Oblivion Rem. hat auch noch das Problem, dass die Auslastung sehr stark schwankend ist und die Frequenz stark fluktuiert.

Bei Doom hatte ich Crashes im Map-Menü und im ESC-Menü und nehme an, dass die GPU hier extreme Lastwechsel nicht mag. Für DOOM The Dark Ages muss ich nun -200 MHz einstellen (bin nun am Testen, vllt. werden es auch -300 MHz oder was dazwischen) bei meiner RX 9070 OC und kann dann auch -85 mV nutzen (auch das muss ich intensiver testen, -80 mV wäre das Ziel). Die OC-Version der 9070 ist um 10 % werksübertaktet, also bei 245 W Power-limitiert. Ich vermute nun, dass der Undervolt, wenn er nicht Takt-limitiert ist, hier bei etwas über 3100 MHz, einfach aussteigt. Mit einem Takt-Offset von -200 MHz liegen dann so maximal 3080 MHz an. Mit einem PT von +10 % liegt der Takt meist konstant über 3 GHz und die Karte darf bis zu 270 - 275 W ziehen, was aber fast nie passiert, da die Karte dann nicht mehr Power-Limitiert ist durch den Takt-Offset. Dann ist der Verbrauch bei etwa 230 - 260 W.

Zudem wird der "Takt-Offset" in der Radeon Software als "Max-Takt-Offset" deklariert. Schaut man in HWInfo64 nach diesem Wert, steht dann 3450 MHz. Wie wird nun das Takt-Offset durch den Treiber gehandelt? Setzt man den Takt auf -200 MHz, werden aber nur etwa so 80 - 100 MHz weniger angelegt. Vllt. fluktuiert der Takt in ms-Intervallen viel höher nach unten und nach oben, weshalb der Max-Takt von 3450 MHz tatsächlich auch erreicht wird, aber nur für sehr kurze Zeit und es wird dann der Durchschnittstakt in einem Intervall von 50 ms oder so angezeigt? Sehr verwirrend das Ganze jedenfalls.

@ShirKhan Du hast bei Cyberpunk mit Optiscaler als Input FSR aktiviert. Versuch mal Fake-DLSS an Start zu kriegen. Dafür brauchst du die fakenvapi von github. Dann klappt's auch mit Nukems-Frame-Generation, sprich DLSS-FG zu FSR3-FG und Reflex -> Antilag und dem Reflex-Frame-Capper. Dafür einfach den Inhalt von der Zip neben die exe legen und schon sollte es klappen. Opti-FG scheint bei dir auch nicht aktiv zu sein, sonst würde es im Optiscaler-Dialog ausgewählt erscheinen. Hast du auf den Save-Ini-Button vor dem Neustart des Spiels gedrückt? OptiFG produziert öfters UI-Artefakte. Man kann auch Fix-UI-Elements anstellen, dann sind die weg. Aber da hatte ich dann zu oft Crashes in wenigen Sekunden in Oblivion z.B.

@Casillas Wenn's läuft dann läuft's. Wenn's nicht läuft, dann kann man über die Optiscaler.BAT mit anderen Methoden installieren. Dann läuft's meist. Wenn nicht bei Github-Issues und Kompatibilitäts-Sheet schauen. Zudem scheint Optiscaler auch empfindlicher auf Undervolting zu reagieren. Ich nehme an, dass die gesamte Tool-Chain einfach fordernder ist als natives FSR3/4. Und FSR4 läuft auch auf den AI-Einheiten, die auch Saft brauchen.
 
@LDNV Ja, das mit dem Takt-Offset konnte ich auch beobachten und es hat sich auch wie bei dir als nützlich für die Stabilität erwiesen. Bei DOOM The Dark Ages (GamePass) gab es Crashes im 3D-Map-Menü so unter -60 mV.

Es mag auch daran liegen, dass ich hier Optiscaler implementiert habe. Das Optiscaler habe ich derzeit aber nur wegen dem Reflex-Frame-Capper drin und auch, um FSR3.1.3 zumindest implementiert zu haben. FSR4 wird mir nicht angeboten. Nun ist mein Gaming-Setup etwas anders, als bei den meisten anderen. Ich nutze den MSI VA UWQHD Monitor hauptsächlich als Fernseher mit einem Android-TV-Kabelreceiver, für die ablenkende Doppelberieselung, aber ich zocke dennoch am PC. Dazu nutze ich meinen Laptop als Empfangsgerät meines PC über Apollo (nicht der Apollo von hier 😅) und Moonlight (4K, HEVC, 200 MBit/s, LAN-Kabel) im Bett, weil Chilliger und ich bin ein Chiller vor dem Herren. Rumsitzen ist da schon fast wie stehen für manche ^^.

Nun zum Thema zurück, wieso ich das überhaupt erzähle: die GPU muss neben der 3D-Last auch noch eine 142-Hz-4k-Encoding-Last stemmen, was mehr Einheiten auslastet und scheinbar auch empfindlicher auf Unterspannung reagiert.
Da können wir unsere Beobachtungen gegenseitig bestätigen.
Ich fahre fast das gleiche Setup, aber mit Sunshine und zusätzlich mit HDR, um an meine Shield TV (Mit der Moonlight App) am Wohnzimmer TV zu streamen wenn es mal ein Story Game mit dem Controller sein darf.

Ja die Bezeichnung in der Radeon Software ist irreführend. Fälschlicherweise könnte man sogar annehmen das einfach generell vom anliegenenden Takt XY abgezogen werden.
Dem ist aber nicht so wie mein Beispiel weiter oben zeigt.

Habe daher ein Spiel genommen was zuverlässig über 3GHz boostet und habe dann in 50 MHz schritten geschaut ab wann der Takt reduziert wird, was dann eben in meinem Fall -310 war.
Rechnet man sich das jetzt mit der von dir genannten HWInfo anzeige gegen, haut das schon in etwa hin, wenn auch nicht Punktgenau. Aber minimal schwankt der Takt ja auch um paar wenige MHz hier und da.
 
nur mal so, andere hatten es ja schon geschrieben. Jakob sollte man meiden. Mit denen musste ich jetzt bei PP einen Käuferschutzfall eröffnen. Die reagieren nicht.
 
@m4looney wenn ich deine Dateien nutze für FSR4, wie bekomme ich das quas geupdated? Einfach aktuelles Optiscaler runterladen und die Dateien ersetzen?
 
@m4looney: Danke für deine Optiscaler-Anregungen. Ich kenne den "konventionellen" Weg bei CP 2007 mit fakenvapi und nukems, hat hier nicht funktioniert. Das hat mich ja gerade veranlasst, die Alternative mit der AMD-DLL zu beschreiben. OptiFG generiert Frames, auch wenn es das nicht anzeigt, das hatte ich ebenfalls erwähnt. UI-Wackler gibt es auch nicht. Das bleibt bis zum offiziellen FSR-4-Implant, wie es jetzt ist, bin zufrieden. Du löst ein Problem, das es nicht gibt. :)
 
Gibt es da denn wirklich einen Unterschied der VRAM Temperaturen zwischen Samsung und Hynix?
ja, nicht unerheblich! "Normal" bei Hynix sind wohl unter 100°. Meine Hellhound durchbrach aber alle Schallmauern.
Die Red Devil mit Samsung Speicher ist mir das fast erfroren. Hier zu finden:
 
@m4looney ich hab deine Dateien geladen und das funktioniert damit nicht.
In welchen Ordner von KCD2 müssen die Dateien denn?
1747848596472.png
 
@m4looney: Danke für deine Optiscaler-Anregungen. Ich kenne den "konventionellen" Weg bei CP 2007 mit fakenvapi und nukems, hat hier nicht funktioniert. Das hat mich ja gerade veranlasst, die Alternative mit der AMD-DLL zu beschreiben. OptiFG generiert Frames, auch wenn es das nicht anzeigt, das hatte ich ebenfalls erwähnt. UI-Wackler gibt es auch nicht. Das bleibt bis zum offiziellen FSR-4-Implant, wie es jetzt ist, bin zufrieden. Du löst ein Problem, das es nicht gibt. :)
Ok, got it. Nur hast du halt kein Optiscaler-FG am Laufen ;). Du hast FSR3-Frame-Generation vom Spiel aktiv. Nunja, klappt ja auch. OptiFG würde auch ohne das Einstellen von Frame-Generation im Spiel funktionieren. Und du hast dann halt UI-Bugs, die du mit UI-Bugfixes bugfixt. Die UI-Bugfixes buggen dann als Spiel-Absturz-Bugs (zumindest bei mir in manchen Games). Was heißt, es hat nicht funktioniert? Ich nehme an, das Spiel hat dann nicht gestartet? Bei mir war es so iirc, dass ich FSR ausstellen musste, da FSR mit der Nukems-Methode nicht klarkam. Also FSR erst ausstellen, dann Nukems-Methode und dann DLSS einstellen. Nun, wenn es bei dir gut läuft, brauchst du ja nichts weiter tun. Ich benutze halt gerne den Reflex-Teil auch noch mit, damit Antilag und Frame-Cap easy über Optiscaler laufen.
@m4looney wenn ich deine Dateien nutze für FSR4, wie bekomme ich das quas geupdated? Einfach aktuelles Optiscaler runterladen und die Dateien ersetzen?
Nja, ist etwas komplizierter. Du solltest vorher wissen, welche der Optiscaler-Methoden am Besten für dich funktioniert. Dann solltest du die alte Optiscaler.ini irgendwohin speichern. Diese wird zu 100 % überschrieben. Dann kopierst du alle Dateien rüber. Dann löschst du die Dateien nvngx und winmm / dxgi / dbghelp / version, etc. Dann die Optiscaler.BAT ausführen mit der besten Methode für das Spiel. Winmm hat sich bei mir bisher bewährt.

@LDNV Ja, das deckt sich mit meinem Beobachtungen. Scheint sowas zu sein wie (Max-Takt + aktueller Takt) / 2 - Max-Offset. Übrigens: gute Neuigkeiten von der UV-Front. -85 mV, PT+10 (-> 270 W) und -200 MHz Offset liefen etwa eine Stunde durch bisher in DOOM (bei etwa 3050 MHz im Schnitt). Davor war das UV bei -60 mV für die selbe Stabilität (ohne Offset).
Beitrag automatisch zusammengeführt:

@m4looney ich hab deine Dateien geladen und das funktioniert damit nicht.
In welchen Ordner von KCD2 müssen die Dateien denn?
Anhang anzeigen 1110546
Win64MasterSteamPGO. Also da wo die Haupt-Spiele-Exe liegt.

Eid-ExE.png


Edit: aso, @ShirKhan und diejenigen, die Nukems-Methode mit Optiscaler nutzen wollen: man braucht noch die Datei dlssg_to_FSR3_amd_is_better.dll. Die könnt ihr aus meiner Sig ziehen.

Edit 2: eher so: Zieltakt = (Max-Takt - Offset + normal-Takt) / 2
 
Zuletzt bearbeitet:
Ne die Mercury OC brauchte 700RPM weniger, der Hotspot war um 10°C niedriger und mir ist das Delta von ca. 38°C zwischen GPU und HotSpot zu hoch.
Die Red Devil ist doch aber leiser, wie die XFX bei identischer Lüfterdrehzahl. Zumindest bei mir war das so. Delta war bei mir um die 25°C.
 
So, nochmal unter denselben Bedingungen getestet wie mit der XFX – und mit dem gleichen TimeSpy-Benchmark.
Zuvor hatte ich immer den 4K-Test genommen – da waren die Werte komplett anders als mit der XFX, und ich war schon kurz davor, die Karte zurückzuschicken.
Tja, wer viel misst, misst Mist! :rofl:

Die Werte gehen meiner Meinung nach klar – vielleicht könnte man die Lüfterkurve noch etwas anpassen, um den Hotspot ein wenig zu reduzieren, aber ansonsten sieht das ganz okay aus.

PT +10, -100mV, VRAM 2718MHz

1747853916544.png
 
So ein Mist ey. Optiscaler öffnet sich einfach nicht mehr wenn ich das bei KCD2 installiere. Keine Ahnung wieso.
Installieren tu ich es mit folgenden Parametern:
1747855038863.png
#
Mein Ordner sieht dann so aus:
1747855088113.png


übersehe ich was?

Ok, vergesst es. Ich muss beim ersten Punkt dxvi.dll nutzen anstatt winm.dll. Liegt wahrscheinlich an Linux.
 
Zuletzt bearbeitet:
Und davor hat es funktioniert? Du hast ja Linux. Das ging?

FSR4 wird bestimmt aber nicht funktionieren, da das erst von Mesa und Wine / Proton unterstützt werden muss. Ansonsten kannst du dann, wenn es wieder läuft die amdxcffx64.dll probieren. Das ist die FSR4.0-dll aus dem System32-Ordner, die da mal der AMD-Windows-Treiber platziert hat.

Die Optiscaler.ini wird auch aus der BAT generiert. Ist das noch die alte ini? Sonst irgendwohin schieben und die Bat erneut ausführen. Du kannst auch mal eine andere Methode wie dxgi, dbghelp probieren. Ansonsten funktioniert KCD2 mit Winmm unter Windows 11 bei mir.

Edit: würde mich auch mal interessieren, ob die FSR4-dll dann mit Linux läuft. Aber ich glaube eher nicht.
 
Ich hab die FSR4.dll in den Ordner gepackt in dem auch der Optiscaler liegt und auch die .ini. Hab auch in der Ini FSR4 forciert, aber das funzt net.
Es soll ja aber spiele geben bei denen es funktioniert.
 
Es geht voran unter Linux, was FSR4-Support betrifft @L_uk_e :

1747856751677.png

Falls du Linux-User bist, der da was davon versteht, kannst du ja mal den wmma-sandbox Branch probieren. Mesa ist ja mit git schnell über einen Paket-Manager gebuildet.
Beitrag automatisch zusammengeführt:

Wenn das klappt und relativ easy ist, switche ich evtl. auch zu Linux. Spiele eh nur Single-Player und im CPU-Limit laufen die Games besser als unter Windows.
 
Ich hab davon nicht wirklich Ahnung. Keine Ahnung wie ich da wmma-sandbox Branch testen soll. Ich weiß nicht mal was das heißt xD
Aber ja es geht voran.
Nutze CachyOS, also eine Arch Distri
 
Die Werte gehen meiner Meinung nach klar – vielleicht könnte man die Lüfterkurve noch etwas anpassen, um den Hotspot ein wenig zu reduzieren, aber ansonsten sieht das ganz okay aus.
dein Hotspot ist tatsächlich rund 10° zu hoch. Wie hast du die Devil eingebaut? Normale Lage?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh