[Sammelthread] AMD RDNA4 RX 90x0 (XT) Smalltalk-Thread

@ShirKhan Was du probieren könntest, wäre auf DLSS-Inputs bei Optiscaler umzustellen. Wie ich gesehen habe, hast du FSR als Upscaling-Methode im Spiel. DLSS läuft als Input meist besser. Dazu brauchst du fakenvapi und FSRtoDLSSFG_AMD_is_better.dll (o.ä), für "DLSS"-FG. Beides gibt's bei Github. Dann im Spiel auf DLSS umstellen. Ich bin mir sicher, dass es mit "DLSS" besser laufen wird. In Optiscaler stellst du dann auf Nukems-FG-Methode. Läuft bei mir auch so in Optiscaler. Methode ist iirc "Winmm". Habe das Spiel aber seit Jahren nicht wirklich ausgiebig gespielt. Lauf da meist nur um den Block zum Grafiktesten.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Obwohl unerwähnt gelassen, habe ich bereits nach deiner letzten Intervention alles noch mal neu gemacht, entweder analog deiner Vorgaben oder denen bei Github. Hat nicht geklappt, liegt nicht an dir, ich bleib bei meiner Lösung. Zu oft anderes versucht inzwischen. Bin auch zufrieden mit Bildqualität und FG.

Habe das Spiel aber seit Jahren nicht wirklich ausgiebig gespielt.

Tja, damit könnte man meine eigentliche Frage beantworten. :)

 
Alles klar. Hab mich schon gewundert :rolleyes: . Und die -60mV UV und -10% PT läuft jetzt bei dir stabil, nehme ich mal an?
Habe jetzt wegen dem Crash bei VLC nur -50mV eingestellt. Ist bisher da nicht mehr passiert. Muss jeder selber austesten, was seine Karte wann macht. Was wir posten, können nur Richtwerte sein.
Die Prime dürfte eine der langsamsten 9070XT am Markt sein. Die 3 Stromanschlüsse sind blanke Verschwendung.
 
Wer nutzt denn eine 9070 non-XT in 4K? Was sind da die Erfahrungen?
du @m4looney ?

Ich hab mir dieser Tage den Plan gemacht, einen Gaming-PC fürs Wohnzimmer großteils aus vorhandenen Komponenten (9800X3D, X870E Nova, RAM) zusammenzustellen, der aber nur mit Luftkühlung laufen wird. Entweder verkauft mir wer nen großen RDNA2-Ref Lüftkühler, oder ich kauf mir eine 9070/XT.
Wenn dann ASUS, weil kein Murks-Connector und ne durchdachte I2C-Schnittstelle. Jetzt dann aber noch am überlegen, on XT oder nicht. Prime oder TUF geht wohl eher in Richtung Prime aus, denn wenn ein Block drauf käme, dann wirds der Platine egal sein, was sie mal war - . Sollte das zu laut werden, dann würd ich ggf. auch einer 9070 ne AIO bauen - oder den Eiswolf auf der 6900 XT wieder separieren - im Fractal North wird ist das möglich.

Jetzt ist nur noch meine Sorge, wie sich die Karten, vor allem die non-XT in 4K schlagen. Ist FG da Pflicht? Laut den verschiedenen Test ja eigentlich schon.
 
Zuletzt bearbeitet:
Wer nutzt denn eine 9070 non-XT in 4K?

In meinen Tests mit DQHD, also etwa vergleichbarer Pixellast. Mit FG geht heutzutage alles, auch das. Dass du bei einem Umstieg von WQHD (mein letzter Stand) aber eine Non-XT ins Auge fasst, verstehe ich nicht. Auf die paar Euro zur größeren Serie kommt es doch wirklich nicht an. Vor allem, wenn du auch künftig so lange an einer Gen kleben bleibst wie in der Vergangenheit. ;)
 
Es ist der Geiz.
 
Die Bencher kaufen die große. Deine künftigen tollen 9070-Rekorde werden keine Sau interessieren. :asthanos:
 
4k-Monitor leider vor Jahren verkauft. War eh nur 4k60 und TN (Samsung 28"). Habe gerade ein UWQHD-Monitor. Da es 21:9 ist, kann ich leider kein 4k (16:9) einstellen. Sowas wie 5120 * 2160 und 6880 * 2880 ließe sich einstellen, aber 4k-21:9 wäre wohl zu anspruchsvoll für die Karte. Kommt natürlich auf das Spiel an. Ältere Games wären bestimmt gut spielbar mit 34 % mehr Pixeln als in 16:9-4k. Aber für 4k in modernen Games wären andere Karten besser geeignet, vor allem, wenn man mehr als ~80 FPS braucht. Mit (Balanced/Performance)-Upscaling und FrameGen vllt. brauchbar. Weniger als 80 FPS kann ich mir z.B. nicht mehr geben. Das ist so der Performance-Bereich mit 1440p (/Ultrawide) ohne FG. Natürlich vom Spiel abhängig. Finde, die 9070 ist eher eine 1440p Karte und die 9060 XT eher eine 1080p Karte, obwohl von AMD eher als 1440p beworben. Denke, da sind andere Ansprüche (60 FPS) / Upsampling (Performance vs Balanced / Quality) dafür verantwortlich.
Beitrag automatisch zusammengeführt:

Joar, so an die 5 % weniger als XT-Leistung kommt man bei 270 W mit der RX 9070 mit UV(OC) ran. Dann bräuchte man aber eine Werks-OC-Variante, da die non-OC auf 220 W (+10 %) beschränkt ist. Und theoretisch ließe sich das Power-Limit mit dem XT-VBIOS aufheben, aber bei zu hohen Settings wird es schnell instabil (, was man so hört). Habe keinen BIOS-Flasher und möchte die Karte auch nicht in den Himmel befördern bei über 300 W.
 
Zuletzt bearbeitet:
Ich sehs im Prinzip genau so, wie du es beschreibst, @m4looney
Dass @ShirKhan versucht, möglichst viel Superbenzin ins Feuer zu gießen ist eh klar. Aber solange das Ding zum Spielen genutzt wird, brauch ich wohl keinen Block, werden darum eher nichts benchen und dann erwäge ich halt auch was kleinerers. Auch wenn das wegen 4K dann vermutlich keinen Sinn macht.
 
Ich kann dir die Videos von iVadim auf YT empfehlen. Er hat glaube ich auch schon die kleine RX 9070 in 4k getestet. Testet öfter GPUs in verschiedensten Auflösungen.
 
Dass @ShirKhan versucht, möglichst viel Superbenzin ins Feuer zu gießen ist eh klar.

Welches Feuer? Wenn du das zarte Flämmchen dauernd auspubst, kann ich gießen, wie ich will ... :sleep:
 
Zuletzt bearbeitet:
Wer nutzt denn eine 9070 non-XT in 4K? Was sind da die Erfahrungen?
Die ist doch nur 10 % langsamer und kann viel besser übertaktet werden weil ab Werk untertaktet, die Performance dürfte identisch sein. 9070 XT in 4K ist so gut wie eine 7900 XTX mit spürbar besserem RT.

FSR Performance ist natürlich Pflicht wenn man neue, grafikintensive Spiele mit RT will. Es gab schon Tests der 9060 XT in 4K, selbst das ist möglich da es in etwa eine 6800 XT ist die für 4K60 noch ausreicht. 120+ da braucht man eine sehr starke Karte. Selbst die 9070 XT ist nicht optimal aber eine 4090-Leistung in bezahlbar wird es vorerst nicht geben somit ist die 9070 + FSR4 ein guter Kompromiss. Angesichts des Preis kann man sich da eher mit Upscaling anfreunden als wenn man ein Produkt für weit über 1 K kauft.
 
Wenn das Redstone Update für die 2. Jahreshälfte die versprochenen Performancesteigerungen bringt, dann wird eine 9070XT alles andere als grenzwertig für 4K sein.
 
Ja stimmt, die 9070 flashen war ja mein Gedanke ...
 
Ist halt ein wenig schade, dass es bei der RX 9070 halt zwei Varianten gibt: die Werks-OC und die non-OC. Testet ein Reviewer nun die eine oder die andere Variante, gibt es kaum Vergleichbarkeit. Wenn, dann müssten die Reviewer die non-OC immer mit +10 % PT testen und die OC-Variante mit 0 % PT. Aber wird nicht gemacht. Somit ergeben sich starke Schwankungen je nach Variante. Die eine Seite / Kanal sieht dann die eine Karte als weniger empfehlenswert, ein anderer Kanal schwärmt von Performance nahe der XT. Ist mittlerweile sehr verwirrend der GPU-Markt. @ApolloX : willst du volle Effizienz (?), wählst du die non-OC, willst du Hand anlegen und sehr nah an eine XT kommen / Rekorde brechen (?), nimmt die Werks-OC-Varianten.

Die Acer würde ich nicht unbedingt empfehlen, da die Karte wenig Kühlfläche hat und zwar 270 W möglich sind mit UV (-85 bis -100 mV, eigentlich ein guter Chip), aber auch recht laut wird bei 270 W und akzeptabler Kühlleistung. Wie die mit dem gleichen Kühlsystem die XT bei 340 (!) W kühlen wollen, ist mir schleierhaft...
 
willst du volle Effizienz (?), wählst du die non-OC, willst du Hand anlegen und sehr nah an eine XT kommen / Rekorde brechen (?), nimmt die Werks-OC-Varianten.

Jetzt wirds ein wenig schräg. Niemand glaubt an besseres Binning der OC-Karten. Macht der Kühler einen guten Job, lassen sich die Non-OCs im Mittel genauso gut übertakten wie die teuren OC-Modelle. Dachte nicht, dass das heute noch Diskussionsthema ist. Und ja, Acer ist ein Ausfall, zumindest das dünne, billige Modell.
 
Also die Asus Prime 9060 XT mit 16GB ist ja echt ein süßes Kärtchen.
Nicht zu hören, immer so zwischen 50-60 Grad, taktet aus dem Stand in COD BO6 zwischen 3,2 - 3,4 GHz, kein Spulenfiepen etc.
Rundes Ding.

Mal schauen was mit ihr so geht Richtung UV.
PT werde ich wohl unberührt lassen bei dem geringen Verbrauch :d

Jetzt bin ich zufrieden aus der Kombi mit der Asus Prime 9060 XT im zweit Rechner und meiner Nitro+ 9070 XT in der Hauptkiste :)
 
Ja, das spräche dann bei Luftkühler wieder für die TUF und gegen die Prime. Ne, Binning glaub ich nicht und hat er vermutliuch auch nicht so gemeint. Aber eben der Kühler der TUF ist besser als jener der Prime. Aber vor dem Wasserblock und andren Tricks wären dann bei der XT in meinen Augen wieder beide gleich.
 
Also die Asus Prime 9060 XT mit 16GB ist ja echt ein süßes Kärtchen.
Nicht zu hören, immer so zwischen 50-60 Grad, taktet aus dem Stand in COD BO6 zwischen 3,2 - 3,4 GHz, kein Spulenfiepen etc.
Rundes Ding.

Mal schauen was mit ihr so geht Richtung UV.
PT werde ich wohl unberührt lassen bei dem geringen Verbrauch :d

Jetzt bin ich zufrieden aus der Kombi mit der Asus Prime 9060 XT im zweit Rechner und meiner Nitro+ 9070 XT in der Hauptkiste :)
Samsung Speicher verbaut?
 
Jetzt wirds ein wenig schräg. Niemand glaubt an besseres Binning der OC-Karten. Macht der Kühler einen guten Job, lassen sich die Non-OCs im Mittel genauso gut übertakten wie die teuren OC-Modelle. Dachte nicht, dass das heute noch Diskussionsthema ist. Und ja, Acer ist ein Ausfall, zumindest das dünne, billige Modell.
Ähm, nein ^^. Du kannst eine 270 - 276 W RX 9070 nicht mit einer 245 W RX 9070 vergleichen... Ja, Watt-für-Watt hast du Recht. Aber bei +10 % PT kann die "kleine" non-OC halt "nur" 245 W ziehen, während eine pre-OC-Karte bis 276 W ziehen kann (mit UV meist eher um die 270 W).
Beitrag automatisch zusammengeführt:

Mal was anderes: kann man mit einer Nvidia mit dem Dezember-Treiber (566.36) auch DLSS4 nutzen? Ist ja der letzte "gute" Treiber vor dem Bugwell-Launch. Kam DLSS4 eigentlich mit dem Black-not-well-Launch? Würde das gerne auf der RTX 4060m ausprobieren, aber die Bug-Treiber können die behalten. DLSS3 sieht in FullHD extrem schlimm aus. Da finde ich FSR4 1000x besser.
 
Zuletzt bearbeitet:
PPT ist ne andere Baustelle. Aber du hast recht, das geht meist Hand in Hand. Schreib übers Powerlimit, wenn du dich auf das Powerlimit beziehst. Sag Werks-OC dann, wenn du Werks-OC meinst. :)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh