[Sammelthread] Offizieller AMD [[ RX6700 // RX 6700XT // 6750XT // X6800 // 6800XT // 6900XT // 6950XT]] Overclocking und Modding Thread [[ Wakü - Lukü - LN2]]

.. ist was anderes als das:
Es sind zur Zeit alles Vermutungen ,ist ja klar.
Wenn AMD auf 4080 ti Niveau ist ,das reicht dann für die 4090 mit hoffentlich funktionierenden Mpt ,mit Spannung und PL Erhöhung im TS.
Nvidia lässt nicht ohne Grund so viel Platz zwischen 4080 und 4090.
Und dann hat Amd noch die 7950 -2023-
Es wird spannend.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Im Mindstar war gestern die OCF für 799€.
oder zum selben Preis
Die Strix-LC würde auch reichen und bei den guten Vram-Temps ala @Johnson73 net schlecht.



Bei so vielem grünen OT:
Bin mal gespannt ,wo @Ben87 mit ner 4080-12/16 so landet. (und dafür die XTXH mit Verlust verkauft)

aus techn. Sicht weiss ich net, ob Plague of Tale Requiem jetzt schon auf SER optimiert ist
(Games ohne SER würden dann noch schlechter laufen)
 

Anhänge

  • 4080.jpg
    4080.jpg
    57,1 KB · Aufrufe: 62
Zuletzt bearbeitet:
oder zum selben Preis
Die Strix-LC würde auch reichen und bei den guten Vram-Temps ala @Johnson73 net schlecht.



Bei so vielem grünen OT:
Bin mal gespannt ,wo @Ben87 mit ner 4080-12/16 so landet. (und dafür die XTXH mit Verlust verkauft)

aus techn. Sicht weiss ich net, ob Plague of Tale Requiem jetzt schon auf SER optimiert ist
(Games ohne SER würden dann noch schlechter laufen)

Wie kommst du darauf das ich mir so eine NVIDIA Karte holen werde?
Und wenn, dann verkaufe ich meine LC 😜
 
Du verkaufst die Toxic EE gebraucht für ca. 670 Tacken und holst ne 4080-16 für 1470€?
(für die geringe Mehrperf.)

1470-670= 800€ Aufpreis
rechne Das mal in Fps/€ um


Wie kommst du darauf das ich ...
Was sollte dann das ganze Gelaber gestern?
(wo Du noch net mal nen Plan von der 4080-16 Perf. hattest)
 
Zuletzt bearbeitet:
Du verkaufst die Toxic EE gebraucht für ca. 670 Tacken und holst ne 4080-16 für 1470€?
(für die geringe Mehrperf.)

1470-670= 800€ Aufpreis
rechne Das mal in Fps/€ um



Was sollte dann das ganze Gelaber gestern?
(wo Du noch net mal nen Plan von der 4080-16 Perf. hattest)
Das „Gelaber“ von gestern war eine Prognose meinerseits, nicht mehr und nicht weniger.

Ich sagte, dass die 7900 wahrscheinlich erstmal mit der 4080 konkurrieren wird. Weil: 4090 zu stark und 4080ti gibt es noch nicht!

Des Weiteren war ich davor der Meinung du hast zu viel Hoffnung, dass die XTXH mit der 4090 mithalten könnte…

Ich weiß auch garnicht wie du zur der Wirren Annahme kommst, dass ich eine Toxic EE besitze und diese gegen eine 4080 tauschen wollen würde.

Also belass es jetzt bitte dabei. Das nervt hier doch nur alle!
 
Ich sagte, dass die 7900 wahrscheinlich erstmal mit der 4080 konkurrieren wird.
= These (1) von Dir Gestern
Weil: 4090 zu stark und 4080ti gibt es noch nicht!
klingt doch schon ganz Anders
Des Weiteren war ich davor der Meinung du hast zu viel Hoffnung, dass die XTXH mit der 4090 mithalten könnte…
Hat nie Einer behauptet, sondern nur bezweifelt das ne 4080 soviel Mehrgewinn ist.(wg. 1)


Tue mir bitte einen Gefallen und bench mal The Divison 2 mit der Toxic, bevor Du die NV einbaust.
Vorher/Nacher bitte dann hier posten.

 

Anhänge

  • The-Division-2-4K-Highest-Settings.jpg
    The-Division-2-4K-Highest-Settings.jpg
    57,4 KB · Aufrufe: 73
  • NVIDIA-RTX4090FE-TheDivision2-2.jpg
    NVIDIA-RTX4090FE-TheDivision2-2.jpg
    44,3 KB · Aufrufe: 74
Zuletzt bearbeitet:
Ich werde leider Team Red treu bleiben!:hail: Wenn das P/L Verhältnis bei der 7900 XT einigermaßen passen sollte, werde ich hier upgraden aber kein NVIDIA!!!!!:stupid:
 
Ich möchte nur daran erinnern das vor RDNA 2 Launch auch keine Informationen verfügbar waren.

Grundsätzlich finde ich die Aussagen von Frau Su seit den Hardwarevorstellungen von Ryzen und RDNA belastbarer als die von Nvidia oder intel.
Weswegen +50% Performance pro Watt durchaus interessant klingen.

Evtl. hat nvidia deswegen schonmal die großen Kühler eingekauft und Platz zwischen 4080/16 GB und 4090 gelassen um dann mit der Brechstange reagieren zu können?

Aber Glaskugelei bringt keinem was.
Abwarten - Tee trinken - Vorstellung schauen - Tests abwarten und dann einkaufen oder auf die nächste Iteration warten.
 
Meine MSI RX 6700 XT Gaming X konnte ich kein bisschen untervolten oder übertakten, habe da jetzt einen Fehler gefunden wo ich immer noch nicht glauben kann das es daran lag.
Aber durch verschiedene Versuche muss es der Fehler gewesen sein.

Dies mit rot markierte Plastikscheibe war bei mir defekt und ich habe sie mit einem Ersatz aus 6 Lagen Kaptonband ersetzt.
Auf der darunter befindlichen Kupferfläche hat die Feder schon eine Riefe hinterlassen gehabt, das Teil muss schon beim Werkszusammenbau defekt gegangen sein.

Kann das so ein Fehler auslösen?
Nach meinen Tests wohl schon, falls jemand auch große Probleme mit seiner Karte hat diese Plastikscheiben mal kontrollieren.

RX 6700 XT PCB Bachsite.jpg


Jetzt läuft die Karte mit diesen Einstellungen seit ein paar Tagen und auch bei Spielen habe ich keinerlei Abstürze mehr oder es traten für kurze Zeit schwarze Bildschirme auf.
Auch die Schieberegler in die andere Richtung ist möglich, vorher war da nichts zu machen.
Egal was ich da eingestellt habe, alles brachte sofort Bluescreen oder Absturz.

1665670538733.png
 
Ich möchte nur daran erinnern das vor RDNA 2 Launch auch keine Informationen verfügbar waren.

Grundsätzlich finde ich die Aussagen von Frau Su seit den Hardwarevorstellungen von Ryzen und RDNA belastbarer als die von Nvidia oder intel.
Weswegen +50% Performance pro Watt durchaus interessant klingen.

Evtl. hat nvidia deswegen schonmal die großen Kühler eingekauft und Platz zwischen 4080/16 GB und 4090 gelassen um dann mit der Brechstange reagieren zu können?

Aber Glaskugelei bringt keinem was.
Abwarten - Tee trinken - Vorstellung schauen - Tests abwarten und dann einkaufen oder auf die nächste Iteration warten.
Das mit den 50% FPS mehr pro Watt hört man öfters und ist ja wirklich gut für eine neue Generation. Wenn man mal davon ausgeht, dass die ca 330 Watt einer sagen wir mal 6900 LC weiter gesetzt sind, kann man ja aufgrund der Benchmarks diverser Seiten ganz gut 50% Mehrleistung drauf rechnen. Da landet man dann ziemlich schnell zwischen der 4080 und 4090! Die einzelnen FPS kann man sich ja grob ausrechnen.

NVIDIA hat hier mit der 4090 sogar eine Generation übersprungen!
 
Amd bringt hier auf jeden Fall die größere Innovation.
Wenn das zum Schluß aufgeht,kann Amd die Leistung erhöhen wie bei den Ryzen.
Stichwort- Chiplets und MCM GPU's mit 3D Stacking.
 
Ihr seid ja drauf ich rechne immernoch mit einem Amd Hammer, aber halt für selber Macher :fresse2:
Die 4090 ist schnell keine Frage war aber auch so zu erwarten, aber in letzter Zeit stapelt AMD eher tief, von daher denke ich es wird je nach Anwendung ein Plus minus sein wird. Gut in raytracing mache ich mir keine Hoffnung aber da können die, die das wollen sich ja ne Nvidia leisten.
 
Das Problem mit den 50% mehr ist, das es evtl. nur für die 6950 gilt, die eeh etwas über Sweetspot läuft.
falls die "kleinere" 7900 XL mit 375W kommt sinds 375/335*1,5= 1,68
ob
die XT dann gleich den 3dCache bekommt oder erst später ne 7950, who knows.
Und ob sich AMD zu 3x8pin@450W hinreissen lässt, ... würde ja nur Sinn machen wenn Fps/MHz ordentlich skaliert.
(net das man ähnliche Auslastungsprobleme hat wie Ada, wo OCen net so einfach ist, kein linearer Gewinn)

Da kann man in Vorhersagen ganz leicht mal 20% danebenliegen.(und der komische chinesische Leaker hatte garantiert auch keinen
passenden Treiber mit OREO, und Igor auch net, um mal die bekannten Miesmuscheln zu nennen)

... , aber halt für selber Macher :fresse2:
hoffentlich hat dann MPT wieder Zugriff auf den fclk, ... könnte seeehr wichtig sein

edit:
Warum fclk so wichtig ist, zeigen die Spekulationen zur Hitrate in 5k.
 

Anhänge

  • 7000er Cache-Rate-Speku by Orko@3dC.jpg
    7000er Cache-Rate-Speku by Orko@3dC.jpg
    140,7 KB · Aufrufe: 70
Zuletzt bearbeitet:
Mich interessiert das Chipletdesign / die Umsetzung brennend.
5970 und 6990 (? meine ich?) hatten unter anderem ja 2 GPUs verbaut, quasi Crossfire auf einer Karte.

Jetzt mit der Erfolgsgeschichte um Zen, der Gerüchteküche um angebliche 4GHz Boost... da kribbelt es in den Fingern, die Neugierde will schreiend im Kreis laufen.
Wie sich die Karten schlagen werden, wer weiß.

Brauche endlich Benchmarks / nen Goldesel fürs selber kaufen.
 
Brauche endlich Benchmarks / nen Goldesel fürs selber kaufen
Brauche keine Benchmarks, die mache ich selber.
Ich brauche die GPU. Habe aber das Gefühl das wir am 3ten erstmal erfahren wann der Release ist.
 
Brauche keine Benchmarks, die mache ich selber.
Ich brauche die GPU. Habe aber das Gefühl das wir am 3ten erstmal erfahren wann der Release ist.
Wurde doch auch schon bestätigt das am 03 nur Ankündigung ist und Release gehen Ende November sein soll. Oder war das nur nen Gerücht?
 
Der Typ von dem ich viele infos damals bekommen hab ist leider nicht mehr im Business/:
 
Die Spatzen pfeifen vom Dach . 3D Leistung +-0 zur 4090 . RT Leistung 5-10 Prozent schneller als 3090ti.
 
Wurde doch auch schon bestätigt das am 03 nur Ankündigung ist und Release gehen Ende November sein soll. Oder war das nur nen Gerücht?
Eigentlich war der Wortlaut „Launch“ aber das kann man anscheinend neuerdings als Vorstellung verkaufen 🤣
 
@ApolloX du Drecksack, Schlangenaugen @snakeeyes hat schon ordentlich vorgelegt und Du musst noch einen draufsetzen. :bigok:

Schlangenaugen

Apollo

it's me
Beitrag automatisch zusammengeführt:

Die Spatzen pfeifen vom Dach . 3D Leistung +-0 zur 4090 . RT Leistung 5-10 Prozent schneller als 3090ti.

In diese Richtung würde ich auch vermuten..
 

wird man doch net etwa für 8k HDR10 brauchen
oder
4k HDR10 >>120Hz

Das Problem mit den 50% mehr ist, das es evtl. nur für die 6950 gilt, die eeh etwas über Sweetspot läuft.
falls die "kleinere" 7900 XL mit 375W kommt sinds 375/335*1,5= 1,68
bzw.
ne 7950 mit den kolportierten 420W von Enermax dann 420/335 x 1,5 = 1,88
(lässt sich dann sicher wie immer noch mit PL+10 weiter steigern, ... bei sinkender Effektivität ca. 200% Perf. ggü. 6950?)
 
Zuletzt bearbeitet:
Wow, die Strix 6900-LC inzwischen für 769€:
 
Wort des Tages "unlaunch"-Button

RTX4080-12 unlaunch Button.png


sorry für OT
 
Weil meine Hardware ausgereizt ist (und ich keine neue kaufe), hab ich mal wieder versucht, mit Systemoptimierungen ein paar Pünktchen/FPS rauszuholen. Dazu hab ich zunächst im UEFI Dinge getan, die man nicht tun sollte, nämlich Secure Keys gelöscht, DPM off und Virtualization off. Letzteres führt u. a. dazu, dass in Windows die Schutzmaßnahmen zu Kernisolierung und Speicherintegrität nicht mehr stattfinden. Außerdem hab ich das alte InSpectre reaktiviert und damit vermeintlich den Meltdown- und Spectre-Schutz deaktiviert. Ach, und den Echtzeit-Virenschutz abgeschaltet. Hält längstens bis zum nächsten Neustart; wer mein System angreifen möchte, sei dazu nun also herzlich eingeladen und möge sich sputen. ;)

Dann habe ich ThisIsWin11 auf mein 22H2 losgelassen und damit vor allem MS-Bloatware entfernt (aufpassen, das Tool macht Rundumschläge, wenn man es lässt) sowie die Privacy erhöht.

Ergebnis: Na ja, zumindest nicht nichts. Ertrag oberhalb der Messtoleranz.

Vorher
UV_TS24007.png

Nachher
UV_TS240120.png

In meinem neuen Lieblingsgame Horizon Zero Dawn sind die besten Benchmark-Runs damit auf 114 statt 112 FPS avg. gestiegen. Kann Zufall sein, muss aber nicht.

Speaking of HZD: Das ehemalige UV-Sorgenkind entpuppt sich als Musterknabe, wen man es sorgsam behandelt, sprich: den Maxtakt im Zaum hält. Schaut mal, womit das stundenlang stabil spielbar ist! Und dieses Setting schafft ebenfalls bis zu 114 FPS im HZD-Benchmark, GPU Asic Power ingame um 220-230 W.

UV350--.png

Durch Time Spy geht es (meistens) auch, allerdings mit Punktverlust gegenüber oben. Werden jedoch Nebenprogramme beendet, landet TS auch bei knapp 24K - mit max 335 Watt.

Ich glaube mittlerweile, dass der Kondensatoren-Mod, den @L!ME vor einem Jahr an meiner Ref durchgeführt hat, einen wesentlichen Anteil daran hat, dass ich das Teil undervolten kann wie ein Weltmeister. (Okay, Vize. @Devcom setzt ja immer noch einen drauf.) Diese Fähigkeit hab ich lange ignoriert, weil höher-schneller-weiter das einzige Ziel war. Aber besser spät als nie. :)
 
Zuletzt bearbeitet:
Hatte einen drauf gesetzt 😁
 
ch glaube mittlerweile, dass der Kondensatoren-Mod, den @L!ME vor einem Jahr an meiner Ref durchgeführt hat, einen wesentlichen Anteil daran hat
100%
Ich hatte ja seine LC da.
Noch nie eine GPU im PC gehabt die so smooth lief ,selbst meine XFX nicht.
Schau dir mal in der HOF FS ultra 5950x und 6900xt an.(TForce)
Da gibt es keine Gpu mit der Effizienz.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh