[Sammelthread] Offizieller AMD [[ RX6700 // RX 6700XT // 6750XT // X6800 // 6800XT // 6900XT // 6950XT]] Overclocking und Modding Thread [[ Wakü - Lukü - LN2]]

Hab jetzt mal UV vs OC getestet

2200/2114 Mhz @ 0.950V
ACValhalla_2021_05_05_21_55_28_962.jpg


2400/2114 Mhz @ 1.025V
ACValhalla_2021_05_05_21_59_07_419.jpg


Da finde ich das UV Setting um einiges besser. Auf die 6 FPS kann ich verzichten.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Majohandro Kann man so sehen. Denke ist individuell je nach Setup und Ansprüchen.

Ich habe das Spiel nicht, aber die RX 6800. Wenn ich das dann so interpoliere, komme ich bei 2500 MHz auf 109,3 FPS und mal realistisch prognostiziert auf 108 FPS. 108 / 99 = ~9 %. Scheint auf den ersten Blick nicht allzu viel, aber mit mehr Auflösung (in meinem Fall 3440 * 1440 oder gar je nach Anwendung 2160p) sind knapp 10 % Mehrleistung doch nicht übel.

Linear berechnet würde man mit 4k dann mit UV auf 44 FPS kommen (dürfte in der Praxis deutlich mehr sein, kommt mir jedenfalls sehr niedrig vor) und mit OC auf 48 FPS (+ 9 %). Das könnte schon bei einem 4k60-Freesync-Monitor den Unterschied zw. spielbar und nicht spielbar bedeuten. Ab 48 FPS fängt die Freesync-Range an.

Mit 3440 * 1440 und der linearen Interpolation sind es 74 FPS mit UV und 81 FPS (+ 9 %), was den Unterschied zwischen "gut flüssig" und "sehr gut flüssig" ausmacht. Als ich bei Forza Horizon 4 von 85 FPS-Frame-Limit auf 97 FPS-Frame-Limit gestellt habe, habe ich den Unterschied auch schon gut gespürt.

Ich hätte halt eine Nummer größer kaufen sollen damals, aber bin soweit relativ zufrieden. Die 25 % on-top sind ja auch etwa der Unterschied zw. RX 56 und VII gewesen und das war es mir damals auch wert und spürbar. Leider kann ich nicht alles "sorgenfrei" auf dem Ultra-Preset unter 3440 * 1440 mit "fluffiger" Frame-Rate (würde ab etwa 80 FPS als akzeptabel ansehen bei einem 100 Hz Monitor - mehr ist besser und merkbar wie gesagt) spielen. Ich hätte diese Generation gerne keine Kompromisse gemacht.

Bei RT sieht man das z.B. auch. In mittleren Details sind oft auch über 80 FPS drin, aber bei manchen NV-gesponsorten Titeln (Control, Quake 2 RTX, Cyberpunk ist leider noch fast unspielbar) muss ich auf die volle Breite des Monitors verzichten mit RT. Daher hoffe ich mal auf die Verwendung der AMD-optimierten Wave32-Instruktionen (da hat NV wohl aus dem Grund den Entwicklern die Empfehlung gegeben bei ihren Engines Wave64-Instruktionen zu bevorzugen - ein Schelm), die bis zu 20 % mehr Leistung in RT bringen sollen und auf FiFx SuperResolution.

Und ich will hoffen, dass SuperResolution meinen empfindlichen Augen zusagt. Wird auch nur ersichtlich, dass da etwas schlechtere Bildqualität dargestellt wird, werde ich das nicht anschalten. Meine Kumpels waren auch super enttäuscht von DLSS (Qualität) in Warzone und haben das ausgeschaltet (ok, da sind natürlich auch ohne DLSS viele FPS drin). Man muss sagen, dass die beiden absolute NVidia-Fans sind (, daher trotz Voreingenommenheit ihrerseits wohl zu schlecht für sie, was mich stark erstaunte, zumal sie auch nicht die sensibelsten Personen sind).

Ich werde da rage-quitten, wenn AMD das nicht in "von nativ ununterscheidbarer" Qualität hinbekommt. Ok, NV scheint das auch nicht ganz zu schaffen, aber falls die RT-Performance mit Super-Resolution sonst für genug FPS sorgen würde (auf einem Niveau mit NV etwa), aber ohne Super-Resolution auf jetzigem Niveau verbleiben würde dann bei schlechterer Bildqualität, würde ich mich getäuscht fühlen, denn es hieß von Anfang an: wartet auf unser DLSS-Pendant [, denn, ja die RT-Performance ist nicht soo super (oder so ähnlich)] (letzteres wurde nur in Benches gezeigt).
 
Das könnte schon bei einem 4k60-Freesync-Monitor den Unterschied zw. spielbar und nicht spielbar bedeuten. Ab 48 FPS fängt die Freesync-Range an.
Mein oller AOC-4k hat ab Werk ne Range von 40-60Hz. Mit CRU geht auch 34Hz Minimum einzustellen.
31-33Hz sind wg. des verbauten Chips oft net sauber. 30Hz geht dann wieder.
(den guten AOC hatte ich 2016 zusammen mit RX480cf angeschafft)

Hier mal ein Bild mit 45fps: .. kann schnell mal mit RT vorkommen
(der olle 4k macht auch in 1080p gute Bilder, wahrscheinlich weil dann 1 Bildpunkt=4x quasi IntegerScaling)
 

Anhänge

  • Showcase1080p_2493@937mV.jpg
    Showcase1080p_2493@937mV.jpg
    360 KB · Aufrufe: 60
  • AOC.JPG
    AOC.JPG
    17,3 KB · Aufrufe: 61
Zuletzt bearbeitet:
Ich denke höher macht keinen Unterschied, ist wohl so weil mein 650W Netzteil an der Grenze ist. Mit dem 850W haben bei mir GPU und CPU höher geboostet.

Das Netzteil selbst bringt auch nicht mehr FPS. Es kann halt sein das die GPU zu wenig Saft bekommt und dadurch etwas weniger Leistung generiert und in einer Art kleinem Notlauf läuft... Springt man aber unweigerlich über einen bestimmten Wert schaltet das Netzteil ab.
Was auch sein kann, wenn man ein neues Netzteil einbaut, macht man ja den PC komplett Stromlos und da könnten sich eventuell ein paar verbuggte Sachen in Luft auflösen.

Ersteres zeigt zumindest genau bei dir den Fall, da deine Komponenten nun höher boosten können...
 
Das Netzteil selbst bringt auch nicht mehr FPS. Es kann halt sein das die GPU zu wenig Saft bekommt und dadurch etwas weniger Leistung generiert und in einer Art kleinem Notlauf läuft... Springt man aber unweigerlich über einen bestimmten Wert schaltet das Netzteil ab.
Was auch sein kann, wenn man ein neues Netzteil einbaut, macht man ja den PC komplett Stromlos und da könnten sich eventuell ein paar verbuggte Sachen in Luft auflösen.

Ersteres zeigt zumindest genau bei dir den Fall, da deine Komponenten nun höher boosten können...

Ja ist definitiv ersteres, hab dann zum Vergleich wieder das 650W eingebaut und hatte direkt wieder 400 Punkte weniger. Danach wieder 850W eingebaut und wieder 400 Punkte mehr. GPU hatte auch ca. 50MHz mehr mit 850W Netzteil und meine CPU ist auf 4270MHz geschossen, was ich vorher auch noch nie hatte.
 
@Majohandro Kann man so sehen. Denke ist individuell je nach Setup und Ansprüchen.

Ich habe das Spiel nicht, aber die RX 6800. Wenn ich das dann so interpoliere, komme ich bei 2500 MHz auf 109,3 FPS und mal realistisch prognostiziert auf 108 FPS. 108 / 99 = ~9 %. Scheint auf den ersten Blick nicht allzu viel, aber mit mehr Auflösung (in meinem Fall 3440 * 1440 oder gar je nach Anwendung 2160p) sind knapp 10 % Mehrleistung doch nicht übel.

Linear berechnet würde man mit 4k dann mit UV auf 44 FPS kommen (dürfte in der Praxis deutlich mehr sein, kommt mir jedenfalls sehr niedrig vor) und mit OC auf 48 FPS (+ 9 %). Das könnte schon bei einem 4k60-Freesync-Monitor den Unterschied zw. spielbar und nicht spielbar bedeuten. Ab 48 FPS fängt die Freesync-Range an.

Mit 3440 * 1440 und der linearen Interpolation sind es 74 FPS mit UV und 81 FPS (+ 9 %), was den Unterschied zwischen "gut flüssig" und "sehr gut flüssig" ausmacht. Als ich bei Forza Horizon 4 von 85 FPS-Frame-Limit auf 97 FPS-Frame-Limit gestellt habe, habe ich den Unterschied auch schon gut gespürt.

Ich hätte halt eine Nummer größer kaufen sollen damals, aber bin soweit relativ zufrieden. Die 25 % on-top sind ja auch etwa der Unterschied zw. RX 56 und VII gewesen und das war es mir damals auch wert und spürbar. Leider kann ich nicht alles "sorgenfrei" auf dem Ultra-Preset unter 3440 * 1440 mit "fluffiger" Frame-Rate (würde ab etwa 80 FPS als akzeptabel ansehen bei einem 100 Hz Monitor - mehr ist besser und merkbar wie gesagt) spielen. Ich hätte diese Generation gerne keine Kompromisse gemacht.

Bei RT sieht man das z.B. auch. In mittleren Details sind oft auch über 80 FPS drin, aber bei manchen NV-gesponsorten Titeln (Control, Quake 2 RTX, Cyberpunk ist leider noch fast unspielbar) muss ich auf die volle Breite des Monitors verzichten mit RT. Daher hoffe ich mal auf die Verwendung der AMD-optimierten Wave32-Instruktionen (da hat NV wohl aus dem Grund den Entwicklern die Empfehlung gegeben bei ihren Engines Wave64-Instruktionen zu bevorzugen - ein Schelm), die bis zu 20 % mehr Leistung in RT bringen sollen und auf FiFx SuperResolution.

Und ich will hoffen, dass SuperResolution meinen empfindlichen Augen zusagt. Wird auch nur ersichtlich, dass da etwas schlechtere Bildqualität dargestellt wird, werde ich das nicht anschalten. Meine Kumpels waren auch super enttäuscht von DLSS (Qualität) in Warzone und haben das ausgeschaltet (ok, da sind natürlich auch ohne DLSS viele FPS drin). Man muss sagen, dass die beiden absolute NVidia-Fans sind (, daher trotz Voreingenommenheit ihrerseits wohl zu schlecht für sie, was mich stark erstaunte, zumal sie auch nicht die sensibelsten Personen sind).

Ich werde da rage-quitten, wenn AMD das nicht in "von nativ ununterscheidbarer" Qualität hinbekommt. Ok, NV scheint das auch nicht ganz zu schaffen, aber falls die RT-Performance mit Super-Resolution sonst für genug FPS sorgen würde (auf einem Niveau mit NV etwa), aber ohne Super-Resolution auf jetzigem Niveau verbleiben würde dann bei schlechterer Bildqualität, würde ich mich getäuscht fühlen, denn es hieß von Anfang an: wartet auf unser DLSS-Pendant [, denn, ja die RT-Performance ist nicht soo super (oder so ähnlich)] (letzteres wurde nur in Benches gezeigt).
Wenn ich jetzt in BF5 2K Native und 4K über den Treiber vergleiche, sehe ich keinen Unterschied.
Ich habe mir auch schon ab und zu gedacht, warum hast du nicht eine 6800XT oder 6900XT genommen ( wo die Preise noch nicht ganz so hoch waren).

Wenn ich dann aber die 6800 mit meiner alten 1080Ti vergleiche, ist das schon ein großer Sprung ( ca 50-60% mehr Performance) bei weniger Verbrauch. Dazu kommen noch die 16 Gb Vram. Da hat AMD alles richtig gemacht ( auch wenn s kein DDR6X Speicher ist)
Die 3080 und die kommende 3080Ti haben für das Geld und die Leistung zu wenig Speicher

Alles in allem bin ich zufrieden mit der Karte und sie wird mindestens bis Ende nächsten Jahres ihren Dienst tun ( solange sie nicht kaputt geht).

Morgen Abend fange ich mit RE Village an. Die Demo lief schon super in 4 K Max Settings. Hoffe das Game läuft morgen bei Release vernünftig.

Manche Spiele laufen bei AMD nicht ganz so gut und umgekehrt genau so. Ich hoffe das AMD ihre Treiber verbessert und das langsam auf Niveau von Nvidia bringt. Gut bei Nvidia ist auch nicht alles Gold was glänzt.

RT interessiert mich nicht wirklich. Momentan brauche ich das nicht wirklich und deswegen habe ich auch eine AMD Karte genommen. Vielleicht ändert sich irgendwann meine Meinung dazu, aber momentan ist gute Grafik und flüssiges Gameplay wichtiger, als irgendwelche Spiegelungen oder Lichteffekte.


Wenn ich das nächste mal bei einem Kumpel bin, dann schaue ich mir DLSS mal genauer an. Mal schauen ob mir was auffällt.
 
Zuletzt bearbeitet:
Ich hatte mich gestern mal am MPT versucht... leider nur mit mäßigem Erfolg. Daher muss ich hier noch mal nachfragen. Ohne MPT, bin ich mit folgendem Profil ganz gut durch die Benchmarks gefahren:

GPU OC Profil 1.jpg

Mit dem MPT habe ich folgende Profile verwendet:

MPT Profile.jpg

Im Wattman war dabei folgendes eingestellt:

GPU OC Profil 2.jpg

Ich hatte anfangs auch 2.575 - 2.675 Mhz, was in Port Royal auch durchlief und auch mit mehr Punkten (11.083), aber in Timespy wurde der Benchmark ziemlich schnell immer abgebrochen. Was ich nicht verstehe, in Port Royal läuft der Benchmark durch und die Karte zieht sich ihre 370w, aber Timespy läuft überhaupt nicht und in Firestrike zieht sich die Karte gerade mal 230-240w, was sich natürlich auch in den Punkten niederschlägt. Kann mir jemand sagen, woran das liegen mag?

Sicherheitshalber frage ich noch mal zum Ablauf mit dem MPT nach, vielleicht habe ich ja irgendwas übersehen. Ich bin dabei wie folgt vorgegangen: 6900XT im MPT laden --> eingestelltes Profil laden --> Write SPPT --> Restart --> Wattman geöffnet und oben genannte Einstellungen (Profil 2) übernommen --> Benchmark gestartet. Warum die 370w in dem einen Benchmark durchlaufen, aber nicht in dem anderen, kann ich mir irgendwie nicht erklären. Ich bin auch von den MHz-Werten deutlich runtergegangen, aber Timespy bricht nach wie vor relativ schnell ab und Firestrike zieht nur die besagten 230-240w. Hatte auch 1175mV probiert, jedoch hat sich nichts geändert.
 
Ich hab eine generelle Frage zum OC.

Wenn der Screen flackert und schon die einen oder anderen Pixel bunt werden, worauf deutet das eher hin? Zu hoher Takt? Zu hohe Temperatur?

Was kann ich tun? MPT erhöhen?
 
Wenn der Screen flackert und schon die einen oder anderen Pixel bunt werden, worauf deutet das eher hin?

In der Regel ist das dann ein guter Zeitpunkt die Spannung an zu heben.
Mit dem Takt gehe ich immer erst dann runter, wenn nichts mehr anderes hilft.
 
In der Regel ist das dann ein guter Zeitpunkt die Spannung an zu heben.
Mit dem Takt gehe ich immer erst dann runter, wenn nichts mehr anderes hilft.

HEHE, GIIIIIBBBB IIIIHHHHHMMMM

Evtl. könnte man mit dem Takt runter um nen Sweet-Point zu finden..= :-)
Also ich hatte Pixelfehler immer dann, wenn Graka-RAM zu hoch getaktet war
 
HEHE, GIIIIIBBBB IIIIHHHHHMMMM

Evtl. könnte man mit dem Takt runter um nen Sweet-Point zu finden..= :-)
Also ich hatte Pixelfehler immer dann, wenn Graka-RAM zu hoch getaktet war
Kann ich ausschließen, der läuft bei 2100Mhz ohne Probleme

In der Regel ist das dann ein guter Zeitpunkt die Spannung an zu heben.
Mit dem Takt gehe ich immer erst dann runter, wenn nichts mehr anderes hilft.

okay ich prüfe mal mit 1175
 
Ich habe mir auch schon ab und zu gedacht, warum hast du nicht eine 6800XT oder 6900XT genommen ( wo die Preise noch nicht ganz so hoch waren).
Ich habe am ersten Tag (bei Release) eigentlich die Entscheidung gefasst die 6800 XT oder keine Karte. Da die Radeon VII schon seit Monaten verkauft und die GTX 1060 viel zu schwach für UWQHD war (und zudem eine Leihgabe), hatte ich eigentlich keine Wahl, als nach mehreren Stunden F5-Drücken die letzte RX 6800 Deutschlands bei Alternate dann doch verfügbar war, weil jemand diese im Warenkorb hatte und dann die Karte doch nicht zahlen konnte oder wollte.

Im Nachhinein eine super-gute Entscheidung, da ich bisher sehr viel Spaß mit der Karte hatte (anfängliche Treiberprobleme ausgenommen). Auch der Preis erscheint rückblickend als human (, obwohl die Karte sogar teurer war als so manche XT am ersten Tag). Wäre ich nicht so ein hoffnungsloser Doomer, der nicht nur ahnte, sondern schon fast wusste: "entweder jetzt oder nie / oder super teuer", wäre mir die Entscheidung nochmal schwerer gefallen.

Viel Zeit blieb mir da nicht. Konnte vllt. 5 s nachdenken darüber. Auch purzelten die ersten Reviews ja erst ab 17 Uhr ein, was ja der Verkaufsstart war und die Entscheidungsfindung wurde etwas erschwert, da die RT-Performance erst ab 17 Uhr bekannt war. War halt schwierig: man musste auf der Lauer sein, bis die Seiten wieder erreichbar waren und im Falle von Alternate, die Karten abklappern mit F5, die nur reserviert waren.
Wenn ich dann aber die 6800 mit meiner alten 1080Ti vergleiche, ist das schon ein großer Sprung ( ca 50-60% mehr Performance) bei weniger Verbrauch.
Ja, so geht es mir auch. Ich hatte aber eine Radeon VII. Je nach Game irgendwo zw. 1080 Ti und 2080 Super, aber ich denke meist so im Bereich 2080 (ungefähr 1080 Ti) von der Performance anzusiedeln. Also auch etwa soviel Performance-Uplift.
Die 3080 und die kommende 3080Ti haben für das Geld und die Leistung zu wenig Speicher
Ich war in dieser Generation sogar gewillt die 3080 zu kaufen, aber die konnten nichts liefern ^^. Als die Radeons vorgestellt wurden, bin ich wieder zur Vernunft gekommen. Das war das viel bessere Angebot bzgl. VRAM als die 3080. Die Wochen als die 3080 Entscheidung im Raum stand, habe ich mir viele Gedanken über die VRAM-Problematik gemacht.
Die Demo lief schon super in 4 K Max Settings.
Demo war super und hat sogar mir als kein großer Fan des Genres, Lust auf das Spiel gemacht. Ich hoffe das Spiel geht eher Richtung Story und ist dadurch auch so motivierend wie The Evil Within. So puren Horror ohne Entspannungsmomente und ohne Motivation durch Geschichte, kann ich mir nicht geben.

Bzgl. RT: Control und Quake 2 RTX sind mMn schon geil. Metro, SOTTR und Warzone waren schon grafische Enttäuschungen bzgl. RT (kaum Unterschiede). Cyberpunk 2077 sieht auch ohne RT ähnlich aus. Leidet halt am Problem von Battlefield 5: RT war da schon ziemlich ansehnlich, aber wo kommt es in dieser Spiele-Realität zu übertriebener Anhäufung von Spiegelungen? Evtl. mal eine Pfütze unter einem Flugzeug oder ein Pfütze auf der Straße oder so, aber eigentlich müsste man da ein Spiel um Raytracing stricken... Z.B. ein Horrorspiel in einem Geisterhaus mit Spiegelkabinett. Oder so eine Verfolgungssituation, wo man unauffällig in Spiegelungen schauen muss während der Flucht, um festzustellen, wo der Verfolger ist.

Denke, die beste Anwendung von RT ist global Illumination, aber das kann man ja auch schon performanter mit dem RTGI-ReShade-Shader haben (ok, das ist Screen-Space und es krisselt leicht).

Auf der anderen Seite ist Resident Evil 8 eigentlich nur durch RT überhaupt ansehnlich. Ich freue mich dann auf Metro Exodus Enhanced.
dann schaue ich mir DLSS mal genauer an
Das ist der Elefant im Raum. Da bin ich gespannt.

@Induktor Du hast beim 2ten Profil die SoC-Spannung angehoben über das Maximum. Evtl. liegen die Instabilitäten ja daran.
Zu hoher Takt? Zu hohe Temperatur?
Zu niedrige Spannung, zu hoher VRAM-Takt. Alles möglich. SoC-Spannung könnte hier auch zu niedrig sein.
 
Du hast beim 2ten Profil die SoC-Spannung angehoben über das Maximum. Evtl. liegen die Instabilitäten ja daran.
Ok, wenn sich heute Abend die Zeit findet, probiere noch ein paar Settings durch. Das mit der SoC-Spannung hatte ich von Holzmann's Profil übernommen, da ich nicht wusste, wo ich bei meinem Problem anfangen soll. Würde aber behaupten, dass das durch nen Tick schlechter war. Statt nach paar Sekunden, wurde direkt im Timespy abgebrochen.

Gibt's sonst wegen Ablauf und Einstellungen mit Wattman und MPT noch was auszusetzen/ zu verbessern? Leistungsgrenze bleibt 0% stehen, soweit ich das weiß. Ist der Restart eigentlich zwingend erforderlich, nachdem man das SPPT-Profil geschrieben hat?

@Holzmann, sind die 380w eigentlich safe und welches Wattman-Profil verwendest du dazu? Damit ich zumindest schon mal grob ein Anhaltspunkt haben. Haben ja beide die XFX 6900XT, nur das ich die Black habe. Bezüglich 380w, ich mein mal gelesen zu haben, dass das VRM von XFX das wohl noch mitmacht. Kannst du da was zu sagen?
 
sind die 380w eigentlich safe und welches Wattman-Profil verwendest du dazu? Damit ich zumindest schon mal grob ein Anhaltspunkt haben. Haben ja beide die XFX 6900XT, nur das ich die Black habe. Bezüglich 380w, ich mein mal gelesen zu haben, dass das VRM von XFX das wohl noch mitmacht. Kannst du da was zu sagen?

Ja 380 Watt ist save im MPT für das Power Limit

Dann zeig mal was deine Karte so an Takt macht in Time Spy oder so... (y)
 

Anhänge

  • nn.JPG
    nn.JPG
    79 KB · Aufrufe: 77
MPT 380w + Wattmann auf +15%? Ich dachte das soll auf 0% bleiben, weil Wattman sonst das MPT-Profil überschreibt.
 
@Induktor Probier mal bitte 2100 MHz FT. Meiner Erfahrung nach sind 2130 MHz FT schon grenzwertig und könnte auf zu viel VRAM-Frequenz hindeuten. Ich kann z.B. bis 2128 MHz FT einstellen und darüber verliere ich bis zu 1000 GPs in TimeSpy. Macht für mich halt auch wenig Sinn dann über 2120 FT einzustellen und da ich lieber etwas Puffer zu instabilen Settings habe, lasse ich das Ganze lieber auf 2100 FT (rächt sich dann ein wenig beim Mining).

Auch bitte die 15 % PT setzen, falls es doch nicht am VRAM lag. Im Notfall dann 370 W / 1,15 rechnen und als Power-Limit eintragen, falls die Intention war auf keinen Fall mehr als 370 W zu verbrauchen.

Hör da nicht auf Onkel Holzmann, der ist ein wenig "extrem"...

Edit: das kann jedenfalls nicht ganz gesund sein da über 450 W zu verballern. Naja, kann ich ja auch irgendwo verstehen, nur "safe", uff, da wäre ich vorsichtig...
 
Ich habe jetzt das Problem, dass ich in der MPT Auswahl 2 Grafikkarten habe 0 und 01, woran könnte das liegen ?
 

Anhänge

  • nn.JPG
    nn.JPG
    131,3 KB · Aufrufe: 55
Hör da nicht auf Onkel Holzmann, der ist ein wenig "extrem"...
😄 Ja, der probiert gerne aus... Das hab ich schon mitbekommen.


Auch bitte die 15 % PT setzen, falls es doch nicht am VRAM lag. Im Notfall dann 370 W / 1,15 rechnen und als Power-Limit eintragen, falls die Intention war auf keinen Fall mehr als 370 W zu verbrauchen.
Ich wollte zumindest zu Beginn nicht übertreiben und einigermaßen "safe" bleiben, auch aus kühlungstechnischen Gründen. 370w (HWinfo --> GPU ASIC Power) war zumindest noch problemlos kühlbar. GPU Hotspot Temp hat kurzzeitig die 90°C Marke angekratzt, aber ich denke, nicht der Rede wert. Wo genau soll ich das 425,5w (370w x 1,15) Limit eintragen?

Das VRAM habe ich zumindest mit dem Wattman relativ ausgiebig im 3D-Mark getestet. +150 scheint nicht immer stabil zu sein, +130 ging eigentlich die meiste Zeit, zumindest mit dem Setting (Profil 1) über Wattman. Ich teste aber die +100 auf jeden Fall auch mal, vielleicht lag's ja wirklich daran.

Eine Sache noch, weil ich mittlerweile beides gesehen habe und zwar wird im MPT empfohlen den TDC Limit GFX (A) immer etwas über dem Power Limit GPU (W) zu stellen, aber viele Profile sagen was anderes aus. Was stimmt denn nun? Wie hoch sollte das TDC Limit bei 370w denn sein?
 
Wo genau soll ich das 425,5w (370w x 1,15) Limit eintragen?
Ich fände ein Hochtasten von 320 W * 1,15 = 368 W für sinnvoll. Ich mag das Konzept von Power-Target. Nimm soviel wie du brauchst obendrauf, wenn du es für nötig hältst (PT + 15 % z.B.), besser als du darfst so und soviel ziehen. Das dürfte auch so etwa der Unterschied sein dabei. In den SPPTs steht ein Power-Limit GPU. Das "muss" ja nicht erreicht werden, aber es ist dann gestattet und so Power-Limitiert das Ganze bei 80 CUs zu sein scheint, wird meist das Limit völlig ausgeschöpft. Also hast du eine relativ vernünftige Range von 320..350 W. Ab du würde ich das Ganze nicht ohne Wasserkühlung betreiben wollen und das wäre mMn schon xtreme-OC (360+ W * 1,15 [+0 bis +15 %]).

Eine Sache noch, weil ich mittlerweile beides gesehen habe und zwar wird im MPT empfohlen den TDC Limit GFX (A) immer etwas über dem Power Limit GPU (W) zu stellen, aber viele Profile sagen was anderes aus. Was stimmt denn nun? Wie hoch sollte das TDC Limit bei 370w denn sein?
Lade dir bitte die neuste HWInfo-Version. Da siehst du inwieweit du irgendwelche Limits mit deinen eigenen Frequenzen und Settings knackst. Ich würde sagen bzgl. Limits, dass im TimeSpy meist eine Stelle 100 % erreichen wird hins. Power-Limit GPU.

Ich fände da eine Metrik: "in wie viel % der Zeit wird Limit x erreicht" sinnvoller. So sieht man nur die Avg. und das ist halt schwierig. Man müsste es per Tastenkombination schaffen zumindest den 2ten Durchlauf komplett von Anfang bis zum Ende aufzuzeichnen (und keine ms mehr, da der Avg. dann schon verfälscht wird). Vllt. taugt das CapFrameX für sowas (besser)...

TDC-Limit sollte maximal zu 90 % geknackt werden. Da das Power-Limit, das Takt-Ziel, das Temp-Limit und im schlimmsten Fall ein Sensor auf der GPU limitieren, könntest du auch 1000 A da draufschmeißen ohne große vermutete Komplikationen, aber: natürlich im Teillast-Bereich, wenn die Spannung niedrig ist, ist es nicht ausgeschlossen, dass da hohe Peaks hins. Ampere stattfinden.
 
Ich habe am ersten Tag (bei Release) eigentlich die Entscheidung gefasst die 6800 XT oder keine Karte. Da die Radeon VII schon seit Monaten verkauft und die GTX 1060 viel zu schwach für UWQHD war (und zudem eine Leihgabe), hatte ich eigentlich keine Wahl, als nach mehreren Stunden F5-Drücken die letzte RX 6800 Deutschlands bei Alternate dann doch verfügbar war, weil jemand diese im Warenkorb hatte und dann die Karte doch nicht zahlen konnte oder wollte.
Ich habe meine von Mindfactory und ich hatte schon gezögert weil der Preis 150 Euro über UVP war. heute sage ich Gott sei dank habe ich es gemacht.

Im Nachhinein eine super-gute Entscheidung, da ich bisher sehr viel Spaß mit der Karte hatte (anfängliche Treiberprobleme ausgenommen). Auch der Preis erscheint rückblickend als human (, obwohl die Karte sogar teurer war als so manche XT am ersten Tag). Wäre ich nicht so ein hoffnungsloser Doomer, der nicht nur ahnte, sondern schon fast wusste: "entweder jetzt oder nie / oder super teuer", wäre mir die Entscheidung nochmal schwerer gefallen.

Viel Zeit blieb mir da nicht. Konnte vllt. 5 s nachdenken darüber. Auch purzelten die ersten Reviews ja erst ab 17 Uhr ein, was ja der Verkaufsstart war und die Entscheidungsfindung wurde etwas erschwert, da die RT-Performance erst ab 17 Uhr bekannt war. War halt schwierig: man musste auf der Lauer sein, bis die Seiten wieder erreichbar waren und im Falle von Alternate, die Karten abklappern mit F5, die nur reserviert waren.

Ich hatte mir auch kurz die Frage gestellt ob ich sicher bin und eine AMD Karte wollte ( die letzte war ein R9 280x Matrix im CF, man waren das Zeiten) , da AMD ja immer öfter Probleme mit Treibern hatte/hat.
Da aber AMD im CPU/GPU Segment einen nach dem anderen raushaut, wollte ich AMD einfach Supporten/Belohnen und hab sie dann bestellt. Bereue ich es? NEIN. Das einzige was mich nervt ist, dass bei 144 Hz der Ramtakt auf max läuft und die Karte im idle 30 Watt frisst. Gut mir 120 Hz auf dem Desktop kann man das ja umgehen.

Ja, so geht es mir auch. Ich hatte aber eine Radeon VII. Je nach Game irgendwo zw. 1080 Ti und 2080 Super, aber ich denke meist so im Bereich 2080 (ungefähr 1080 Ti) von der Performance anzusiedeln. Also auch etwa soviel Performance-Uplift.

Ich war in dieser Generation sogar gewillt die 3080 zu kaufen, aber die konnten nichts liefern ^^. Als die Radeons vorgestellt wurden, bin ich wieder zur Vernunft gekommen. Das war das viel bessere Angebot bzgl. VRAM als die 3080. Die Wochen als die 3080 Entscheidung im Raum stand, habe ich mir viele Gedanken über die VRAM-Problematik gemacht.
Wo bekannt wurde bzw. es fest stand das Nvidia nur 10 GB bei der 3080 verbaut, war das Thema erledigt. Einen kurzes aufhorchen gab es, wo das Gerücht die runde machte, dass Nvidia eine 3080 bringt, die 20 Gb Speicher hat. Tcha, die 3080ti mit 12 gb wird auch weggehen wie warme Semmeln.
Demo war super und hat sogar mir als kein großer Fan des Genres, Lust auf das Spiel gemacht. Ich hoffe das Spiel geht eher Richtung Story und ist dadurch auch so motivierend wie The Evil Within. So puren Horror ohne Entspannungsmomente und ohne Motivation durch Geschichte, kann ich mir nicht geben.

Hab den Key heute schon bekommen, aber kann erst morgen spielen. Schade!
Bzgl. RT: Control und Quake 2 RTX sind mMn schon geil. Metro, SOTTR und Warzone waren schon grafische Enttäuschungen bzgl. RT (kaum Unterschiede). Cyberpunk 2077 sieht auch ohne RT ähnlich aus. Leidet halt am Problem von Battlefield 5: RT war da schon ziemlich ansehnlich, aber wo kommt es in dieser Spiele-Realität zu übertriebener Anhäufung von Spiegelungen? Evtl. mal eine Pfütze unter einem Flugzeug oder ein Pfütze auf der Straße oder so, aber eigentlich müsste man da ein Spiel um Raytracing stricken... Z.B. ein Horrorspiel in einem Geisterhaus mit Spiegelkabinett. Oder so eine Verfolgungssituation, wo man unauffällig in Spiegelungen schauen muss während der Flucht, um festzustellen, wo der Verfolger ist.

Denke, die beste Anwendung von RT ist global Illumination, aber das kann man ja auch schon performanter mit dem RTGI-ReShade-Shader haben (ok, das ist Screen-Space und es krisselt leicht).

Auf der anderen Seite ist Resident Evil 8 eigentlich nur durch RT überhaupt ansehnlich. Ich freue mich dann auf Metro Exodus Enhanced.

Das ist der Elefant im Raum. Da bin ich gespannt.

Bin auch mal gespannt, wie das game morgen so läuft. Schade ist nur, dass das game nur 13-15 Spielstunden haben soll. Das ärgert mich dann doch ein bisschen.
 
Bin auch mal gespannt, wie das game morgen so läuft. Schade ist nur, dass das game nur 13-15 Spielstunden haben soll. Das ärgert mich dann doch ein bisschen.
Lieber 10 Stunden gut unterhalten, als 50 Stunden gelangweilt. Hatte z.T. die besten Erfahrungen mit kurzen Story-Spielen. Man kann halt alles voller dichter Momente stopfen, oder den Spieler auf sinnlose Neben- oder Sammelquests schicken. Das stößt mir bei vielen Open-Worlds so negativ auf. Man kann Open-World gut machen (s. Horizon Zero Dawn z.B. oder Metro Exodus, oder Stalker, oder GTA 5).

Cyberpunk würde ich eher als Story-Spiel und nicht als Open-World sehen, denn die Open-World besteht da aus manuellem Hinreisen zu Missionen. Selten so eine tote Welt gesehen, aber dennoch super unterhaltsam das Spiel trotz gelegentlichen "atmosphärischen" Glitches.

Ich war nur super enttäuscht von RDR 2, denn ich hatte mich da extrem drauf gefreut. GTA-Entwickler -> Check, geile Story -> Check, Grafik -> Check, aber: das Spiel... Wo soll das noch ein Spiel sein? Ich darf gefühlt 20 % des Spiels den Hauptcharakter bei Animationen beobachten, die ich weder skippen kann, noch habe ich in der Zeit Kontrolle über die Figur. Ich spiele mich von Animation zu Animation.

Ich liebe Looten und habe, bis ich alles gelootet habe in der Zug-Mission am Anfang, ungelogen 30 Minuten gebraucht. Wo war da die Action? 5 Minuten wie ein unverwundbarer Super-Held alles umgeholzt und dann eine 15 Minuten looten, Szenenwechsel, 5 Minuten Action, 15 Minuten looten (dabei 60 % der Zeit Animationen zuschauen). War für mich Geldverschwendung. Das Spiel nimmt mir jegliche Freiheit und langweilt mich dabei zu Tode. Darf jeder anders sehen. Ich kann verstehen, wenn jemand da frustresistenter ist und nicht so der "Looter", aber ich lasse mir von R* meinen Spielstil nicht vorschreiben. Es hätte das Spiel des Jahrtausends werden können, sagt mir aber so null zu.
Da aber AMD im CPU/GPU Segment einen nach dem anderen raushaut, wollte ich AMD einfach Supporten/Belohnen und hab sie dann bestellt. Bereue ich es? NEIN. Das einzige was mich nervt ist, dass bei 144 Hz der Ramtakt auf max läuft und die Karte im idle 30 Watt frisst. Gut mir 120 Hz auf dem Desktop kann man das ja umgehen.
Das ist mir auch ausgefallen. Nur AMD mochte meinen Haupt-Monitor eine lange Zeit lang nicht gut leiden, oder der Monitor ist doof (eher das). Denn, startete ich ein Spiel war die Wahrscheinlichkeit mit den alten Treibern super hoch, dass der Monitor ausging (auch ohne OC). Mittlerweile passiert das auch noch manchmal, aber doch recht selten, zumal ein besseres DP-Kabel da Besserung brachte.
 
Ich fände ein Hochtasten von 320 W * 1,15 = 368 W für sinnvoll. Ich mag das Konzept von Power-Target. Nimm soviel wie du brauchst obendrauf, wenn du es für nötig hältst (PT + 15 % z.B.), besser als du darfst so und soviel ziehen. Das dürfte auch so etwa der Unterschied sein dabei. In den SPPTs steht ein Power-Limit GPU. Das "muss" ja nicht erreicht werden, aber es ist dann gestattet und so Power-Limitiert das Ganze bei 80 CUs zu sein scheint, wird meist das Limit völlig ausgeschöpft. Also hast du eine relativ vernünftige Range von 320..350 W. Ab du würde ich das Ganze nicht ohne Wasserkühlung betreiben wollen und das wäre mMn schon xtreme-OC (360+ W * 1,15 [+0 bis +15 %]).
Ok, alles klar. Jetzt verstehe ich, was du meinst. Ja, das hört sich alles sehr vernünftig an. Wahrscheinlich werde diesen Weg (bis hoch auf 368w) auch gehen. Ich probiere mal ein bisschen aus und berichte wieder. Schon mal danke an alle, die auf meine Fragen eingegangen sind und überhaupt an alle, die irgendwelche Erfahrungswerte teilen. Hilft ja auch anderen.
 
@Induktor

Lass doch mal mit deiner Black ein Time Spy raus. 😜
 
Habe mir heute auch mal den Fenster Mod zu nutze gemacht, vielmehr ist hier wohl nicht drin da die GPU bei Fünf Megaherz mehr abkackt. Ob Liquid Metal hier noch was bringt muss ich testen.
 

Anhänge

  • Superposition_Benchmark_18273k.png
    Superposition_Benchmark_18273k.png
    467,7 KB · Aufrufe: 62
Lass doch mal mit deiner Black ein Time Spy raus.
Als ob ich hier großartig wen knacken könnte. Wäre schon froh, wenn ich mein eigenen Score verbessern kann. Naja, immerhin hat's mit Cinebench (siehe Signatur) gestern hingehauen. Zumindest weiß ich jetzt wo der 5800x wirklich seine Grenzen hat. Würde schon gern eine 20 vorne im Timespy stehen haben wollen.
 
ME enhanced Edition läuft auch einigermaßen, selbst mit VRS4x. (nur mal kurz am Anfang geschaut ob Bildfehler)
Für ne 6800nonXT@WQHD-60fps würde ich allerdings High+ RT normal empfehlen, weil RT high ca. 40W mehr zieht.
(die alte Standard Edition kann man deinstallieren; die Enhanced läuft Allonestanding)

edit: war noch mit dem 21.4.1
 

Anhänge

  • RThigh@1440p60fps.jpg
    RThigh@1440p60fps.jpg
    874,1 KB · Aufrufe: 56
  • RTnormal@1440p60fps.jpg
    RTnormal@1440p60fps.jpg
    921,9 KB · Aufrufe: 50
Zuletzt bearbeitet:
Du könntest doch mal GPU "3" damit testen.

0 = die normale XFX
1= die Black ?
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh