[Sammelthread] Offizieller AMD [[ RX6700 // RX 6700XT // 6750XT // X6800 // 6800XT // 6900XT // 6950XT]] Overclocking und Modding Thread [[ Wakü - Lukü - LN2]]

Ok, @ILoveTattoo danke für die Infos.
Es ist irgendwo nervig, wenn man nichts offizielles mitbekommt, so wie es wohl den meisten hier geht. Andererseits haben weder UL noch AMD einen halboffiziellen Infokanal zu uns alleine. Naja, weiter abwarten und bei 500 MHz XCom spielen.

Man, bzw. @ShirKhan könnte natürlich auch einfach hergehen und sagen, jeder macht sein eigenes Ding, also HWbot macht was sie wollen, UL ebenso und ShirKhan im Luxx kann ja auch tun, was er will. Aktuell ist es in meinen Augen nicht so, dass es ein "objektiv richtig" oder ein "objektiv falsch" gibt. Und ob UL es technisch schafft, Runs auszusortieren, welche basierend auf objektiven Kriterien als "verbuggt" anzusehen ist - wer weiß. Vom aktuellen Ansatz "score too high" ist echt nicht viel zu halten, aber ich kanns nachvollziehen, dass die sich auch nicht leicht tun, solche Runs objektiv zu identifizieren.
Die müssten ja ne Tabelle erstellen, die irgendwo Takte, FPS und TS-Scores matcht, welche als "sauber" anzusehen sind und eine Rote Linie ziehen, ab wo es nicht mehr so ist. Wehe denen, die diamantene Chips haben. Wehe uns allen, wenn ein neuer Treiber käme, welcher die Performance in irgendeine Richtung verschiebt. Wehe uns allen, wenn es ein RDNA2-Refresh gäbe. Ich möcht auch nicht grad in deren aller Haut stecken, aber mir fehlt auch die Expertise, die ganze Problematik vollumfänglich zu durchdringen.

Holzmann hat gestern (oder vorgestern) richtig bemerkt, dass hier aktuell ziemlich die Luft raus ist und die Stimmung irgendwo nahe der Außentemperatur liegt. Das liegt natürlich auch an so manchem Ego hier, und den entstehenden Reibungsverlusten, aber irgendwo sind Sinn und Zweck hier verlorengegangen - was in letzter Zeit mehr oder weniger der Diskussionskanal zum Highscore-Thread war. Und aus der Perspektive muss mans auch mal betrachten - WIR hatten hier UNSEREN Spaß und haben uns nicht allzuviel drum gekümmert, was andere Communities treiben und/oder von uns halten. Einziger Berührpunkt war mehr oder weniger das UL Leaderboard, was wir alle (Communities) halt als Goldstandard verwendet hatten. Ich will natürlich nicht vorschlagen, dass wir ab jetzt bekannte (und/oder unbekannte) Bugs nutzen, aber ich stell eben wie Holzmann fest, dass das ganze GPU-OC Leben gerade aktuell sinnlos ist (mal unabhängig von den 7°C mit Regen auf meinem bekannten Balkon) - und aktuell nicht absehbar ist, ob sich das wieder ändert.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hallo,

wird das hier jetzt der Wettbewerb der Einbeinigen im Arschtreten?

Was stimmt denn hier nicht mehr, ich dachte hier gehts ums Benchen. Das ist doch keine Religion, wo bleibt denn der Spaß?

:popcorn:
 
Zuletzt bearbeitet:
Es geht rein und allein um Fairniss .
 
Die müssten ja ne Tabelle erstellen, die irgendwo Takte, FPS und TS-Scores matcht, welche als "sauber" anzusehen sind
zum wiederholten Male = das ist Kinderkacke! ... solange die Jungs net nen guten PC 1:1 wie Devcom nutzen
und natürlich erstmal aus 10000 Grakas das GoldenSample@highASIC rausfischen müssen
... nur nach dem max gemessenen Takt an einem Punkt X zu gehen ist vollkommen nichtssagend für RDNA2
(sonst könnte ja ein Laie wie H schon sagen, ob irgendwas passt)

Ich hatte schonmal z.Vgl. Sylwester@2800MHz mit der 6800xt vs. Devcom@2954MHz mit der 6900 angeführt.
Der Unterschied zw. den Beiden war nur sehr schlechte 10%!?
Passt net genau zu mehr Shader und GPU-Takt und höherer SOC-Takt und Vramtakt und FT2 bei Devcom.
Nach m.E. kann also Devcom noch weitaus höher als 27270 punkten ohne verdächtig zu sein.
(natürlich nur wenn die CPU+Ram auch >99% GPU-Auslastung durchgehend schafft und der Vram<30°C
wg. der Fehlerkorr. bleibt)

btw.
Sylwester ist dahingehend ne sehr gute Vgl.basis, weil Er mit Sicherheit die GPU ordentlich auslasten konnte und
anscheinend auch sehr guten Vram ohne Fehlerkorr. hat.
 
Zuletzt bearbeitet:
Nee,
eher deswegen, weil Du alle paar Monate rumgequengelt hast, das Dein Score/Takt net passt.
und
Irgendwelche Deppen das mitgelesen haben.
 
Jo,
UL hat momentan keinen Plan und ist daher ein Quellbrunnen an technischem Sachverstand zur RDNA2-Architektur,
oder auch NICHT!

Du hast ne saumäßige Auslastung und vermutlich Vram mit Fehlerkorr. am Laufen gehabt.

Von deinen Crashs+CRU-shit+ 4x Treiber+MPT-Install ganz zu schweigen.
Wäre schwer, bei Dir ein "sauberes" W10 zu garantieren.
 
@ILoveTattoo
Ich weiß nicht wie Ihr irgend etwas erklären wollt, wenn ihr es noch nicht einmal versteht.
Aber wenn ich mich irre kannst du das ja mal aufkären.
Eure Videos sind der größte Blödsinn und die Save Files ebenso.
Und ob das Tess.on/off Bugs sind, weißt du auch nicht.
Oder wie erklärst du dir das die Score's sogar höher sind als reine Tess.off Score´s?
 
Willst Du mir jetzt auch noch ans Bein pinkeln ? Im Ernst ?

Ich habe seid dem der Bug bekannt ist , nicht einen Score hoch geladen.
Die Jungs aus dem HWbot sowie UL sind inzwischen viel weiter als Ihr denkt. UL kann sehr wohl selektieren, was ein Bugrun ist und was nicht.
Allerdings wird es , recht schwer auch die alten Scores zu selektieren.

Den in den Saves aus einem Run von UL, wird viel mehr geloggt als wir alle wissen.


Und wenn es dir noch im Sinn ist , habe ich es schon oft genug gesagt , das es scheinbar am Vram liegt, wenn der an der Kotzgrenze der Korrektur liegt.
 
Dann frag ich mich wieso die das nicht regeln und statt dessen das auf so eine Art und Weise regeln die kein Mensch
nach vollziehen kann.
Meine Score's waren genau deshalb online und keiner hat etwas getan.
Wenn man dann aber am EVGA Team vorbei geht ist das natürlich was anderes.
Außerdem ist das ein Kostenpflichtiger Benchmark und es ist nicht Aufgabe der User nach Fehlern in der Software zu suchen.
Und wie @ShirKhan schon richtig ausgeführt hat ,betrifft das nicht nur die 6900XT.
 
Vielleicht ist 3dmark am Ende auch einfach nur Murks!?
 
... UL ... . Das habe eine gruppe von 10 Leuten getan .
Noch Mal . Es ist ein Interne Disku , die nicht für die Öffndlichkeit zugänglich ist
kann man denn hoffen, das die 10 SuperUser überhaupt die notwendige Hardware haben, um in den Bereich von Devcom zu kommen (GoldenChips+Vram+>99%-Auslastung+Vram<30°C und z.Bsp. das Devcom2954MHz Setting 1:1 nachstellen)

Solange nur heimlich rumgeopert wird, glaube ich fast keinem Zweifler, das Er überhaupt in der Lage ist soweit
Oben ohne große Fehlerkorr. zu benchen. (snakeeyes postet ja leider net mehr hier... der Einzige evtl. Kandidat)
(und Tattoo schließt sich ja mit seinem schlechten Vram automatisch aus, ... geht nach m.E. eh um Mods@LC-FT2)

Das man ausgerechnet Shirkan mit seinem normalen Vram so eine sinnlose Meldung anzeigt ist ein Witz!
(bei seinen Temps ist kaum Fehlerkorr. zu erwarten)
 
Zuletzt bearbeitet:
Den in den Saves aus einem Run von UL, wird viel mehr geloggt als wir alle wissen.
Interessant, das hätte ich mir von denen schon mal vor 8 Monaten gewünscht, bzw. vorschlagen wollen. Ich dachte aber, z.B. auch aus Gründen in Richtung GDPR sollten die eher keine Daten loggen, die verborgen sind. Andererseits kann man die wohl als anonym betrachten, dann spielt GDPR keine Rolle.
Ich geb zu, ich hab nie gelesen, ob der 3DMark ein Kleingedrucktes hat, wo drinsteht, was die alles mitloggen?
 
Das sollte man aber mal tun. Aber das ist ja auch nicht neu.
 
Auf die Schnelle finde ich nur: "SystemInfo is a component used in many of our benchmarks to identify the hardware in your system. It does not collect any personally identifiable information."

Ich glaub, dort mach ich mal n Praktikum :-)
 
Hallo :)

Ich habe eine Red Devil Ultimate gekauft. (Mindfactory 1549 EUR Deal)

Am Balkon mit 14 Grad Celsius GPU am Start erhalte ich solche Temperaturen :rolleyes2: (25.555 GS ist mein Rekord jetzt)

40585_25488gs_1250mv_2735_2865_2154ft_111hs_560w.jpg


Meine Frage wäre, ob wie viel bringt für eine Luftkühlung Liquid Metal auf die GPU-Chip zu tun?
5-10-15 Grad Celsius bessere Hot Spot?
Wie eng konnte die Delta sein? 25-35 Grad Celsius? (wichtig, ich spreche von Luftkühlung, werde keinen Custom Loop haben!!!)

Sollte ich LC-Bios draufmachen? Gibt es "How to" dafür?
Geht das mit dem amdvbflash im Ubuntu?
Wie viel exta GS konnte ich damit erzielen?

Sorry für die viele Fragen :poop:
 
Hey mal wieder!
Also wenn bei dir zwischen GPU und Hotspot eine Differenz von 51°C ist, dann ist das die größte Differenz, die ich jemals gesehen hab. Da sollte zerlegen und neuer Zusammenbau schon was helfen, denn bei der Karte stimmt die Wärmeübertragung dann irgendwo nicht.

Zu LM kann ich nichts sagen, aber das würde sicher on top noch bissl was ausmachen. An die 26k dürftest schon noch gut rankommen denke ich - es wird draußen ja auch in Ungarn noch kühler :-)
 
Also wenn bei dir zwischen GPU und Hotspot eine Differenz von 51°C ist, dann ist das die größte Differenz, die ich jemals gesehen hab. Da sollte zerlegen und neuer Zusammenbau schon was helfen, denn bei der Karte stimmt die Wärmeübertragung dann irgendwo nicht.
Naja gut, Luftkühler und in dem Fall 1.25v mit Peak 560W...
Meine Red Devil hat mit den per WM möglichen 323W und ~1.1v schon bis zu 25°C Delta GPU/Hotspot.
 
Die Daumenregel sagt, bis max. 30 Grad Unterschied ist in den oberen Temperaturen akzeptabel, aber alles darüber wird in der Regel als (1) Montagefehler beim Kühler oder (2) schlecht aufgetragene WLP angesehen.
 
Hey mal wieder!
Also wenn bei dir zwischen GPU und Hotspot eine Differenz von 51°C ist, dann ist das die größte Differenz, die ich jemals gesehen hab. Da sollte zerlegen und neuer Zusammenbau schon was helfen, denn bei der Karte stimmt die Wärmeübertragung dann irgendwo nicht.

Zu LM kann ich nichts sagen, aber das würde sicher on top noch bissl was ausmachen. An die 26k dürftest schon noch gut rankommen denke ich - es wird draußen ja auch in Ungarn noch kühler :-)
Bei 525W Verbrauch ist die Delta "nur" 37 Grad Celsius, also ab hier wird das immer schlimmer.

Die Gaming Z Trio-s machen das viel schlimmer schon bei 340W (n) (und diese ist schon die 2. und bessere Gaming Z Trio für dieser Ungar)
14131_3dmark4.jpg
 
Aber steigt das Delta mit höherem Verbrauch bzw Spannung nicht auch? Ich kann sehr deutlich beobachten, dass ich zB bei 200W <20°C Delta hab, bei ~250W dann ~20°C und bei 300-320W dann ~25°C.
Deswegen die Überlegung, bei 500W würde ich dann ebenfalls nochmal größeres Delta erwarten.

Ist ja keine Wakü, die das ganze schnell abtransportiert
 
Die Daumenregel sagt, bis max. 30 Grad Unterschied ist in den oberen Temperaturen akzeptabel, aber alles darüber wird in der Regel als (1) Montagefehler beim Kühler oder (2) schlecht aufgetragene WLP angesehen.
Habe auch noch bis 22 Grad Delta GPU zu HS das mit Wasser, aber der Vram kühler wäre mir nahezu lieber, denn auf den habe ich nur wenig Einfluss.
Beitrag automatisch zusammengeführt:

Aber steigt das Delta mit höherem Verbrauch bzw Spannung nicht auch? Ich kann sehr deutlich beobachten, dass ich zB bei 200W <20°C Delta hab, bei ~250W dann ~20°C und bei 300-320W dann ~25°C.
Deswegen die Überlegung, bei 500W würde ich dann ebenfalls nochmal größeres Delta erwarten.

Ist ja keine Wakü, die das ganze schnell abtransportiert
Sollte deutlich mit ansteigen ja. Aber bei 1,25V und 500W+ auch kein Wunder mit den Temperaturen unter Luft.
Bei den Ref. war z.B. das standard Pad besser als meisten Pasten und gegeüber LM nicht zwangsläufig sehr viel schlechter.

Habe aber auch k.A. womit die AIBs ihre Custom versorgt haben.
 
Naja gut, Luftkühler und in dem Fall 1.25v mit Peak 560W...
Meine Red Devil hat mit den per WM möglichen 323W und ~1.1v schon bis zu 25°C Delta GPU/Hotspot.
Da habe ich nur 19 Grad Celsius Delta mit Zimmertemperatur von 25°C (also OC ohne MPT)
40585_red_devil_ulti_stock_extratdp_2525_2625_2150ft.jpg
 
Da habe ich nur 19 Grad Celsius Delta mit Zimmertemperatur von 25°C (also OC ohne MPT)
Das max interessiert garnicht so wirklich, die Frage ist ja wielang das Delta anliegt. Wenne s durchgehend 19 Grad sind ist es etwas anderes als wenn es sonst 16 sind und nur im Maximum 19 Grad für Millisekunden anliegend.
 
@BeZol: Ich hab zwar auch noch keine 50 Grad Differenz gesehen, 560W @1,25V unter Luft mit 110°C aber ebenfalls nicht.

Wie schon geschrieben geht die Schere GPU-Hotspot mit steigender Leistungsaufnahme auseinander, hohe Temperatur scheint das noch zu verstärken. Kontakt und Paste dürften nicht das Problem sein. Wenn du aber so ambitioniert (und mutig) benchst, würde ich eher über einen Wasserblock als über Liquid Metal nachdenken. Das eine ist die Torte, das andere nur die Kirsche obendrauf.
 
Zuletzt bearbeitet:
Guys, do you think 1.250mv would be safe for 24/7 core voltage on my XTXH Saphir Extreme Edition?
 
Guys, do you think 1.250mv would be safe for 24/7 core voltage on my XTXH Saphir Extreme Edition?
nobody knows for sure, so we all would say "no" in first place. in second, may be it will = you can try on your own risk but hey... what will you gain over the default voltage? 100-150mhz more? is this worth the higher temps and a then eventually bricked card a year later or sth like that? nobody knows the secure limits in terms of voltage, this is something which would need testing and trying by a brave person over a longer time: with the risk of eventually killing the card.
 
Guys, do you think 1.250mv would be safe for 24/7 core voltage on my XTXH Saphir Extreme Edition?
If you want to do this via the TDV mod I would say no, because the card then holds the 1.25V all the time.

If you do it with an EVC2, yes then the card can also down with the voltage.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh