Hohe GDDR6X-Temperaturen: Wie wichtig es ist, Daten richtig zu interpretieren

Besser Karten aus "Schrott Fertigung" (Nvidia) als hochmoderne 7NM Chips die man nicht kaufen kann (AMD 6K Serie..).
Weißt aber schon, dass AMD da nicht nur Grakas fertigt und Nvidia dann nur Ampere darauf fertigen würde? Du frisst aber auch ehrlich alles, was der Hersteller dir vorsetzt

Hätte Nvidia die TDP Leiste nicht nach oben gezogem, wäre Navi 21 never 300W TDP
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Da wurde doch ein komplett anderes Modell getestet. Der von Igor getestete Kühler ist die Ref-Variante, die aufgrund von Aussparungen keine gute VRM-Kühlleistung bietet. Die VRAM-Kühlleistung des XG7 Ref erreicht bei Igor gute Werte:

Igor: "Der GDDR6X wird im Hotspot intern laut Sensoren maximal 69 °C warm, was hingegen locker passt und gut ist. Man sollte sich bei diesen Messungen auch nicht vom Takt nicht irritieren lassen, denn ich habe für eine möglichst konstante Last das Power Limit zwar auf 340 Watt angehoben, den Boost-Takt jedoch nicht sonderlich. Damit werden die Spikes geringer und die Leistungsaufnahme bleibt konstant hoch. Dass diese 340 Watt auch umgesetzt werden, habe ich natürlich überwacht."

Der Kühler von Don ist die Strix-Variante, die keine Aussparungen hat und massiver ist. Bei Igor erreicht der XG7 in der Ref-Variante maximal 69°C VRAM, warum die massivere Strix-Variante von Don höher liegt, sollte nachgeprüft werden. Liegt evtl. doch an Sensoren? Ich würde mal mit einem Temperatursensor nachprüfen.

@Don wie sehen die VRM-Temps bei dir Luft vs. Wasser aus?
 
Jetzt müsste ihr aber aufpassen was ihr hier vergleicht. 55 Grad Memory bei echter VRAM Belastung glaub ich kaum. Schmeiß mal nen ETH Miner an und du siehst mindestens >80°C! @Obmawo

Aus meiner Sicht ist ETH Minen die Höchstbelastung beim VRAM. Ich habe unter Wasser meiner 3080 beim Zocken auch bloß umd die 70....schmeiß ich den Miner an gehts RIchtung 100°C.
 
Jetzt müsste ihr aber aufpassen was ihr hier vergleicht. 55 Grad Memory bei echter VRAM Belastung glaub ich kaum. Schmeiß mal nen ETH Miner an und du siehst mindestens >80°C! @Obmawo

Aus meiner Sicht ist ETH Minen die Höchstbelastung beim VRAM. Ich habe unter Wasser meiner 3080 beim Zocken auch bloß umd die 70....schmeiß ich den Miner an gehts RIchtung 100°C.
Ich werde das mal testen.
 
Jetzt müsste ihr aber aufpassen was ihr hier vergleicht. 55 Grad Memory bei echter VRAM Belastung glaub ich kaum. Schmeiß mal nen ETH Miner an und du siehst mindestens >80°C! @Obmawo

Aus meiner Sicht ist ETH Minen die Höchstbelastung beim VRAM. Ich habe unter Wasser meiner 3080 beim Zocken auch bloß umd die 70....schmeiß ich den Miner an gehts RIchtung 100°C.
ETH Minen stellt tatsächlich die Höchstbelastung dar wenn man maximale Speichertemperaturen sehen will. Aber auch FurMark im Burn-In Modus mit einer sehr hohen Auslastung des Memory-Controllers (75%, siehe GPU-Z) erreicht ähnliche Werte. Anders als beim ETH Minen, belastet FurMark eben alle anderen Komponenten auf dem PCB deutlich mehr, wodurch die Temperaturen bei mir zumindest nur unwesentlich geringer ausfallen (90°C vs 86°C, 3090FE Water, passiv Backplate). Beim Gaming sind die Temps. gut und gerne 10°C-15°C niedriger.
 
Weißt aber schon, dass AMD da nicht nur Grakas fertigt und Nvidia dann nur Ampere darauf fertigen würde? Du frisst aber auch ehrlich alles, was der Hersteller dir vorsetzt

Hätte Nvidia die TDP Leiste nicht nach oben gezogem, wäre Navi 21 never 300W TDP

Richtig und wie es momentan aussieht produzieren die von allem zu wenig, böse Zungen behaupten gar nix. GPUs gibts nicht ansatzweise genug, CPU werden laut Presseerklärung jetzt erstmal die kleinen vorrangig produziert (da kann man dann spekulieren ob nun erstmal der Ausschuss weg soll und wer da "Schrott verkauft"). Warum es keine Ps5 zu kaufen gab oder gibt müsste ich auch spekulieren aber ich hab da einen Verdacht. Aber dann kommen jetzt noch die Threadripper Pro und die Notebook-Versionen der Desktop CPUs von denen es dann auch nur eine Handvoll gibt.

Nvidia ist an AMDs Navi Verbrauch schuld, wow einfach nur wow. Wäre es dir ernsthaft lieber in Navi 21 würden noch mehr ungenutzte Reserven stecken?
 
Nvidia ist an AMDs Navi Verbrauch schuld, wow einfach nur wow. Wäre es dir ernsthaft lieber in Navi 21 würden noch mehr ungenutzte Reserven stecken?
Die Dinger könnten 2% langsamer sein, aber dafür nur 250-275W TDP haben. Haette keinen interessiert, wer OCen will, kann es ja dann gerne immernoch machen.

Als wenn deine Karte im Limit schon waere, die 2% dir den Hintern retten würden
 
Die Dinger könnten 2% langsamer sein, aber dafür nur 250-275W TDP haben.
Neee du, lass mal.

NV hat an der Stelle alles richtig gemacht. Entscheidungshoheit über Leistungsaufnahme dem User in die Hand gegeben, anstelle eines starren Power Target. Abhängig individueller Kühlleistung, Unterbaues. Fast schon revolutionär! Mehr davon bitte!! Bittebitte mit Zucker oben drauf!
 
Neee du, lass mal.

NV hat an der Stelle alles richtig gemacht. Entscheidungshoheit über Leistungsaufnahme dem User in die Hand gegeben, anstelle eines starren Power Target. Abhängig individueller Kühlleistung, Unterbaues. Fast schon revolutionär! Mehr davon bitte!! Bittebitte mit Zucker oben drauf!
Inwiefern schliesst das aus was er gesagt hat?
Sie hätten durchaus ein niedrigeres powertarget ab Werk nehmen können und du könntest damit halt mehr OCen.
 
Die Dinger könnten 2% langsamer sein, aber dafür nur 250-275W TDP haben. Haette keinen interessiert, wer OCen will, kann es ja dann gerne immernoch machen.

Als wenn deine Karte im Limit schon waere, die 2% dir den Hintern retten würden

Das die Entwickler von AMD beim evaluieren der Chips den "Sweetspot" bei 300W festgelegt haben? Oder das sie sich gedacht haben, "Wir haben hier echt geilen Scheiß nur beim Verbrauch liegen wir klar hinter Nvidia. Da müssen wir nochmal rann."

Und DARAN ist jetzt Nvidia schuld?

Die Karten außerhalb der Spezifikationen zu betreiben ist auch keine Einbahnstraße.
 
Und DARAN ist jetzt Nvidia schuld?

Die Karten außerhalb der Spezifikationen zu betreiben ist auch keine Einbahnstraße.
Nvidia hat halt die Brechstange genommen, um paar Prozent vor der 6800 XT zu landen. Deswegen hat auch AMD nochmal geliefert. Ich begrüße die TDP von beiden Herstellern nicht.


Die 3080 könnte easy 270-275W TDP haben und haette nur 2-3 FPS weniger in Games. Das sind 45-50W weniger TDP. Dazu kommen natürlich nochmal kosten fürs Netzteil, womit die Meisten vielleicht gar nicht gerechnet haben für einr XX80er Karte nur.
 
Die 3080 könnte easy 270-275W TDP haben und haette nur 2-3 FPS weniger in Games. Das sind 45-50W weniger TDP. Dazu kommen natürlich nochmal kosten fürs Netzteil, womit die Meisten vielleicht gar nicht gerechnet haben für einr XX80er Karte nur.

Also wurde Nvidia gezwungen die TDP zu erhöhen um vor der 6800xt zu liegen :) Wir verbuchen das mal als ganz normales Konkurrenzverhalten, soll mal vorkommen zwischen gewinnorientierten Firmen.

Und im Link gehts um eine 3080 gegen eine 2080 ti die meines Wissens auch von Nvidia ist. Überhaupt wieso musste Nvidia da die Brechstange rausholen um vor einer Karte zu landen die 2 Monate später rauskommt oder AMD zu irgendwas gezwungen wird steht da auch nirgends.

Bei Straßenpreisen von beiden Karten jenseits der 1000€ Grenze, wenn es dann um ein paar Watt geht dann ist die Kalkulation völlig außer Kontrolle.
 
Ich werde das mal testen.
Jetzt müsste ihr aber aufpassen was ihr hier vergleicht. 55 Grad Memory bei echter VRAM Belastung glaub ich kaum. Schmeiß mal nen ETH Miner an und du siehst mindestens >80°C! @Obmawo

Aus meiner Sicht ist ETH Minen die Höchstbelastung beim VRAM. Ich habe unter Wasser meiner 3080 beim Zocken auch bloß umd die 70....schmeiß ich den Miner an gehts RIchtung 100°C.

So, habe getestet.

62 Grad nach 1h:

1612278687721.png
1612278743143.png
 
Weißt aber schon, dass AMD da nicht nur Grakas fertigt und Nvidia dann nur Ampere darauf fertigen würde? Du frisst aber auch ehrlich alles, was der Hersteller dir vorsetzt

Hätte Nvidia die TDP Leiste nicht nach oben gezogem, wäre Navi 21 never 300W TDP

Ich weiss nichtmal was du fürn Sysstem hast, Reden Schwingen kann jeder.. Ich bin schon ne weile dabei und wusste genau was ich kaufe vor dem Kauf(und auch wie alles zusammenhängt), aber trotzdem Danke für deine Besorgnis..
Beitrag automatisch zusammengeführt:

Richtig und wie es momentan aussieht produzieren die von allem zu wenig, böse Zungen behaupten gar nix. GPUs gibts nicht ansatzweise genug, CPU werden laut Presseerklärung jetzt erstmal die kleinen vorrangig produziert (da kann man dann spekulieren ob nun erstmal der Ausschuss weg soll und wer da "Schrott verkauft"). Warum es keine Ps5 zu kaufen gab oder gibt müsste ich auch spekulieren aber ich hab da einen Verdacht. Aber dann kommen jetzt noch die Threadripper Pro und die Notebook-Versionen der Desktop CPUs von denen es dann auch nur eine Handvoll gibt.

Nvidia ist an AMDs Navi Verbrauch schuld, wow einfach nur wow. Wäre es dir ernsthaft lieber in Navi 21 würden noch mehr ungenutzte Reserven stecken?
Gibt schon einige Karten am Markt, die 3080 und 3090 Sammler sind voll mit Besitzern. Leider gibt es viele die nur irgendwelches Hörensagen gerne nachplappern statt sich um ne Karte zu bemühen..
 
@Obmawo da bin ich baff. Top!!!

Es ist allgemein bekannt, dass einige Karten stock beim Minen throtteln aufgrund Memorytemps. Das sieht man bei HW-Info ganz gut....wenn das "yes" bei thermal throtteling kommt.
 
also ich verstehe nicht was das für probs sind.
meine 3080 ftw3 ultra sehe ich bei dem vrams inkl übertaktung zwischen 50-60 grad.
bei ca. 20ghz Ramtakt.
HWINFO zeigt da 43 watt vram verbrauch und die 3 temp sensoren zeigen ähnliche Werte aber unter 60 grad.
 
Das Problem ist ganz einfach, das es eben auch Karten mit weniger gelungenen Kühlkonzepten gibt.

Dazu zählt die FE und auch einige andere - zB die Gigabyte Vision (und damit wohl auch die Eagle) , die sich beim normalen zocken in den hohen 80ern bis mittleren 90ern bewegen. Solange das nicht 3stellig wird kann ich damit leben. Und wenn die #*!%$ Backplate nicht so verschraubt wäre, das man die gesamte Karte dafür zerlegen muss, wären da schon Pads drauf.
 
Das Problem ist ganz einfach, das es eben auch Karten mit weniger gelungenen Kühlkonzepten gibt.

Darum geht es in dem Luxx Artikel aber nich

Dort wird die These aufgestellt das die Stock Lüftkühler der Karten besser den VRAM Kühlen als Wasserkühler
Und das wurde nun durch mehrere Leute hier in diesem Thread einfach mal wiederlegt und teils mit Bildern unterlegt.

Das Lustige is das es Luxx/DON einfach mal komplett Ignorieren was wir hier an Gegenbeweisen das dem eben nich so is vorlegen.
 
Das Problem ist ganz einfach, das es eben auch Karten mit weniger gelungenen Kühlkonzepten gibt.

Dazu zählt die FE und auch einige andere - zB die Gigabyte Vision (und damit wohl auch die Eagle) , die sich beim normalen zocken in den hohen 80ern bis mittleren 90ern bewegen. Solange das nicht 3stellig wird kann ich damit leben. Und wenn die #*!%$ Backplate nicht so verschraubt wäre, das man die gesamte Karte dafür zerlegen muss, wären da schon Pads drauf.
das kann ich nachvollziehen. Bei der FTW sind da auch keine Pads und ich habe nur den Exhaust Fan der etwas Luft über die Backplate zieht.
Anderseits habe ich von Igor aus einem Video, dass ein guter Luftstrom auf dem PCB ja noch am besten kühlt und es sogar sein kann, dass GPU Blöcke größere VRAM wärme produzieren. Ich bin gespannt, wie es aussieht, wenn ich die FTW umgebaut habe. In jedem Fall liefert EK reichlich Pads mit.
 
Ich bin gespannt, wie es aussieht, wenn ich die FTW umgebaut habe. In jedem Fall liefert EK reichlich Pads mit.

Wesentlich besser als die 72 Grad die HWLuxx da mit ihrem Corsair Block und der Stock Lüftkühlung erreicht haben.
Auch du wirst beim VRAM dann so bei um die 60 Grad landen .. also ein Gutes Stück unter dem was uns HWluxx da weiss machen wollen
was Wasserkühler imstande sind zu leisten
 
das kann ich nachvollziehen. Bei der FTW sind da auch keine Pads und ich habe nur den Exhaust Fan der etwas Luft über die Backplate zieht.
Anderseits habe ich von Igor aus einem Video, dass ein guter Luftstrom auf dem PCB ja noch am besten kühlt und es sogar sein kann, dass GPU Blöcke größere VRAM wärme produzieren. Ich bin gespannt, wie es aussieht, wenn ich die FTW umgebaut habe. In jedem Fall liefert EK reichlich Pads mit.
Welchen Sensor schaust du dir denn an für das auslesen? Ich weiß, dass es bei der FTW3 eigene Sensoren gibt, diese sind aber nicht vergleichbar mit der Junction Temp die HWInfo ausliest weil sich nicht direkt "im" Memory Module sind. Ist die Temp. dort bei voller Memory Controller Auslastung (also nicht gaming) auch so tief?
 
Das Problem ist ganz einfach, das es eben auch Karten mit weniger gelungenen Kühlkonzepten gibt.

Dazu zählt die FE und auch einige andere - zB die Gigabyte Vision (und damit wohl auch die Eagle) , die sich beim normalen zocken in den hohen 80ern bis mittleren 90ern bewegen. Solange das nicht 3stellig wird kann ich damit leben. Und wenn die #*!%$ Backplate nicht so verschraubt wäre, das man die gesamte Karte dafür zerlegen muss, wären da schon Pads drauf.

Das ist aber einfach unwahr. Das Kühlkozept der FE ist richtig gut, Chip bei max 68 Grad bei 400W und 1200rpm. Einzig der Vram wird heisser, ist aber noch im ok Bereich. Andere Karten haben den Vram heiss, Chips heiss und sind noch laut dabei..
 
Naja, wenn der VRAM bei der FE bei ~100°C rumdümpelt, während andere Kühlkonzepte das 30-40°C kühler hinbekommen, würde ich nicht unbedingt von "gelungen" reden. Von der GPU-Temperatur war nicht die Rede.

Wobei das Problem (das bis jetzt eigentlich keines ist, denn abgerauchte oder dauerhaft drosselnde Karten scheints ja nicht zu geben) mit Sicherheit auch zu grossen Stücken vom Boarddesign abhängig ist - das wäre evtl in dem Artikel noch ganz nett gewesen und kam auch noch gar nicht zur Sprache.

Wenn mit anderem Boarddesign die Spannungswandler nicht die Speicherbausteine mit aufheizen (wie bei FE oder nah am FE-Design ) , ist das schon wieder ne komplett andere Geschichte - vor allem, wenn eh nur die höchste gemessene Temperatur ausgegeben wird.
 
Hast du ne 3090 ? Kein Konzept kommt da mit 30 Grad beim Vram hin, ausser evtl wakü mit Chiller und aktiver Backplate Kühlung..
Zum Rest habe ich ja was geschrieben. Die Temps sind bei allen Lukü Karten recht hoch, zusätzlich hat die FE andere erhebliche Vorteile die siese dann nicht haben.
 
Welchen Sensor schaust du dir denn an für das auslesen? Ich weiß, dass es bei der FTW3 eigene Sensoren gibt, diese sind aber nicht vergleichbar mit der Junction Temp die HWInfo ausliest weil sich nicht direkt "im" Memory Module sind. Ist die Temp. dort bei voller Memory Controller Auslastung (also nicht gaming) auch so tief?
Gut das du fragst :)
Ich hatte mich schon gewundert, warum alle so ein Drama mach wie man den Messwert bekommt. Evga hat 3 extra Sensoren.
Tj ist ca 14 grad höher als der höchste der Evga icx Sensoren. Aktuell bei 62 Grad vs 74 Grad bei 20.2ghz ramtakt und ca 300 Watt Last auf der GPU in total. Also alles OK mit ca 1750 rpm Lüfter auch vertretbar.

Am WE baue ich Mal auf wakü um und vergleiche. Ich werde vorher noch ausgiebige Referenz Tests machen.
 
Gut das du fragst :)
Ich hatte mich schon gewundert, warum alle so ein Drama mach wie man den Messwert bekommt. Evga hat 3 extra Sensoren.
Tj ist ca 14 grad höher als der höchste der Evga icx Sensoren. Aktuell bei 62 Grad vs 74 Grad bei 20.2ghz ramtakt und ca 300 Watt Last auf der GPU in total. Also alles OK mit ca 1750 rpm Lüfter auch vertretbar.

Am WE baue ich Mal auf wakü um und vergleiche. Ich werde vorher noch ausgiebige Referenz Tests machen.
Das klingt trotzdem gut wenn dabei wirklich Last auf dem Memory Controller war (sieht man in GPU-Z, Gaming ist meist kaum Last). Die FTW3 hat glaube aber allgemein da eine ziemlich gute Kühlung, extra Heatpipe für die auf der Vorderseite und etwas Kupfer an der Backplate - sollte schon was bringen.
 
Das klingt trotzdem gut wenn dabei wirklich Last auf dem Memory Controller war (sieht man in GPU-Z, Gaming ist meist kaum Last). Die FTW3 hat glaube aber allgemein da eine ziemlich gute Kühlung, extra Heatpipe für die auf der Vorderseite und etwas Kupfer an der Backplate - sollte schon was bringen.
naja, bei 100% Mem Last mit 20,2ghz Memtakt komme ich auch auf 88 grad TJ bei Auto Lüfter.
Wenn ich die Lüfter dann auf 3000 Stelle fällt die Temp um 8 Grad.
Dann ist der heißeste ixc Sensor von EVGA bei 52Grad. Also Detla bei 27 Grad.
Dann kann man die EVGA Sensoren auch vergessen oder eher besser nicht hinschauen.

Zumindest habe ich 10 jahre Garantie :)

Bin gespannt wie das mit Wakü aussieht.
 
Gibt schon einige Karten am Markt, die 3080 und 3090 Sammler sind voll mit Besitzern. Leider gibt es viele die nur irgendwelches Hörensagen gerne nachplappern statt sich um ne Karte zu bemühen..

Nvidia und deren Verfügbarkeit hätte auch besser sein müssen. Mittlerweile konnte ich mir zumindest bei einem Nvidia Drop eine Karte zum UVP sichern. Ehrlich gesagt hätte es auch keine andere Karte werden können als genau diese in diesem Design. Da hat man irgendwie schon dieses "Sportwagen-Muss-Ich-haben-Gefühl" man kennt es und man kann es wenn überhaupt nur so erklären.

Solche Aussagen wie "Nvidia ist schuld am hohen Verbrauch von AMD" und "Nvidias produziert Schrott" ist einfach Fanboyblabla. Das Blatt das AMD momentan auf der Hand hat war seit 15 Jahren kaum besser und mit Sicherheit könnten sie mehr. Worüber wir uns alle freuen müss(t)en weil das bringt Innovation oder zumindest wie bei SAM/Resize-Bar die Implementierung nach ü. 10 Jahren. Bei 1-2 GB Vram vor 10 Jahren hätte es auch wenig gebracht.
 
Welche Karte hastn nun geholt ? 3090 FE ?
Kenn das Gefühl, hatte das vorm Dodge Challenger Kauf auch :eek: :wink:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh