Haben Ampere-Karten ein Temperaturproblem des GDDR6X-Speichers?

@Tech Enthusiast
Bin dennoch froh über den Artikel!
1. Nicht jeder geht ständig auf diverse HW-Seiten, sondern hat 1-2 favorisierte Foren und holt sich da die Infos.
2. Wenn ein Bauteil so nah an der Spezifikationsgrenze läuft, sagt das mMn schon viel aus. Kann jeder seine eigenen Schlüsse daraus ziehen.

Insofern wird es sicher einige davon abhalten, die billigste Kühllösung für die geplante Neuanschaffung zu wählen...😉
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
deshalb kaufe ich nichts mehr zum release
 
roman hat gestern in einem video eine 3090 mit nem gpu only block gekühlt und die vrms waren frei und wurden nur mit nem lüfter angeblasen....

kapier ich nicht
 
Ich bin auch froh das ich keine Ampere bekommen habe! Finde das sehr fahrlässig von Nvidia. Erinnert mich irgendwie an die GTX 970 3.5 GB, wo man auch schön verarscht wurde.
Danke an Hardwareluxx für diesen Artikel und ich hoffe Ihr werdet das weiter beobachten(y)
 
Soweit ich das bei Igor verstanden habe, hat er 112 Grad bei Zimmertemperatur gemessen. Ergo, könnte das bei 28 Zimmertemperatur nicht anders aussehen? Oder bei einem schlecht belüfteten Gehäuse?

Ja. Wenn bei ihm 22 Grad sind und er 6 Grad Puffer hat, dann viel Spaß im Sommer 2021 (oder eben bei einem sehr kleinen und/oder schlecht durchlüfteten Gehäuse).
 
Ich würde mir trotzdem wünschen, dass diese super relevante Info irgendwie dominanter platziert wird. Es wird genug über Tech Firmen hergezogen, vor allem im Deutschen Raum, aufgrund von "Problemen", die gar keine sind. Überall nur Aluhüte und Leute, die nix anderes machen, als alles schlechtzureden, wegen der unwichtigsten Details. Das muss nicht auch noch von Dir @Don unterstützt werden mit so einem Artikel. Ich schätze Deine Art und Neutralität sehr. Wirklich. Hier wirkt es nur etwas arg grenzwertig Richtung Clickbait, bzw. Anstachelung des Forums. Das ist eh schon angestachelt genug.

Wenn das ein Clickbait-Artikel wäre, dann hätte ich mir die Messungen der verschiedenen Karten gespart und auch nicht gewartet, bis wir die GeForce RTX 3090 gesehen haben etc. Genau das war hier der Punkt, sich erst einmal ein Gesamtbild verschaffen, bevor auf Basis einer Karte ein Problem daraus gemacht wird.
 
Wir betonen keine Probleme, wir haben einfach versucht den Mythos der zu hohen GDDR6X-Temperaturen zu beseitigen (ja, sie sind hoch, aber wohl nicht problematisch den aktuellen Erkenntnissen nach)
Dann könnte man aber auch die Headline entsprechend formulieren. Sonst zieht das Getrolle á la Holzmann an.
 
Spezifikation hin oder her. Normalerweise reizt man die Temperaturgrenze nicht voll aus. Das geht auf alle Fälle auf Kosten der Haltbarkeit.

Außerdem wissen wir dann noch nicht wie warm es dem Chip im inneren ist, wenn quasi außen auf dem Gehäuse schon fast die 110° gemessen werden. In der Regel sind dann die Temperaturen im Silizium noch viel höher.

Vielleicht sind deswegen auch so wenige zur Verfügung und es gibt noch bauliche Änderungen
 
Laut Bildern hat nur die Strix die "Top-Teile" verbaut und die TUF die "Schrott-Teile"...

Es würde sich empfehlen das Video, das man verlinkt, auch erstmal ordentlich anzusehen bevor man andere Leute, die ne TUF im Zulauf haben, verängstigt ;)

Igor sagt bei ~11:25 dass das Bild von ner 3080 TUF ist :wink: Also die TUFs haben genau 0 der "Schrott Teile".
 
Lieber ralle_h,

ich beziehe mich hier auf die OFFIZIELLEN Bilder auf Asus.de
Dort hat die TUF die Schrott-Teile und die STRIX die Top-Teile...

Ich habe also das Video komplett geschaut - und ich habe auch Recht was die Bilder angeht (siehe Anhang) - also empfiehlt es sich bevor man für Postings kritisiert die Fakten auch korrekt zu checken...;-)

Ob die Bilder nun den tatsächlichen Karten entspricht kann ich nicht sagen, aber jeder Besitzer kann das ja selbst prüfen. Ich sagte lediglich das es auf den Bilder so ist - und das stimmt auch!

Edit: Und Asus wird, nach dem Video, die Bilder asap austauschen (wenn die TUF wirklich die guten Kondensatoren hat) - wetten?!? ;-)
 

Anhänge

  • TUF.jpg
    TUF.jpg
    21 KB · Aufrufe: 233
Zuletzt bearbeitet:
Auf den Bildern bei caseking von der Strix sind auch die gleichen Kondensatoren zu sehen.
 
Am Ende wissen wirs nur wenn jemand eine echte Karte hat und nachschaut was drauf ist...:-)

Edit:
Beim Testvideo von PCGH ist zusehen das auch die TUF die guten Kondensatoren drauf hat.
Bleibt die Frage ob das bei allen so ist oder nur bei dem Presse-Karten... ich gehe aber davon aus das es bei allen ist und asus auf ihrer Webseite einfach nur "alte" Bilder verwendet die nicht dem aktuellen Build entsprechen...
 
Dann steckt da tatsächlich mehr dahinter, pardon. Dein Post las sich aber wirklich sehr missverständlich und es ging nicht hervor, dass du dich auf (alte) Produktbilder der TUF beziehst.
 
Die Sache ist doch ganz einfach. Auf AMD warten und gucken, was die bringen oder eben ggf. auf Nivdias größere Speichervarianten warten.
Vielleicht regelt sich das bis dahin ja mit den Temps bei der größeren Speichervariante.
Aktuell würde ich mir auch keine 10gb 3080 holen, wenn die Next Gen Consolen schon 16gb Vram haben.
 
Die Konsolen haben keine "16GB VRAM", das ist kombinierter Speicher für das gesamte System. Davon sind direkt mal 2GB für das OS reserviert und restlichen 14GB kannst du auch nicht komplett mit Texturen vollknallen, da das Spiel selbst und die restlichen Apps gerne auch noch etwas hätten.
 
Soweit ich das bei Igor verstanden habe, hat er 112 Grad bei Zimmertemperatur gemessen. Ergo, könnte das bei 28 Zimmertemperatur nicht anders aussehen? Oder bei einem schlecht belüfteten Gehäuse?

hast du keine klimaanalage? :LOL:
/ironie
 
so wieder gpu los Gestern noch in den Händen gehalten mit BILD (was war in mich gefahren) heute schon wieder weg xD
 
Die Sache ist doch ganz einfach. Auf AMD warten und gucken, was die bringen oder eben ggf. auf Nivdias größere Speichervarianten warten.
Hast du dir mal die 100 Seiten Egotrip-Forendiskussionen zu Ampere durchgelesen? Wird nicht passieren. Niemand der Hardcore-Fraktion wartet auf AMD - das wäre ja ein Eingeständnis.

Ich sehe - ganz neutral - bei Ampere folgendes:
- Die Leistung wurde mit Strom erkauft, die Architektur skaliert praktisch null
- Die Speicherchips laufen so heiß, dass man mittelfristig mit Defekten rechnen könnte (Die >100°C zu ignorieren ist fahrlässig, da wird ja bereits bei Vorgänger-Generationen sehen konnten, dass der thermische Hub langfristig Defekte verursacht. Warum das bei Ampere per Magie nicht passieren soll, hat noch niemand erklären können)
- 800€ ist nicht "günstig"
- Verfügbarkeit praktisch nicht existent
- Auf Grund mangelnder Kommunikation zum PCB-Design und dem Drang einiger Hersteller bei >800€ GPUs noch ein paar Cent zu sparen, crashen einige Partnerkarten ab bestimmten Taktfrequenzen
- DLSS hat in der Nvidia-Demo Artefakte gezeigt
- Es wurde 16k Trainingsdaten vs 2k Nativ Auflösung Gegenübergestellt (und die Leute feiern diese Verarsche auch noch)
- Die Raytracing-Performance liegt auf dem gleichen Niveau wie Turing (Verlustbetrachtung)

Und was lese ich von den Trollen? AMD Argumente! Als wenn AMD diese Karte versaut hat. Das ganze Teil kann man mit einem Wort zusammenfassen: Kindergarten
 
Das kann natürlich sein, kenne mich auch nicht aus mit der Konsolentechnik.
Und trotzdem sehe ich erstmal die 16gb GDDR6 in den Specs. ^^
Selbst bei aktuelle Spiele werden durchaus schon über 8gb vram benötigt.
Ich weiß auch, dass, wenn mehr vram vorhanden ist als nötig, Dateien ausgelagert werden.
Trotzdem bin ich der Meinung, dass 10gb für Next Gen Spiele eng werden könnte.
Aber letztendlich heißt es wohl abwarten und gucken, was die Realität zeigt.
 
Aber letztendlich heißt es wohl abwarten und gucken, was die Realität zeigt.
Genau das. Benches abwarten und das kaufen, was man braucht. Wird genügend Benches geben, welche dir average/1% low aufzeigen, so dass du die passende Karte für deinen Monitor bestellen kannst. Alles andere ist Käse hoch siebzehn.

Und wenn du nicht gerade ein Streamer mit 10.000+ täglichen Zuguckern bist, kannste auch diese ganzen Twitch-Features ignorieren.
 
Hast du dir mal die 100 Seiten Egotrip-Forendiskussionen zu Ampere durchgelesen? Wird nicht passieren. Niemand der Hardcore-Fraktion wartet auf AMD - das wäre ja ein Eingeständnis.

Klar hab ich das gelesen, aber das ist deren ihre Sache, wie die das sehen. ^^
Ich für meinen Fall werde abwarten, obwohl ich auch erst gehyped war auf die 3080er. Wenn AMD was im Highend bereich bringt mit 16 oder gar 20gb Vram, die mit der 3080 mithalten kann, bin ich dabei. Kann auch zwischen 2080 ti und 3080 liegen. Ansonsten warte ich eben auf weitere Modelle von Nividia und schaue, wie sich das mit den Temps entwickelt.
 
Und wenn du nicht gerade ein Streamer mit 10.000+ täglichen Zuguckern bist, kannste auch diese ganzen Twitch-Features ignorieren.

Wenn du ein Streamer mit 1000+* täglichen Zuguckern bist, kannst du die ganze Diskussion Trost nicht beachten, denn du bekommst die Karte eh for free :wink:
 
Man nehme eine 250W TDP (3070er), prügelt diese auf 320-340W und nennt sie 3080FE :bigok:
 
Naja 839 gekauft 1500 verkauft
 
Hast du dir mal die 100 Seiten Egotrip-Forendiskussionen zu Ampere durchgelesen? Wird nicht passieren. Niemand der Hardcore-Fraktion wartet auf AMD - das wäre ja ein Eingeständnis.

Ich sehe - ganz neutral - bei Ampere folgendes:
- Die Leistung wurde mit Strom erkauft, die Architektur skaliert praktisch null
- Die Speicherchips laufen so heiß, dass man mittelfristig mit Defekten rechnen könnte (Die >100°C zu ignorieren ist fahrlässig, da wird ja bereits bei Vorgänger-Generationen sehen konnten, dass der thermische Hub langfristig Defekte verursacht. Warum das bei Ampere per Magie nicht passieren soll, hat noch niemand erklären können)
- 800€ ist nicht "günstig"
- Verfügbarkeit praktisch nicht existent
- Auf Grund mangelnder Kommunikation zum PCB-Design und dem Drang einiger Hersteller bei >800€ GPUs noch ein paar Cent zu sparen, crashen einige Partnerkarten ab bestimmten Taktfrequenzen
- DLSS hat in der Nvidia-Demo Artefakte gezeigt
- Es wurde 16k Trainingsdaten vs 2k Nativ Auflösung Gegenübergestellt (und die Leute feiern diese Verarsche auch noch)
- Die Raytracing-Performance liegt auf dem gleichen Niveau wie Turing (Verlustbetrachtung)

Und was lese ich von den Trollen? AMD Argumente! Als wenn AMD diese Karte versaut hat. Das ganze Teil kann man mit einem Wort zusammenfassen: Kindergarten

Glaube echt, dass es die bessere Wahl gewesen wäre, die Karten später zu launchen und speziell die 3080 nicht mit 320W, sondern mit 260 - 280W zu bringen, dann aber mit deutlich besseren Verbrauch, Temps und Lautstärke. Ja, die Karte würde dann etwas weniger FPS bringen, aber wie man im Test lesen kann, reicht auch 280W locker aus um eine 2080 Ti in den Schatten zu stellen.

Aber egal, bin inzwischen gar nicht mehr so unhappy nicht direkt eine Karte blind am Release-Tag bekommen zu haben. Preise steigen aktuell für die Turing Karten wieder ab der normalen 2080 und jeder der derzeit noch eine Karte dieser Größenordnung hat oder sich vor 2 Wochen günstig eine ergattern konnte, kann sich nun die nächsten 1 bis 2 Monate zurück lehnen und schauen wie sich das entwickelt.

Ich habe dieses Jahr direkt 2 grundlegende Fehler gemacht:
1) Ich habe mir ein Spiel blind am Releasetag gekauft (Horizon Zero Dawn) und wurde doch enttäuscht (klar, auf einem 2000 EUR Rechner läufts gut, aber als "empfohlene Systemanforderung" wurde eine RX 580 genannt :ROFLMAO: )
2) Ich wollte mir direkt eine 3080 am Releasetag kaufen, obwohl auf die neue Gen des Konkurrenten zu warten oder mir in Ruhe Tests und User-Erfahrung durchzulesen.

Glaube dieses Jahr hat mir mal wieder bestätigt, dass man echt mit einer 50/50 auf die Fresse fliegt, wenn man da Dinge direkt zum Release kauft ^^

Naja 839 gekauft 1500 verkauft

Du hast eine 3080 gekauft und diese direkt für 1500 EUR verkauft? Es gibt echt Leute die dafür 1500 EUR zahlen? Oh man, ich habe hier noch eine 2080S, hast du da einen Kontakt, der mir dafür auch so 1100 EUR geben würde? :d :d
Wenn das echt so ist, dann ist es einfach unfassbar, wie viele dumme Leute es doch gibt. Sorry für die drastischen Worte, aber das ist echt übel.
Ich mache hier nicht einmal dir, als absoluter Geldgeier, die Vorwürfe, sondern viel mehr denen, die so dumm sind, diese Preise auch noch zu bezahlen.
 
Eine 3080? Würde ich jetzt auch schon verlockt sein für so viel Geld. Wenn man da ein paar Wochen wartet kann man dann fast gratis auf eine 3090 upgraden. Geduld ist eine Tugend...
 
GPU Speicher läuft doch immer mit +100°C auch Jahre lang einwandfrei.
auch die ersten 2080 ti laufen auch noch heute Dauernutzung einwandfrei

Der grund für die paar Defekten 2080 ti am Anfang war eine schlechte speicher charge ( gamernexus confirmed )

Immer det Gejammer über die speicher Temperatur wenn es Probleme gibt, ist schon extrem lächerlich :rofl:
mittlerweile kann man daraus ein meme machen

Die Crashes zurzeit betreffen nur übertaktete Modelle weil anscheint schlecht gebindete chips mit OC BIOS gefüttert werden
Ein runtertakten des Speichers führt immer noch zu crashes, erst das herabsetzen des GPU Taktes hilft.
Also ergo ist der Grund schlichtweg: Lappen Chips mit OC BIOS

Man muss auch erwähnen, von 10.000+ Karten sind nur ganz wenige betroffen aber es wird schon wieder so getan als wären jetzt alle Karten Schrott :lol:

Wer so ne Karte besitzt mit Lappen Chip sollte nicht auf ein wunder hoffen, sondern einfach reklamieren wie es sich gehört.
Zwei mal ne karte zu erwischen mit schlechter ASIC ist eher unwahrscheinlich, da wie gesagt nur wenige Karten betroffen sind.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh