Ist bei AMD tatsächlich immer recht doof wenn die Finalen Produkte was mehr Strom Ziehen und so in den Handel kommen. bei Vega haben Sie es ja total übertrieben, was am ende keiner verstehen konnte, denn selbst mit 0,2v weniger laufen die karten quasie alle mit höherem takt bei deuuutlich weniger verbrauch.
Ja, sie laufen, in irgend einem Game, in irgend einem Bench, für ein paar Minuten oder wenige Stunden. Aber ihr könnt halt eigentlich effektiv nicht so nen kurzen "gucken ob es abschmiert" Test als eine Herstellermaßgabe ranziehen. Damit redet man sich den Spaß halt dann doch wieder massiv schön. Irgend einen Grund hat es, warum das AMD so fährt - und da das nicht das erste mal ist und in der Vergangenheit schon recht häufig der Fall war liegt die Vermutung einfach mal nahe, dass diese Spannungen zumindest höher als in den händischen UV Tests irgendwo notwendig sind um die eigens gesteckten Vorgaben auch garantieren zu können! Das interessiert den Gamer am Ende nicht die Bohne, weil der eh normalerweise keine xx-Stunden am Stück absolut gleichbleibende Dauervolllast auf so eine GPU knallt - aber andere Anwendungsbereiche interessiert das schon. Und selbst wenn das Game dann mal abnippelt nach 4 oder 6 Stunden - ja dann schimpft man halt auf die Software oder weis der Geier was und weiter gehts. Im Business-Usecase ist das aber schlicht keine Option.
Wenn ICH mir so ne GPU als Renderschmette in den Renderserver drücken würde, bspw. so ne VegaFE - dann erwarte ich, dass das Ding in JEDER Situation auch stabil bleibt. Und hier trennt sich dann halt das Spreu vom Weizen. Mit den UV Settings sinkt die Wahrscheinlichkeit dass es läuft schon deutlich. Vor allem wenn man sieht wie "nah" die Leute die Dinger an der Stabilitätsgrenze betreiben. Also Testen bis Absturz und dann mit der Spannung eine oder zwei Stufen rauf. Oder mit dem Takt paar wenige MHz runter. Das sind Peanuts - die Karte würde im produktiv Betrieb mit dem bisschen nachgeben einfach paar Minuten später abnippeln.
Ich für meinen Teil teste bspw. meine GPUs auf mehr als einen Tag Dauervollast in Cycles Blender. Und was soll man da sagen? Auch die vielfach immer gelobten NV GPUs lassen da schon deutlich federn. Ich habe hier bspw. zwei 1080TIs, EVGA FTW3, die mich richtig enttäuscht haben bei dem Thema, denn die schaffen nichtmal ihre Stock Taktraten! Stock sind das dort bisschen unterhalb 2GHz im Boost, wenn man das Powertarget aufdreht. Das nippelt irgendwann einfach ab. Mit -150 auf der GPU hingegen und "nur" 100% PT lief das seinerzeit auch mal ne Woche unter Volllast durch
Temperaturen sollten dabei auch das Problem sein, nichtmal 70°C auf der GPU bei 100% Lüfterspeed aller drei Lüfter.
Ich bin aber ein Verfechter von "Alles aus einer Hand". Die Produkte harmonieren so meiner Meinung nach besser.
Würdest du es denn glauben, wenn man dir sagt, dass das schlicht und ergreifend ein Mythos ist?
Unterm Strich, es macht wirklich keinen Unterschied
Früher war sowas durchaus mal angebracht, aber System <> GPU war auch früher nicht das Problem - mir fällt aber bspw. spontan sowas wie CPU Hersteller <> Chipsatz ein. Oder eben GPU <> Chipsatz vom Board (seinerzeit NV mit den NV Chipsätzen, SLI und so)
Aber jeder soll kaufen was er für richtig hält
Die 5700er sind definitiv mal keine schlechten Karten
Kann BigNavi dort anknüpfen, dann werden die Dinger nicht mal schlecht werden, davon bin ich überzeugt. Das mit dem Verbrauch muss man dann am Ende sehen... Und wie weit NV mit dem nächsten Schritt auszuholen im Stande ist. Der 7nm Schwenk steht halt noch an. Inkl. der damit ziemlich sicher einher gehenden deutlichen Effizienzsteigerung. Den hat AMD schon vollzogen und müssen eben dann die wohl klar kleineren Brötchen mit den zukünftigen 7nm Aufgüssen/Verbesserungen "backen" um das noch weiter zu pushen.