Warum haben Grafikkarten so hohe Spannungen?

margaretsalazar

Neuling
Thread Starter
Mitglied seit
30.10.2024
Beiträge
1
Ich habe meine AMD HD5xxx- und HD7xxx-Karten deutlich untervoltet und konnte keine Leistungs- oder Stabilitätseinbußen feststellen, aber sie haben viel niedrigere Temperaturen und verbrauchen weniger Strom, wenn sie untervoltet sind. Warum halten die Hersteller sie nicht auf der niedrigstmöglichen Spannung, anstatt sie mit einer hohen Spannung auszuliefern und sie oft auf dieser Spannung zu fixieren?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Was ist hoch? Jeder Chip ist anders, die Karten werden ja nicht selektiert
 
Weil die Hersteller lieber ausreichend Sicherheitsreserven haben, da laufen dann auch die schlechten Chips vernünftig. Klar kostet das Effizienz, aber dafür hast du auch keine Rückläufer, RMA etc.


Wollte man das Potential ausnutzen müsste man selektieren, hätte damit mehr Ausschuss und potentiell kommt auch öfter mal eine Karte zurück, weil es doch etwas knapp war.
 
Ist das bei CPUs anders? Wenn man da (Grakas) selektieren würde - die Chips, nicht die "Karten" - und sich im Netz dann nach und nach rumspricht was die guten Werte sind, wie viele Rückläufer würde das generieren? So ein Zeug würde kein Händler ordern.
 
Zuletzt bearbeitet:
Die Frage, warum GPU´s (bei Prozessoren ist es eigentlich auch so) eine hohe Mindestspannung haben, liegt daran, dass die Hersteller einen Takt quasi garantieren müssen, den die CPU oder GPU erreichen mussl, wie es der Hersteller vorgegeben hat und dies natürlich stabil.

Damit dies immer erreicht wird, liegt eben besser zu viel, als zu wenig Spannung an.

Die Chipgüte ist immer unterschiedlich, manche Chips haben eine gute Qualität und können mit undervolting eine höhere Frequenz erreichen, manche reagieren äußerst allergisch und zicken bereits, bei einem leichten undervolting herum oder sind instabil.

Roman Hartung hatte vor einiger Zeit ein interessantes Video gehabt, über die Qualität von CPU´s. Ich meine es waren 10 AM5 CPU´s, in denen er aufzeigte wie gut sie takten und wie die Stromaufnahme der einzelnen Prozessoren ist.
Ein undervolting geht in den meisten Fällen aber immer und man bekommt mehr Leistung bei weniger Stromaufnahme und kühleren Temperaturen.:-)
 
Ist das bei CPUs anders? Wenn man da (Grakas) selektieren würde - die Chips, nicht die "Karten" -
GPUs sind um einiges größer als CPUs und damit auch teurer. Die Spanne von der Low-End zur High-End-GPU ist viel größer. Die GPUs sind ja sogar unterschiedlich groß. Es wäre wohl viel zu teuer die große Ausbaustufe zu produzieren und dann teildefekte GPUs daraus als kleinere GPUs auszuselektieren. Ausserdem würde ich nicht davon ausgehen, das GPUs so "modular" funktional sind, wie CPUs. Wenn bei einer 8-Kern-CPU ein Kern defekt ist, wird halt noch ein zweiter Kern zusätzlich deaktiviert und die CPU als 6-Kerner verkauft. Ginge das mit GPUs auch? Wenn da mal eben 100 Cores kaputt sind, deaktiviert man noch weitere 2816 Cores damit man sie als 4060 statt 4070 verkaufen kann?

Abgesehen davon sind in der Hinsicht auch CPUs nur grob selektiert. Die sind nicht nach Spannung in 10mV-Schritten selektiert, eben deswegen kann man auch CPUs genauso wie GPUs undervolten. Wie weit man welche CPU undervolten kann, hängt halt genauso wie bei GPUs von der Silicon Lottery ab.
 
Ich habe meine AMD HD5xxx- und HD7xxx-Karten deutlich untervoltet und konnte keine Leistungs- oder Stabilitätseinbußen feststellen, aber sie haben viel niedrigere Temperaturen und verbrauchen weniger Strom, wenn sie untervoltet sind. Warum halten die Hersteller sie nicht auf der niedrigstmöglichen Spannung, anstatt sie mit einer hohen Spannung auszuliefern und sie oft auf dieser Spannung zu fixieren?

Mir fallen dafür mehrere Gründe ein:
-Zu hohe kosten bei der Überprüfung jedes einzelnen Chips auf das maximale Potential (und damit auch massiv steigende Kosten für den Kunden/Endanwender)
-Die Ausbeute wird massiv darunter leiden wenn so stark selektiert werden muss
-Zu starke Streuung zwischen verschiedenen Karten unter gleicher Bezeichnung

Daher werden die Spezifikationen aus Optimierungsgründen (sowohl Zeit als auch Kosten) so gelegt, dass die meisten Chips (sofern keine anderen Defekte vorhanden) die Spezifikationen erfüllen und man mehr verkaufen kann.
 
Welchen Bezug hat das zu meiner These?
Habe ich geschrieben:
Es wäre wohl viel zu teuer die große Ausbaustufe zu produzieren und dann teildefekte GPUs daraus als kleinere GPUs auszuselektieren.
Größe des Dies = Platz auf dem Waver. Je größer, desto weniger Dies passen auf einen Waver und zusätzlich steigt bei größeren Dies das Risiko das bei einem Die irgendwas nicht funktioniert und das macht die Produktion insgesamt wesentlich teurer.
Dadurch hat AMD ja mit dem Chipletdesign einen großen Wurf gelandet. Einzeln verwendbare Dies werden kleiner, nämlich halt nur ein Chiplet, statt ganze CPU. Somit holt man mehr aus einem Waver raus und das Risiko das ein Chiplet kaputt ist, sinkt -> man kann günstiger produzieren.

Oder nochmal mit anderen Worten, dann wirds vielleicht klarer: Es ist zu teuer, die großen Diese mit Vollausbau der GPU zu produzieren um sie dann auszuselektieren. Will man kleinere GPUs, fertig man direkt eine kleinere Ausbaustufe, weil damit die Ausbeute wesentlich besser ist.
 
@Liesel Weppen
ICH schrieb darüber, warum sie alle innerhalb der Serie (Chipausführung) die gleiche Spannung haben. Und meistens die des schlechtesten der noch genommen wird. DAS hat nichts mit Chipgrößen und Platz auf dem Waffer zu tun.

An meinem Thema vorbei.
 
@Liesel Weppen
ICH schrieb darüber, warum sie alle innerhalb der Serie (Chipausführung) die gleiche Spannung haben. Und meistens die des schlechtesten der noch genommen wird. DAS hat nichts mit Chipgrößen und Platz auf dem Waffer zu tun.

An meinem Thema vorbei.
Nein, du kapierst es nur nicht. :ROFLMAO:

Bei CPUs kannst du bei Defekten auf dem Die das Die immernoch als "kleinere" CPU-Variante verkaufen. Wie ich schon sagte: Wenn beim 8-Kern-Die nur 7 Kerne funktionieren, kannst du den noch als 6-Kerner verkaufen. Wenn der 8-Kerner den Takt den ein 7800X haben soll nicht erreicht, wird er halt als 7800-non-X oder sogar nur als 7700X verkauft. Ggf. fertigt man nicht extra 6-Kerner, sondern nur 8-Kerner und sortiert teildefekte CPUs dann halt zu 6-Kernern aus... wenn die Nachfrage nach 6-Kernen größer ist, werden sogar ggf. vollfunktionale 8-Kerner absichtlich teildeaktiviert und als 6-Kerner verkauft. Die Dies sind auf vielen verschiedenen "Ausbaustufen" der CPUs aber die gleichen. Und auch da wird nichts an der Spannung getuned, sondern nur geguckt obs mit der Pauschalspannung läuft oder halt nicht.
Verschiedene CPUs, z.B. 7600, 7600x, 7700, 7700x, 7800, 7800x, ... haben die gleichen Dies (bzw. bei AMD sogar Chiplets) verbaut. Nur ggf. teildefekt oder teildeaktiviert.

Bei GPUs geht das nicht, weil die nächst kleinere Karte eine ganz anderes GPU-Die hat. Und das man nicht wie bei CPUs nur die große Variante fertigt und für die kleineren Varianten dann teildeaktiviert (falls das bei GPUs technisch überhaupt geht!), liegt daran das GPUs viel größere Dies haben und damit die Ausbeute mieserabel wäre. Deswegen belichtet man GPUs schon auf dem Waver in verschiedenen Ausbaustufen (und somit eben Die-Größen).

Und warum soll man sich die Arbeit machen bei GPUs der gleichen Ausbaustufe ab Werk die Spannung feinzutunen? Produziert werden z.B. AD104 für 4070, die werden alle als 4070 verkauft. Und du meinst jetzt, die testen die minimale Spannung für jede einzelne GPU im Detail aus und dann kannst du verschiedene 4070 zum gleichen Preis kaufen und die eine läuft ab Werk mit 0,995V und eine andere vielleicht mit 0,960Volt, weil die in der Produktion schon dahingehend feingetuned wurde? Wovon träumst du bitte Nachts?
Da setzt der Hersteller halt eben pauschal 1V an. Was mit 1V läuft, wird mit 1V verkauft, egal ob diese eine GPU vielleicht auch mit 0,95V noch laufen würde. Was nicht mit 1V läuft ist Ausschuss und wird verschrottet. Auch da wird nicht rumprobiert, ob dieses eine Exemplar mit 1,1V vielleicht doch noch laufen würde.
 
Zuletzt bearbeitet:
Warum halten die Hersteller sie nicht auf der niedrigstmöglichen Spannung, anstatt sie mit einer hohen Spannung auszuliefern und sie oft auf dieser Spannung zu fixieren?
Um sicher zu gehen, das jede Karte out of the box gleich stabil läuft.

Jeder Chip ist einzigartig und verträgt UV unterschiedlich gut. Der eine Chip mehr, der andere weniger.

Man müsste also jede Karte einzeln einstellen, und das wäre zum einen extrem aufwendig und somit teuer,
und zum anderen, würde das zu unterschiedlichen Spezifikationen innerhalb einer Modellserie und somit für Verwirrung sorgen.

Deswegen nimmt man einen einheitlichen Wert, der für alle gilt
 
Übliche Spannungen bei gpu sind 1,05 bis 1,1v
ab 1,05 geht es in quadrat mit verbrauch zu amd gpu sind traditionell immer bei gob 1,1v zuhause ein uv verbietet sich da amd Takt bis ausgibt und immer versucht den Takt hochzuprügeln
das kann man mit pt auf 60% fixen aber der Takt muss automatisch laufen dann ist es pures lotto wie gut die gpu dann Taktet
Das geht aber nur ab rdna3, rdna2 rate ich zu more power tool und manuell die optimale f/v zu suchen ist aufwendig.

Aus nv perspektive weis ich das die sku's um die 1,08v maximal ziehen bei 1,06v ist der verbrauch halbiert bei nur -200mhz

nodes und ihre sweeetspots
tsmc n7 1,05v
samsung 8n 1,06v
tsmc n5/4n 1,04v
samsung sf4 1,05v
tsmc n4/4np 1,03v

Da aber nvidia und amd die Spannungzugriffe gesperrt haben ist nur das PT limit entscheidend
amd kann man das im Treiber oder mit afterburner fixieren üblich gelten bei 60% als Lösung
bei nvidia freie Wahl ich würde am ehesten 85% nehmen bevor weniger nix bringt.
 
1730414165074.png

unten rechts slider auf ganz nach links

1730414297620.png



Wie weit das runter geht ist je nach gpu gen unterscheidlich bei nvidia sind es min 58% bei amd schwankt das ich meine es waren 60%

nvidia neue nv app ht was ähnliches siehe dass
1730414520733.png


maxed Leistung ist PT limit
 
Die Bemerkung von @DaHell63 war vermutlich eine ironische, wenn auch nicht als solche gekennzeichnet. Es kann keinen solchen Screenshot geben: AMD = nix 60 %.

Wie weit das runter geht ist je nach gpu gen unterscheidlich bei nvidia sind es min 58% bei amd schwankt das ich meine es waren 60%

Nur bei RDNA 1 und 2 war das PL mittels MPT quasi frei wählbar. RDNA 3 bewegt sich zwischen +/-5 % (RX 7600 ) und +15/-10 % (RX 7900 XT/X). Kein Entkommen möglich, außer per Hardware-BIOS-Flash und/oder EVC2-Einsatz.

Bei Nvidia haben andere einen generationenübergreifenden Überblick, ich es immerhin für die RTX 4080 Super recherchiert. Dort ist die Untergrenze fix bei 150 Watt gesetzt. Vom nominalem Powerlimit (320-350 W) können das je nach Modell 53, 56, oder 57 % sein.

Die Obergrenzen legt bei beiden Herstellern das jeweilige Karten-BIOS fest. Der Radeon-Treiber gestattet wie gesagt, ein paar Prozent draufzulegen, Geforce erlaubt eine stärkere Reduzierung des PLs.
 
Zuletzt bearbeitet:
>stellt komische frage
>nie wieder gesehen

1730415921953.png


mods zetteln wieder Forenpvp an lol
 
Die Grafikkartenhersteller bezahlen ja den Strom nicht, daher ist es ihnen egal und den Kühler etwas größer machen kostet weniger, als eine Supportanfrage zu bearbeiten.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh