Überlastet die Radeon RX 480 den PCI-Express-Steckplatz? (Update)

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Er sagt, dass das Problem erledigt wäre, wenn man den Lötkolben in die Hand nimmt und die Phasen miteinander verbindet. Dann könnte der 6-Pin die Überlast des PCIe-Slots abpuffern bzw. verhindern

Genau das zu tun hatte ich mir erst auch überlegt. Allerdings ist das eine Milchmädchenrechnung. Es ist keinesfalls gesagt, dass die Karte nicht vielleicht sogar trotzdem mehr Leistung aus dem Board saugt. Das ist eine Frage des Widerstandes... Zudem könnte eventuell Strom über die Grafikkarte ins Mainboard fließen.

Folglich müsste man ein Hindernis für den Strom aus dem PCIe- Slot bauen(Widerstand/Diode), der/die allerdings auch die Spannung senkt: Schlecht.

Aktuell zieht die Karte von beiden Positionen etwa gleich viel. Man muss also nur das TDP- Limit per Treiber stärker durchsetzen und schon passt es überall. Und genau das wird AMD auch tun.
 
Vielen Dank für den Twitch Link! Aufgrund der anderen Reaktionen hier werde ich meine Meinung dazu nicht mehr posten, aber danke euch!

#2 hat das Thema nicht verstanden
#3 geht auf den Troll ein
#4 bringt neue Informationen in die Diskussion, vielen Dank!
#5 interessiert sich zwar nicht für den Inhalt, schreibt aber nett :)
#6 beleidigt persönlich, ohne den Eingangspost gelesen und verstanden zu haben
#7 bringt den selben Link wie #4, ergänzt mit einer guten Zusammenfassung, vielen Dank!
#8 möchte die Transferleistung nicht mitmachen
#9 geht als erster mit aufs "warum" ein, danke!
#10 fasst die Diskussionskultur in diesem Forum gut zusammen
 
Vielen Dank für den Twitch Link! Aufgrund der anderen Reaktionen hier werde ich meine Meinung dazu nicht mehr posten, aber danke euch!

Schade, die anderen Threads zu dem Thema wurden auch schon erfolgreich von den AMD Trollen durch Off-Topic Posts und persönliche Diffamierungen zerstört.

Trotzdem danke für die Mühe, eine kommentierte Zusammenfassung des aktuellen Stands zu schreiben und für den Versuch, mal wieder eine sachliche Diskussion anzustoßen. Leider ist letzteres hier wohl nicht möglich.
 
Kann geschlossen werden.

+1
Es ist einfach nur traurig, wie reagiert wird. Wenn AMD sich mal einen winzigen, leicht korrigierbaren Fehltritt leistet, haut man direkt ohne Rücksicht auf Verluste drauf. Mir wäre dagegen kein Thread hier bekannt, wo jemand den 3,5GiB- Skandal der GTX 970 von Nvidia in die Annalen eingetragen hätte. Es gibt schon von offizieller Seite einen Thread und dieser hier ist wirklich mit der peinlichste, den es auf Hardwareluxx gibt.
 
Es gibt schon von offizieller Seite einen Thread und dieser hier ist wirklich mit der peinlichste, den es auf Hardwareluxx gibt.

+1

Ein haufen inhaltsleere Spekulationen und Vermutungen. Sobald es hier im Forum zwei Threads zum gleichen Thema gibt wird einer zugemacht. Wieso ist hier noch offen?
 
+1

Ein haufen inhaltsleere Spekulationen und Vermutungen. Sobald es hier im Forum zwei Threads zum gleichen Thema gibt wird einer zugemacht. Wieso ist hier noch offen?

+1 ......................soviel Senf und keine Wurst dazu!! Unglaublich, ein Aufsatz mit nichts neuem.
 
ui, jede menge neues futter für die fanboy-ignore.


hier kann zu gemacht werden.
1. gibts das thema schon mehrfach.
2. keinerlei neue infos oder disskussionen, reines amd-bashing. (zeigt schon der titel "powergate skandal" - das klingt wie eine BILD überschrift)
3. wird das - wie vom TE beabsichtigt - in einem furchtbaren fanboy krieg enden. muss nicht sein, gibts echt schon genug von.
 
durch neue treiber kann die leistung nur besser werden, gerade bei neuen games schneidet diue karte gut ab.
 
Ein AMD-Skandal? *aufhorch* Das ist Balsam auf die geschundene 970er Seele. ;)
 
AMD muss also innerhalb der Spezifikation bleiben, wenn sie kein gigantisches PR Desaster verursachen wollen.

Zu spät. Mehr als Schadensbegrenzung ist da nicht mehr drin.
70ab5c5d1d94f8e0473931dc9236dd26a20369d985cbb05b6b035956a3c114ba.jpg
 
Licht am Ende des Tunnels, es kann nur durch einen Hardwaremod oder durch das Senken der Leistungsaufnahme hingebogen werden.

"Der Sense-A Pin am 6-Pin-connector ist nicht Sense, sondern stattdessen ein dritter Masse-Pin. Das verletzt vermutlich die PCIe-Specs, weil die Karte so gar nicht bemerken würde, wenn kein Stecker drin steckt - ermöglicht im Gegenzug aber, dass mehr Leistung über den 6-Pin gezogen werden kann, ohne dass der Stecker über Gebühr beansprucht wird
Die Phasen wurden physikalisch getrennt: 3 liegen auf PCIe, die 3(+1?) auf dem 6-Pin. Das ist in dem Fall besonders seltsam, weil man schon extra die Specs am 6-Pin verletzt, um mehr Strom ziehen zu können, es dann der Karte aber nichtmal ermöglicht, dem PCIe-Slot über den 6-Pin Last abzunehmen
Übertrieben gesagt: Selbst wenn die Karte 3 8-Pin-Stecker hätte, würde der PCIe-Slot immer noch überlastet, solange die Phasen physikalisch getrennt sind
Er sagt, dass das Problem erledigt wäre, wenn man den Lötkolben in die Hand nimmt und die Phasen miteinander verbindet. Dann könnte der 6-Pin die Überlast des PCIe-Slots abpuffern bzw. verhindern"

https://www.computerbase.de/forum/showthread.php?t=1596287&page=33&p=18977772#post18977772

https://www.twitch.tv/buildzoid/v/75850933?t=59m41s

Der Mann in dem Stream hat offenbar richtig viel Ahnung was er sagt und hält AMD für "dumm".

Der hat eher weniger Ahnung.

Man kann auch erkennen, ob der 6Pin angeschlossen ist, wenn 12V an ihm anliegen, aber das nur mal so als Idee. Darüberhinaus würde der VRAM wohl auch nicht anlaufen, da er nicht versorgt wird...

Auch seine Überraschung, dass die 12V des Sockels nicht mit den 12V des PCIe verbunden sind, deuten von nicht allzu großer Ahnung was E-Technik angeht, die Empfehlung diese einfach auf der Karte zu verbinden und dann ist alles gelöst... Das ist dumm! Jeder Spannungsunterschied in den beiden Phase, sorgt für einen Stromfluss und bei ca 0 Ohm fließt da ne menge Strom (I=U/R). Gibt nicht umsonst teure Lösungen für Load-balancing.
 
Wow, da scheint AMD beim Designen des PCBs ja einen echten Bock geschossen zu haben.

Zum Glück designen die Custom Hersteller ihre eigenen Schaltungen... hoffe ich zumindest.

Ich habe mir die Sache mal angeschaut und ich vermute das ist so eine Designentscheidung, die auf den ersten Blick total blöde wirkt, aber am Ende die größte Trickserei (Genialität) überhaupt darstellt.

Die PCIE Electromechanical Spec sagt, dass der Sense Pin benutzt werden kann um heraus zu finden ob der Stecker eingesteckt ist oder nicht.

Der Pin selbst muss im Netzteil oder am Stecker mit Masse(Ground) verbunden sein. Wenn du also an dem Pin Masse(Ground/0V) misst steckt ein Stecker drin. Wenn du irgendwas misst, ist kein Stecker drin.
Es wäre dabei vorzuziehen Masse vom 6 Pin mit dem Sense Pin zu vergleichen, da Masse oder 12V vom Mainboard durchaus unterschiedliche Potenziale haben können zu denen aus dem 6 Pin, aber bei genug Toleranz wäre auch solch ein Vergleich zumutbar.

Ich vermute einfach mal, dass da irgendein Schlaumeier das letzte bisschen Saft rausholen wollte und deswegen in Kauf genommen hat, den Stecker umständlicher zu detektieren.

Das ist vermutlich nicht vorgesehen, dass der Pin wirklich Leistung liefern kann, aber auf den ersten Blick spricht da wirklich nichts dagegen.

Es ist so einfach nur schwieriger heraus zu finden ob da ein Stecker in der Karte steckt oder nicht.
 
Zuletzt bearbeitet:
Ist nur meine Meinung:
Ich kann mir einfach nicht vorstellen, dass so ein Fehler in der QS nicht bemerkt wurde. Ich vermute, dass AMD das Problem bereits kannte und aufgrund Zeitdruck (Release der Karte) es drauf hat ankommen lassen. Ich kann mir auch vorstellen, dass die Karte durch den zusätzlichen Saft mehr Leistung bringt, welche sie mitnehmen wollten.
 
@KingLzZz:
Ne ist viel einfacher siehe über deinem Post. Ohne VRAM läuft die Karte einfach nicht!

Und hält man die Karte über das PowerGood Signal des Voltage Controllers im Reset oder LowPower Mode, dann raucht da auch nichts ab... (<-- Das ist eine Spekulation meiner seits)


Echt erschreckend, wie manche ohne technischen Hintergrund ( :wink: TARDIS) meinen sowas bewerten zu können :wall:
 
Echt erschreckend, wie manche ohne technischen Hintergrund ( :wink: TARDIS) meinen sowas bewerten zu können :wall:

Dann erkläre mir doch mal mit technischem Hintergrund, warum es kein Probelm ist, aus den fünf 12V Pins des PEG, die auf 66 Watt spezifiziert sind, dauerhaft 80-100 Watt zu ziehen. Wenn meine (und die der ganzen anderen objektiven Reviewer) Bewertung falsch ist, muss das ja ein 1a Design sein. Ich bin gespannt auf deine technische Erklärung, unl34shed.

:wink: :popcorn:
 
@Belo79

Amd hat sich offensichtlich ein Ziel gesetzt gehabt (Leistung/Verbrauch/6 Pin Stromanschluss) was nur durch absolutes Ausreizen der Spezifikationen gegangen ist. Soviel können wir wohl festhalten. Ob sie es übertrieben haben oder man hier noch mal ein Auge zudrücken kann muss wohl jeder selbst entscheiden. Es scheint aber im allgemeinen zu funktionieren.

@unl34shed

Ich glaube die Bewertung des ganzen Problems ist für den Laien wirklich nicht einfach, vor allem bei sovielen Halb- und Unwahrheiten die bei dem Thema überall geschrieben werden.
Genau hier im Internet trifft man extrem oft auf den Dunning-Kruger-Effekt.

Obwohl ich selbst eigentlich mich gut genug mit dem Thema auskennen sollte, kann ich trotz Studium auch nicht sofort jede gelesene Aussage bewerten.

Am Ende hift echt immer nur die Spec lesen und verstehen (verstehen geht leider ohne Vorwissen oft nicht) und dann Pi mal Daumen abwägen. ;)

Es ist ja nicht mal so, dass der Twitch Typ so Unrecht hat, im Vergleich zu der Standardimplementierung in seiner anderen Grafikkarte ist das hier wirklich sehr anders. :d

@TARDIS

Ich dachte es geht aktuell nur im den 6Pin Anschluss, dass die Leistungsaufnahme über den PCIE Stecker zu hoch ist, ist doch undiskutabel bestätigt. Allein die Bewertung ob und wie groß das Problem ist steht doch nur im Raum. Und ob das schlechtes Design ist oder nicht ist so einfach gar nicht bewertbar.

Als Analogie: Wenn du ein 5L Auto hast, deine Vorgabe ist 300km weit zu fahren und nur 10L Sprit zu verbrauchen (auf der ganzen Strecke), ist es dann gut oder schlecht wenn du 299km geschafft hast und liegen bleibst?

Jeder Außenstehende wird sagen du hast es nicht geschafft, aber unter den Vorgaben war das Ergebnis eigentlich eine Punktlandung. Und so stell ich mir das hier auch vor wie es gelaufen ist. Der Spielraum wurde voll ausgeschöpft, was leider keine Sicherheitsmargen mehr zugelassen hat.
 
Zuletzt bearbeitet:
Wenn meine (und die der ganzen anderen objektiven Reviewer) Bewertung falsch ist, muss das ja ein 1a Design sein.

Die Karte ist elektronisch betrachtet auch eigentlich die beste Karte, die ich je gesehen habe. Die potente Spannungsversorgung auf diesem engen Raum ist genial und wäre man nicht zum Teil an den PCIe- Slot als Spannungsquelle gebunden, würde das Teil geradezu zum Übertakten einladen. Auch thermisch und von der Lautstärke scheint sie genau an der Grenze zu sein, in der sie extrem angenehm bleibt und gleichzeitig noch unbedenklich warm wird. Anders gesagt, die Karte würde ich in der Aufmachung eigentlich direkt jedem Durchschnittsgamer bedenkenlos empfehlen.
Das einzige, was hier falsch läuft, ist, dass das TDP- Limit nicht zuverlässig bei 150W abriegelt(und dass die Karte ein bisschen mehr verbraucht als nötig) - das ist wirklich alles. Würde das Limit zuverlässig greifen, würden ziemlich genau 75W jeweils aus dem 6-Pin und aus dem Slot kommen - perfekt. Hier wollte man wohl alle kleinsten Spielräume zu 100% ausnutzen und ist dann minimal über das Ziel hinausgeschossen, weil man vielleicht auch nicht bedacht hat, dass in der Serienfertigung die Wärmeleitpaste schlampiger aufgetragen sein kann, die GPU schlechter sein kann und mehr Energie zieht, und der Kühler eventuell nicht immer gleich viel leistet als beim Sample, wo man sich wahrscheinlich besonders viel Mühe gegeben hat.

Aber das wichtigste ist, dass das alles mittelfristig schon kein Problem mehr ist, weil es sich leicht per Treiber beheben lässt.
 
weil man vielleicht auch nicht bedacht hat, dass in der Serienfertigung die Wärmeleitpaste schlampiger aufgetragen sein kann, die GPU schlechter sein kann und mehr Energie zieht, und der Kühler eventuell nicht immer gleich viel leistet als beim Sample, wo man sich wahrscheinlich besonders viel Mühe gegeben hat.
.

Ich glaube den AMD Ingenieuren ist das alles total klar, sonst wären sie ja totale Anfänger, wenn sie glauben würden, daß es bei sämtlichen eingesetzten teilen nicht Unterschiede in der Qualität geben kann (was bei gpus ja vollkommen normal ist, siehe Ocing wenn irgendwas anderes ned beeinträchtigt). Die haben es drauf ankommen lassen. Die wollten die Karte so bringen, der Druck ist von Seiten nv massiv. Jetzt muss halt nachgebessert werden.
 
AMD Radeon RX 480 im Detail: Leistungsaufnahme, Layout und Normen - Messungen und mögliche Ursachen

Die Karte sollte also für LuXXer ;) kein Problem darstellen. Mit meinem Board und meinem Netzteil z.B. würde ich definitiv keine Probleme haben.
ABER, sollte es Custom Karten mit der gleichen PCB Länge und 8 Pin geben würden die natürlich vorgezogen werden.
Es macht keinen Sinn 2 von den guten Stücken unter Wasser zu setzen und dann nicht alles aus dem CF rauspressen zu können.

justmy2cents

EDit: Wow, krasse 1460/2250 mit DIce :fresse:

http://hwbot.org/submission/3253894_gorod_3dmark___fire_strike_radeon_rx_480_13692_marks
 
Zuletzt bearbeitet:
Kann man der rx nicht im Graka-Bios beibringen, das mehr an Energie über den 6-Pin zu ziehen, bei Nvidia geht das mit der 750 zumindest.

Meine beiden 750er haben aber auch keinen 6-Pin, müssen ergo alles aus dem pcie ziehen, und zumindest die 750ti @1600mhz schert sich nach bios-Mod eh nen Dreck um die 75w Grenze.

Hier hab ich bisher null Probleme ;)
 
Kann man der rx nicht im Graka-Bios beibringen, das mehr an Energie über den 6-Pin zu ziehen, bei Nvidia geht das mit der 750 zumindest.

Meine beiden 750er haben aber auch keinen 6-Pin, müssen ergo alles aus dem pcie ziehen, und zumindest die 750ti @1600mhz schert sich nach bios-Mod eh nen Dreck um die 75w Grenze.

Hier hab ich bisher null Probleme ;)

Weist du was die karten so ziehen aus dem slot. Wenn du den gesamtverbrauch ohne karten weist kann man das ja abschätzen.?
Ich denke man kann dann auch ein quadfire mit 480 ern betreiben ohne das da was passiert.
 
Was außerdem auffällig, ist der sehr ähnliche Verlauf der beiden Teillasten. Interessant wäre, eine Widerstandsmessung von Steckplatz zu Stromstecker durchzuführen – ist diese niederohmig, ließe sich schlussfolgern, dass beide Versorgungen auf der Karte gekoppelt sind. Schaltungstechnisch ist dies durchaus sinnvoll. Indem die Leistung gleichmäßig verteilt wird, werden die einzelnen Verbindungen minimal belastet und die Verluste möglichst geringgehalten.

Diese Vorgehensweise halte ich für nicht so gut:
Wenn alle 12V Schienen verbunden werden, erhält man zwar die geringste Gesamtimpedanz, kann aber den Stromfluss nicht mehr richtig verteilen.
Angenommen, die Impedanz auf der Mainboardverbindung (PCIE Steckplatz ist ja nur ein kleiner Teil der Gesamtimpedanz) liegt unterhalb des PCIE Kabels, dann würde sich durch das Mainboard der größte DC Stromfluss einstellen.

Auf dem Mainboard werden zusätzlich Kondensatoren verbaut, daher wird die Impedanz für hochfrequente Lasten auf dem Mainboard wesentlich niedriger sein und daher ist zu erwarten, dass die Peaks über den PCIe Anschluss wandern.
 
Ja, der Fail bei Nvidia war größer, aber die können sich das eher erlauben als der Underdog AMD. Die 970 ging ja mangels Alternative trotzdem weg wie warme Semmeln...
 
Wobei sich GTX1070 Käufer nicht für eine RX480 interessieren und GTX1080 Käufer erst recht nicht !
Das ist die GTX1060 Leistungsklasse und vermutlich auch Preisklasse. Von daher kein wirklicher Grund.

Das würde ich nicht unbedingt sagen, gerade im 480er Thread haben sehr viele (aber auch aufgrund des Hypes) sich viel von der RX480 erhofft, sie lag ja in div. geleakten Benches gleichauf mit der 1070 bzw. in dem AMD Bench im Crossfire vor der 1080. Dort waren einige unterwegs die sich ein Crossfiresystem vorstellen konnten, für einiges weniger als die 1080 kostet.

Nachdem release wurde die Ernüchterung zwar gross, aber es ist schon auffällig dieser Zeitraum 1080/1070 Vorstellung, dann direkt danach Scheibchenweise Info zur Polaris bis zum Fall der NDA (Ich erinnere, für 199$ VR Leistung einer 500$ VGA, 2,8 mehr effizienz , im crossfire schneller als die 1080, etc.).

Irgendwo stand auch das AMD durch den Pascal Launch sehr überrascht war. Ich meine es geht ja bei den neuen Karten auch um eine neue Fertigungsgrösse, wo der Stromverbrauch/takt/Wärme Faktor für den einen nicht ganz unwichtig ist.

EDIT: Nein, da hab ich mich vertan, es ging um Vega nicht um Polaris:

AMD: Kommt die Vega-GPU bereits im Oktober?

Aufjedenfall ist diese Geschichte schon ein kleiner Skandal, die Käufer sind verunsichert, auch wenn wahrscheinlich für kaum einen eine Gefahr besteht. Aber um die Referenzdesign, machen die meisten die von der Geschichte mitbekommen haben wahrscheinlich einen Bogen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh