Überlastet die Radeon RX 480 den PCI-Express-Steckplatz? (Update)

Die sollten besser die jahrzehnte alte spezifikation für neuere boards ändern ist doch zum lachen wenn man sieht was die boards wirklich vertragen. Amd fixt das jetzt das ruhe ist mit dem gehype.

Dann dürfte es schwierig werden mit der Kompatibilität nach unten... Aber recht hast du, die Spezifikationen könnte man durchaus anpassen (lassen).
Allerdings, einfach so irgendwas gegen die Regeln zu fabrizieren, ist nun nicht unbedingt der Weg, den ein Hersteller gehen sollte... ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
AMD sitzt ja selber mit im Vorstand von PCI-SIG, sie könnten eine Überarbeitung der Standards veranlassen. Viel Sinn sehe ich darin aber nicht, GPUs werden ja in Zukunft eher sparsamer und das Problem gäbe es gar nicht erst, wenn AMD die Stromversorgung anders aufgeteilt hätte. Jetzt wird das nachgeholt und damit hat es sich dann.
 
Mit der 970 wird immer noch Kohle gemacht, also wird das auch mit der RX 480 funktionieren. Ist quasi nichts anderes, als eine 970 Volkskarte mit vernünftigem Speicher (keine Verkrüppelung) und mehr Wumms+Potential in DX12 für schmales Geld.
Die 970 ist in Folge dessen ja zum Abverkauf nochmal im Preis runter gerutscht, aber jetzt eine 970 für 250€ kaufen oder empfehlen ist im Endeffekt Banane, wenn es doch die RX480 für 269€ (8GB) gibt.
Die Custom 480er Karten müssen jetzt nur zusehen, dass die unter 300€ bleiben, sonst rutschen diese meiner Meinung nach in einen uninteressanten Bereich, gerade wo die GTX1060 evtl. für ~350$ zu haben und dabei effizienter sein wird (Leistung vermutlich auf 980 Niveau).

Viel trauriger/enttäuschender als das Problem mit dem PCI-E Port (wobei das erwiesener Maßen einfach kein Skandal ist und das Thema viel heißer aufgekocht wird, als gegessen wird) finde ich, dass die Effizienz der Karte "nur" auf Maxwell Niveau rausgekommen ist und die Karten in den Reviews im Schnitt eher 160W unter Last ziehen und nicht wie von AMD angepriesen "less than 150W".

Ich warte noch auf die Custom RX480er und die Reviews der 1060. Danach wird entschieden. Bis dahin wird man ja auch sehen, ob/wie AMD die PCI-Express Powerconsumption in den Griff bekommt.
Nach der Nummer mit den 3,5GB Speicher der GTX970 und einigen Gimpworks-Machenschaften (so wie deren Performance-Abbau durch Treiber bei alten Karten) würde ich gerne AMD supporten.
Außerdem gefällt mir Wattman richtig gut (bis auf den Namen *g*). Klasse zum milden OC + Undervolting.
Mir als Kunde liegt ja auch daran, dass es zukünftig noch/wieder Konkurrenz am Markt gibt.

Könnte dennoch sein, dass ich am Ende dann doch bei der 1060 landen werde, da ich die Effizienz halt super finde und der Verbrauch der AMD Karten bei Multimonitor- / Blueraywiedergabe einfach immer noch stinkt (leider).
Falls die 1070er Karten dann schon unter 450€ zu bekommen sind, wäre auch die 1070 noch eine Option für mich.

ich weiß nicht, ob er so gut in diesen thread passt, aber der beitrag gefällt mir, da er viele wichtige punkte anspricht. bei den meisten einschätzungen stimme ich mit dir überein. den verbauch der 480 sehe ich allerdings nicht ganz so eng. sicherlich enttäuschend in anbetracht der 14nm fertigung, aber immerhin weg vom verbauch von hawaii/grenada. die custom karten (ggf mit oc) werden geschätzt zwischen 170 und 200 watt ziehen. das sind regionen die ein ordentlicher kühler bei einer angenehmen geräuschkulisse kühlen kann, und das ist mir das wichtigste. ich kann aber verstehen, wenn man das thema verbrauch/effizienz streng ökologisch betrachtet.
was die bewertung der geschäftsgebaren von herstellern angeht, betritt man ein heikles pflaster, wie man an diesem thread ja schon sehen kann. ich denke, viele entscheidungen sind auch der marktsituation mit nur zwei herstellern (von denen einer eine dominantere stellung hat) geschuldet. darum sollte man niemand verteufeln, aber man muss auch verstehen, dass sich manche entscheidungen positiv bzw negativ vom verbaucher aufgefasst werden. so gefällt mir zb die offenheit von amd bei seinen entwicklungen (viel open source) und bei nvidia stört mich ganz aktuell die gsync/freesync politik furchtbar. einige aspekte des gameworks programms betrachte ich ebenfalls sehr skeptisch. aber wie dem auch sei, solche erwägungen spielen für die allermeisten käufer eh nur eine untergeordnete rolle. entscheidend ist, welches produkt am besten zu den eigenen bedürfnissen passt.
darum finde die behauptung nvidias grakas werden mit der zeit langsamer für die praxis relevanter. das liest man ja immer mal wieder und dürfte sich vor allem auf kepler beziehen, oder? hier könnte man aber auch argumentieren, dass der treiber schon sehr früh sehr gut war und man im laufe der zeit kaum mehr etwas durch treiberverbesserungen rausholen konnte. oder dass amd mit cgn einfach gute arbeit geleistet hat. die geforce karte wird ja nicht schlechter, sondern die relationen zu anderen karten verändert sich. ich kann mir aufjefenfall kaum vorstellen, dass nvidia vorsätzlich brachliegendes potential der karten ungenutzt lässt, um besitzer zum upgrade zu bewegen.
stand heute wäre ich vorsichtig, aus der ganzen geschichte eine allgemeine regel abzuleiten. wenn es zb beim vergleich von 970/980 zu rx 480 zur sprache kommt, dann nur, weil der eine chip brandneu ist und der andere schon ein paar jährchen aufm buckel hat.

was die bewertung der aktuellen marktlage angeht, gehe ich mit dir daccord. (ausgehend von den heutigen preisen) neukauf im bereich 200-300 euro -> rx 480 und wenn man mehr leistung braucht direkt 1070/1080. die 1060 wird sicherlich interessant. ich rechne da mit einer karte, die vom preis zu performance verhältnis mit der 480 vergleichbar ist. etwas schneller, etwas teurer. kleine nachteile beim ram, aber vorteile beim verbauch. das oc potential wird spannend, und natürlich die dx12 performance. das ist eh das thema, was ich für die aktuelle frage bei den grakas für unheimlich wichtig erachte. denn das ist die zukunft, und die ist nicht besonders weit weg. entscheidend ist die frage, welche rückschlüsse wir aus aktuellen dx12 benchmarks für den zukünftigen spielemarkt ziehen können. verlässlich wird das keiner sagen können, aber mich würde es als käufer aktuell auf jeden fall beruhigen, wenn die karte auch in hitman und aots eine gute figur abgeben würde.
 
AMDs GCN scheint grundsätzlich stromhungriger als Maxwell/Pascal zu sein, von daher ist das ja jetzt schonmal ein guter Schritt in die richtige Richtung. Und man darf auch nicht vergessen, dass das jetzt der allererste Chip mit der neuen 14nm Fertigung war, da wird in den nächsten Jahren sicher noch massiv optimiert werden, sowohl was Leistung als auch Stromverbrauch angeht.
 
AMDs GCN scheint grundsätzlich stromhungriger als Maxwell/Pascal zu sein, von daher ist das ja jetzt schonmal ein guter Schritt in die richtige Richtung. Und man darf auch nicht vergessen, dass das jetzt der allererste Chip mit der neuen 14nm Fertigung war, da wird in den nächsten Jahren sicher noch massiv optimiert werden, sowohl was Leistung als auch Stromverbrauch angeht.

Wenn man wie bei NV auch alles rausschmeisen würde was die double precision leistung angeht wäre das sicher einfacher.
Man braucht sich nur die bitcoin leistung von AMD GCN karten und den NV karten nach thermi anschauen dann weis man was los ist. polaris ist zwar auch etwas beschnitten worden aber lange nicht so stak wie die NV karten.
 
Zuletzt bearbeitet:
Die Sache ist jetzt offensichtlich optimal gefixt - ohne Performanceeinbußen, die Leistung steigt sogar noch und wenn man ganz penibel alle Spezifikationen einhalten will, hat man einen Schalter im Treiber. Das geht weit über alles hinaus, was andere Karten anbieten. Die Karte ist jetzt, setzt man es darauf an, dermaßen innerhalb den Spezifikationen, dass man "Halleluja" schreien könnte.

Wer jetzt noch über einen Zeitraum von 7 Tagen schreibt, in dem die Karte mehr Strom verbraucht hat, als sie sollte, zeigt eigentlich, worum es ihm geht. Und deshalb finde ich auch, dass man hier zu machen kann und den Rest im erneuten Update zu der Sache besprechen kann
Erneutes Statement zum Stromproblem der Radeon RX 480 von AMD
 
Das Board stammt ja aus einem speziellen $350 Gaming-PC Build des Youtubers. Hier im Forum können wir uns zwar alle mehr leisten, aber ich denke, es gibt Leute, die finanziell weniger Möglichkeiten haben - und die werden, die müssen, u.U. dann auch zu solchen Boards greifen, um die FPS pro $ zu maximieren.

Damit es auch mit solchen Boards keine Probleme gibt, dafür gibt es Spezifikationen und die müssen eingehalten werden. Ganz einfach. AMD hat dies nicht getan, AMD hat das Problem erkannt und gelöst. Fertig aus.



Eine alberne Vorstellung.

Ein AMD770er Board mit nem bis zu 8 Jahre alten Athlon oder Phenom I wird aber zusammen mit einer RX480 absolut keine FPS pro $ maximieren. Rausgeworfenes Geld, da macht dir die CPU den Deckel zu bevor die 480 auch nur räuspern kann.

Und albern ist an der Vorstellung nichts. Die angepeilte Käufergruppe ist von dem Problem nicht negativ betroffen, AMD, die PCI SIG, wir, so ziemlich jeder der sich mit dem Thema beschäftigt weiß, dass es da kein Problem ist.
 
Wenn man wie bei NV auch alles rausschmeisen würde was die double precision leistung angeht wäre das sicher einfacher.

Bei GCN 1.4 ist die DP Rate genauo wie bei Maxwell und Kepler auf ein Minimum reduziert, du liegst also falsch.
Der hohe Stromverbrauch ist ein Designproblem und auch ein Problem des schlechten Globalfoundry Prozesses.
Einfach zu hohe Spannungen.

polaris ist zwar auch etwas beschnitten worden aber lange nicht so stak wie die NV karten.

Ich bitte dich den Unsinn mal zu belegen.

oooverclocker schrieb:
Die Sache ist jetzt offensichtlich optimal gefixt - ohne Performanceeinbußen, die Leistung steigt sogar noch und wenn man ganz penibel alle Spezifikationen einhalten will, hat man einen Schalter im Treiber. Das geht weit über alles hinaus, was andere Karten anbieten. Die Karte ist jetzt, setzt man es darauf an, dermaßen innerhalb den Spezifikationen, dass man "Halleluja" schreien könnte.

Aha, die Sache ist also optimal gefixed. ( mit einem pcie Norm Schalter?) Lächerlich.
Ich würde mal warten bis ein Test herauskommt und natürlich ist das etwas anderes was andere Karten bieten, andere haben so nen Quatsch ja auch nicht nötig.
Und ob etwas innerhalb der Spezifikationen sich befindet, klären erstmal die Tester. Lorbeeren verteilen bevor überhaupt etwas getestet ist, passt gut zu dem Hype der über die rx480 entstanden ist.
 
Zuletzt bearbeitet:
also ein AMD 770 Borad mit ddr3 und einem Phenom 2 x4 955 @ OC wäre durchaus noch eine Basis die man noch einmal mit so ner Karte bestücken kann. Das ist sicher kein maxiimum an fps/euro, aber sicher besser als z.b. ne 6850/6870 da drin ;)
Und manch einer kann eben nicht beides gleich upgraden.
 
Warum immer diese Ausreden?
Welche Hardware auf welchem Board betrieben wird, obliegt einzig und allein dem Jenigen, der diese Konstellation bauen will... Die Karte wird mit PCIe Spezifikationen beworben und hält diese in diesem einen Punkt nicht ein. Daran gibt es nix zu rütteln... Das Problem ist erkannt und das Problem wird (höchstwarscheinlich) seitens AMD gelöst werden.

Echt schlimm hier. Erst die Stimmungsmache, dann die Leute, die es unter den Tisch kehren... Bleibt doch mal bei den Fakten auf sachlicher Ebene.
Mal ganz davon ab, wer sagt dir denn genau, ab wann eine Konstellation "Sinn" ergibt und wann nicht? Warum sollte eine 480er nicht auf einem alten Board betrieben werden? Die Karte wäre bspw. durchaus interessant für 3D Rendering, weil annehmbare Effizienz, günstig in der Anschaffung und vergleichsweise hohe GPU Power. -> Beim reinen 3D Rendering spielt die CPU sogut wie keine Rolle. Auch weniger die PCIe Anbindung. Das tut auch in 4x oder 8x PCIe 1.x Slots mit voller Performance... Ich will mir allerdings nicht ausmalen, was passiert, wenn da 4x von den Teilen auf einem Board unter Stundenlanger Volllast 25% mehr pro Slot an Strom abnehmen, als spezifiziert. Das wären grob über den Daumen schlappe 80W mehr als vorgesehen in diesem Beispiel.

Darf ich mich also auch beschweren, wenn eine starke Grafikkarte aus 2016 nicht auf einem 20 Jahre alten Müll-Board läuft? (Ja theoretisch darf ich, aber) das ist halt ein Affentheater und nur lächerlich für denjenigen, der es macht.

Und nein, es ist keine sinnvolle Kombination. Beim reinen 3D Rendering spielt die CPU sehr wohl eine Rolle, auf nem Atom wirst du kein 3DSMax oder Blender sinnvoll zum laufen kriegen. Uralt Basis + nagelneu mit Power, das ist immer unausgewogen und nutzlos.



und ja, klar gibts ne Spezifikation. Aber die muss nicht Sinn geben, die muss nicht das A und O sein. Nur weils vor 20 Jahren mal jemand als sinnvoll erdacht hat, muss das heute nicht mehr gelten. Vor allem im Bereich der IT ändert sich vieles sehr schnell. Hier stellen manche die Spez auf nen goldenen Thron, sitzen teilweise aber wahrscheinlich einen Thread weiter da und meckern darüber, wie outdated die ATX Spez ist (nur als Beispiel, gibt da wirklich ein paar Kandidaten).

- - - Updated - - -

Bitcoin !?... was ist das für ein Game ?


:xmas:

Wenn du als Basis für ein Bitcoin rig n 8 jahre altes billig board nimmst, na dann gut Nacht. Die Use cases, die du hier konstruierst, sind unwahrscheinlich und genauso sinnlos. "was ist wenn ich holzreifen an meinen porsche mache?"

- - - Updated - - -

also ein AMD 770 Borad mit ddr3 und einem Phenom 2 x4 955 @ OC wäre durchaus noch eine Basis die man noch einmal mit so ner Karte bestücken kann. Das ist sicher kein maxiimum an fps/euro, aber sicher besser als z.b. ne 6850/6870 da drin ;)
Und manch einer kann eben nicht beides gleich upgraden.

So ein Board wird aber auch definitiv eine stärkere Versorgung und Power Layout haben als das Ding in dem Video. Das ist ja schon beim Anschauen fast verdampft.
 
Natürlich ist ein Borad, welches nicht mal mehr PCIe 2.0 bietet heute für kein ansatzweise als Gaming-System eingesetztes system empfehlenswert. Und ja, da würde ich schon bei einer r9 270x oder gtx760 anfangen zu überlegen, ob es da nicht schon Nachteile durch die bandbreite gibt.
 
Bei GCN 1.4 ist die DP Rate genauo wie bei Maxwell und Kepler auf ein Minimum reduziert, du liegst also falsch.
Der hohe Stromverbrauch ist ein Designproblem und auch ein Problem des schlechten Globalfoundry Prozesses.
Einfach zu hohe Spannungen.



Ich bitte dich den Unsinn mal zu belegen.

.

Du hast voll den durchblick schau mal wo die GGPU leistung der NV karten steht.
Such dir bitcoin mining resultate selbst dann weist du was du für mist erzählst.
GPGPU-Benchmarks (OpenCL/CUDA)

Adobe Photoshop CS6
AMD Radeon RX 480 - hart auf Kante gebaut - GPGPU-Benchmarks (OpenCL/CUDA) (Seite 42) - HT4U.net
 
Zuletzt bearbeitet:
also ein AMD 770 Borad mit ddr3 und einem Phenom 2 x4 955 @ OC wäre durchaus noch eine Basis die man noch einmal mit so ner Karte bestücken kann.

Kann man, aber dann rennt er sowieso ins CPU-Limit und lastet die Grafikkarte nicht voll aus, die dann auch nicht so viel Strom über den Slot zieht...
 
Die sollten besser die jahrzehnte alte spezifikation für neuere boards ändern ist doch zum lachen wenn man sieht was die boards wirklich vertragen. Amd fixt das jetzt das ruhe ist mit dem gehype.

Es geht ja nicht nur um die Boards, sondern auch um die Netzteile und den 24POl Mainboardstecker und die zusätzlichen 4PIN und 8PIN Stecker.
Und AMD fixed nichts, wenn die Standardeinstellung auf Off ist, dann bleibt alles beim alten und AMD laviert sich aus der Angelegenheit recht unrühmlich heraus.
 
ich weiß ot, aber ich will bzgl meines etwas längeren beitrags noch etwas anmerken, bevor ich missverstanden werde: eine kaufentscheidung sollte natürlich nicht von aots und hitman abhängig gemacht werden. (letzteres ist afaik auch ein gaming evolved titel). ich wollte nur zum ausdruck bringen, dass man dx12 generell berücksichtigen muss, da sich der aktuelle (dx11) leistungsvergleich der grakas uU ändern könnte. ich hoffe inständig, dass wir bald mehr dx12 titel benchen können, sodass ein klareres bild entsteht und man sich weniger spekulationen verlassen muss.
 
Du hast voll den durchblick schau mal wo die GGPU leistung der NV karten steht.

Ich hab normal den Durchblick ja, da ich Tests ja ganz lese und mir nicht irgendetwas heraussuche.
Insgesamt ist die GPGPU Leistung der rx480 10% über einer GTX 970. Du hast sogar selbst den Test verlinkt, in dem es steht.;)

performancex2sa3.png


AMD Radeon RX 480 - hart auf Kante gebaut - Performance-Index GPGPU-Computing (Seite 45) - HT4U.net

AMD hat bei der rx480 und auch schon teils bei Fijii den HPC Ballast und die DP Rate von Board geschmissen.
 
Zuletzt bearbeitet:
Es geht ja nicht nur um die Boards, sondern auch um die Netzteile und den 24POl Mainboardstecker und die zusätzlichen 4PIN und 8PIN Stecker.
Und AMD fixed nichts, wenn die Standardeinstellung auf Off ist, dann bleibt alles beim alten und AMD laviert sich aus der Angelegenheit recht unrühmlich heraus.

Ist wieder troll alarm?
Du weist also schon was amd macht mit dem fix.
A temporary fix for the excess PCI-E slot power draw for the reference RX 480 cards
 
Es geht ja nicht nur um die Boards, sondern auch um die Netzteile und den 24POl Mainboardstecker und die zusätzlichen 4PIN und 8PIN Stecker.
Und AMD fixed nichts, wenn die Standardeinstellung auf Off ist, dann bleibt alles beim alten und AMD laviert sich aus der Angelegenheit recht unrühmlich heraus.

Was du hier wieder für einen Stuss schreibst.

Ja, du hast den Durchblick.
 
Was du hier wieder für einen Stuss schreibst.

Ja, du hast den Durchblick.
Ja warum schreibe ich denn Stuss, irgeneine Begründung?
Ja also eigentlich sind Spezifikationen nur dazu da um gebrochen zu werden, verstehe. Warum stellst du dich nicht auf die Straße mit Schildern
und forderst eine Spezifikationsänderung aufgrund der AMD rx480.;) "Free our PCie Slot" Oder so ähnlich.

Wenn ich mal den Moderator zitieren darf:

"Echt schlimm hier. Erst die Stimmungsmache, dann die Leute, die es unter den Tisch kehren... Bleibt doch mal bei den Fakten auf sachlicher Ebene."

Also haltet euch gefälligst mal dran, es ist ja nicht mehr auszuhalten.
Außerdem ist es doch bereits bekannt, dass AMD das Powertarget senkt, oder etwa nicht, was habe ich denn falsches geschrieben?
Ich wäre dir sehr dankbar das mal sachlich zu erklären.
 
Zuletzt bearbeitet:
Puder ich muss dir zumindest soweit zustimmen, dass es weiterhin natürlich diesen blöden Beigeschmack, oder wie der Schwabe sagen würde, ein Geschmäckle, gibt. Ob das jetzt für jedermann wirklich interessant ist, darüber länger als 20 Sekunden nachzudenken, ist auch so ein Streitthema.

Das Thema DP-Leistung in in meinen Augen auch so ein Punkt, der nur bedingt greifen kann, denn ich sag mal, die Gaming-Käufer interessiert die DP-leistung oft nur sehr wenig bis gar nicht, und nur die Leute die für Spezialeinsatz mit DP kaufen achten daruf. Diese Käufer kaufen aber wahrscheinlich sowieso eine ganz andere Karte.


Wie die Karte sich mit dem "Fix" schlägt, werden die "Großen" eh berichten, also müssen wir abwarten was da kommt. Denn eines ist so sicher wie das amen in der Kirche:

"Voraussagen sind immer dann besonders schwierig, wenn sie die Zukunft betreffen!"
 
Zuletzt bearbeitet:
Nein, sie senken das Power Target nicht, sie verteilen ausschliesslich das prozentuale Verhältnis der Aufnahme PCIe<->6pin etwas anders. Weniger über PCIe, dann hält man dort die Spezifikation ein. Mehr über den 6-pin, was hier aber absolut kein Problem darstellt, da der 6-pin auf der 480 nicht wie üblich beschaltet ist. Der Sense-Pin ist ebenfalls mit 12V belegt, damit hat man 3x 12V was dieselbe Aufnahme wie über einen 8-pin Anschluss ermöglicht (150W, praktisch sogar weitaus mehr).
Das ist sogar nicht unschlau, erhöht man gerade damit die Kompatibilität mit günstigeren Rechnern, die tatsächlich nur ein NT mit 6-pin haben - die dürften kein größeres Problem haben da auch 150W zu liefern, zumal in vielen OEM Rechners oft gar nicht so schlechte NT wie von FSP stecken.

Der Gesamtverbrauch bleibt trotzdem bei ~165-170W (nun hinlänglich bekannt), was dann auch zu absolut keinen Leistungsveränderungen führt. Braucht man auch keine Nachtests, lediglich einen Check ob die Spec am PCIe Slot nun eingehalten wird - kurz mit einem vorherigen Bench Leistung abgleichen, fertig.

Zusätzlich implementiert man einen nicht standardmäßig aktivierten "Kompatibilitätsmodus", und nur dieser wird zu einem geringeren Gesamtverbrauch führen (vermutlich 150W) und damit einhergehend einer minimal niedrigeren Leistung/reduziertem Boost.
 
Zuletzt bearbeitet:
Darf ich mich also auch beschweren, wenn eine starke Grafikkarte aus 2016 nicht auf einem 20 Jahre alten Müll-Board läuft? (Ja theoretisch darf ich, aber) das ist halt ein Affentheater und nur lächerlich für denjenigen, der es macht.

Und nein, es ist keine sinnvolle Kombination. Beim reinen 3D Rendering spielt die CPU sehr wohl eine Rolle, auf nem Atom wirst du kein 3DSMax oder Blender sinnvoll zum laufen kriegen. Uralt Basis + nagelneu mit Power, das ist immer unausgewogen und nutzlos.

Du kannst dich so viel beschweren wie du willst... Es ändert doch aber an der Faktenlage nicht... Wenn das PCIe Logo drauf klebt und das tut es wohl doch klar und zweifelsfrei, dann suggeriert das eben die Einhaltung der Spezifikationen. Sollen se doch das Logo abkratzen und draufschreiben, dass man nach propritärer Manier einfach mal was gedreht hat, was man selbst für richtig erachtet, so nach dem Motto, passiert schon nix.
Ich glaube du hast es noch nicht gesehen, was passiert, wenn dir die Hütte wegen Überlast abbrennt. Es gibt dazu bspw. hier im Forum (Server Bereich) Bilder von Leuten, die via billig 4Pin P4 Stecker auf 8Pin EPS Stecker versucht haben Dual CPU Systeme mit NTs ohne ausreichend dimensionierte Stromstecker zu bereiten. 3x darfst du raten, wie diese Adapter das gefunden haben... :rolleyes:
Was sollte dir das also sagen? Wenn sich ALLE Parteien an die Spezifikationen halten, ist alles in Butter, schießt eine Quer, hat es einfach ein unbekannt hohes Risiko für mögliche Probleme... Genau um soetwas zu unterbinden gibt es Spezifikationen, Normen und Richtlinien. Eben dass ALLE Parteien das gleiche verstehen...

Was den zweiten Part angeht, wer sprach von Modelieren? Ich sprach von Rendering... Hast du das jemals selbst gemacht? Ich glaube nicht... Ein Rendernode macht effektiv fast gar nix über die CPU, wenn die Last auf die GPU gelegt wird. Theoretisch würde da sogar der Atom reichen. Ich muss allerdings sagen, es nie getestet zu haben. Horn alte A64 und P4 CPUs kommen aber ohne Leistungsverlust beim Rendern mit Hawaii GPUs 1A klar.

und ja, klar gibts ne Spezifikation. Aber die muss nicht Sinn geben, die muss nicht das A und O sein. Nur weils vor 20 Jahren mal jemand als sinnvoll erdacht hat, muss das heute nicht mehr gelten. Vor allem im Bereich der IT ändert sich vieles sehr schnell. Hier stellen manche die Spez auf nen goldenen Thron, sitzen teilweise aber wahrscheinlich einen Thread weiter da und meckern darüber, wie outdated die ATX Spez ist (nur als Beispiel, gibt da wirklich ein paar Kandidaten).

Bei Spezifikationen geht es nicht um sinnvoll oder nicht. Es geht darum, dass ALLE Parteien, welche nach diesen Spezifikationen arbeiten sich darauf verlassen können, dass das, was in den Spezifikationen drin steht, auch gegeben/gehalten ist/wird. Nicht mehr und nicht weniger... Wie sinnvoll es ist, xx Jahre nach Einführung von PCIe diese Leistungswerte weiter zu nutzen? -> Interessiert hier absolut gar nicht...
Und selbst wenn die Leute sich hinstellen und über die Spezifikationen als solches schimpfen -> auch das ändert nix an der Gegebenheit.

Kann es sein, dass du gerade versuchst hier irgendwie den offensichtlichen Übertritt über die Spezifikationsgrenzen damit unter den Tisch zu kehren, weil du meinst, dass es unsinnig ist sich an Regeln zu halten? Nur was kommt als nächstes? Im nächsten Step kommt dann NV und drückt dort 50% über Limit raus... Dann wieder AMD usw. Irgendwann kommt der Punkt, da sterben die ersten Bauteile wegen ZU viel Überlast. Und dann? Dann will es wieder keiner gewesen sein...
Nur mal als kleiner Vergleich, bis zum Fermi galt es als quasi fixes Limit, 300W pro PCIe Steckkarte einzuhalten... Dann kamen von beiden Herstellern zeitlich leicht versetzt Modelle, die dieses Limit brachen -> heute dreht sich keiner mehr danach um. Da gibts dann auch Modelle mit 500W+ ganz offiziell. -> das kann es nicht sein! Um nix anderes geht es hier. Nicht um die Höhe des Übertritts und auch nicht um die Peaks... Sondern rein um den Übertritt als solches...


Im Gegensatz zu den Leuten, die meinen dass doch alles OK wäre, hat AMD allerdings erkannt, dass sie da was gebaut haben, was so nicht hätte sein sollen...
Ernsthaft, ich frage mich, was diese Diskusionen hier sollen. Der Hersteller höchstselbst hat das Problemerkannt... Und ihr meint, es gibt kein Problem :rolleyes: Ganz bestimmt...

Nein, sie senken das Power Target nicht, sie verteilen ausschliesslich das prozentuale Verhältnis der Aufnahme PCIe<->6pin etwas anders. Weniger über PCIe, dann hält man dort die Spezifikation ein. Mehr über den 6-pin, was hier aber absolut kein Problem darstellt, da der 6-pin auf der 480 nicht wie üblich beschaltet ist. Der Sense-Pin ist ebenfalls mit 12V belegt, damit hat man 3x 12V was dieselbe Aufnahme wie über einen 8-pin Anschluss ermöglicht (150W, praktisch sogar mehr).

Wenn der andere Part "nur" optional ist/wird, gibts dann gleich das nächste Geheule wegen Übertritt der Limits der PCIe Stromstecker ;)
Klingt fast so als packt es die Karte nicht mit 150W auszukommen... Und AMD will nicht auf Leistung verzichten...
 
Zuletzt bearbeitet:
Hatte meinen vorherigen Post nochmal ergänzt.

Übertritt man doch nicht mit 3x 12V, die 75W beziehen sich tatsächlich auf nur 2 12V pins. Und selbst da könnte man weitaus mehr als 75W drüber jagen weil grundsätzlich schon viel mehr Reserve (lt ATX 20A pro pin max).
Und im schlimmsten Fall, kann das NT nicht genug Saft liefern können, greift die Schutzschaltung (die jedes vernünftige NT hat) und schaltet halt ab.

Für die "Rest-Zweifler" Angsthasen hat man dann den Komp-Modus. Die können dann, wenn sie nicht sicher sind, den Modus nutzen, müssen dann evtl 1-2% Perf abgeben, was aber durch leichte Verbesserungen im Treiber in Games eh schon wieder reinoptimiert wurde.

Grundsätzlich braucht man aber die Leistung nicht neu bewerten, da sehe ich keine Veranlassung.
 
Zuletzt bearbeitet:
Mit Geheule ist eher das der Schönreder gemeint. Dass das große Auswirkungen hat und schlimm ist, davon hat hier niemand gesprochen.
 
Dieser Thread ist völliger BS alles wurde aufgeklärt es sollte geschlossen werden und zudem kommen die custom Versionen alle ab so ca. 1400 Mhz von Werk aus und soll man locker bis ca. 1700 Mhz höher takten können was letztendlich zu einem Preis von 229 € Angeboten wird- da bin ich mal gespannt was NV da macht ^^
 
Wenn so kommen sollte (was ich nicht glaube!) wäre es natürlich cool, andererseits, selbst wenn die Customs nur das Balance-Problem lösen udn die Taktung bis etwa 1500MHz erlauben, wäre es doch schon sehr gut.
 
Dieser Thread ist völliger BS alles wurde aufgeklärt es sollte geschlossen werden und zudem kommen die custom Versionen alle ab so ca. 1400 Mhz von Werk aus und soll man locker bis ca. 1700 Mhz höher takten können was letztendlich zu einem Preis von 229 € Angeboten wird- da bin ich mal gespannt was NV da macht ^^

Zuerst einmal sollte man den Treiber auf Herz und Nieren prüfen und schauen wieviel Leistung es kostet, danach kann man sagen, es sei alles aufgeklärt.
Und natürlich die Karten werden sich auf 1700mhz takten lassen, klar.;)
 
Du hast hoffentlich mittlerweile mit bekommen, das der Schalter im Treiber “150w nicht überschritten“ bewirkt.

Das pcie “problem“ wir durch Umverteilung auf den 6-Pin so oder so gelöst werden. Das kostet keinerlei Leistung.



An 1700MHz glaube ich aber auch nicht. Schon 1500 ohne massiv Spannung halte ich für optimistisch.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh