Überlastet die Radeon RX 480 den PCI-Express-Steckplatz? (Update)

Genau genommen betreibt man doch sowieso die hardware außerhalb von Spezifikationen sobald man ja auch nur an OC denkt. Ich würde das mit den ziemlich alten Spezifikationen des Slots einfach nicht so ernst sehen. Das hat nichts mit der Brillenfarbe zutun...
Da hast du klar recht mit dem ersten Teil. Nur es geht doch hier auch nicht um OC!? Das ist doch Auslieferungszustand. Wenn ICH OCe, dann betreibe ich das so mit vollstem Bewustsein über die Folgen und dergleichen. Wenn ich aber NICHT OCe, gehe ich klar davon aus, dass geltende Spezifikationen eingehalten werden

Ob man "ziemlich alte Spezifikationen" nun ernst nimmt oder nicht, ist dabei auch nicht entscheidend. Denn das sind nunmal die aktuellen Spezifikationen... Und wenn man das PCIe Logo auf den Karton klebt, dann hat das Teil die Spezifikationen einzuhalten... -> ist zumindest davon auszugehen. Im aktuellen Zustand ist dies aber NICHT der Fall.

Zudem ist es schon ein Unterschied ob man sich über Spezifikationen hinwegsetzt was so wie es aussieht, aber keinerlei schaden zur Folge hat, oder ob man selbst komplett neue Spezifikationen erfindet und dabei absichtlich andere aussperrt >_>

Natürlich ist es ein Unterschied. Aber es kommt im Endeffekt auf das gleiche raus... Denn weder ist aktuell erwiesen dass durch die Überlast kein Schaden entstehen kann noch ist erwiesen, dass die Überlast auf Dauer nicht zu schäden führt. Eigentlich ist die seitens THG erwähnte Tatsache, dass Probleme mit der Soundwiedergabe entstehen (können) schon ein Indiz, dass man es hier klar übertrieben hat.
Wenn man schon mit Standards wirbt, sollte man diese aus meiner Sicht auch immer einhalten, sonst hat das einen gewissen Charm von Doppelmoral, aber das sagte ich bereits...


Ich bin auf Jedenfall mal gespannt, was AMD mit dem Treiber drehen kann/wird...
In der ein oder anderen News Meldung steht ja was von wegen, dass AMDs "tuning" bei mancher Software nicht optimal funktioniert... Die Frage ist also, was heist optimal in dem Fall wirklich? Spannung(en) runter -> würde bedeuten, weniger OC Potential bis hin zu möglichen Instabilitäten bei nicht so guten Chips. TDP-Limit härter durchdrücken würde bedeuten weniger Taktspielraum für den Boost in den Szenen. Im Endeffekt entstehen da durchaus Nachteile für den Kunden. Oder andersrum gesehen, der Kunde sieht im Review eine Karte, die er so nicht kaufen kann -> da die neuen Treiber ganz sicher alle diesen Fix dann drin haben werden. Absicht? :wink:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Von "Überlastung" kann ja keine Rede sein ;) Der 6 Pin kann da genauso viel liefern wie der 8 Pin. Schau aufs Kabel! Spezifikation hin oder her. Wenn ich mal in die Specs von meinem BeQuiet Netzteil schaue liefert das im 6 Pin Anschluss 6 Ampere pro Ader und davon gibt es hierbei 3x 12v. Ergo kann ich da rechnerisch 216w drüber jagen. Dazu noch bisserl Leistun aus dem PCIe Slot und da kann man problemlos alles drauf betreiben. Völlig stressfrei.

Es ging doch zu keinem Zeitpunkt um die Leistung, die durch die PCIe Stecker geht. Durch den 6-Pin Stecker gehen innerhalb der low-level Spezifikation locker 192 Watt durch:



Das Problem ist, dass durch den 5-Pin Anschluss des PEGs mehr Leistung gezogen wird als in den low level Spezifikationen erlaubt ist. Sie werden überlastet.

Tomshardware schrieb:
Solange die Phasen der Spannungswandler symmetrische Lasten verarbeiten müssen, wird diese (wenn auch nicht dramatische) Überlast entstehen (und zwar unabhängig vom Sample oder anderen Zufällen), wenn es sich wirklich um eine Phasenaufteilung mit vier Phasen am PEG handelt, wie wir annehmen.

Bei der oben genannten R9 295X2 war dies übrigens nie ein Problem. Die hat weniger als 40 Watt daraus gezogen:



Und die knapp 500 Watt die die Karte aus den 2 8-Pin Steckern zieht kratzen auch niemanden, da die Stecker zusammen 576 innerhalb der low level Spezifikationen übertragen können.

War halt wieder totale Panik Kampagne, die von den eher Nvidia nahestehenden Redakteuren und Magazinen laut raus gebrüllt wurden, weil mal wieder von Nvidia zu etwas höherem TKP Werbung gebucht wurde.

Nicht immer, wenn berechtigte Kritik an einem Hertsteller geäußert wird, ist dies gleich eine Verschwörung gegen ihn.

- - - Updated - - -

Dramatischer macht es die Tatsache, dass man überhaupt nicht verstehen kann wie die zu dieser bescheuerten Idee kamen den vielen Strom vom PCIe Slot ziehen zu wollen anstatt einfach zum 8 Pin Anschluss zu greifen. Wenns den um Kompatibilität zu den Netzteilen ging hätten sie auch entsprechende Adapter auf 8 Pin (an der Seite der Karte) dazu legen können!

So sieht es aus. Aber hätten sie einen 8-Pin Stecker an die Karte gepackt, wäre halt jedem sofort die Lüge von <150W TDP aufgefallen. Und da sie die Effizienz ihrer Karte im Vorfeld gefeiert haben, wollten sie deren Ineffizienz wohl vertuschen, um das Gesicht zu wahren.
 
Zuletzt bearbeitet:
Für wahrscheinlicher halte ich eher, dass sie die Taktraten kurzfristig noch angezogen haben.
 
So sieht es aus. Aber hätten sie einen 8-Pin Stecker an die Karte gepackt, wäre halt jedem sofort die Lüge von <150W TDP aufgefallen. Und da sie die Effizienz ihrer Karte im Vorfeld gefeiert haben, wollten sie deren Ineffizienz wohl vertuschen, um das Gesicht zu wahren.

Der 8Pin Stromanschluss hätte an der Situation doch klar geholfen... Denn man hätte dann den PCIe Slot effektiv gar nicht belasten müssen oder eben nur mit Kleckerkram...
An der Anzahl der Stromanschlüsse den Energieverbrauch erraten zu wollen, geht idR in die Hose, denn die meisten Karten mit Ausnahme von wenigen Einzelfällen sind gut genug bestückt. :wink:
 
Denn weder ist aktuell erwiesen dass durch die Überlast kein Schaden entstehen kann noch ist erwiesen, dass die Überlast auf Dauer nicht zu schäden führt.

Genau. Diesen einen Satz blenden hier viele aus der Zusammenfassung von Tomshardware aus:

Tomshardware schrieb:
Aktuelle Hardware sollte diese Ströme trotzdem ohne Schäden überstehen, was allerdings auch unkorrodierte und saubere Slots voraussetzt.

"Sollte" heisst nicht, dass jede Hardware dies Problem ohne Schäden übersteht. Und dass "sollte" wird sogar noch an weitere Bedingungen geknüpft (keine korrodierten Kontakte - Korrosion kann im Laufe der Zeit eintreten, Staub - alles was den Übergangswiderstand an den Kontakten erhöht).

Ich bin auf Jedenfall mal gespannt, was AMD mit dem Treiber drehen kann/wird...

Ich bin auch gespannt. Ich hoffe sie nehmen einfach nur Last vom PEG udn belasten den 6-Pin Stecker stärker, weil der das eh abkann. Die Alternative, die Leistung zu nerfen, wäre natürlich bitter.

Und hoffentlich bringen sie dabei auch gleich die versprochene Verbesserung des Idle Verbrauchs. Damit könnte die Karte dann vielleicht sogar kaufbar werden.
 
Ich weis nicht, aber ich interprätiere die Aussage bei THG so, dass vier? der Phasen auf den PEG Slot gepinnt sind... Das lässt sich doch via Software nicht drehen?

Die Aussage von AMD klingt eher wie als würde man in den eigenen Tests schlicht keine derartige Software auf dem Schirm gehabt haben und damit eben ist der Verbrauch in dieser Software über dem eigentlich gedachten Limit... Wenn ersteres zutrifft kann es doch wohl nur mit Einschränken der Powerusage gehen. Und das kann in genau dieser Software Leistungsnachteile nach sich ziehen. Möglicherweise hilft auch Spannung runter... Aber es ist eben auch nicht die erste AMD Karte, die vergleichsweise hohe Spannungen (und teils vergleichsweise viel undervolting-Potential) mit bringt. Nur warum wählt man das ab Werk? Auch das hat sicher Gründe. Ich denke aber nicht, dass AMD uns diese verraten wird ;)
 
Amd kann doch die Phasenregelung ungleich verteilen, wenn se wollten, ob das gut ist, lasse ich dahin gestellt, aber immerhin möglich.
 
Ich weis nicht, aber ich interprätiere die Aussage bei THG so, dass vier? der Phasen auf den PEG Slot gepinnt sind... Das lässt sich doch via Software nicht drehen?

Genau :bigok:. Deshalb sind viele Szenarien ziemlich irrwitzig, die hier hervorgebracht werden. Es muss einfach das TDP- Limit im Treiber ein paar Prozent heruntergeschraubt werden oder die Reaktion auf zu viel Verbrauch schärfer gestellt werden. Dann verliert die Karte zwar in bestimmten Situationen ein paar FPS aber die hat sie ja durch den Treiberbug bei den Presse- Benchmarks ohnehin nicht voll gezeigt, sodass sich das teilweise ausgleicht und dadurch werden alle Specs top eingehalten. Die Custom- Karten haben dann ohnehin ihr eigenes Design mit mindestens einem 8- Pin Stecker und Werksübertaktung.
 
Ich weis nicht, aber ich interprätiere die Aussage bei THG so, dass vier? der Phasen auf den PEG Slot gepinnt sind... Das lässt sich doch via Software nicht drehen?

Bei Overclock.net hat jemand eine Anleitung gepostet, wie man das mit dem MSI Afterburner machen kann:

Firstly: This fix is by no means an official one and you will be using it at your own risk. If you for any reason manage to fry your card while using it, you are not entitled to make any claims for warranty exchange (RMA).

As soon as the bios flashing software supporting Ellesmere becomes available, I'll be releasing a modified bios which makes the necessary changes automatically.

The procedure is rather simple, and can be done on any software which supports I2C control on Radeon graphics. Personally I recommend MSI Afterburner for the job.

- Download and install the newest MSI Afterburner
- Go to the installation folder of MSI Afterburner (where the MSIAfterburner.exe is located) and open a new command window ("Left Shift + Right Mouse Click" when no file is selected)
- Additional step: Verify that the I2C interface to the VRM controller is working by typing following command: "MSIAfterburner /ri06,08,0D" (without the quotes). If the response is ":20" you're good to go.
- The two commands you need to input are following: "MSIAfterburner /wi06,08,1E,BB" and "MSIAfterburner /wi06,08,1F,B0".

Once you have given these commands the power draw from the PCI-E slot has reduced and moved towards the PCI-E power connector. The recommended programming value is "B" (/wi06,08,1E,BB and /wi06,08,1F,B0), however you can go set it to anywhere between "B" and "F". Higher the value, more of the power draw will be directed to the PCI-E power connector.

Do note that this fix must be re-applied after every reboot.
Quelle

Keine Ahnung, ob das wirklich funktioniert. Aber falls ja, dann sollte AMD das auch hinkriegen.
 
@Tardis:

Das ist interessant. Hätte es nicht für möglich gehalten, dass man es per Software regeln kann. Sollte das aber stimmen, gäbe es nicht mal ein Problem. Zumal die MOSFETs deutlich überdimensioniert sind und etwas mehr Belastung locker verkraften. Dann wäre alles sogar ohne Leistungseinbußen behebbar.
 
Hab ich was verpasst? Wo ist der Skandal? :rolleyes:

Da gibt es gleich mehrere Punkte:

Es ist schon ein Skandal, wenn man ein Produkt in der Referenzversion herausbringt und dann durch eine zu gering dimensionierte Stromversorgung das ganze über Kante baut.
Ein mittelschwerer Skandal ist es auch dass die Karte deutlich schlechter ist als AMD das im Vorfeld angepriesen hat.
Genauso sagt die Messung wieviel Ampere über den PCie Slot gezogen werden nichts über den Langzeitbetrieb aus was das Netzteil und das System im gesamten angeht, es haben sich bei OC ja schon mehrere Systeme einfach abgeschaltet.

Ansonsten ist die Karte einfach zu schlecht um damit Kohle zu machen, eigentlich in jedem Bereich, jetzt kann man nur billig werden.
Besonders enttäuschend ist die Kompression der Speicherbandbreite, die meilenweit hinter Nvidia zurückliegt.

Und dass über die PCIe nichts durchbrennt und der Slot kaputtgeht, das dürfte ja auch vorher mit etwas Menschenverstand klar gewesen sein.
 
Zuletzt bearbeitet:
ich sehe noch keinen skandal.

die sache mit dem PCIe slot ist unschön. aber kein skandal.

das die marketingversprechen nicht ganz eingelöst werden können kommt häufig vor. schon zwei mal kein skandal.

-------------

der wahre skandal für dich ist doch:
für 250€ gibts unverschämt viel leistung. in einem preisbereich, in dem deine lieblingsfirma aktuell so gar kein attraktives produkt hat.
dir passt einfach nicht, dass amd ein gelungenes gesamtpaket abgeliefert hat. deshalb wird aus jedem haar in der suppe gleich ein "skandal".
 
Mit der 970 wird immer noch Kohle gemacht, also wird das auch mit der RX 480 funktionieren. Ist quasi nichts anderes, als eine 970 Volkskarte mit vernünftigem Speicher (keine Verkrüppelung) und mehr Wumms+Potential in DX12 für schmales Geld.
Die 970 ist in Folge dessen ja zum Abverkauf nochmal im Preis runter gerutscht, aber jetzt eine 970 für 250€ kaufen oder empfehlen ist im Endeffekt Banane, wenn es doch die RX480 für 269€ (8GB) gibt.
Die Custom 480er Karten müssen jetzt nur zusehen, dass die unter 300€ bleiben, sonst rutschen diese meiner Meinung nach in einen uninteressanten Bereich, gerade wo die GTX1060 evtl. für ~350$ zu haben und dabei effizienter sein wird (Leistung vermutlich auf 980 Niveau).

Viel trauriger/enttäuschender als das Problem mit dem PCI-E Port (wobei das erwiesener Maßen einfach kein Skandal ist und das Thema viel heißer aufgekocht wird, als gegessen wird) finde ich, dass die Effizienz der Karte "nur" auf Maxwell Niveau rausgekommen ist und die Karten in den Reviews im Schnitt eher 160W unter Last ziehen und nicht wie von AMD angepriesen "less than 150W".

Ich warte noch auf die Custom RX480er und die Reviews der 1060. Danach wird entschieden. Bis dahin wird man ja auch sehen, ob/wie AMD die PCI-Express Powerconsumption in den Griff bekommt.
Nach der Nummer mit den 3,5GB Speicher der GTX970 und einigen Gimpworks-Machenschaften (so wie deren Performance-Abbau durch Treiber bei alten Karten) würde ich gerne AMD supporten.
Außerdem gefällt mir Wattman richtig gut (bis auf den Namen *g*). Klasse zum milden OC + Undervolting.
Mir als Kunde liegt ja auch daran, dass es zukünftig noch/wieder Konkurrenz am Markt gibt.

Könnte dennoch sein, dass ich am Ende dann doch bei der 1060 landen werde, da ich die Effizienz halt super finde und der Verbrauch der AMD Karten bei Multimonitor- / Blueraywiedergabe einfach immer noch stinkt (leider).
Falls die 1070er Karten dann schon unter 450€ zu bekommen sind, wäre auch die 1070 noch eine Option für mich.
 
Zuletzt bearbeitet:
ich sehe noch keinen skandal.

die sache mit dem PCIe slot ist unschön. aber kein skandal.

das die marketingversprechen nicht ganz eingelöst werden können kommt häufig vor. schon zwei mal kein skandal.

Das kann man auch anders sehen, ich sehe es anders, für mich ist es ein Skandal und für AMD und deren Außenwirkung ebenso.
Genauso ist die Endfrage was das jetzt genau für die User bedeutet, immernoch nicht geklärt. Spannung über den PCie Slot zu ziehen, reicht um zu sagen ok, da fackelt nix ab.
Dies hat aber nichts mit einem stabilen Betrieb mit 0815 Netzteilen zu tun.

für 250€ gibts unverschämt viel leistung. in einem preisbereich, in dem deine lieblingsfirma aktuell so gar kein attraktives produkt hat.

Tja ich habe gar keine Lieblingsfirma, mich interessiert einzig und allein das Thema.
Aber der Ton wird rauer werden, wenn AMD versagt, und AMD den kleinen Vega SKU gegen die 1060 stellen muss, was bisher offensichtlich so aussieht, da die 1060 mal eben die rx480 um 15% überflügelt.

http://forums.anandtech.com/showpost.php?p=38337126&postcount=313

Firestrikewerte der GTX 1060. Die Karte wird ohne die Systemtodgerüchte wahrscheinlich weggehen wie warme Semmeln und die rx480 im Regal verstauben.
 
Zuletzt bearbeitet:
Aber der Ton wird rauer werden, wenn AMD versagt, und AMD den kleinen Vega SKU gegen die 1060 stellen muss, was bisher offensichtlich so aussieht, da die 1060 mal eben die rx480 um 15% überflügelt.

Jetzt wirds richtig hanebüchen. :fresse2:
 
100%, hast du die folien nicht gesehen?
der balken der 1060 ist doch bestimmt doppelt so lang, die 1060 wird doppelt so schnell! das ist jetzt schon ganz klar bewiesen.

aber es gibt hier ja auch leute, die immer noch eine 970 anstatt der 480 empfehlen und sich selbst als "neutral" bezeichnen. :rofl:
würd mich nicht mal wundern wenn da die selbe person hinter steckt, wie hinter dem trollaccount puderquaste.
 
Jetzt wirds richtig hanebüchen. :fresse2:

Wieso, weswegen? Welchen Chip hat AMD um die GTX 1060 zu schlagen? Ein ausgereizter Spezifikationsverletztender rx480 hotclocker?
Aller Wahrscheinlichkeit nach, sortiert sich die GTX 1060 15% über der rx480 ein.

1
würd mich nicht mal wundern wenn da die selbe person hinter steckt, wie hinter dem trollaccount puderquaste.

Sofort wenn AMD kritisiert wird, wird die Troll Keule gezogen. In zwei Tagen ist der Release der GTX 1060, dauert also nicht mehr allzulange.
Und die Firestrike Benchmarks der 1060 sehen ziemlich passend aus zu der Folie von Nvidia.
 
Zuletzt bearbeitet:
Da gibt es gleich mehrere Punkte:

Es ist schon ein Skandal, wenn man ein Produkt in der Referenzversion herausbringt und dann durch eine zu gering dimensionierte Stromversorgung das ganze über Kante baut.

Wo ist die Stromversorgung unterdimensioniert?
Die VRMs können pro Phase ~40A (@125°C) liefern, also ~250W, bei einer 110W GPU

Ein mittelschwerer Skandal ist es auch dass die Karte deutlich schlechter ist als AMD das im Vorfeld angepriesen hat.

Hab ich was verpasst?

Genauso sagt die Messung wieviel Ampere über den PCie Slot gezogen werden nichts über den Langzeitbetrieb aus was das Netzteil und das System im gesamten angeht, es haben sich bei OC ja schon mehrere Systeme einfach abgeschaltet.

Was soll den auf lange Sicht passieren?
 
Ich gebs auf, dagegen kommt man einfach nicht an. Hab aber trotzdem grad fast meinen Kaffee verkippt...

Jaja, Marketingfolien haben offenbar immer Recht. :bigok:
 
Wo ist die Stromversorgung unterdimensioniert?

6Pin Connector, PCIe SPezifikationsüberschreitung.
Hab ich was verpasst?

Ziemlich viel AMD hat von x2,8 Effizienz gesprochen, erreicht haben sie 1,66x.

Was soll den auf lange Sicht passieren?

Weiß man nicht, jedenfalls reicht sowas aus, um die Karte nicht zu empfehlen und auf Customdesigns zu setzen.
Bei der GTX 970 wusste man ja auch nich wie sich das mit 3,5GB enwickeln wird, folglich hat man die Karte auch nicht empfohlen.

Mittlerweile ist das auch bei den Kunden der rx480 angekommen. Die ersten beiden Tage verkaufte sie sich gut und jetzt ist die Karte ein Ladenhüter.
Die Mindfactory Verkaufszahlen gehen kaum mehr hoch, die der 1080 und 1070 explodieren, trotz des hohen Preises.
 
Ich gebs auf, dagegen kommt man einfach nicht an. Hab aber trotzdem grad fast meinen Kaffee verkippt...

Jaja, Marketingfolien haben offenbar immer Recht. :bigok:
Vorsicht, bitte niemals Grafikkartenthreads mit Kaffee in der Hand lesen, dies wird unweigerlich zu Hardwareschäden führen.
 
Ziemlich viel AMD hat von x2,8 Effizienz gesprochen, erreicht haben sie 1,66x.

obwohl ich auch ziemlich enttäuscht bin vom stromhunger der 480, muss man aber schon so fair sein und beachten, dass amd NIE gesagt hat, dass die 480 2.8fache effizienz haben wird. es war IMMER nur von Polaris an und für sich die rede, das heisst der chip und nicht die ganze karte.

Mittlerweile ist das auch bei den Kunden der rx480 angekommen. Die ersten beiden Tage verkaufte sie sich gut und jetzt ist die Karte ein Ladenhüter.
Die Mindfactory Verkaufszahlen gehen kaum mehr hoch, die der 1080 und 1070 explodieren, trotz des hohen Preises.


ob man nun wirklich die angeblichen mindfactoryverkäufe als indiz für die definition eines Ladenhüters benutzen sollte, lass ich mal so im raum stehen.
aber da du schon mit dieser unglaublich genialen aussage daher gekommen bist, können wir ja diese zahlen mal vergleichen:


RX480 / 8 Referenz-Modelle / ca. 1365 Stück in ca. 6 Tagen
GTX 1080 / 34 Modelle inkl. Customs / 3280 Stück in ca. 1.5 Monaten
GTX 1080 / nur die 8 Referenz-Modelle / ca. 755 Stück in 1.5 Monaten


glaube die zahlen sprechen für sich...
 
Ziemlich viel AMD hat von x2,8 Effizienz gesprochen, erreicht haben sie 1,66x.

Bei der 470 und 460 vielleicht. Die 480 ist gar nicht auf Effizienz getaktet und die hochwertige Spannungsversorgung braucht auch viel Strom. Soweit ich das mitbekommen habe, wurde nie gesagt, dass die 480 eine extrem sparsame Karte wäre. Außerdem werden die Custom- Designs noch mehr Leistung rauskitzeln und der Chip wird dementsprechend auch noch mehr verbrauchen.
Es wurde nur von bis zu 2,8- facher Effizienz von Polaris(=460, 470, 480) gesprochen.
 
Stromverbrauch interessiert doch ohnehin nicht. Zumindest wenn Kühlleistung und Laustärke stimmt. Zumindest wenn die Karte preiswerter ist ist alles ok. die 15€ pro Jahr interessieren nicht die Bohne, wenn die Nvidia dafür 60€ mehr kostet... bei Der GTX480 hat den Stromverbrauch Niemanden interessiert. Nun das wichtigste überhaupt. Finde das Featureset und damit die Langelebiigkeit deutlich wichtiger. Denn was bringt mir die Stromsparendste Karte wenn diese nach 2 Jahren wieder gegen einen neuen 300€ Boliden ausgetauscht werden muss? :hmm:
 
Zuletzt bearbeitet:
obwohl ich auch ziemlich enttäuscht bin vom stromhunger der 480, muss man aber schon so fair sein und beachten, dass amd NIE gesagt hat, dass die 480 2.8fache effizienz haben wird. es war IMMER nur von Polaris an und für sich die Rede

Explizit nein, das stand sogar dick und Fett auf der AMD Präsentationsfolie am 31.05.2016 dass damit die rx480 gemeint ist.


RX480 / 8 Referenz-Modelle / ca. 1365 Stück in ca. 6 Tagen
GTX 1080 / 34 Modelle inkl. Customs / 3280 Stück in ca. 1.5 Monaten
GTX 1080 / nur die 8 Referenz-Modelle / ca. 755 Stück in 1.5 Monaten

Ich glaube du hast mal komplett die GTX 1070 vergessen bei deiner Berechnung, die GTX 1080 ist absolutes High End.
Außerdem wird die GTX 1080 erst seit dem 27.05.2016 verkauft, sind bisher also noch nicht 1,5 Monate.

Insgesamte Verkäufe GTX 1080: 3300
Insgesamt VBerkäufe GTX 1070: 3500

Insgesamt schon bei 6800 verkauften Karten.
AMD hat in den ersten Tagen viele rx480 verkauft. Jetzt mit dem Skandal, verkauft sich die Karte schlecht.
Heute nur 50 Stück auf Mindfactory verkauft. Dafür 250 Stück GTX 1080 und GTX 1070ger.

- - - Updated - - -

Bei der 470 und 460 vielleicht. Die 480 ist gar nicht auf Effizienz getaktet und die hochwertige Spannungsversorgung braucht auch viel Strom. Soweit ich das mitbekommen habe, wurde nie gesagt, dass die 480 eine extrem sparsame Karte wäre.

Nein sie haben das ganz explizit auf die rx480 bezogen. Die 470x wird daher wohl auch recht ineffizient. Möchte gerne wissen in welchem Szenario eine 2,8 fache Effizienz erreicht wird, wenn die Karte quasi immer 160 Watt + zieht.
Wahrscheinlich einfach gelogen.

amdfakerya9sly.png
 
Zuletzt bearbeitet:
da steht immer noch "bis zu".
aber dass dir das zu hoch ist war ja zu erwarten.
 
Stromverbrauch interessiert doch ohnehin nicht. Zumindest wenn Kühlleistung und Laustärke stimmt. Zumindest wenn die Karte preiswerter ist ist alles ok. die 15€ pro Jahr interessieren nicht die Bohne, wenn die Nvidia dafür 60€ mehr kostet... bei Der GTX480 hat den Stromverbrauch Niemanden interessiert.

Kaum verbraucht Nvidia wieder weniger, interessiert der Stromverbrauch nicht mehr. Brauchen dann AMD Karten weniger Strom, ist der Strom wieder wichtig.
Wer wird wohl die Zuschläge für die Notebooks bekommen? Sicher nicht die rx480 aka Stromschleuder.

Nun das wichtigste überhaupt. Finde das Featureset und damit die Langelebiigkeit deutlich wichtiger.

Dann warte mal 4 Jahre bis die rx480 auf GTX 980 Niveau ist.

Denn was bringt mir die Stromsparendste Karte wenn diese nach 2 Jahren wieder gegen einen neuen 300€ Boliden ausgetauscht werden muss?

Die AMD Karten werden mit Direct12 bisschen schneller, weil die Treiber schlechter sind. Höherer Direrctx11 Overhead und so.
Kann gut sein, dass die rx480 an die GTX 980 zukünftig herankommt, aber das sind auch nur 10% Mehrleistung.
Verstehe nicht warum du wegen 10% eine Karte für 300 Euro einsparen kannst.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh