AMDs Treiber-Zickenkrieg mit nVidia und Powerpoint FTW !

Die Schummeleien gibt es bei AMD genauso, da muss sich keiner so weit aus dem Fenster lehnen und das so einseitig darstellen.
Wenn wir Powerviren außen vor lassen, bewegen sich beide innerhalb der angegebenen TDP.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Unterm Strich stellt sich doch die Frage, wieviel Last in welchem Szenario wirklich erzeugt wird. Pitcairn skaliert recht gut und ich bin mir sicher, dass die Karte, wenn sie nicht voll ausgelastet wird (warum auch immer), auch entprechend weniger an Leistung aufnimmt. Man müsste wirklich mal in einem realen Workload über eine Stunde die Leistungsaufnahme beider Karten messen und dann die Leistungsaufnahme ins Verhältnis zur jeweiligen Performance setzen. Ich sehe da nämlich kaum einen Nvidia-Vorteil. Wenn die W7000, und sei es durch suboptimale Treiber, in einigen Apps mit angezogener Handbremse fährt, sollte sie auch dementsprechend weniger Leistung aufnehmen. Von der theoretisch möglichen Shaderleistung liegt die W7000 nämlich näher an der K5000 als an der K4000, preislich hingegen ist diese Karte hochinteressant. Sicher, es kommt immer auf die Anwendung an und ob der Hersteller auch einen Fokus bei den Treibern auf diese legt. Aber AMD hat mit GCN im Workstation-Bereich eigentlich gut nachgelegt und auch bei den Treibern für einige Apps bemerkenswert aufgeholt.

@boxleitnerb:
Erfahrungsgemäß lässt Nvidia die Workstation-Karten bis maximal 90% der angegeben TDP laufen (die TDP-Angaben stimmen also schon irgendwie) und auch meine alte Quadro 4000 kommt an diesen Wert locker ran (und liegt sogar leicht darüber), wenn ich mal PEG und die Werte der Stromzange am PCI-E-Anschluss addiere. Bei einer Auslastung von mindestens 90% und gut ausgelastetem Speicher. Bestimmte Simulations-Szenarien kommen der Last der von Dir erwähnten Powerviren übrigens schon ziemlich nahe, denn GP ist im Arbeitsalltag bei uns genauso wichtig geworden, wie das wilde Polygongeschnippse. Ein Kollege besitzt eine W7000 und wir haben im selben Szenario ganze 107 Watt gemessen (statt 90% der angegeben 150 Watt TDP), obwohl die Karte mit 90% Auslastung lief. Das Ergebnis ist wiederum die Summe aus den möglichen 75 Watt des Slots + die Werte der Stromzange. Das ist eigentlich auch relativ genau. Nur ist die erzielte GP-Leistung der W7000 bei den durchgeührten Strömungsberechnungen mehr als doppelt so hoch wie die der Quadro 4000 (wobei die Quadro K4000 in dieser Berechnung sogar langsamer sein soll als die Quadro 4000).
 
Zuletzt bearbeitet:
@Doktor Schiwago:
Mit Fermi hatte man da noch Probleme, siehe z.B. auch die Techdemos und die Verbrauchsmessungen dabei von HT4U. Aber Kepler hat dieses Problem durch die Einführung des Hardware Powertarget nicht mehr, AMD wohl aber noch. Die beiden geben sich nicht wirklich was, wenn man nicht mit Scheuklappen auf eine Generation schaut. Es ging mir also nur um die Richtigstellung des falschen Kommentars von mr.dude.
 
@boxleitnerb:
Gerade gefunden: Effizienztest W7000 gegen K40000, das ist eigentlich recht interessant und zeigt, dass AMD die TDP viel zu hoch angesetzt hat. Trotzdem müssten jetzt noch die Treiber für einige Pro-Apps optimiert werden, bevor ich meinem Nvidia-Händler die Quadro vor die Füße schmeiße. So eine W7000 sieht ja eigentlich ganz lecker aus und etwas preiswerter ist sie auch. Ich mache mittlerweile sehr viel mit Inventor und unter D3D sieht AMD ja generell nicht schlecht aus, aber bei CATIA z.B. ist Ende mit dem CatalystPro.
 
Die Schummeleien gibt es bei AMD genauso
Nee, genauso nicht. Bei Nvidia werden auch gerne mal GPUs mit <250 W spezifiziert, obwohl sie 320 W oder mehr unter maximaler Last brauchen. Solche Unterschiede gibt's bei AMD nicht. Die halten sich schon strikter an die Angaben.


Gerade gefunden: Effizienztest W7000 gegen K40000, das ist eigentlich recht interessant und zeigt, dass AMD die TDP viel zu hoch angesetzt hat.
Nicht zu hoch. AMD orientiert sich tatsächlich an Max Power. Nvidia hingegen gibt eher einen Mittelwert im oberen Bereich an und verkauft das dann als Max Power. Das meinte ich zuvor mit "TDP Schummeleien". Und wer das nicht sehen will, redet sich Nvidia lediglich schön.

Es ist eben unsinnig, einfach nur auf die TDP zu schauen und dann zu glauben, die tatsächliche Leistungsaufnahme schaut genauso aus. Den gleichen Fehler haben ja einige schon im S10000 Thread gemacht. Die tatsächliche Leistungsaufnahme hängt einfach von der Auslastung ab. TDP hingegen spezifiziert jeder Hersteller wie er lustig ist, was zu wenig Vergleichbarkeit führt.
 
Zuletzt bearbeitet:
meinst du die mit 6pin + 8pin -stützspannungsanschlüssen, die sich alles oberhalb 300W induktiv aus der luft holen? fies die teile, aber toll zum heizen..


(..)

mfg
tobi
 
Induktiv aus der Luft geholt... weil aus einem 6-Pin-Stecker niemals mehr als 75 Watt und aus einem 8-Pin-Stecker niemals mehr als 150 Watt kommt?
 
Induktiv aus der Luft geholt... weil aus einem 6-Pin-Stecker niemals mehr als 75 Watt und aus einem 8-Pin-Stecker niemals mehr als 150 Watt kommt?

Und die PCIe Versorgung am Slot von 75Watt lassen wir außer Acht

Sind 300 nach Adam Riese oder etwa nicht?

Außerdem war das wohl mal mehr ironisch bezogen auf die äußerst fragwürdige Darlegung von mr dude

In Kurzform AMD hält sich eher an die Spezifikationen wie das der Mitbewerber tut
 
Zuletzt bearbeitet:
Nein, die lassen wir nicht außer Acht. Ich habe nur gefragt, ob eine Karte mit 6-Pin- und 8-Pin-Anschluss nicht auch mehr als insgesamt 300 Watt ziehen kann, auch wenn das außerhalb der Spezifikation ist. ;)

PCIe: 75 W
6 Pin: 75 W
8 Pin: 150 W
zusammen: 300 W

Wozu sind dann all die Adapter für 6-Pin auf 8-Pin? Fließt dann etwa auch nur 75 Watt durch die Leitung? Nein.
Nur weil auf eine Karte ein 6-Pin- und ein 8-Pin-Anschluss geschraubt wurde, heißt das nicht, dass sie nicht mehr als 300 Watt ziehen kann.

Mit dem Argument jedenfalls ist mr.dude nicht widerlegt.
 
Natürlich kann sie auch mehr ziehen wie die spezifizierten 300

Es ging hier auch eher nicht darum wenn man zwischen den Zeilen liest;)
 
Nee, genauso nicht. Bei Nvidia werden auch gerne mal GPUs mit <250 W spezifiziert, obwohl sie 320 W oder mehr unter maximaler Last brauchen. Solche Unterschiede gibt's bei AMD nicht. Die halten sich schon strikter an die Angaben.

Doch.
7970 und 7970 GHz und 6970 haben alle eine maximum board power von 250W (!= TDP), so wird es in den Reviews angegeben, z.B. hier:
http://www.pcper.com/reviews/Graphi...Card-Review-Tahiti-28nm/Radeon-HD-7970-3GB-Gr

295W: AMD Radeon HD 7970 im Test - Leistungsaufnahme (Seite 22) - HT4U.net
254W und 351W: AMD Radeon HD 7970 GHz-Edition - Tahiti XT 2 stellt sich vor - Volllast (Furmark) (Seite 15) - HT4U.net
270W: AMD Radeon HD 7970 3 GB Review | techPowerUp
273W: AMD Radeon HD 7970 GHz Edition 3 GB Review | techPowerUp
269W: http://ht4u.net/reviews/2010/amd_radeon_hd_6970_6950_cayman_test/index22.php
287W: http://www.techpowerup.com/reviews/HIS/Radeon_HD_6970/27.html

usw.
QED. Da gibt es nichts schönzureden oder zu relativieren.
 
Zuletzt bearbeitet:
Du übersiehst wieder mal ein wichtiges Detail, PowerTune.

Die Messungen in diesem Fall wurden natürlich ebenfalls wieder mit der Powertune-Einstellung +20 Prozent ermittelt.

Vielleicht solltest du dir erst mal das PowerTune Whitepaper anschauen, bevor du hier wieder fälschlicherweise intervenierst. PowerTune +20% bedeutet nichts anderes als TDP +20%. Steht wie gesagt alles im Whitepaper. Die Rechnung dazu sollte nun jeder selbst durchführen können. 250 W *1,2 = 300 W. Wie man sieht, mit ~295 W hält die HD 7970 ihre TDP Vorgabe nahezu optimal ein.

Auf der anderen Seite, Nvidia überschreitet die TDP selbst ohne solche Power-/Turbo-Features gerne mal deutlichst, siehe GTX 480 oder GTX 580. Da gibt's in der Tat nichts schönzureden bei Nvidia. Auch wenn sie das bei der GTX 680 mittlerweile auch abriegeln. Die Skepsis bleibt trotzdem.
 
Zuletzt bearbeitet:
351W sind mehr wie 250*1,2. Und 254W sind mehr wie 250W (im Spieletest, wo nichts an Powertune verändert wurde). Und das sind aktuelle Karten. Du darfst ja gerne in der Vergangenheit leben, ich lebe in der Gegenwart.
Im Übrigen predigst du doch selbst seit Jahren, dass TDP nichts mit Verbrauch zu tun hat. Aber bei Nvidia schon oder wie?
 
Zuletzt bearbeitet:

Ich glaube der Einzige der sich was schön redet bist du. Ich habe die Links mal eben überflogen. Die Peaks sind fast alles Furmark-Werte. Nicht ohne Grund wird das Programm-Treiberseitig mittlerweile gebremst. Wenn du dir mal praxisrelevante Werte ansiehst kommt das schon gut hin.

Nehmen wir mal dein techpowerup Beispiel mit 273W (Peak) und gucken uns mal an was in der gleichen Tabelle sich so eine GTX570 mit einer Board-Power von 219Watt genehmigt. Satte 317 Watt!!!
Nicht nur das, die GTX570 hat sogar im Referenzdesign nur 2x6pin. Also 3x75Watt = 225Watt welche sie normalerweise abrufen darf. Das sind mal eben eine um 41% höhere Belastung für das Netzteil außerhalb der Norm.

Wenn ich nachdenke, dass ich ernsthaft überlegt habe auf grund solcher Berechnung ob mein altes Netzteil noch für die 570 reicht, bin ich froh es nicht ausprobiert zu haben.
 
@boxleitnerb

Wow, ganze 4 Watt darüber. Das verändert natürlich ... GAR NICHTS. :rolleyes:

Hier hat man übrigens nochmal eine Übersicht mit PowerTune default.

HD 7970: 245 W
HD 7970G: 255 W

Wie man sieht, die Karten liegen absolut innerhalb ihrer Spezifikationen. Ausserdem kenne ich keine offizielle Spezifikation, die von 250 W Maximum Board Power bei der HD 7970G spricht. Offenbar erfindest du nur wieder Sachen, um dir das Thema schönzureden. Ich kenne jedenfalls nur eine Folie, die von "Typical Power Draw ~250W" spricht. Selbst wenn man das als TDP auslegt, was de facto nicht korrekt wäre, würde die Karte immer noch innerhalb ihrer Spezifikation arbeiten. Siehe Werte zuvor.

Im Vergleich dazu Nvidia Karten wie die GTX 480 ("Power 250W") oder GTX 580 ("Power 244W").

GTX 480: 318 W
GTX 580: 318 W

Da gibt's überhaupt nichts schönzureden an der Darstellung von Nvidia. Das ist für mich Schummelei. Und dass TDP nichts mit der realen Leistungsaufnahme zu tun hat, sage ich ja immer wieder. Nur kapieren das einige anscheinend immer noch nicht. Du hast offenbar wieder mal den Grund der Diskussion nicht mitbekommen.
 
Ich weiß zum Zeitpunkt gerade nicht wieso mr dude olle Kammellen auf Fermi Basis dem Tahiti gegenüberstellt?

Macht das Sinn nein (x)

Ist da Intension dahinter um nicht auf die Effizienz aktueller Chips eingehen zu müssen jupp(x)

Nur mal für die, die hier mitlesen,u nicht wissen wo er hin will mit der Taktik um TDP Schummeleien

Am Ende wird dann nämlich der Kepler Chip um den es hier ja gehen sollte im ersten Post (wo er Bezug nimmt auf den Quadro vs Fire Pro) verklärend auf das Level von Fermi gehievt

Dort herrscht aber eine ganz andere Ausgangsposition vor liebe Kinder um mal Spielverderber zu spielen und mr dude die Tatwaffe aus der Hand zu schießen;)
 
Zuletzt bearbeitet:
Wow - vergleicht die AMD Marketingabteilung wirklich Grafikkarten ohne Power-Limiter mit welchen, die ein Power-Limiter haben?

:rofl:
 
Ich weiß zum Zeitpunkt gerade nicht wieso mr dude olle Kammellen auf Fermi Basis dem Tahiti gegenüberstellt?

7970 und 7970 GHz und 6970 haben alle eine maximum board power von 250W (!= TDP)

Das die aktuellen Karten so im Rahmen bleiben liegt wohl ehr daran, dass sie "gesund geschrumpft" wurden und man nicht sofort erkennen soll, dass es sich wohl um eine Mittleklasse Karte handelt. Da bastelt man lieber ein paar Stromanschlüsse extra dran und verländert den Kühler über das PCB hinaus. ;)
 
@boxleitnerb

Wow, ganze 4 Watt darüber. Das verändert natürlich ... GAR NICHTS. :rolleyes:

Hier hat man übrigens nochmal eine Übersicht mit PowerTune default.

HD 7970: 245 W
HD 7970G: 255 W

Da du schon von schönreden sprichst.
Mit PowerTune auf max. 295 bzw. 351W. Ja es ist mit 20% PowerTune, dennoch muss man selbst bei manch Stock Karten PowerTune erhöhen damit die den Takt halten.
Besonders Effizient ist der Tahiti gegenüber dem Kepler nicht, das sollte man sich eingestehen können.
 
Effizient wo drin? In GPU-Computing, oder den Konsolen-Ports von morgen?

Grid 2 Preview im Technik-Test: Optimiert für Graphics Core Next, GTX 680 hinter HD 7870

Fakt ist. Gegenüber den alten Karten sind alle 28nm-Beschleuniger sehr effizient. Der Unterschied ist so gering, dass es in den Stromkosten (darum geht es ja) keinen nennenswerten Unterschied macht. Besonders wenn man ZC mit in die Rechnung aufnimmt.
Fakt ist die 7970 ist wie Titan auch abseits des Gamings stark, der Chip ist größer und das SI ebenfalls. Das kostet nun mal Leistungsaufnahme.
 
Das die aktuellen Karten so im Rahmen bleiben liegt wohl ehr daran, dass sie "gesund geschrumpft" wurden und man nicht sofort erkennen soll, dass es sich wohl um eine Mittleklasse Karte handelt. ;)

Du kannst auch gerne den GK110 Tesla/Geforce/Quattro nehmen falls da irgendwie der Verdacht aufkommen sollte das der kleine GK104 mit seiner Effizienz trickst

Ich fürchte aber eher das das dort noch dramatischer wird rein auf GPGPU Berechnungen bezogen

Die Leistung ist dort mehr denn je vorhanden u ebenso ist bekannt wie Kepler mit dem Energiehaushalt umgeht
 
Toll

Also nehmen wir als Referenz ein Game

A. Noch nicht auf den Markt ist
B. Welches auf die GCN optimiert ist
 
Up to 20% in Dirt: Showdown


Selbe Engine neuer Nvidia Treiber


Solches Cherry Picking dürfte zu bzw kurz nach Release sich schnell verflüchtigen hier gehts allerdings nicht um ein einzelnes Spiel sondern um die GPGPU Eignung
 
Zuletzt bearbeitet:
Oh und nun nimmt die AMD Marketingabteilung ein Spiel, wo AMD massiv beteiligt war.

Kann ich auch und ich arbeite nichtmal bei nVidia :lol: :
Wichtig: Es handelt sich um eine Preview-Version [Metro: Last Light], d.h. es ist kein finaler Code und es fehlen noch Performance-Optimierungen.

Im Test zeigte sich, dass Radeon-Karten im Vergleich ziemlich abstinken, IIRC konnte es eine HD 7970 GHz Edition gerade so mit einer GTX 580 aufnehmen.
Metro: Last Light
 
7970 war/ist die erste Karte im 28nm Prozess. Titan kam über 1 Jahr später. Vor nicht all zu langer Zeit hätten die Hersteller zu diesem Zeitpunkt eine neue Generation released. Optimierte 28nm Karten wird man erst mit dem Refresh sehen.

Die Effizienzvergleiche muss man auch genauer betrachten. Häufig wird hier nur der Maximalverbrauch mit dem Ergebnis des gesamten Benchmarkparkours ins Verhältnis gesetzt. So ineffizient sind die Karten nicht.
Wie viel Strom verbraucht meine Grafikkarte? Neun Grafikkarten-Generationen im Effizienztest

Wenn eine GTX680 deutlich mehr leistet als eine 7970 wird diese auch mehr verbrauchen, da besser ausgelastet.

Zudem ist die 7970 eher mit dem Titan zu vergleichen als mit GK104. Ich könnte hier weitere Benchmarks besonders zu GPGPU-Computing raussuchen, aber die Mühe spar ich mir mal. Auch werden zukünftige Spiele auf GPGPU setzten.
 
Zuletzt bearbeitet:
Sontin schrieb:
Oh und nun nimmt die AMD Marketingabteilung ein Spiel, wo AMD massiv beteiligt war.

Bei dem Quatsch den du bei der PCGH über Forward + redest , kann dich doch keiner mehr ernst nehmen.
 
7970 war/ist die erste Karte im 28nm Prozess. Titan kam über 1 Jahr später. Vor nicht all zu langer Zeit hätten die Hersteller zu diesem Zeitpunkt eine neue Generation released. Optimierte 28nm Karten wird man erst mit dem Refresh sehen.

GK110 wird schon seit Juli an Partner wie Cray ausgeliefert. Und GK104 existiert seit 2011.

Die Effizienzvergleiche muss man auch genauer betrachten. Häufig wird hier nur der Maximalverbrauch mit dem Ergebnis des gesamten Benchmarkparkours ins Verhältnis gesetzt. So ineffizient sind die Karten nicht.
Wie viel Strom verbraucht meine Grafikkarte? Neun Grafikkarten-Generationen im Effizienztest

Wenn eine GTX680 deutlich mehr leistet als eine 7970 wird diese auch mehr verbrauchen, da besser ausgelastet.

Nonsense Statement. Die GTX680 leistet mehr als die 7970 und verbraucht weniger, wenn beide ausgelastet werden. Zeigt jede Webseite.
BTW: Eine Titan leistet nochmals mehr als die 7970 und verbraucht dabei selbst weniger Strom.
IMG0040542.gif

Consommation, efficacit nergtique - Nvidia GeForce GTX Titan en test : big Kepler dbarque enfin ! - HardWare.fr

Zudem ist die 7970 eher mit dem Titan zu vergleichen als mit GK104. Ich könnte hier weitere Benchmarks besonders zu GPGPU-Computing raussuchen, aber die Mühe spar ich mir mal. Auch werden zukünftige Spiele auf GPGPU setzten.

So wie Metro:Last Light? :banana:
 
Boah, du erzählst ein Käse.

7970 22.12.2011
680 22.03.2012
Titan 21.02.2013

Deine Beiträge zu Forward+ bei PCGH. Echt amüsant. Ein Feature welches auf GPGPU setzt und nicht wahr haben wollen, dass 4,31 Mrd. Transistoren und 2048 Shader doch mal schneller sind als 3,54 Mrd und 1536 Shader.

Selbst deinem eigen Link kannst du entnehmen, dass die GTX680 mal vor und mal hinter der 7970 in Performance/Watt liegt. Die nehmen sich eben nicht viel wie oben schon geschrieben. Natürlich ist die 7970 nicht so sparsam wie die GTX680 oder die Titan. AMD wartet nun aber bewusst auf die Karten von Nvidia um dann auch zu kontern wie es Nvidia mit der GTX680 getan hat. Das ist doch kein Hexenwerk und bedarf auch keiner Glaskugel.

Ist dir das nicht langsam peinlich? Selbst wenn Nvidia PhysX freigeben würde, ist es fraglich ob sich die GTX680 absetzten würde. Die Rohleistung ist nun mal da.

Wenn dir das schon zuviel Cerypicking ist, was es nicht ist, dann sei mal gespannt auf die Next-Gen-Konsolenports. Schreibst du dann auch zu jedem Post, dass die ja für die Konsolenhardware/GCN optimieren und das unfair sei? Und um den Dreh zum Topic irgendwie zu finden: Man sieht ja schön wie stark man etwas Software- und Treiberseitig optimieren kann.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh