AMD HD 9970 angeblich doppelt so schnell wie GTX 780

So, ich gebe die Seiten an, die genau das Ergebnis zeigen und du meinst "Auf die eigentlich Frage hast du auch nicht geantwortet"?!
Ich kann also davon ausgehen, dass du nicht in der Lage bist Postings zu verstehen*. Hier möchte ich dann doch gerne mal wissen, wieso man sich dann in einem Internetforum anmeldet, wo man zu allererst die Fähigkeit besitzen sollte Postings verstehen zu können. Wäre echt cool, wenn ich von einem lebenen Objekt mal eine Erklärung zu solchen einem Verhalten erfahren kann.

*

Es ist offensichtlich, dass GK110 ein doppeltes Perf/Watt Verhältnis gegenüber der GTX580 aufweist und somit das maximale aus dem 28nm Prozess herausgeholt hat. Das gilt auch für alle anderen Kepler-Chips von nVidia.
:wall:

In wie fern kannst du jetzt sagen dass man das maximale aus dem 28nm Prozess geholt hat?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das nunmal so gemessen wird weil es für die Tester einfach umzusetzen ist, ist ja nicht mein Verschulden. Bei Alan Wake rutscht der Vorsprung bei der Performance auf rund 60% ab, frist also den minderverbrauch auch wieder auf. Battlefield 3 dagegen ist wirklich nen positives Beispiel, aber das ist nunmal nicht konstant.

Und schon wieder ignorierst du, dass Computerbase das Gesamtsystem misst. Es sind 54 Watt weniger. Ausgehend von 240 Watt für die GTX580 entspricht dies 22,5% weniger bzw. 29% mehr Strom für die GTX580. Und da das Gesamtsystem ganze 60% mehr Frames pro Sekunde zur Verfügung stellen muss, sind selbst die 54 Watt der Worst-Case für einen Kartenvergleich. Am Ende liegen wir hier bei einer Verdopplung des Perf/Watt Verhältnis auf Kartenebene.
Und mit meiner Titan-Karte liegt beim Boost-Step 1,025V an. Wenn hier jedoch aufgrund des Festtackerns 1,15V (mein Voltagestep bei Max-Clock) anliegen sollte, wäre dies natürlich eine Verzehrung der Realität.

Also doch das Transistorbudget... :rolleyes:

Nein. Je ineffizienter die Architektur, um geringer fällt das Transistorbudget auf, da man hier die Leistung durch Taktrate und Spannung erreichen muss. AMD's Tahiti Karte mit 4,3Mrd Transistoren verbraucht mehr Strom als eine Titan mit Boost-Step mit 65% mehr Transistoren, die gleichzeitig auch mehr Leistung liefert.
In beiden Fällen limitiert die benötigte Energie und nicht das Transistorenbudget. Der einzige Unterschied ist, dass nVidia eine Architektur designt hat, die am Transistorenlimit immer noch einigermaßen im 250 Watt Budget liegt. AMD dagegen erreicht dieses Limit schon mit 40% weniger Transistoren.

Dann zeig mir doch mal ne reine Messung der Leistungsaufnahme an der Graka, irgendwo musst du deine Infos ja her haben...
HT4U: Titan: 198.10 Watt - GTX580: 246.85 Watt :
Hardware.fr: Titan gegen GTX680
 
Ich erinnere mich gelesen zu haben, dass es nur noch einen 20nm Prozess geben wird, nicht 3 (oder 4?) wie bei 28nm.
GK110 kommt ohne Handbremse auf ca. 20W mehr als Tahiti XT, also eher 260W.

In Games? Oder Furmark?
Im der letzten ht4u.net Messung mit den 55 GPUs ist Titan bei ~225W ohne Handbremse drin. -> was dort meint, alle Regler auf max. ohne händisches OC.
Furmark Volllastmessungen gehen freilich drüber hinaus. Aber das ist auch bei den Tahitis der Fall.
Ansich ist der reine Verbrauch aber auch von anderen Faktoren abhängig, wie eben der Temperatur, das kann ziemlich stark ins Gewicht fallen. Mal hier 25W mehr durch höhere Temps -> sind dann gleichmal fast 10%.

Die Frage ist aber dann, ob AMDs Rechnung aufgeht. Maxwell kommt laut zweier Berichte/Aussagen, die ich gelesen habe, früher als gedacht. Laut einem davon auf 20nm, der andere sagte dazu nichts. Damit könnte man AMD 3 Monate nach Launch der Volcanic Islands prima in die Seite fahren. AMD erlegt sich durch einen 28nm Chip Ende Oktober nämlich mehr oder weniger einen Fahrplan für ihren ersten 20nm Chip auf. 6-7 Monate später wird es wohl werden, denn für eine kürzere Marktpräsenz entwickelt man keine GPU, eher für eine längere. Die GTX 780 ist seit Mai am Start, da ist es denkbar, dass Ende Januar, also 7 Monate später, die Ablösung kommen könnte.

Das wäre dann zumindest mal was anderes von AMD als man bis dato zeigte... Denn bis jetzt ging man doch überwiegend den Weg, das neue Modell auch idR im neuesten Prozess zu bringen. Und ggf. sogar wenn nötig auf die Fertigstellung des Prozesses zu warten. (Tahiti zum Beispiel)
Wobei ich mich dann ehrlich frage, was haben die die ganze Zeit gemacht, seit Tahiti? Ein minimal aufgeborter Tahiti auf 28nm dürfte aus meiner Sicht deutlich weniger Konzeptionierungszeit in Anspruch nehmen, als ne neue Generation mehr oder weniger von Grund auf.
Sehen wir "nur" nen Tahiti mit mehr Einheiten und leicht angepasst, gehe ich stark von aus, man kann das Teil in der üblich bekannten Leistungsskalierung einfach "vorhersagen".
Wobei man aber auch sagen muss, es gab schon Karten in der Vergangenheit, die nur sehr sehr kurz am Markt waren. Siehe X1800XT vs. X1900XT(X). Das waren ebenso nur grob 3 Monate ;) Und man hätte sich erstere komplett sparen können. Eventuell arbeiten auch zwei Teams dran. Oder man hat den Refresh der Tahitis schon mehr oder weniger lange fertig und kramt diesen nur aus der Schublade, um den Marktstart der echten neuen Gen. noch etwas rauszögern zu können?

Thema Maxwell, es wird hier sicher entscheidend, was der 20nm Prozess dann an Möglichkeiten bietet. Die Infos oben von Neuro mit den wenigen Prozent mehr Leistung zu 28nm klingen da nun nicht unbedingt danach, das sooo extrem viel drin wäre.
Es wäre aus meiner Sicht da schon denkbar, das AMD mit ner älteren Karte "überleben" kann. Zumal sich NV mit der 780/Titan ja die Messlatte selbst massiv hoch gelegt hat. So ne Art GK104 als Maxwell zu bringen, der mal 30% auf Titan drauf haut, ist dann wohl schwer bis unmöglich, wenn der Prozess nicht das bringt, was man pauschal erwarten kann. Denn es wären wohl minimum ~3500 ALUs nötig um eben ~30% mehr Performance in ähnlichen Taktregionen bringen zu können. Und da ist noch nichtmal mit einberechnet, das die reine ALU Zahl nicht 1:1 mit der Leistung skaliert. Das ist für nen GM104 aka Mittelklasse schon ne ziemliche Hausnummer mit Faktor größer 2 zum GK104. Man könnte nun die ALUs ähnlich Titan bringen und den Takt erhöhen -> was aber der Effizienz dann im Wege steht. Also auch nicht so machbar.
Von der Warte her hat sich NV mit dem Titan im Endkunden-Gamermarkt keinen Gefallen getan. Ja selbst mit der 780er nicht, die quasi das gleiche leistet...

Perf/Watt von Titan ist z.B. besser als bei der GTX680. Und das alleinig, weil Titan für die Leistung weniger Spannung benötigt als die GTX680. Die Leistung von Titan ist nur durch ein deutlich größeres Transistorenbudget möglich. Ansonsten rennt man in die Clockwall vom Prozess. Und das endet dann wie bei der 7970GHz, die für 1050MHz dann gleich mal zwischen 1,175V - 1,25V benöntigt.

Wobei man den AMD GPUs aber zustehen muss, das diese Spannungen wirklich zu hoch sind...
Bekanntermaßen wird bei den Herstellern nicht Handselektiert. -> dennoch gibt es seit mitte 2012 schon Tahiti XT GPUs als OC Versionen mit 1GHz(+) und deutlich weniger Verbrauch der echten GHz Editions... Siehe R7970 Lightning. Oder den PowerColor 1GHz OC GPUs. Da waren 10-20% weniger Verbrauch in den Messungen von ht4u.net zu sehen.
Aus meiner Sicht ist hier klar zu erkennen, das AMD sehr hohe Spannungen per default aufdrückt -> warum auch immer ist aber nicht ganz erkennbar. Ich denke aber, man hat sich mit dem nachträglichen "einpatchen" des Boosts keinen Gefallen getan. Zumal das ja quasi bei fast allen älteren Modellen via Bios nachpatchbar ist.
 
Tahiti für 20nm anzupassen und dann noch den Chip um zu designen dürfte sich nicht lohnen wenn man die nächste Architektur bereits in der Tasche hätte.

Es wird ja nicht einfach mal schnell so ein Chip zum Designer gebracht, der übers Wochenende eine Änderung vollzieht.
AMD hat ja schon die GCN 1.1 Architektur im Boniar zur Anwendung gebracht. Sind aber zu dem Schluss gekommen, das es weit günstiger ist den Tahiti mit seiner großzügig bemessenen V-Core, welche ja zu Anfangszeiten wohl nötig war um Fertigungstoleranzen auszugleichen, einfach mehr Takt zu spendieren mittels einem Bios-Update.

Nun haben sie aber GCN 2.0 entwickelt und es einfach weg zuwerfen ist Verschwendung. Wenn das Design vorhanden ist, dann wäre es ziemlich dumm es nicht zu verwenden.

Außerdem dürfte eine solche Performance wieder auf kosten der Leistungsaufnahme gehen, die dann bei 200mm² kaum sinken dürfte.

Wenn man der Logik folgen würde, so müssten alle Rechner Heute, mit potenten Grafikkarten, nur über einen separaten Stromanschluss mit eigener Sicherung laufen. Bedenkt man, das eine damalige GTX 8800 Ultra schon über 300 Watt gezogen hat, so sollte bei dem Performancegewinn etwa eine GTX Titan nun mit 1500 Watt Verbrauch daherkommen...
Der Grund warum dies "nicht" der Fall ist, liegt in der Strukturverkleinerung, die dafür sorgt, das trotz mehr Einheiten der Verbrauch nicht oder kaum größer ausfällt.

Kurz gesagt. Unter 20nm ist der Verbrauch geringer als unter 28nm.
 
Wenn man der Logik folgen würde, so müssten alle Rechner Heute, mit potenten Grafikkarten, nur über einen separaten Stromanschluss mit eigener Sicherung laufen. Bedenkt man, das eine damalige GTX 8800 Ultra schon über 300 Watt gezogen hat, so sollte bei dem Performancegewinn etwa eine GTX Titan nun mit 1500 Watt Verbrauch daherkommen...
Der Grund warum dies "nicht" der Fall ist, liegt in der Strukturverkleinerung, die dafür sorgt, das trotz mehr Einheiten der Verbrauch nicht oder kaum größer ausfällt.

Kurz gesagt. Unter 20nm ist der Verbrauch geringer als unter 28nm.

??
Die G80 8800 GTX hat es seinerzeit auf ~130W Gamelastverbrauch gebracht. Von 300W kann da so gar nicht die Rede sein.
Selbst eine HD2900XT, welche als Stromschleuder gilt, hat sich gerade mal ~160W genehmigt. Und das in den ersten Versionen mit 1,2V VGPU Spannung.

PS: und letzteres ist ebenso ziemlich pauschal und nichtssagend.
Ein Mittelklasse 28nm Chip kann genau so weniger verbrauchen als ein 20nm HighEnd Chip.
Noch dazu ist ja nichtmal ganz raus, was 20nm überhaupt bringen wird. Laut Berichten (siehe oben) ist der Sprung von 28 auf 20nm scheinbar weit geringer als noch von 40 auf 28nm...
 
??
Die G80 8800 GTX hat es seinerzeit auf ~130W Gamelastverbrauch gebracht. Von 300W kann da so gar nicht die Rede sein.
Selbst eine HD2900XT, welche als Stromschleuder gilt, hat sich gerade mal ~160W genehmigt. Und das in den ersten Versionen mit 1,2V VGPU Spannung.

Test: ATi Radeon HD 3870 X2 (Seite 28) - ComputerBase
Ist zwar Gesamtsystem, rechnet man aber 80-100 Watt für den Rest ab, so kommt man auf 230-250 Watt für eine GTX 8800 Ultra.

Bitte erst informieren, bevor man wiedermal den pickebuh kritisiert. Kann doch wirklich nicht so schwer sein. ;)

PS: und letzteres ist ebenso ziemlich pauschal und nichtssagend.
Ein Mittelklasse 28nm Chip kann genau so weniger verbrauchen als ein 20nm HighEnd Chip.
Noch dazu ist ja nichtmal ganz raus, was 20nm überhaupt bringen wird. Laut Berichten (siehe oben) ist der Sprung von 28 auf 20nm scheinbar weit geringer als noch von 40 auf 28nm...

Ein mittelklasse 28nm Chip kann also genauso wenig verbrauchen wie ein 20nm HighEnd Chip... Und was soll nun an meiner Aussage falsch sein das bei 20nm die Leistungsaufnahme sinkt ??
Liest du überhaupt noch die Posts von manchen Leuten, oder sortierst du einfach nur nach Namen aus und schreibst dann irgendeinen Stuss nieder ?

Und ganz nebenbei. Das der 20nm Fertigungsprozess nicht so viel bringt wie der Umstieg von 40 auf 28 ist ebenfalls schon bekannt. Aber... DAs er was bringt ist sonnenklar und sollte zumindest für die aktuellen Karten alla GTX780/Titan reichen. :rolleyes:
 
ja dann informier dich doch bitte...
Schau dir beispielsweise direkt Kartenmessungen von xbitlabs.com seinerzeit an. Da waren die R600 GPUs (GPU only) mit ~160W sowie die G80 8800 GTX mit ~130W drin.
Leider ist die Seite scheinbar aktuell down!? -> aber wozu gibts den Google Cache ;)


Und wen interessieren Gesamtsystemmessungen? Zumal du sinnfreierweise pauschal einfach mal 80-100W abziehst, was reichlich wenig ist für nen ~3,5GHz OCed Core2Quad QX6800 bei den CB Messungen ist :rolleyes: Auch müsste dann ne HD2400XT ja knallhart 80-100W verballern :fresse: ja klar... glaubst du eigentlich selbst, was du da schreibst!? Der Unterschied zwischen Last und idle liegt bei ~20W. Und die Karte braucht dann unter Last 100W und im idle 80W...

PS: zum letzten. An deiner Aussage ist falsch, das du zu viel pauschalisierst. Ein Mittelklasse 28nm Chip kann auch weniger verbrauchen als ein 20nm Chip, welcher Klasse auch immer. Und schon ist deine Aussage widerlegt. Punkt.
 
Zuletzt bearbeitet:
Test: ATi Radeon HD 3870 X2 (Seite 28) - ComputerBase
Ist zwar Gesamtsystem, rechnet man aber 80-100 Watt für den Rest ab, so kommt man auf 230-250 Watt für eine GTX 8800 Ultra.

Die Daten stimmen nicht von CB, die Ultra hatte ca. 90W idle Verbrauch - Wenn ich die vom Gesamtsystem abziehe, hätte die 2400XT ( TDP von 25W ) gar keinen idle Verbrauch ^^
Das System von CB dürfte ca. 160W idle Verbrauch haben, allerdings uninteressant weil es nicht ein Referenz-System ist und CB auch keine Referenz-Seite ist ....
 
In Games? Oder Furmark?
Im der letzten ht4u.net Messung mit den 55 GPUs ist Titan bei ~225W ohne Handbremse drin. -> was dort meint, alle Regler auf max. ohne händisches OC.
Furmark Volllastmessungen gehen freilich drüber hinaus. Aber das ist auch bei den Tahitis der Fall.
Ansich ist der reine Verbrauch aber auch von anderen Faktoren abhängig, wie eben der Temperatur, das kann ziemlich stark ins Gewicht fallen. Mal hier 25W mehr durch höhere Temps -> sind dann gleichmal fast 10%.

Games. Das zeigt jedes englische Review oder auch bei CB mit PT/TT@Max. Für die Ergebnisse mit "Drossel" schaue ich mir immer den 3DC-Index an, weil der die meisten reinen Verbrauchswerte zusammenfasst:
Hier sind es bei 5 oder 6 Messungen an der Leine 203W im Schnitt: Grafikkarten-Marktüberblick Juli 2013 (Seite 2) | 3DCenter.org
Bei den englischen Reviews sind es dann bis zu 50W mehr, mehr wie 250W geht ja nicht ohne das Powertarget zu verändern. Im Schnitt würde ich Titan@1GHz bei 240-250W dort sehen und die 7970 GHz bei 220-230W.
Die Temperatur hat Auswirkungen, ja, aber nicht so hohe. Bei 60 Grad Differenz (95°C vs 36°C mit Wakü) sind es ca. 30W. 60 Grad werden als Variation in der Praxis niemals auftreten. Bei 85°C vs 65°C sind es dann nur noch gute 10W in den drei Spielen, die ich untersucht habe.

Das wäre dann zumindest mal was anderes von AMD als man bis dato zeigte... Denn bis jetzt ging man doch überwiegend den Weg, das neue Modell auch idR im neuesten Prozess zu bringen. Und ggf. sogar wenn nötig auf die Fertigstellung des Prozesses zu warten. (Tahiti zum Beispiel)
Wobei ich mich dann ehrlich frage, was haben die die ganze Zeit gemacht, seit Tahiti? Ein minimal aufgeborter Tahiti auf 28nm dürfte aus meiner Sicht deutlich weniger Konzeptionierungszeit in Anspruch nehmen, als ne neue Generation mehr oder weniger von Grund auf.
Sehen wir "nur" nen Tahiti mit mehr Einheiten und leicht angepasst, gehe ich stark von aus, man kann das Teil in der üblich bekannten Leistungsskalierung einfach "vorhersagen".
Wobei man aber auch sagen muss, es gab schon Karten in der Vergangenheit, die nur sehr sehr kurz am Markt waren. Siehe X1800XT vs. X1900XT(X). Das waren ebenso nur grob 3 Monate ;) Und man hätte sich erstere komplett sparen können. Eventuell arbeiten auch zwei Teams dran. Oder man hat den Refresh der Tahitis schon mehr oder weniger lange fertig und kramt diesen nur aus der Schublade, um den Marktstart der echten neuen Gen. noch etwas rauszögern zu können?

Es geht ja das Gerücht um, dass der eigentliche Refresh gecancelled wurde. Ich glaube nicht, dass Hawaii nur ein leicht gepimpter Tahiti ist, nach knapp 2 Jahren stecken da sicher mehr Änderungen drin.

Thema Maxwell, es wird hier sicher entscheidend, was der 20nm Prozess dann an Möglichkeiten bietet. Die Infos oben von Neuro mit den wenigen Prozent mehr Leistung zu 28nm klingen da nun nicht unbedingt danach, das sooo extrem viel drin wäre.
Es wäre aus meiner Sicht da schon denkbar, das AMD mit ner älteren Karte "überleben" kann. Zumal sich NV mit der 780/Titan ja die Messlatte selbst massiv hoch gelegt hat. So ne Art GK104 als Maxwell zu bringen, der mal 30% auf Titan drauf haut, ist dann wohl schwer bis unmöglich, wenn der Prozess nicht das bringt, was man pauschal erwarten kann. Denn es wären wohl minimum ~3500 ALUs nötig um eben ~30% mehr Performance in ähnlichen Taktregionen bringen zu können. Und da ist noch nichtmal mit einberechnet, das die reine ALU Zahl nicht 1:1 mit der Leistung skaliert. Das ist für nen GM104 aka Mittelklasse schon ne ziemliche Hausnummer mit Faktor größer 2 zum GK104. Man könnte nun die ALUs ähnlich Titan bringen und den Takt erhöhen -> was aber der Effizienz dann im Wege steht. Also auch nicht so machbar.
Von der Warte her hat sich NV mit dem Titan im Endkunden-Gamermarkt keinen Gefallen getan. Ja selbst mit der 780er nicht, die quasi das gleiche leistet...
GK110 skaliert schon sehr gut mit den Einheiten. Ich hab damals noch mit mehr CPU-Takt Titan nachgebencht, und da kamen nochmal so 5% drauf. Mehr Speichertakt schadet sicher auch nicht - wenn man die Skalierung rein auf die Einheiten bezogen anschauen will, sollte es kein Bandbreitenlimit geben.
Die GTX 680 bei CB taktet in den Benchmarks mit ca. 1080 MHz (jedenfalls im Originalreview). Titan@Max taktet mit ca. 980 MHz. Rechnest du das raus, müsste der Vorsprung bei 59% liegen. Im Test liegt er bei 50%. Ist die Frage, wo die restlichen 9% versickern. Bandbreite ist sicherlich ein Punkt, Pixelfüllrate evtl. auch noch mal ein paar Prozent, gerade mit nur 4 GPCs.
Schaut man sich den Test der Palit Super Jetstream bei Computerbase an, die recht ähnlich zur Referenz-680 getaktet hat (ca. 1080 MHz), so skalieren die Recheneinheiten perfekt (50% mehr Einheiten, 50% mehr Performance). Ich sehe keinen Grund außer den angesprochenen anderen Flaschenhälsen warum bei nur 16% mehr Einheiten die Skalierung jetzt plötzlich so ein Problem sein sollte. Gib der Titan@max 7-8 Gbps Speicher, volle 5 GPCs und die Skalierung wird auch dort einwandfrei sein, da bin ich mir sicher.

Ein GM104 mit sagen wir 2304 Einheiten, 10% mehr "IPC" durch die Architektur und 1.2 GHz Takt sollte sich ordentlich von Titan/780@max absetzen können. Halt so wie die 680 von der 580.
 
Zuletzt bearbeitet:
stimmt schon, nur eine Messung zu betrachten ist vielleicht etwas kontraproduktiv. Nur leider gibts so viele direkt Messungen der Grafikkarte nicht...
Spontan fällt mir da nur ht4u.net ein sowie bei manchen Tests PCGH. Der Großteil misst im Gesamtsystem, was die Werte etwas verfälschen könnte. :(

Zum letzten, also wenn dem so sein wird, wäre das durchaus OK für mich. Ich bin mittlerweile soweit, das ich GK110 für mich abgehakt habe und erstmal mit der Single 680er weiter fahren werde... In der Hoffnung das zeitnah was neues kommt -> Maxwell ;) Ggf. werde ich noch Ivy-E mitnehmen.
Wobei ich aber nicht denke, das es einen 1,2GHz GM104 geben wird. MIt 2304 ALUs und 256Bit SI wäre das Ding wohl schon wieder arg im Bandbreitenlimit. Oder ist was zu GDDR6 bekannt? Die dürften doch erst später kommen...
Auch die IPC Steigerung halte ich stand heute für fraglich... Das NV Konstrukt selbst skaliert ja schon recht gut. Nur schaut man sich das mal von Gen. zu Gen. an, so benötigte man doch für die die Leistungssteigerungen immer mehr ALUs generationsübergreifend.
Ein G200 bekommt bei ähnlichem GPU Takt und fast verdopplung der ALUs noch auf ~64% mehr Leistung zum G80. Der GF100 mit abermals Verdopplung der ALUs und fast 10% mehr Takt brachte es ebenso auf ~63% mehr.
GK104 hingegen (rechnet man den Hotclock mal raus) bringt immerhin noch 50% mehr ALUs zur 580 und eben 50% mehr Takt, sprich in Summe abermals ne Verdopplung der ALU Power. Kommt aber nunmer auf nur noch ~30-35%.
In der Generation selbst scheint die Skalierung aber besser zu sein. Generationsübergreifend hingegen siehts von der Warte her schlechter aus.
Oder überseh ich da was!?

Das selbe Verhalten zeigt aber auch AMD mit den Generationsübergreifenden Leistungssprüngen... Nur scheint es dort (wohl auch Frontend bedingt) noch etwas mauer auszuschauen. Ebenso leidet der Vergleich etwas, durch das schon drei mal Wechseln der Technik von VLIW5 über 4 zu GCN.
 
ja dann informier dich doch bitte...
Schau dir beispielsweise direkt Kartenmessungen von xbitlabs.com seinerzeit an. Da waren die R600 GPUs (GPU only) mit ~160W sowie die G80 8800 GTX mit ~130W drin.
Leider ist die Seite scheinbar aktuell down!? -> aber wozu gibts den Google Cache ;)

Das ich die ganze Zeit von der ULTRA rede scheint dir wohl immer noch entgangen zu sein.
Was wohl meine weitere Ausführungen unterstreicht, da du offensichtlich nicht in der Lage bist einen Text:

1. Ganz zu lesen und 2. Auch wohl nicht wirklich verstehen kannst. Soll ich Ultra noch größer schreiben damit du es sehen kannst ?

Und wen interessieren Gesamtsystemmessungen? Zumal du sinnfreierweise pauschal einfach mal 80-100W abziehst, was reichlich wenig ist für nen ~3,5GHz OCed Core2Quad QX6800 bei den CB Messungen ist :rolleyes: Auch müsste dann ne HD2400XT ja knallhart 80-100W verballern :fresse: ja klar... glaubst du eigentlich selbst, was du da schreibst!? Der Unterschied zwischen Last und idle liegt bei ~20W. Und die Karte braucht dann unter Last 100W und im idle 80W...

Ahnung hast du wirklich keine...
Eine CPU frisst keine 100 Watt, wenn es um GPU-Leistungsmessungen geht.
Die Auslastung ist deutlich geringer als bei reinen CPU-Tests z.B. Prime95 ect. Da frisst die CPU deutlich mehr als bei Furmark usw. wo es nur um die GPU geht.
Hast du das immer noch nicht kapiert ?

PS: zum letzten. An deiner Aussage ist falsch, das du zu viel pauschalisierst. Ein Mittelklasse 28nm Chip kann auch weniger verbrauchen als ein 20nm Chip, welcher Klasse auch immer. Und schon ist deine Aussage widerlegt. Punkt.

Hör auf deine Aussagen zu drehen wie du sie brauchst.
Ich zitiere dich gerne:

"Ein Mittelklasse 28nm Chip kann genau so weniger verbrauchen als ein 20nm HighEnd Chip"

Also bitte lass deine falschen Anschuldigung, in denen du dich eh selber laufend widersprichst.
Du liegst falsch und kannst es nicht zugeben. Punkt !

---------- Post added at 19:15 ---------- Previous post was at 19:12 ----------

Also laut Computerbase-Test des verwendeten Prozessors:
Test: Intel Core 2 Extreme X6800 (Seite 4) - ComputerBase

Zieht allein dieser 160 Watt. Aber im verlinkten Grafikkartentest wurde der Prozessor zusätzlich noch übertaktet ...

Die 160 Watt laufen über einen gezielten CPU-Test mittels Prime95.
Das liegt niemals bei einem GPU-Test an !

Hier nun der Gegenvergleich:
http://www.computerbase.de/artikel/grafikkarten/2013/test-nvidia-geforce-gtx-titan/15/

Eine GTX Titan verbraucht im Test 304 Watt Gesamtleistung und das bei einem übertakteten Quad-Core i7-3770K der hier wiederum:
http://www.computerbase.de/artikel/prozessoren/2012/test-intel-ivy-bridge/20/
140 Watt bei Prime95 benötigt und das als stock. Übertaktet kann man dann mit 160-170 Watt rechnen.
Folglich würde also eine GTX Titan mit ca. 140 Watt auskommen ?

Na findet jemand den Fehler ??
Kleiner Tipp. CPU Tests sind anders als GPU Tests.
 
Zuletzt bearbeitet:
Fragt sich wer hier nichts kapiert und mal wieder einen super Ton an den Tag legt, weil man ihm widerspricht...
 
Die 160 Watt laufen über einen gezielten CPU-Test mittels Prime95.
Das liegt niemals bei einem GPU-Test an !

Ein Besuch beim Optiker wäre auch nicht schlecht...

Brille.PNG
 



Die 160 Watt laufen über einen gezielten CPU-Test mittels Prime95.
Das liegt niemals bei einem GPU-Test an !

Hier nun der Gegenvergleich:
Test: Nvidia GeForce GTX Titan (Seite 15) - ComputerBase

Eine GTX Titan verbraucht im Test 304 Watt Gesamtleistung und das bei einem übertakteten Quad-Core i7-3770K der hier wiederum:
Test: Intel
140 Watt bei Prime95 benötigt und das als stock. Übertaktet kann man dann mit 160-170 Watt rechnen.
Folglich würde also eine GTX Titan mit ca. 140 Watt auskommen ?
Die CPU verbraucht keine 140W, auch nicht übertaktet 160-170W, es ist das gesamt System - Interessant sind wenn überhaupt nur der Differenz-Wert idle - Volllast!
Aber auch nur bei jedem einzelnen zu Hause, was andere Messen ist keine Referenz !

---------- Post added at 19:44 ---------- Previous post was at 19:41 ----------

Ein Besuch beim Optiker wäre auch nicht schlecht...

Anhang anzeigen 244534

der c6800er hat eine TDP von 75W, wenn dieser 160W verbrauchen würde, hätte er auch eine TDP von 160W ^^
 
Das ich die ganze Zeit von der ULTRA rede scheint dir wohl immer noch entgangen zu sein.
Was wohl meine weitere Ausführungen unterstreicht, da du offensichtlich nicht in der Lage bist einen Text:

1. Ganz zu lesen und 2. Auch wohl nicht wirklich verstehen kannst. Soll ich Ultra noch größer schreiben damit du es sehen kannst ?
Das ist mir schon bewusst... Nur scheinst du nicht zu verstehen, was du da von dir gibst. G80 ist und bleibt G80. Wenn eine 8800 GTX auf ~130W 3D Load kommt, wie soll eine 8800 Ultra, die absolut identisch ausgebaut ist, nur minimal mehr Takt mitbringt, auf einmal um über 100% mehr verbrauchen!?

Aber falls es dich beruhigt, nimm die 130W der direkt Kartenmessung aus meinem Screen von der 8800 GTX und rechne die 9% drauf, die CB als Mehrverbrauch des Gesamtsystems für die Ultra anstatt der GTX gemessen haben möchte.
Macht also 141,7W. Und nun? WO sind sie denn DEINE 300W für die ULTRA??

Ahnung hast du wirklich keine...
Eine CPU frisst keine 100 Watt, wenn es um GPU-Leistungsmessungen geht.
Die Auslastung ist deutlich geringer als bei reinen CPU-Tests z.B. Prime95 ect. Da frisst die CPU deutlich mehr als bei Furmark usw. wo es nur um die GPU geht.
Hast du das immer noch nicht kapiert ?
stimmt... die CPU frisst keine 100W, sondern deutlich mehr...
CB bescheinigt dem gesamten System mit QX6850 im idle! allein eine knappe 200.
Test: Intel Core 2 Extreme QX9650 (Seite 23) - ComputerBase
OK, bevor du jetzt kommst, das andere war ein QX6800 -> nimm die Werte vom Q6600 im idle. Sind immernoch 194W.
Zieh von mir aus sogar noch die ~70W idle Verbrauch der im CB Test verwendeten HD2900XT ab, bleiben immernoch 124W übrig.
IDLE! Das bedeutet ohne Last, falls du diese vier Buchstaben nicht zu deuten weist. Rechne also zu den 124W die Last bei minimum einem Core Load im GPU Test drauf und du kommst in die Regionen, wo der Systemverbrauch ohne die Grafikkarte liegen muss. HINWEIS MEINERSEITS: 124W + X = defintiv größer 100W...
Das deckt sich im übrigen auch mit den Messungen der 2400XT, wie ich oben schon ansprach -> was du gekonnt ignoriert hast. Wie war das noch mit dem Lesen!?

"Ein Mittelklasse 28nm Chip kann genau so weniger verbrauchen als ein 20nm HighEnd Chip"

Also bitte lass deine falschen Anschuldigung, in denen du dich eh selber laufend widersprichst.
Du liegst falsch und kannst es nicht zugeben. Punkt !

Wie oft denn noch...
Bitte habe einen Blick auf das Rot extra für dich markierte...
Deine Aussage war: "Unter 20nm ist der Verbrauch geringer als unter 28nm."
Jetzt schau auf meinen Text, den du extra dafür sogar nochmal zitiert hast. -> finde den Fehler.
Und es steht wohl außer Frage, das eine 28nm Mittelklassekarte weniger verbrauchen wird, als die großen 20nm Karten. Ergo ist deine Aussage widerlegt... Denn es tritt eben genau der von mir besagte Fall ein. Nämlich das ein 28nm Produkt weniger verbraucht als ein 20nm Produkt, wohingegen du behauptest, das ein 20nm Produkt IMMER! weniger verbraucht als ein 28nm Produkt.

Muss schon schwer sein, seine eigenen Texte zu verstehen :rolleyes:


@dochurt
Zumindest die Leute bei CB waren scheinbar selbst verwundert, was die QX 65nm Quads an Strom verbraten. Siehe Text:
Test: Intel Core 2 Extreme QX9650 (Seite 23) - ComputerBase
 
Zuletzt bearbeitet:
der c6800er hat eine TDP von 75W, wenn dieser 160W verbrauchen würde, hätte er auch eine TDP von 160W ^^

Natürlich hängt da ein unsparsames System mit drunter, mir ging es eher darum, dass er auf Prime rumreitet, dass dort gar nicht benutzt wird. ;)
 
@dochurt
Zumindest die Leute bei CB waren scheinbar selbst verwundert, was die QX 65nm Quads an Strom verbraten. Siehe Text:
Test: Intel Core 2 Extreme QX9650 (Seite 23) - ComputerBase

Vollkommen uninteressant, was andere Leute so Testen - Der Link zeigt eindeutig die Unfähigkeit, hab selber solche Quads gehabt, aber keiner der so einen hohen (angeblichen) eigenverbrauch hatte !

CB-Test kann man zum Lachen benutzen, wie auch so einige andere auch ^^

Muss man sich mal vorstellen, beim QX6850 knapp 300W unterschied zwischen idle und Volllast, selten sooooo Gelacht :rofl:
 
Hö?
Wo siehst du dort über 300W Unterschied?

Ich sehe dort 197,3W idle inkl. HD2900XT idle vs. 329W Prime95 Volllast (CPU only) vs. 487W Prime95 + 3DMark (CPU und GPU!) Volllast.
Das passt schon... ~130W Volllastverbrauch für die CPU, 487-329=158W Load durch die GPU im 3DMark Loop. Was sich auffallend mit den oben von mir geannten Werten von xbitlabs.com deckt...

Man kann ja von CB und anderen Redaktionen halten, was man will. Aber in dem Fall scheint das durchaus zu passen ;)
 
Zuletzt bearbeitet:
Der einzige Test der vllt. passt, wäre der prime, aber auch nicht aussagekräftig ....

Aber wie gesagt, was andere Testen ist für mich uninteressant, entscheidend ist das was ich zu Hause verbrauche ;)
 
Sensationeller Thread. Ihr habt mir heute den Nachtdienst versüßt hahaha. Sobald Gerüchte um eine neue Grakageneration aufkommen, haut man sich sämtliche Informationen bis auf atomarer Ebene zerlegt, gegenseitig um die Ohren. Wie sonst auch ist einfach nur Warten angesagt. Die Glaskugel funktioniert wie immer sehr unzuverlässig.
 
Zuletzt bearbeitet:
Ich prophezeie vollkommen unabhängig von NV und AMD's aktuellen Produkten einfach mal, dass das wahr wird :lol:
 
Deine Aussage war: "Unter 20nm ist der Verbrauch geringer als unter 28nm."
Jetzt schau auf meinen Text, den du extra dafür sogar nochmal zitiert hast. -> finde den Fehler.
Und es steht wohl außer Frage, das eine 28nm Mittelklassekarte weniger verbrauchen wird, als die großen 20nm Karten. Ergo ist deine Aussage widerlegt... Denn es tritt eben genau der von mir besagte Fall ein. Nämlich das ein 28nm Produkt weniger verbraucht als ein 20nm Produkt, wohingegen du behauptest, das ein 20nm Produkt IMMER! weniger verbraucht als ein 28nm Produkt.
Man kann auch aus jeder Aussage die falschen Schlüsse ziehen bzw. das Wort im Mund herumdrehen. Die Aussage stimmt schon, WENN man gleiche Schaltungen vergleicht. Bei Intels Tick-Tock sieht man, dass geshrinkte Architekturen bei gleichem Takt weniger verbrauchen. Deine Argument mit dem Vergleich von Grafikkarten unterschiedlicher Leistungsklassen zieht daher nicht.
 
stimmt schon, nur eine Messung zu betrachten ist vielleicht etwas kontraproduktiv. Nur leider gibts so viele direkt Messungen der Grafikkarte nicht...
Spontan fällt mir da nur ht4u.net ein sowie bei manchen Tests PCGH. Der Großteil misst im Gesamtsystem, was die Werte etwas verfälschen könnte. :(

Der Wert bei 3DC ist ein Mittelwert aus mehreren Messungen, die ausschließlich den Verbrauch der Grafikkarte gemessen haben. Etwas Besseres findest du im Netz nicht.

Zum letzten, also wenn dem so sein wird, wäre das durchaus OK für mich. Ich bin mittlerweile soweit, das ich GK110 für mich abgehakt habe und erstmal mit der Single 680er weiter fahren werde... In der Hoffnung das zeitnah was neues kommt -> Maxwell ;) Ggf. werde ich noch Ivy-E mitnehmen.
Wobei ich aber nicht denke, das es einen 1,2GHz GM104 geben wird. MIt 2304 ALUs und 256Bit SI wäre das Ding wohl schon wieder arg im Bandbreitenlimit. Oder ist was zu GDDR6 bekannt? Die dürften doch erst später kommen...
Auch die IPC Steigerung halte ich stand heute für fraglich... Das NV Konstrukt selbst skaliert ja schon recht gut. Nur schaut man sich das mal von Gen. zu Gen. an, so benötigte man doch für die die Leistungssteigerungen immer mehr ALUs generationsübergreifend.
Ein G200 bekommt bei ähnlichem GPU Takt und fast verdopplung der ALUs noch auf ~64% mehr Leistung zum G80. Der GF100 mit abermals Verdopplung der ALUs und fast 10% mehr Takt brachte es ebenso auf ~63% mehr.
GK104 hingegen (rechnet man den Hotclock mal raus) bringt immerhin noch 50% mehr ALUs zur 580 und eben 50% mehr Takt, sprich in Summe abermals ne Verdopplung der ALU Power. Kommt aber nunmer auf nur noch ~30-35%.
In der Generation selbst scheint die Skalierung aber besser zu sein. Generationsübergreifend hingegen siehts von der Warte her schlechter aus.
Oder überseh ich da was!?
Das selbe Verhalten zeigt aber auch AMD mit den Generationsübergreifenden Leistungssprüngen... Nur scheint es dort (wohl auch Frontend bedingt) noch etwas mauer auszuschauen. Ebenso leidet der Vergleich etwas, durch das schon drei mal Wechseln der Technik von VLIW5 über 4 zu GCN.

Ja, das vollkommen umgestrickte Scheduling, Pixelfüllrate und Bandbreite. Bei beyond3d hab ich auch noch was gelesen, warum die GTX580 soviel schneller als die GTX560 (Ti) war, irgendwas mit ILP? Müsste ich nochmal nachschauen. Zudem sollte man beachten, dass Fermi auf die Rohleistung bezogen AMDs GPUs meilenweit voraus war. 1,6 TFLOP 15% schneller als 2,8 TFLOP, das ist schon was. Nun hat man sich halt angepasst, wobei ich nicht das nötige Wissen habe um zu beurteilen, welche (signifikanten) Unterschiede zwischen GCN und Kepler bzgl. der ALUs selbst bzw. deren Scheduling noch da sind. Schaut man auf die Perf/GFLOP (wenn nichts anderes wie Bandbreite aus der Reihe fällt), keine so großen scheinbar. Bei Maxwell wird man das Scheduling wohl nicht wieder umstoßen oder einen Hotclock einführen. Allerdings meinte einer der Profis im 3DC, dass Maxwell deutlich größere Änderungen mit sich bringen wird als Kepler. Von daher erwarte ich schon eine leichte Verbesserung auf die Rohleistung bezogen.

Bei AMD sieht es eigentlich besser aus. 6970 war flotter als 5870 trotz weniger Einheiten. 7970 ist inzwischen knapp 50% flotter als die 6970 bei 33% mehr Einheiten und 5% mehr Takt, wobei da sicher auch die Bandbreite etwas hilft.
 
Man kann auch aus jeder Aussage die falschen Schlüsse ziehen bzw. das Wort im Mund herumdrehen. Die Aussage stimmt schon, WENN man gleiche Schaltungen vergleicht. Bei Intels Tick-Tock sieht man, dass geshrinkte Architekturen bei gleichem Takt weniger verbrauchen. Deine Argument mit dem Vergleich von Grafikkarten unterschiedlicher Leistungsklassen zieht daher nicht.

Das Problem ist, dass man dafür aber auch die gleiche Architektur und den selben Takt brauchst. Selbiges ist eh unwahrscheinlich und drückt zu gleich aus, was fdsonne meint. Pickebuhs aussage ist pauschal: Shrinke, nimm eine neue Architektur anderen Takt und schwupps kannst du in 20nm mehr oder genauso viel verbrauchen. Kannst ja mal bei Globalfoundries anrufen und nach ihrem epischen 32nm-Prozess in Verbindung mit AMD-CPUs fragen... :shot: Ein Shrink muss nicht zu Energieersparnissen führen...
 
Für mich zählt nur die Maximale Leistung und wo ich noch mit OC hinkomme bei highend Grafikarten.
Ich finde das absolut egal in diesem Segment ob ne Karte nun 212 oder 250 oder gar an die 300W weg lutscht die Hauptsache ist das am Ende die FPS passen auch wenn dann die Lautstärke darunter leidet da für gibt es Wasser und alternative Luftkühler für.
Wer Strom sparen will sollte sich mit ner viel kleineren Karte oder einer IGPU begnügen.:d
Da rum hatte ich mir auch keine GTX680 gekauft :fresse2:hatte mich gefragt ob NV die Highend user auf den Arm nehmen will mit dem Kärtchen.
 
Zuletzt bearbeitet:
Naja, dass ist ja relativ. ;) In Relation zur Leistung sparst du auch massig Strom im Vergleich zu einer GTX 280, überleg mal wie viele GPUs du theoretisch bräuchtest um dein 780er-SLI zu kompensieren. :d
 
Für mich zählt nur die Maximale Leistung und wo ich noch mit OC hinkomme bei highend Grafikarten.
Ich finde das absolut egal in diesem Segment ob ne Karte nun 212 oder 250 oder gar an die 300W weg lutscht die Hauptsache ist das am Ende die FPS passen auch wenn dann die Lautstärke darunter leidet da für gibt es Wasser und alternative Luftkühler für.
Wer Strom sparen will sollte sich mit ner viel kleineren Karte oder einer IGPU begnügen.:d

Meine Meinung bis auf halt das Kühlungsproblem was bei 300W immer schlimmer wird! Aber wer sich bei den High End Grafikkarten noch über 50 Watt aufregt ist etwas falsch!^^
Klar ist es immer schön wenn sie weniger Verbrauchen aber was letzten Endes zählt ist doch die Leistung und das diese durch keine all zu störende Geräusche begleitet wird!

Ich bin mal gespannt was Sapphire da mit AMD für nen Lüfter basteln! Ob die da Großartig noch eigene bringen werden?
 
Naja, dass ist ja relativ. ;) In Relation zur Leistung sparst du auch massig Strom im Vergleich zu einer GTX 280, überleg mal wie viele GPUs du theoretisch bräuchtest um dein 780er-SLI zu kompensieren. :d
So viele könnte man leider nicht verbauen Mick ich weiss :fresse2:auch würde die Speicheraustatung nicht mehr Zeitgemäß sein.
Das ist aber auch nicht mein Grundgedanke gewesen.

Ich finde Fortschritt ja auch gut nur Wünsche ich mir das der auch immer am machbaren Limit liegt .
Wie heist es so schön höher, schneller und weiter... das kann man auch nur mit Energie und Technik.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh