Architekturen auf dem effizienz Prüfstand

Nighteye

Urgestein
Thread Starter
Mitglied seit
07.03.2005
Beiträge
11.738
Grüße

welche architektur arbeitet effizienter ?

verglichen wird hier mit fps pro watt, bei 2 Chips mit (wenn möglich) selber Fertigungsgröße.


es wurde gesagt das die R520 Architektur von grund auf effizienter wäre als die G80 Architektur.
nur das sie am anfang durch ein paar kleine design fehler noch nicht ganz das volle potential nutze.
dieses wurde aber mit den nachfolgenden generationen geändert.

und so hies es, sei zb ein RV770, von der architektur effizienter als ein g80.

der chip in der 4870 ist ein stark überarbeiteter und aufgebohrter R520 namens RV770.

der Chip in der GTX 260 ist ein aufgebohrter und leicht Optimierter G80 namens GT200.

Relevant ist die Leistungsaufnahme bei Last.

beispiel GTX 260² vs 4870

http://www.computerbase.de/artikel/...60_216_shader/25/#abschnitt_leistungsaufnahme

Fazit
Die Grafikkarte ist durch die Bank sehr schnell und hat die Radeon HD 4870 im Gegensatz zur „alten“ Variante meistens ganz gut im Griff oder rendert gar schneller.


Laut Computerbase hat die GTX260²

1. mehr transistoren
2. ist noch in 65nm
3. ist ca. gleich schnell
4. verbraucht weniger unter Last

jetzt stellt sich nur noch die frage, woran kann das liegen wenn die Nvidia architektur wirklich mehr Strom für die Selbe leistung benötigt.

______________________________________


dies soll eine kleine anregung für eine sachliche diskussion sein.

in diesem Thread können auch Zukünftige Architekturen verglichen werden.

aber bitte kein NV vs ATI gehetze.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
die leistung ist abhängig von den getesteten PC spielen.

Willst du dammit sagen, das die 310W der GTX 260² und die 330W der 4870. in der Computerbase Liste, nicht aussagekräftig sind ?

idle braucht die 260 GTX 216 ca. 20W Watt weniger, dafür 10W - 20W mehr unter last.

bei dem Computerbase link, benötigt die GTX260² 20W weniger unter Last als die 4870.

dammit hättest du dich bei deiner aussage um 40W vertan, falls du richtig gelesen hast.
 
ich hätte noch sagen sollen das die 260 GTX und 4870 bei mir aufs bestmögliche optimiert sind/waren.

bei der 4870 kann man durch absenken des ramtaktes strom sparen.
 
hmm du sprichst ohne kontext.

Interpretiere ich richtig, wenn ich davon ausgehe, das du zuhause beide Karten getestet hast ?

falls ja, muss ich dich daran errinern, das es nicht um die GTX260 geht.
 
Ich denke man sollte wirklich nur die Last-Werte miteinander vergleichen!

Die Effektivität der Stromsparfunktion sagt nichts über den Verbrauch/Watt einer Architektur aus..

Ich denke aber auch das es Spiele abhängig ist, nicht jedes Spiel lastet beide Karten gleich "gut oder schlecht" aus. Am besten wäre ein Vergleich mit Software die auf beide Architekturen optimiert wurde, ob es sowas gibt ist eine andere Frage!

Ich lese hier gerne im Forum und kenne mich nicht zu 100% damit aus, aber war es nicht so, das die 5D Shader der AMD Karten sobald Sie belastet werden die volle Leistung ziehen?! Sprich der Stromverbauch steigt stark an, für eine Performance X. Würde man nun die Shader effizient belasten, steigt die Performance stark, aber der Stromverbrauch nicht mehr so stark.

Bitte korrigieren wenn ich falsch liege, aber so habe ich mir das immer vorgestellt.

Die Frage ist auch unter welcher Umgebung die beste Leistung/Watt. Spiele? GPU-Computing?
 
Ich denke man sollte wirklich nur die Last-Werte miteinander vergleichen!

Wurde bereits gesagt das nur dies Relevant ist.

Die Frage ist auch unter welcher Umgebung die beste Leistung/Watt. Spiele? GPU-Computing?

gehen wir am besten von Spielen aus. dazu sind die grafik Karten hauptsächlich im einsatz.

Ich lese hier gerne im Forum und kenne mich nicht zu 100% damit aus, aber war es nicht so, das die 5D Shader der AMD Karten sobald Sie belastet werden die volle Leistung ziehen?! Sprich der Stromverbauch steigt stark an, für eine Performance X. Würde man nun die Shader effizient belasten, steigt die Performance stark, aber der Stromverbrauch nicht mehr so stark.


dann sollten wir am besten heraus finden, welche Spiele am Stärksten davon profitieren, und uns davon die benchmarks anschauen.

im endeffekt, wird es aber sicherlich kaum 40-50 watt unterschied raus holen vermute ich.

schließlich ist hier laut Computerbase tests bereits ein 65nm chip effizienter als ein 55nm chip.

da müsste die ati schon mehr als 40-50 watt unterschied raus holen bevor man von gleicher effizienz sprechen kann.

quasi von derzeit 20W mehr auf 20-30w weniger verbrauch bei selber leistung kommen.
 
Ein anderer wichtiger Punkt ist das bei CB ja das ganze System gemessen wird, sprich durch eine starke GPU werden ja auch andere Teile wie CPU und Mainboard mehr belastet was den Stromverbrauch steigen lässt.

Man müsste die Frames des Gesamtsystems mit dem Verbrauch bei ein und der gleichen Anwendung vergleichen. Das kann man bei CB nicht ablesen!

EDIT: kann man doch, UT3 war mit im Test ;)

4870 - 0.288 Frames / Watt
GTX260² - 0.294 Frames / Watt

Ich denke bei diesem Test sind Sie gleich auf!
 
Zuletzt bearbeitet:
Einen einzigen Test als Basis zu nehmen, bringt sowieso nichts. Man müsste schon viele verschiedene Reviews heranziehen, da es je nach Modell auch mit dem gleichen Chip signifikante Unterschiede geben kann.

Seiten, die nur die Grafikkarten testen, also ohne das Gesamtsystem, sind mir nur 2 bekannt, HT4U und xbitlabs.

Überarbeitete Chips bzw Karten, wie GTS 250, GTX 260-216, GTX 285 oder HD 4890 arbeiten zudem auch etwas effizienter als frühere Modelle wie GTX 9800+, GTX 280 oder HD 4870.

Ausserdem solltest du die Chipgrösse in den Vergleich mit einbeziehen. Das ist ebenfalls ein Aspekt der Effizienz. Genauer gesagt Performance pro mm². Interessant in diesem Zusammenhang wäre nämlich, inwiefern sich Packdichten auf Thermik und Leistungsaufnahme auswirken.

Ein weiterer Aspekt ist der verwendete Speicher. Also welchen Einfluss haben zB GDDR3 und GDDR5 auf Performance und Leistungsaufnahme.

Einen Leistungsvergleich mit voller Auslastung der GPUs (FurMark) findet man übrigens bei oZone3D. Daran lässt sich sozusagen ein Maximum an Energieeffizienz des jeweiligen Chips ableiten.
 
nach vergleichen einzelner Grafik karten von computerbase tests und anderen test seiten, kommen zu 99% die selben verbrauchs und fps ergebnisse raus, im betracht auf die vergleiche zwischen den karten

daher wird der chip von grafikkarte zu grafikkarte unterschied wohl nicht so viel ausmachen.

fazit: die GTX260² ist technisch unterlegen, und dennoch effizienter als die HD4870
 
Die GTX260² war auch nicht die Konkurrenz der HD 4870. Das war die GTX 260 (192 Shader). Aber Computerbase bringt dich sowieso nicht viel weiter. Und wie schon gesagt, das Testen eines Modells erst recht nicht. Bezüglich Flächeneffizienz war auch die GTX 260² deutlich unterlegen.
 
Was etwas doof an den ganzen Tests ist, ist die Inkosistenz bei den Benchmarks für die Performancemessung und den Lastanwendungen für die Verbrauchsmessung. Will man die fps/Watt ermitteln, muss man sowohl den Stromverbrauch als auch die Framerate in der jeweils gleichen Anwendung ermitteln.
Geht man z.B. von Furmark aus, dann hat dort eine HD 4870 mehr fps pro Watt als eine GTX 260², weil die Framerate bei der HD 4870 in Furmark um Einiges höher ist.

/EDIT: http://www.neoseeker.com/Articles/Hardware/Reviews/vaporhd4870/6.html
In 1680x1050 mit 4xAA ist die HD 4870 in Furmark fast doppelt so schnell wie die GTX 285. 39 fps vs. 21 fps. Da darf sich die HD 4870 auch gerne ein paar Watt mehr genehmigen als die GTX 285. ;)
Wobei ich den Abstand eigentlich schon zu krass finde. Furmark hängt zwar ziemlich stark an der Shaderleistung, aber eigentlich hätte ich die HD 4870 in Furmark trotzdem "nur" auf GTX-285-Niveau vermutet, was die Framerate angeht.
In 3DMark06 ist die GTX 285 definitiv energieeffizienter als die HD 4870. Das ist sowieso der allgemeine Tenor beim Vergleich RV770 vs. GT200b. Ich kann mich nicht erinnern, dass je etwas anderes behauptet wurde. Der RV770 ist kosteneffizienter, der GT200b dafür energieeffizienter.
 
Zuletzt bearbeitet:
@ MR Dude

es spielt keine rolle welche karte der konkurent der anderen karte ist.

hier geht es rein um die leistung bei gleich hohem verbrauch.

wenn da in zukunft ein mid range chip gegen einen high end chip antritt ist das irrelevant.

was zählt ist die pure leistung pro watt um die architektur effizienz zu ermitteln.

habe bereits gesagt das die beobachtungen die auf computerbase zu sehen sind, mit anderen test seiten vergleichbar sind.

außerdem sprichst du nun wieder etwas an was garnicht das thema war, und zwar die Flächeneffizienz.

hier geht es allein um die fps pro watt.

@ spasstiger.

futuremark ist nicht das haupteinsatzgebiet solcher grafik karten.

daher sollte man die tests vergleichen, die das haupteinsatz gebiet sind.

es bringt ja auch nichts cpu nur mit super pi zu vergleichen.

man muss praxis relevante anwendungen testen. darauf kommt es im endeffekt an.

und das sind nunmal spiele.

dort ist die effizienz etwas häufiger zu gunsten der GTX260²

jeh nach seite, gleichauf. jeh nach speziellen tests (wie von dir hier schön gezeigt der 3d mark) zu gunsten der ati.
und jeh nach spiel varriiert das natürlich.

im groben und ganzen ist die geforce dennoch bei mehr sachen etwas schneller dran.

aber belassen wir es mal bei einem gleichauf. da die geforce garnicht schneller sein muss.

fakt ist, sie müsste deutlich langsamer sein, dammit man davon sprechen kann das die ati effizienter ist. 65nm vs 55nm !
 
Genau da liegt das Problem, es kommt auf die Auswahl der Test an! Je nachdem ist die eine oder die andere Architektur vorn.

Die R600 Architektur wird immer besser von dem Games ausgelastet, ein Vergleich jetzt ist nur eine Momentaufnahme der nichts generell aussagt.
 
es spielt keine rolle welche karte der konkurent der anderen karte ist.
Ich finde schon. Oder willst du Hardware von vor 10 Jahren mit aktueller vergleichen? Das macht wenig Sinn. Man sollte schon das vergleichen, was zeitlich zusammengehört. Und beim Launch der HD 4870 war nun mal die GTX 260-192 die Konkurrenz und aktuell. Wenn du nVidias Refresh G200b vergleichen willst, dann solltest du auch ATIs Refresh RV790 dagegensetzen.

hier geht es rein um die leistung bei gleich hohem verbrauch.
Nun ja, du fragst aber ausdrücklich nach Effizienz. Und diese hat vielseitige Aspekte, nicht nur Energieeffizienz. Ganz im Gegenteil, die Fläche hat direkten und indirekten Einfluss auf die Energieeffizienz. Daher sollte dies ebenfalls berücksichtigt werden. Ein Chip wird ja nicht nach einer einzigen Vorgabe designed. Da spielen viele Faktoren eine Rolle. Das Ziel ist letztendlich, den besten und effizientesten Kompromiss aller Faktoren zu realisieren. Da kann ich genauso behaupten, dass eine GTX 285 seinerzeit völlig überlegen gegenüber einer HD 4890 war, weil sie eben 5-10% schneller ist. Das ganze wird aber nichtig, wenn man sich das Komplettpaket anschaut. Wie zB eine geringere Leistungsaufnahme der HD 4890, DirectX 10.1 (vollständiger Windows 7 Support) oder kleinerer Die (geringere Herstellungskosten). Dann sieht die Angelegenheit schon nicht mehr so eindeutig aus. Einen einzigen Aspekt herausgefiltert zu betrachten, sagt eben nicht viel aus.
 
Zuletzt bearbeitet:
Man kann doch sowieso hier nur extrem schwer vergleichen... Es gibt einfach viel zu viele Anwendungsgebiete in dehnen die Ergebnisse drastisch unterschiedlich ausfallen können.

Fakt sollte eins sein, es ist hinsichtlich bekannt das die Karten ab dem R600 seitens AMD an Shaderpower nicht sparen, dafür aber hier und da in realen Gamingszenarien teils Flaschenhälse aufkommen. So ist beispielsweise die Filterleistung einer RV770 GPU deutlich niedriger als die einer G200b GPU. Bewegen wir uns also im Limit bei der RV770 GPU, so werden andere Teile der GPU möglicherweise nicht mehr optimal ausgelastet, es kommt generell zu Flaschenhälsen...
Man sollte dabei aber eins nicht vergessen, AMD ist nicht mehr gewillt seit dem R600 absolutes HighEnd zu bauen. Man schafft einen gesunden Kompromiss aus Gesamtleistung und Chipgröße.

Vergleicht man hingegen Benches, wo AMD ihre Shaderleistung ohne Einschränkungen voll ausspielen kann, siehts für NVs direkten Konkurenten idR recht düster aus. Sowohl in der Leistung, als auch in der Stromaufnahme.
Klar in dem Falle wäre das ebenso das Rauspicken einzellner Szenarien, aber hier kommt wieder der Punkt zum Tragen, das es eben kein immer und allgemeingültiges Anwendungsgebiet gibt.
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh