Wird AMD permanent gegenüber Intel in Reviews benachteiligt? Bitte ersten post lesen

Status
Für weitere Antworten geschlossen.
http://www.pcgameshardware.de/aid,6...rafikkarten-Treiber_im_Benchmark-Test/?page=2

Zeigt wunderschön das es bei den "5 Spiele" Tests nicht um die wirkliche Performance ging sondern um reine "Benchmarkselektion".

Der Big Bang II ist nur ein laues Lüftchen im Vergleich zu den suggerierten Vorteilen von Nvidia. Von einer grundsätzlichen Verbesserung oder gar einem "Wundertreiber" kann nicht die Rede sein.

Unglaublich das ausgerechnet PCGH sich jetzt durch offensiven Umgang mit dem Thema positiv bemerkbar macht und auch widerstanden hat die "5 Spiele" zu testen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die haben von dem Sturm wohl ein laues Lüftchen abbekommen und waren gewarnt, wäre doch dumm gewesen nicht darauf mit Vorsichtig zu reagieren. Wenn man sich das Datum des NDA-Endes und Erscheinen des knappen Artikels anguckt... also entweder hatte PCGH sehr viel zu tun oder es fand eine kleine *hust* Überarbeitung statt.
 
Kann ich nicht beurteilen, denn die Zeit war ausreichend um den "5 Spiele" Artikel fertigzustellen und dann kommt das eigentlich sofort wenn das NDA fällt. Der Sturm ging ja erst am Abend los.

Natürlich nutzt PCGH das ganze aus um sich entsprechend darzustellen, ist ja klar. Das führt aber auch zu einem gewissen Lerneffekt der Zunft.
 
Die haben von dem Sturm wohl ein laues Lüftchen abbekommen und waren gewarnt, wäre doch dumm gewesen nicht darauf mit Vorsichtig zu reagieren. Wenn man sich das Datum des NDA-Endes und Erscheinen des knappen Artikels anguckt... also entweder hatte PCGH sehr viel zu tun oder es fand eine kleine *hust* Überarbeitung statt.
Oder irgendein Pratikant hat den Artikel verschlampt und sie hatten dadurch ein Tag mehr Zeit die Reaktion abzuwarten. ;) :haha:

Oder sie haben den Braten gerochen, da sie ja seit einiger Zeit ziemlich stark unter Kritik geraten sind. Was nicht unwahrscheinlich ist.
 
http://www.pcgameshardware.de/aid,6...rafikkarten-Treiber_im_Benchmark-Test/?page=2

Zeigt wunderschön das es bei den "5 Spiele" Tests nicht um die wirkliche Performance ging sondern um reine "Benchmarkselektion".

Der Big Bang II ist nur ein laues Lüftchen im Vergleich zu den suggerierten Vorteilen von Nvidia. Von einer grundsätzlichen Verbesserung oder gar einem "Wundertreiber" kann nicht die Rede sein.

Unglaublich das ausgerechnet PCGH sich jetzt durch offensiven Umgang mit dem Thema positiv bemerkbar macht und auch widerstanden hat die "5 Spiele" zu testen.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6926124&postcount=18

Nicht nur die 5 Spiele legen zu wenn ich mir die Benchmarks ansehe. Grid, Bioshock, Lost Planet und WiC profitieren. Das ist schon insgesamt eine beträchtliche Anzahl an Spielen und mehr als nur ein laues Lüftchen für ein Treiberupdate. Wenn AMD so einen Treiber bringt, würdest du das ganze feiern. Zurecht wie ich meine. Ist doch immer positiv, wenn es Verbesserungen gibt. Sonst tut sich da gar nichts oder nur 1-2 fps. Dass nicht jedes Spiel schneller wird, ist doch eh klar. Dafür brauche ich keine Bestätigung von der PCGH.
 
Zuletzt bearbeitet:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6926124&postcount=18

Nicht nur die 5 Spiele legen zu wenn ich mir die Benchmarks ansehe. Grid, Bioshock, Lost Planet und WiC profitieren. Das ist schon insgesamt eine beträchtliche Anzahl an Spielen und mehr als nur ein laues Lüftchen für ein Treiberupdate. Wenn AMD so einen Treiber bringt, würdest du das ganze feiern. Zurecht wie ich meine. Ist doch immer positiv, wenn es Verbesserungen gibt. Sonst tut sich da gar nichts oder nur 1-2 fps. Dass nicht jedes Spiel schneller wird, ist doch eh klar. Dafür brauche ich keine Bestätigung von der PCGH.


LOL....

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6926124&postcount=18


gruss
 
Sogar HL2 konnte um 13FPS zu legen, recht erstaunlich!

Aber was hat das hier eigentlich zu suchen?
 
Was ist das auch für ein sinnfreier Vergleich? Schon die GTX260-216 ist schneller als alle Single-Chip RV770-Modelle und verbraucht weniger als eine 4870.
http://www.xbitlabs.com/articles/video/display/radeon-hd4870-crossfire_6.html#sect0

Noch Fragen? Wir haben auch nicht speziell von der GTX260-216 gesprochen, sondern vom GT200 allgemein.

Du scheinst hier zudem wieder mal gehörige Verständnisprobleme zu haben. Die HD 4870 ist das Top Derivat des RV770. Also ist es nur mehr als logisch, die Effizienz auch mit dem Top Derivat des GT200 zu vergleichen. Dass die Effizienz nach unten allgemein zunimmt, sollte auch dir bekannt sein. Wenn du also schon GTX260 Vergleiche willst, dann wäre die HD 4850 als Gegenstück passender. Um nochmal deutlich zu werden, die GTX280 braucht im Test fast 37% mehr Leistung unter Volllast, hat aber keineswegs diesen Vorsprung in der Performance. Selbst die GTX260 braucht immer noch ein paar Watt mehr als die HD 4870. Dein Argument mit der GTX260-216 zieht übrigens auch nicht. Wenn ATI die Notwendigkeit gehabt hätte, ein überarbeitetes Modell rauszubringen, wären dort sicherlich auch noch ein paar Prozent mehr Effizienz drin gewesen. Man sollte einfach mal den Tatsachen ins Auge blicken. nVidia ist technisch momentan hintendran. Und das liegt, wie HOT schon richtig sagte, vor allem an der skalaren Shader Architektur. Je paralleler die Berechnungen werden, umso ineffektiver wird das ganze. Und umso mehr Platz wird auf dem Die unnötig verschwendet.

was juckt mich als Käufer die Größe des Die?
Was juckt mich, was dich juckt? Für mich ist die Güte eines Chips sehr wohl interessant. Gerade aufgrund der technischen Aspekte kann man erkennen, wie gut ein Chip wirklich ist. Aber dass du daran nicht interessiert bist, ist man ja mittlerweile gewohnt. :rolleyes: Was nVidia gemacht hat, ist letztendlich keine Kunst. ATI hätte auch locker doppelt so viel auf dem Chip verbauen können. Dazu noch die Taktraten etwas senken. Und solch ein Chip würde jetzt Kreise um den GT200 ziehen. Und dabei auch nicht mehr Strom brauchen. Nur ist ein solcher Chip viel zu teuer in der Herstellung. Und Wirtschaftlichkeit hat nun mal immer noch Priorität. Sonst kann das Unternehmen ganz schnell weg vom Fenster sein. 3dfx sagt dir hoffentlich noch etwas. Und dann juckt es dich als Konsument genauso. ;)

@HOT
du meinst also NV greift die Technik von AMD auf und baut auch Vectoreinheiten?
Ich bin zwar nicht HOT :) , aber imo führt für nVidia in Zukunft kein Weg an einer superskalaren Shader Architektur vorbei. Ob sie sich jetzt an AMD orientieren oder nicht, sei mal dahingestellt. Lustig wird es, wenn Intel Larrabee für den Consumer Markt launcht. Der ist übrigens 16-fach superskalar. Oder besser gesagt, besitzt eine 512 Bit SIMD Pipeline. Damit lassen sich also 16 Single Precision Ops pro Takt verarbeiten. Wobei ich fast glaube, dass das für Spiele schon wieder zu viel des Guten ist. Das erfordert jedenfalls sehr viel hard- und softwareseitige Optimierung.
 
http://www.xbitlabs.com/articles/video/display/radeon-hd4870-crossfire_6.html#sect0

Noch Fragen? Wir haben auch nicht speziell von der GTX260-216 gesprochen, sondern vom GT200 allgemein.

Du scheinst hier zudem wieder mal gehörige Verständnisprobleme zu haben. Die HD 4870 ist das Top Derivat des RV770. Also ist es nur mehr als logisch, die Effizienz auch mit dem Top Derivat des GT200 zu vergleichen. Dass die Effizienz nach unten allgemein zunimmt, sollte auch dir bekannt sein. Wenn du also schon GTX260 Vergleiche willst, dann wäre die HD 4850 als Gegenstück passender. Um nochmal deutlich zu werden, die GTX280 braucht im Test fast 37% mehr Leistung unter Volllast, hat aber keineswegs diesen Vorsprung in der Performance. Selbst die GTX260 braucht immer noch ein paar Watt mehr als die HD 4870. Dein Argument mit der GTX260-216 zieht übrigens auch nicht. Wenn ATI die Notwendigkeit gehabt hätte, ein überarbeitetes Modell rauszubringen, wären dort sicherlich auch noch ein paar Prozent mehr Effizienz drin gewesen. Man sollte einfach mal den Tatsachen ins Auge blicken. nVidia ist technisch momentan hintendran. Und das liegt, wie HOT schon richtig sagte, vor allem an der skalaren Shader Architektur. Je paralleler die Berechnungen werden, umso ineffektiver wird das ganze. Und umso mehr Platz wird auf dem Die unnötig verschwendet.

Was für ein Unfug. Im Bereich 240-250€ stehen GTX260-216 gegen 4870 1GB und nicht 4870 512MB gegen GTX260, die nichteinmal mehr produziert und bereits schwer erhältlich ist. Und die ist nuneinmal, geringfügig, effizienter. Was hätte/wäre/wenn ATI machen können ist irrelevant.


Was juckt mich, was dich juckt? Für mich ist die Güte eines Chips sehr wohl interessant. Gerade aufgrund der technischen Aspekte kann man erkennen, wie gut ein Chip wirklich ist. Aber dass du daran nicht interessiert bist, ist man ja mittlerweile gewohnt. :rolleyes: Was nVidia gemacht hat, ist letztendlich keine Kunst. ATI hätte auch locker doppelt so viel auf dem Chip verbauen können. Dazu noch die Taktraten etwas senken. Und solch ein Chip würde jetzt Kreise um den GT200 ziehen. Und dabei auch nicht mehr Strom brauchen. Nur ist ein solcher Chip viel zu teuer in der Herstellung. Und Wirtschaftlichkeit hat nun mal immer noch Priorität. Sonst kann das Unternehmen ganz schnell weg vom Fenster sein. 3dfx sagt dir hoffentlich noch etwas. Und dann juckt es dich als Konsument genauso. ;)

Noch mehr hätte wäre wenn -> Ablage rund. Fakt ist, das NVidia nach wie vor Marktführer ist und im 2-stelligen Millionenbereich (abgesehen einmaliger Belastungen gar 3-stellig) Gewinne macht. Möchtest du das von ATI als Teil von AMD auch behaupten? Hier müssen wir wirklich gegen die reale Gefahr einer Pleite hoffen, denn dann hätten wir in allen Marktbereichen ein Monopol.
 
Muss ich jetzt eigentlich wirklich noch was zu HOT Beitrag schreiben? Ich wollte es ja eigentlich sein lassen da praktisch jedes Wort so einfach nicht stimmt... :shake:

Nur eins, NV wird Garantiert noch lange an Ihren Einheiten bleiben und ich denke das auch AMD früher oder später auf was Ähnliches wechseln wird.

Der G200 ist der richtige weg in die Zukunft, GPUs müssen einfach immer wie mehr können als nur ein Spiel auf dem Bildschirm anzeigen und im Gegenzug zu AMD wurde die Effizient der ALUs sogar verbessert und nicht verschlechtert!

und der G200 mit dem R600 zu Vergleichen ist ja wohl komplett daneben und dem HOT sollte mal einer erklären wieso der G200 eingentlich so gross ist, irgend wie hat der das nicht mitbekommen..

Aber was hat das hier eigentlich zu suchen?
 
Zuletzt bearbeitet:
Jaja, das ist wieder ein argumentativer Gegenwert, der seines Gleichen sucht...
Es gibt 2 Tatsachen:
1.) Die einzelnen Recheneinheiten müssen verwaltet werden
2.) Der Aufwand, diese zu verwalten, steigt nicht linear an

Was glaubst du warum Intel gleich auf Vec16 geht? Bestimmt nicht zum Spass...
NVs Architektur hat absolut keine Zukunft. Grafikchips sind Vektorrechner, keine Skalarrechner. Der grosse Vorteil der Grafikchip ist, dass sie mit wenig Aufwand viel berechnen können. NVs Design rückt genau von diesem Vorteil ab.
Übrigens: die jetzige RV770 Architektur hat ca. 30% Verschnitt, will heißen, 30% der Rechenleistung liegt momentan brauch (Siehe Furmark). Trotzdem reicht es für die Siliziummonster von NV, da würd ich mal drüber nachdenken... Code wird in Zukunft nicht weniger parallel und Code wird in Zukunft auch nicht weniger Shaderorientiert...
NV muss wieder auf Vektoreinheiten umsatteln, des geht einfach nicht anders. Wenn sie es nicht tun, werden sie den Anschluss verlieren. Warten wir mal G216 vs. RV870 ab, dann wirst sehen, was ich meine.
 
Zuletzt bearbeitet:
Der G200 ist der richtige weg in die Zukunft, GPUs müssen einfach immer wie mehr können als nur ein Spiel auf dem Bildschirm anzeigen und im Gegenzug zu AMD wurde die Effizient der ALUs sogar verbessert und nicht verschlechtert!

Ganz erheblich sogar - bzgl. theoretischer FLOP-Leistung ist sogar die HD4850 der GTX280 überlegen, wie das dann real aussieht ist ein ganz anderer Punkt... Der GT200 ist durch das GPGPU-Zeugs einfach zu "fett" geworden.
 
@Undertaker 1
Ach ja, wenn einem nichts weiter als belanglose Ausreden einfallen, geht man wieder auf dieses Niveau herunter. Deine "Argumente" sind wie immer ungemein beeindruckend. :rolleyes: Ich würde dir und Dural mal empfehlen, euch eine paar gute Artikel über Vektorrechner bzw entsprechenden Architekturen durchzulesen. Dahin geht die Reise. Der GT200 ist jedenfalls alles andere als die Zukunft. Auf SMT beim Nehalem und den daraus resultierenden Performancegewinnen reitet ihr doch auch ständig rum. Das geht übrigens in eine ähnliche Richtung.

@Dural
Dann erkläre uns doch mal, warum der GT200 so gross ist. Da bin ich mal gespannt... Nur zur Info, HOT hat das übrigens schon recht gut erklärt und den wichtigsten Punkt genannt.
 
Dir ist schon bewusst, dass der GT200 abzgl. des GPGPU-Krames (~200Mio geisterte hier mal herum) nur noch 20% mehr Transistoren als der RV770 besitzt? Und den Performanceunterschied zwischen 4870 und GTX280 kennst du auch?
 
Dir ist schon bewusst, dass der GT200 abzgl. des GPGPU-Krames (~200Mio geisterte hier mal herum) nur noch 20% mehr Transistoren als der RV770 besitzt?
Was soll denn "GPGPU Krams" sein? Das klingt ja ungemein kompetent. :rolleyes: Dir ist schon bewusst, dass GPGPU ein Konzept ist, keine konkrete Implementierung? Übrigens, nur zur Info, du hast ja so lapidar DP in den Raum geworfen. Erstens hat nVidia recht wenige DP Einheiten im Vergleich zu den SP Einheiten eingebaut. Das macht also nur vergleichsweise wenig Fläche aus. Zum anderen hat man damit lediglich die Nachteile gegenüber AMD versucht zu egalisieren, wo seit dem RV670 DP Berechnungen unterstützt werden. Und wenn nVidia der Meinung ist, das kann man nur über separate Einheiten erreichen, spricht das nicht gerade für die Architektur und kann ihnen nicht zugute gehalten werden.
 
Soll ich dir jetzt etwas vorkauen, was dir vermutlich eh nicht einleuchten wird? Davon haben wir beide nix... Über die Nachteile vom Erzeugen von DP durch simples loopen wie ATI dies macht kannst du dich auch selbst schlau machen, Fakt ist das der Chip ohne diese Einheiten nicht weniger Leistung/Transistor erreicht als der RV770... Kein Wunder, das man keine vergleichbaren Produkte wie Nvidias Tesla besitzt.
 
GPGPU läuft ganz normal über die Shadereinheiten. Da gibts kein Spezial... CUDA setzt genau wie OpenGL oder DX10 auf den Grundfunktionen des Grafiktreibers auf. GPGPU kostet genau 0 Chipfläche.
 
Bei Beyond3D gibts dazu grad ne interessante Diskussion, da wird über den Weg von G80 -> G200 spekuliert und warum ua der große Die und die im Verhältnis dazu nicht ganz so starke Performance
 
Soll ich dir jetzt etwas vorkauen, was dir vermutlich eh nicht einleuchten wird?
Bei deiner Logik ist das vermutlich besser. Das leuchtet sowieso niemandem ein.

Über die Nachteile vom Erzeugen von DP durch simples loopen wie ATI dies macht kannst du dich auch selbst schlau machen
Welche Nachteile denn? IIRC liegt die theoretische DP Rechenleistung des GT200 sogar noch unter dem RV670. Kann also nicht wirklich schlimm sein. Einzige Frage wäre, ob DP bei ATI IEEE konform ist. Komplett ist das beim GT200 übrigens nicht der Fall.

Fakt ist das der Chip ohne diese Einheiten nicht weniger Leistung/Transistor erreicht als der RV770...
Ja, in deiner Phantasie, ohne jegliche Nachweise, ist natürlich alles Fakt. :rolleyes:
 
Zuletzt bearbeitet:
Bei deiner Logik ist das vermutlich besser. Das leuchtet sowieso niemandem ein.

Niemandem = dir?

Welche Nachteile denn? IIRC liegt die theoretische DP Rechenleistung des GT200 sogar noch unter dem RV670. Kann also nicht wirklich schlimm sein. Einzige Frage wäre, ob DP bei ATI IEEE konform ist. Komplett ist das beim GT200 übrigens nicht der Fall.

Wie stark der RV770 mit seiner immensen Rohleistung umgeht ist bekannt... Was kannst du dir davon kaufen, wenn die 4850 mehr FLOPs ausspuckt als eine GTX280, real aber mit der 9800GTX oder gar dem uralten G80 zu kämpfen hat?

Ja, in deiner Phantasie, ohne jegliche Nachweise, ist natürlich alles Fakt. :rolleyes:

Informationsgehalt dieser Aussage? Noch einmal, die Transistorzahlen sind bekannt, der Bedarf der DP-SPs abschätzbar und der Rest simpelste Mathematik...
 
Was für ein Unfug. Im Bereich 240-250€ stehen GTX260-216 gegen 4870 1GB und nicht 4870 512MB gegen GTX260, die nichteinmal mehr produziert und bereits schwer erhältlich ist. Und die ist nuneinmal, geringfügig, effizienter. Was hätte/wäre/wenn ATI machen können ist irrelevant.



igepz.jpg



ll25up.jpg
 
Warum hab ich gefragt? Weil ich den Widerspruch nicht erkenne womit deine Argumentation hinfällig ist.

Was sehe ich? 4870 mit 1GB ist geringfügig effizienter als 512MB version.

Die 4870 1GB Golden Sample verbrauch @load weniger als die GTX260 (die bei CB nicht aufgelistet ist...)
 
Den Widerspruch zu den zuvor verlinkten Werten wird wohl noch jeder selbst erkennen ;)

jetzt steht Test gegen Test... und da man bei beiden Tests nicht ausschließen kann, das irgendwo ein Fehler gemacht wurde, beweist das also mal gar nix.

zumahl Messungen des Gesamtsystems sowieso totaler Bockbist sind, weil der Wirkungsgrad des NTs sich bei verschiedener Last ändern kann und somit die Messwerte verfälscht.
 
Wenn aber bei einem Test das gleiche NT verwendet wird, sind die Werte zumindest relativ untereinander vergleichbar.

Klar sichtbar ist hier, das ATI genauso wie NV bei neueren Karten die Stromaufnahme senken konnte.
 
Neja wie gesagt, wenn ich ne HD4870 X2 an ein NT stecke, dann hat das nen anderen Wirkungsgrad als wenn ich ne billige PCI Grafikkarte dran stecke, heist soviel wie, der Vergleich der Messwerte hinkt, weil man nie weis, in wie weit sich der Wirkungsgrad geändert hat...

Genau so kann man beispielsweise aus der Differenz zwischen 2 Messwerten hinter dem NT nicht errechnen, was denn die eine Karte mehr als die andere Verbraucht, weil wie gesagt der Wirkungsgrad die Sache drastisch verfälschen kann. (zum negativen oder zum positiven)
 
Fakt ist aber:

Wenn das System weniger verbraucht, verbraucht auch die Karte weniger.

Meinetwegen kannst du spekulieren das die Abstände jetzt real größer oder kleiner sind, die Rangfolge ändert sich jedoch nicht.

Zudem macht in den Lastbereichen der Wirkungsgrad nun wirklich keine Sprünge und ändert sich nur träge, schau dir mal ein Wirkungsgraddiagramm von einem Netzteil an. Wir bewegen uns hier in einem Bereich von 300-400 Watt und somit praktisch dem Idealbereich, also mach mal nen Punkt.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh