Wird AMD permanent gegenüber Intel in Reviews benachteiligt? Bitte ersten post lesen

Status
Für weitere Antworten geschlossen.
Fakt ist aber:

Wenn das System weniger verbraucht, verbraucht auch die Karte weniger.

Meinetwegen kannst du spekulieren das die Abstände jetzt real größer oder kleiner sind, die Rangfolge ändert sich jedoch nicht.

Zudem macht in den Lastbereichen der Wirkungsgrad nun wirklich keine Sprünge und ändert sich nur träge, schau dir mal ein Wirkungsgraddiagramm von einem Netzteil an. Wir bewegen uns hier in einem Bereich von 300-400 Watt und somit praktisch dem Idealbereich, also mach mal nen Punkt.

Du hast natürlich Recht, viel ändern tut sich da nicht, aber ich mein, man sollte die Sache nicht unter den Tisch kehren. Klar sind hier in dem Fall die Abstände sehr groß, sprich der Wirkungsgrad ändert an der Reihenfolge nix, aber es kann durchaus der Fall sein, vor allem, wenn der Abstand nur sehr gering ist.

Wie die ganze Sache in der Praxis aussieht, wenn man mit den "hinter-NT-Messwerten" rechnet kannst dir auf xbitlabs.com anschauen, die Messen dort den direkten Verbrauch der Karte, ohne störendes NT...
Laut dem verlinkten CB Test da verbrauch die Std. HD4870 13W unter Last mehr als die alte 260GTX. Real sind es aber eigentlich ein paar Watt zugunsten der HD4870... Das will ich nur damit ausdrücken, das man diese hinter dem NT Werte nicht so 100% genau nehmen darf.

Aber mal was anderes, das gehört hier eigentlich so alles gar net rein...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das man mit diesen tollen "Direktmessungen" wunderbar Schindluder treiben kann, sieht man ja am Nehalem Test von HT4U. Der ist immer noch nicht berichtigt obwohl eindeutig falsch und deutlich zu wenig gemessen wurde. Wenigstens gibts da mittlerweile ein Update aber die Wahrscheinlichkeit, das jetzt jemand noch einmal den Test ließt und mitbekommt, dass die alten Werte viel zu gering waren, ist gering.

Solche Probleme, dass sich z.B. der Prozessor noch aus einer anderen Spannungsschiene speist als angenommen, hast du mit Gesamtsystemmessungen nicht.
 
Zuletzt bearbeitet:
Was kannst du dir davon kaufen, wenn die 4850 mehr FLOPs ausspuckt als eine GTX280
Dann warte mal ab, bis GPGPU richtig in Fahrt kommt. Was wohl spätestens mit OpenCL und DirectX Computing der Fall sein wird. Dann weisst du, was du dir davon kaufen kannst. Dem G200 geht dann schnell die Puste aus, während der RV770 noch ausreichend ungenutzte Rechenkapazität hat, die freigesetzt werden kann.

Informationsgehalt dieser Aussage? Noch einmal, die Transistorzahlen sind bekannt, der Bedarf der DP-SPs abschätzbar und der Rest simpelste Mathematik...
Yep. Und das widerspricht deinen Aussagen. Übrigens interessieren Transistoren nicht. Entscheidend ist die Chipfläche. Dafür bezahlen AMD und nVidia Geld. Und dafür bezahlst du Geld.
Dass nVidia ihre Transistoren weniger effizient designed hat, kannst du dir selbst ja mal schnell durchrechnen. Von mir aus auch mit perfekter Skalierung von 65 auf 55 nm, was in der Praxis allerdings nicht der Fall ist. Hier nochmal schnell die Zahlen, nVidia bringt 1400 Mio Transistoren auf einer Fläche von 576 mm² in 65 nm Fertigung unter, AMD 956 Mio Transistoren auf einer Fläche von 256 mm² in 55 nm Fertigung. Und selbst, wenn du nur Performance pro Transistor betrachtest, was du scheinbar auf Spiele reduzierst, was nur die halbe Wahrheit ist, ist nVidia immer noch über 20% schlechter. So viel werden die DP Einheiten wohl bei weitem nicht ausmachen. Vermutlich nicht mal 10% der gesamten Transistoren. Und nicht zu vergessen, ohne diese Transistoren käme noch ein weiteres Feature hinzu, was nVidia nicht zu bieten hätte.
 
Zuletzt bearbeitet:
Dann warte mal ab, bis GPGPU richtig in Fahrt kommt. Was wohl spätestens mit OpenCL und DirectX Computing der Fall sein wird. Dann weisst du, was du dir davon kaufen kannst. Dem G200 geht dann schnell die Puste aus, während der RV770 noch ausreichend ungenutzte Rechenkapazität hat, die freigesetzt werden kann.

Genau andersherum, dann kommen die hocheffizienten DP-SPs erst wirklich zum tragen. Der RV770 verpufft in einer Wolke der Ineffizienz, kann das aber durch seine schiere Rohpower noch ganz gut vertuschen.

Yep. Und das widerspricht deinen Aussagen. Übrigens interessieren Transistoren nicht. Entscheidend ist die Chipfläche. Dafür bezahlen AMD und nVidia Geld. Und dafür bezahlst du Geld.

Ich bezahle komischerweise genau das gleiche für eine GTX260-216 und eine 4870 1GB. Und das interessiert mich nunmal als Käufer.

Dass nVidia ihre Transistoren weniger effizient designed hat, kannst du dir selbst ja mal schnell durchrechnen. Von mir aus auch mit perfekter Skalierung von 65 auf 55 nm, was in der Praxis allerdings nicht der Fall ist. Hier nochmal schnell die Zahlen, nVidia bringt 1400 Mio Transistoren auf einer Fläche von 576 mm² in 65 nm Fertigung unter, AMD 956 Mio Transistoren auf einer Fläche von 256 mm² in 55 nm Fertigung. Und selbst, wenn du nur Performance pro Transistor betrachtest, was du scheinbar auf Spiele reduzierst, was nur die halbe Wahrheit ist, ist nVidia immer noch über 20% schlechter. So viel werden die DP Einheiten wohl bei weitem nicht ausmachen. Vermutlich nicht mal 10% der gesamten Transistoren. Und nicht zu vergessen, ohne diese Transistoren käme noch ein weiteres Feature hinzu, was nVidia nicht zu bieten hätte.

Nocheinmal, nach Schätzungen (zu finden bei 3DC, mal schauen ob ich das wiederfinde oder such selbst) liegt der Anteil bei etwa 200M Transistoren - damit haben wir 1,2Mrd zu 1Mrd und einen vergleichbaren Leistungsabstand der Topmodelle. Pro Transistor ist der GT200 absolut effizient, die Packdichte ist schlechter, dafür die Energieeffizienz bezogen auf den Herstellungsprozess höher.
 
Was hat das bitte noch mit dem Threadthema zu tun und damit meine ich alle!

Jedesmal wenn ich ein Thema neu einbringe wird sofort grundlegend über Technik diskutiert und sich gezofft statt mal Threadthemabezogen zu diskutieren.
 
Ich bestätige dich? Indem ich erstmal deine falsche Pauschal-Aussage aufschlüssel und dann noch das Gegenteil von dem behaupte was du sagst?

Was den Vergleich zum ASUS 790FX betrifft, ich würde es schon als Kunst bezeichnen ASUS AM2-Boards als Hersteller im Stromverbrauch zu überbieten. Das zeigt nur wie stark das Gigabyte aus dem Rahmen fällt. Und dass das Ganze nicht auf die Spulen reduziert werden kann, wiederhole ich gerne nochmal. Ich kann dir sogar ein konkretes Beispiel geben.
->Intel Gigabyte-Boards mit dicker Spannungsversorgung die dennoch zu den sparsamsten ihrer Reihe gehören (P35 DQ6 unter allen P35 Boards: http://techreport.com/articles.x/12747/16)
->Gigabyte trotz 12 Pseudo-Phasen bzw. 6Phasen a 2Spulen, besser oder auf dem Niveau von 4Phasen Boards (mit nur 4 Spulen!). Das zeigt a) das dein erstes Posting, in dem du nur die vielen Phasen verantwortlich machst schlichtweg BS ist, und b) das Gigabyte hochwertigere, effizientere Bauteile verwendet haben muss.

Man brauch sich doch nur die AMD-Bretter von Gigabyte anschauen, dann sieht man dass nicht wie so oft bei Intel, durchgängig UD2 Bauteile (Ferritkern-Spulen + Low RDS Mosfets) verwendet werden. Auch gibt es keine Bemühungen Phasenabschaltungen und andere Stromsparfeatures einzubauen (das muss dann ein Hersteller wie ASRock den großen Mainstreamern zeigen). Übrigens wurde ich schon in meiner Annahme mit den 08/15-Bauteilen beim 790FX DQ6 bestätig, von jemanden der das Bauteildiagramm des Boards gecheckt hat.

Eigentlich sollte ich eher sagen, dass es sich nicht lohnt auf unsachliche Beiträge ohne wirkliche Substanz einzugehen.

Wenn du selber keine Ergebnisse damit aufweisen kannst, dann lass auch weiter deine unsinnigen Meinungsäusserungen.
Immer diese Möchtegern-Informatiker... . :shake:

BTT bitte!!!
 
Zuletzt bearbeitet:
Genau andersherum, dann kommen die hocheffizienten DP-SPs erst wirklich zum tragen. Der RV770 verpufft in einer Wolke der Ineffizienz, kann das aber durch seine schiere Rohpower noch ganz gut vertuschen.
So langsam outest du dich leider nur noch als nVida Hardliner. Traurig, traurig...

Ich bezahle komischerweise genau das gleiche für eine GTX260-216 und eine 4870 1GB. Und das interessiert mich nunmal als Käufer.
Dann frag mal nVidia. Die sind alles andere als glücklich darüber, mit ihrem Fehlgriff die Preise so weit zu reduzieren, dass nur noch ein Bruchteil vom Gewinn übrig bleibt, den AMD einfährt.

Nocheinmal, nach Schätzungen (zu finden bei 3DC, mal schauen ob ich das wiederfinde oder such selbst) liegt der Anteil bei etwa 200M Transistoren - damit haben wir 1,2Mrd zu 1Mrd und einen vergleichbaren Leistungsabstand der Topmodelle.
Haha. Du bist echt lustig. Der RV770 hat aber nun mal keine 1 Mrd Transistoren. Ich habe die exakte Zahl doch oben genannt. Selbst wenn es 200 Mio Transistoren für DP wären, bleibt der G200 immer noch ineffizienter. Und ohne diese Transistoren wäre für DP gar keine Effizienz vorhanden. Du unterschlägst zudem ein wichtiges Detail. Das nVidia Top Modell braucht mehr Strom für die erreichte Leistung. Schraub mal die Taktraten der GTX280 so weit runter, dass die Leistungsaufnahme auf HD 4870 Niveau liegt. Dann schauen wir mal, wie viel mehr Performance noch übrig bleibt.
Mit Sicherheit weit weniger als 25%. Aber wie gesagt, das spielt keine Rolle. Entscheidend ist die Fläche, nicht die Anzahl der Transistoren.
 
Zuletzt bearbeitet:
So langsam outest du dich leider nur noch als nVida Hardliner. Traurig, traurig...

Ah, mal wieder die argumentative Schiene heute ;) Btw, von meinen letzten 8 GPUs waren 5 von ATI, u.a. die letzte ;) Trotzdem halte ich die GTX260-216 momentan aus diversen Gründen für die weitaus bessere Wahl.

Dann frag mal nVidia. Die sind alles andere als glücklich darüber, mit ihrem Fehlgriff die Preise so weit zu reduzieren, dass nur noch ein Bruchteil vom Gewinn übrig bleibt, den AMD einfährt.

Die 110Mio € Gewinn abzgl. Sonderbelastungen bei AMD letztes Quartal sind mir wohl entgangen. Du dienst mir sicher gleich mit Zahlen.

Haha. Du bist echt lustig. Der RV770 hat aber nun mal keine 1 Mrd Transistoren. Ich habe die exakte Zahl doch oben genannt. Selbst wenn es 200 Mio Transistoren für DP wären, bleibt der G200 immer noch ineffizienter. Und ohne diese Transistoren wäre für DP gar keine Effizienz vorhanden. Du unterschlägst zudem ein wichtiges Detail. Das nVidia Top Modell braucht mehr Strom für die erreichte Leistung. Schraub mal die Taktraten der GTX280 so weit runter, dass die Leistungsaufnahme auf HD 4870 Niveau liegt. Dann schauen wir mal, wie viel mehr Performance noch übrig bleibt.
Mit Sicherheit weit weniger als 25%. Aber wie gesagt, das spielt keine Rolle. Entscheidend ist die Fläche, nicht die Anzahl der Transistoren.

Dir ist bekannt, dass der GT200 in 65nm ist und hier schon die identische bis höhere Performance/Watt erreicht? Performance pro Transistor wie belegt ebenso, was bleibt ist die schlechtere Packdichte und Herstellungsprozessgröße, die mir bei gleichem Kaufpreis auch so wichtig ist wie deine Schuhgröße. Nicht vergessen, welche Einnahmen über die Tesla-Schiene erzielt werden, die es bei ATI in dieser Form nicht gibt.
 
Zuletzt bearbeitet:
Der RV770 ist nicht weniger schlechter für GP geeignet als der G200. Warum sollte er auch? Der einzige Vorteil von NV in der Hinsicht ist CUDA, wobei das eh bald vorbei ist mit den eigenen Schnittstellen, der Vorteil ist also nicht von Dauer.
Der Kram frisst keine Die-Fläche. Wenn es so wäre, hätte NV das grossflächig als Entschuldigung breitgetreten, dass der G200 so riesig geworden ist - haben sie aber nicht. Der G200 besteht aus 2 G98 mit fetteren Shadercores+Veraltung-einige TMUs. Es ist alles verdoppelt worden, ROPs, MC - all das frisst also ebenfalls 4x soviel Fläche, die Verdopplung der mm² kommt nicht zufällig zustande. Das Teil ist ohne GP so gross, das kann man drehen und wenden wie man will...

Übrigens wird diese von u gepriesene Die-Fläche für GP in einigen Reviews erwähnt, ohne aber genauer daraus einzugehen, welche Chip-Teile jetzt davon betroffen sein sollen. Da sind auch eine Schlussfolgerungen gezogen worden, die totaler Nonsens sind. Im Gegenteil, man kennt den Shaderbereich auf dem Die, die TMUs, das MC und die ROPs und den fetten Verwaltungsbereich dazwischen, der fast aussieht wie die interne NB des K10 (glaub auch Anandtech war das mal zu sehen), es gibt keinen speziellen Bereich für GP. Man hat halt keine offiziellen Infos und dichtet sich was als Entschuldigung, dass der Chip so gross ist daher - sehr professionelles Verhalten.
 
Zuletzt bearbeitet:
"nicht weniger schlecht", "nicht weniger" oder "nicht schlechter"?
 
Heute 01:42 dieser Beitrag? Ah ja die Uhrzeit, war dir langweilig?
Wenn du selber keine Ergebnisse damit aufweisen kannst, dann lass auch weiter deine unsinnigen Meinungsäusserungen.
Immer diese Möchtegern-Informatiker... . :shake:

BTT bitte!!!

Am 18. November 2008, 10:53
Dural
http://www.forumdeluxx.de/forum/showpost.php?p=10625345&postcount=1831

Am 18. November 2008, 12:50
che new
http://www.forumdeluxx.de/forum/showpost.php?p=10626053&postcount=1837

Dural 18. November 2008, 14:01
http://www.forumdeluxx.de/forum/showpost.php?p=10626556&postcount=1845

che new 18. November 2008, 14:51
http://www.forumdeluxx.de/forum/showpost.php?p=10626966&postcount=1849

Heute, 01:42 23. November 2008Du HardlineAMD

mit diesem nichts sagendem, abfälligem und provozierendem Beitrag?

Ich finde 19W unter Last ein mehr an Saft für den 9850 BE enorm.
http://www.tomshardware.com/de/phenom-9850-7850-black-edition,testberichte-239994-10.html
 
Zuletzt bearbeitet:
Btw, von meinen letzten 8 GPUs waren 5 von ATI, u.a. die letzte ;) Trotzdem halte ich die GTX260-216 momentan aus diversen Gründen für die weitaus bessere Wahl.
Dann mach das von mir aus. Aber verdrehe hier bitte keine Fakten. Bisher hast du jedenfalls nur Käse erzählt. Btw, ich hatte bisher nur nVidia Karten. Und würde mir auch jederzeit wieder eine kaufen, wenn sie gut ist. Ich bin aber nicht so verbohrt wie du und muss zugeben, dass die ATI Jungs diesmal bessere Arbeit geleistet und aus den Fehlern des R600 gelernt haben. nVidia steht dieser Prozess mit dem G200 jetzt bevor. ;)

Dir ist bekannt, dass der GT200 in 65nm ist und hier schon die identische bis höhere Performance/Watt erreicht? Performance pro Transistor wie belegt ebenso
Du bist einfach nur kindisch hoch zehn. Ich frage mich, wann die Mods endlich mal aktiv werden. Deine Sturheit, dem Wegdiskutieren von Tatsachen und unbelegte Thesen als Fakt hinzustellen, geht mit Sicherheit nicht nur mir schon lange auf den Keks. Solche Märchen kannst du dir von mir aus noch solange einreden. Es sind und bleiben Worte ohne Wert.
65 nm spielt hier übrigens keine entscheidende Rolle. 55 nm ist bei TSMC lediglich ein Half Node Prozess und hat damit die gleichen thermischen Eigenschaften wie der Full Node Prozess. Der Vorteil ist hauptsächlich Einsparung von Die Fläche. Und wen interessiert hier Tesla? Die paar abgesetzten Einheiten sind völlig unbedeutend im Vergleich zum Massenmarkt. Das reisst den G200 auch nicht raus.
 
OK, ich bins leid.

Thema: Wird AMD permanent gegenüber Intel in Reviews benachteiligt? Bitte ersten post lesen

Worüber wird diskutiert: Warum ist der G200 so groß und ist GTX260-216 besser als HD-4870 1 GB.

Ich hatte euch gewarnt und deshalb ist hier nun DICHT. Beleidigungen, Beschimpfungen an die gewohnte Adresse.

Bis jetzt sehe ich keinen Grund ihn wieder auf zu machen, werde das ganze aber mit Berlinrider besprechen und wenn ihr mir triftige Argumente liefert, könnt ihr mich vielleicht umstimmen.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh