P0ng1
Enthusiast
Borgst du mir deine Kristallkugel? - Möchte mal wieder Lotto spielen ...G80 - 575/1800mhz 384bit 96 shader = ca. 98%
R600 - 750/2200mhz 512bit 128 shader = 100%
Zuletzt bearbeitet:
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Borgst du mir deine Kristallkugel? - Möchte mal wieder Lotto spielen ...G80 - 575/1800mhz 384bit 96 shader = ca. 98%
R600 - 750/2200mhz 512bit 128 shader = 100%
ne lege Karten kannst anrufen im TVBorgst du mir auch mal deine Kristallkugel, möchte mal wieder Lotto spielen ...
wenn man es mal von der anderen Seite belichtet, wird der G80 auch von vielen hier unterschätzt. Die Architektur die dieser Chip an den Tag legt, ist etwas ganz neues. Die Leistung unter anderem auch.
Ihr müsst immernoch bedenken, dass ATI ein Produkt im März auf den Markt bringt, was gegen ein entsprechendes nVidia pandon von November 2006 verglichen wird. Ich meine denkt doch mal drüber nach. Schon ein bisschen unfair dann eventuell von einem "G80-Vernichter" zu sprechen, oder nicht?
Der Vergleich hinkt einfach!
Dennoch würde ich es begrüßen, wenn der R600 30% schneller wäre. Aber "Nakai"'s Aussaugen lassen auf andere Ergebnisse schließen.
rischtisch, gut das du es sagstHast den ATI Futurebonus 2007 vergessen, das macht dann nochmal 80%.
Und dann noch die Treiberoptimierung, absolut schnelles Filtering und AA was man nicht als solches bezeichnen kann + extremes Flimmern= grotten schlechte Grafik ergibt nochmal 100%.
kauf dir endlich ne AMD/ATIverschwommenen flackernden Bild
yowenn se nicht mind. 10% schneller sind ist das echt ne Blamage
also nur mal zum klar kommen
G80 - 575/1800mhz 384bit 96 shader = ca. 98%
R600 - 750/2200mhz 512bit 128 shader = 100%
wo ist der r600 effizent? bei der Speicherbandbreite und dem Takt (vorausgesetzt er ist so hoch)
Als Heizung vielleicht.
G80 - 575/900 - 384Bit - 128 Shader @ 1320MHz = 70%
R600 750/1100 - 512Bit - 64 Shader @ 750MHz = 100%
Wo ist der G80 bitte effizient?
Außerdem sei noch angemerkt dass die Shadereinheiten des R600 4 Berechnugen pro Takt anstellen können, die des G80 nur 1.
dann wäre er ja wieder deutlich schneller als der g80, was amd angeblich ja nicht will. Ziel = 10-20%, schätz ich.Weil er so hoch sein kann?^^ Und warum Leistung verschenken -.-
Ich gehe auch davon aus, das der R600 den G80 nicht deutlich schlagen wird. Das auch nicht nur wegen den Specs, das würde ich auch völlig ohne Specs vermuten. Rein wirtschaftlich ist es für das Unternehmen schon intelligenter, ihn auf dem Niveau des G80 zu positionieren, um auch was in der Hinterhand zu haben und im Nachhinein schneller auf folgende G8x-Revisionen reagieren zu können. Zudem ist es doch noch nie so gewesen, dass das Konkurrenzmodell um längen geschlagen wurden. Es war im Grunde doch immer so, dass sie auf dem selben Niveau lagen. Je nach Spiel mal die eine und dann wieder die andere schneller. Warum sollte es ausgerechnet jetzt anders sein?
jetzt mal ne gaaaaaanz blöde frage:
warum muss der chiptakt den so hoch sein wenn die Shader so effektiv sind?
Erstmal abwarten, glaub schon das er den G80 nen Stück vorraus ist, wenns den im März immer noch nicht gibt kauf ich ne GTX, obwohl die mir noch etwas zu langsam ist.
Sind genauere Fakten vom Stromverbrauch des R600 bekannt?