Milchtrinker
Enthusiast
Komisch, dass die 2900XT am 2. Mai erscheinen soll, aber bei Geizhals noch nicht gelistet ist. Ist doch ungewöhnlich...
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Naja, 240W sind wohl übertrieben... Netmal ne X1950 GT und ne X1950 XTX unterscheiden sich um 60W...aber hallo ! ein absolut für mich disqualifizierender Faktor. Wenn die kleinste schon um die 180W verbrät ziehen die großen sicherlich 220-240W !
Das ist einfach viel zu viel.
Whilst the 2900 will appear on the 2nd, it won't be available to buy until the 14th.
das nennt man: test bzw. benchmark (ob er stimmt oder nicht, weiß ja keiner außer sie selbst)
Damits es keine Missverständnisse gibt, ich bezog mich mit meiner Aussage nicht auf den DT Bench sondern auf die Aussagen zum Stromverbrauch. Zwecks dem DT Bench bin ich vorsichtig - kann sein das er stimmt/kann sein das er nicht stimmt.
Naja bald sind die Daten vom R600 bekannt, bis dahin möchte der Herr Fuzi bestimmt möglichst viel Aufmerksamkeit bzw. Zugriffe
Gruß
Simon
... Zu erwarten ist diesbezüglich, daß ATI für diese dann mit heftiger Verspätung erscheinende Karte wenigstens ein gutes Stück Mehrleistung aufs Parkett legen will. Ob es allerdings trotzdem gegenüber der GeForce 8800 Ultra reichen wird, darf angesichts dieser Benchmarkwerte etwas bezweifelt werden: Denn rechnet man die Radeon HD 2900 XT/XTX auf einen schnelleren Chiptakt von 800 oder auch 850 MHz hoch, so reicht dies immer noch nicht aus, um überhaupt in die Nähe der fast auf Ultra-Taktraten übertaktete GeForce 8800 GTX zu kommen. Natürlich sind drei Benchmarks mit Launchtreibern keine vollständige Aussage, aber ATIs Radeon HD 2900 XTX scheint derzeit so weit zurückzuliegen, das schon ein mittleres Wunder passieren müsste, um dies wieder auszugleichen.
Beinhalten die Einstellungen auch 4xAA und 16xAF?
Und bei einer Auflösung von 1900x1200 macht die GTX knapp 100 Frames, wär ja wahnsinn!
Evenuell kann ja ein GTXler was dazu sagen!
Etwas ot, sorry!
Danke und Gruß!
Eik
Moin,
zu den DT-Benches, der Anh Huynh schreibt zu den Qualitätseinstellungen beim Oblivion-Bench folgendes: "Elder Scrolls IV Oblivion – Preset ultra quality settings. The scene used was where you’re at the end of the tunnel and run outside for a little bit."
Beinhalten die Einstellungen auch 4xAA und 16xAF?
Und bei einer Auflösung von 1900x1200 macht die GTX knapp 100 Frames, wär ja wahnsinn!
Evenuell kann ja ein GTXler was dazu sagen!
Etwas ot, sorry!
Danke und Gruß!
Eik
Ja und der lief auch auf 3,46ghz und ein Quad reißt in dem Game nich vielmehr raus und die höher getaktet GF ist ja höchstens 20% schneller als eine normale.
Naja, 240W sind wohl übertrieben... Netmal ne X1950 GT und ne X1950 XTX unterscheiden sich um 60W...
Aber die 180W sind trotzdem schon ganz schön viel, wenn ich bedenke, dass mein gesamtes System unter Last 220W verbraucht, wenn die CPU nicht oced ist...
Ich lass jetzt wohl mal ne Generation aus, meine X1950 XTX reicht noch für alles gut aus. Höchstens bei S.T.A.L.K.E.R könnte ich noch etwas Power für 1600x1200 gebrauchen...
Hier mal eine Analyse des Benchmarks von 3Dcenter:
... Zu erwarten ist diesbezüglich, daß ATI für diese dann mit heftiger Verspätung erscheinende Karte wenigstens ein gutes Stück Mehrleistung aufs Parkett legen will. Ob es allerdings trotzdem gegenüber der GeForce 8800 Ultra reichen wird, darf angesichts dieser Benchmarkwerte etwas bezweifelt werden: Denn rechnet man die Radeon HD 2900 XT/XTX auf einen schnelleren Chiptakt von 800 oder auch 850 MHz hoch, so reicht dies immer noch nicht aus, um überhaupt in die Nähe der fast auf Ultra-Taktraten übertaktete GeForce 8800 GTX zu kommen. Natürlich sind drei Benchmarks mit Launchtreibern keine vollständige Aussage, aber ATIs Radeon HD 2900 XTX scheint derzeit so weit zurückzuliegen, das schon ein mittleres Wunder passieren müsste, um dies wieder auszugleichen.
Ich weiß jetzt nich wo du 86FPS siehst?
Hier ist ein SLI aus 2 GTX http://www.computerbase.de/artikel/...00_gts_sli_8600_gt/32/#abschnitt_oblivion_sli
da macht das gespann bei 1600x1200 8xAA, 16xAF , 28,7 FPS
aber das ist nich 1900x1200
selbst mit den 158er Treiber und OCed schafft die GF8800GTX keine 100FPS bei 1900x1200, 8xAA, 16xAF
Ich weiß jetzt nich wo du 86FPS siehst?
Hier ist ein SLI aus 2 GTX http://www.computerbase.de/artikel/...00_gts_sli_8600_gt/32/#abschnitt_oblivion_sli
da macht das gespann bei 1600x1200 8xAA, 16xAF , 28,7 FPS
aber das ist nich 1900x1200
selbst mit den 158er Treiber und OCed schafft die GF8800GTX keine 100FPS bei 1900x1200, 8xAA, 16xAF
glaubt was ihr wollt ich glaub es nich
Die Benches sind nicht mit 8xAA.
Carsten Spille In Sachen Boardlänge liegt die HD 2900 XT also offenbar genau in der Mitte zwischen GTX und GTS, während Gerüchten zufolge die Leistungsaufnahme deutlich höher als bei den Nvidia Modellen ist.Da stellt sich doch die Frage: Liegt die Performance auch in der Mitte zwischen den beiden G80-Karten?
DailyTech Digest: Making Sense of "R600"
http://dailytech.com/DailyTech+Digest+Making+Sense+of+R600/article7079.htm
Foto:
http://images.dailytech.com/nimage/4570_large_R600XTX_3.jpg
(ich hoffe es wurde noch nicht gepostet.)
Soll wohl eine Andeutung der Performence sein???? Der war ja in Tunis.
http://www.pcgameshardware.de/?article_id=600364
Radeon HD 2900XT launch and for sale May 14 – not the 2nd