ATi R600/RV6xx *Infothread* (Part 1)

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
nö, war beim G80 doch auch so
 
Fudzilla hat sich selber mit der News zur R600xl disqualifiziert, er sagt das die Karte nur einen PCIe Stromanschluss hat aber das sie trotzdem 180W verbraucht, unmöglich es können höchstens 150W sein.
 
aber hallo ! ein absolut für mich disqualifizierender Faktor. Wenn die kleinste schon um die 180W verbrät ziehen die großen sicherlich 220-240W !

Das ist einfach viel zu viel.
Naja, 240W sind wohl übertrieben... Netmal ne X1950 GT und ne X1950 XTX unterscheiden sich um 60W...
Aber die 180W sind trotzdem schon ganz schön viel, wenn ich bedenke, dass mein gesamtes System unter Last 220W verbraucht, wenn die CPU nicht oced ist...
Ich lass jetzt wohl mal ne Generation aus, meine X1950 XTX reicht noch für alles gut aus. Höchstens bei S.T.A.L.K.E.R könnte ich noch etwas Power für 1600x1200 gebrauchen...
 
Ist schon die Größe der GPU bekannt? Ich würde gerne wissen, ob da ein HR-03 draufpasst... Vllt. passt ja ein HR-03 Plus drauf... Von ATI erwarte ich keine gescheite Kühlung... Sogar der gelobte Kühler der X1950 XTX ist richtig mies...
 
das nennt man: test bzw. benchmark (ob er stimmt oder nicht, weiß ja keiner außer sie selbst)

Damits es keine Missverständnisse gibt, ich bezog mich mit meiner Aussage nicht auf den DT Bench sondern auf die Aussagen zum Stromverbrauch. Zwecks dem DT Bench bin ich vorsichtig - kann sein das er stimmt/kann sein das er nicht stimmt.

Naja bald sind die Daten vom R600 bekannt, bis dahin möchte der Herr Fuzi bestimmt möglichst viel Aufmerksamkeit bzw. Zugriffe ;)

Gruß

Simon
 
Moin,

zu den DT-Benches, der Anh Huynh schreibt zu den Qualitätseinstellungen beim Oblivion-Bench folgendes: "Elder Scrolls IV Oblivion – Preset ultra quality settings. The scene used was where you’re at the end of the tunnel and run outside for a little bit."

Beinhalten die Einstellungen auch 4xAA und 16xAF?

Und bei einer Auflösung von 1900x1200 macht die GTX knapp 100 Frames, wär ja wahnsinn!

Evenuell kann ja ein GTXler was dazu sagen!

Etwas ot, sorry!

Danke und Gruß!
Eik
 
Damits es keine Missverständnisse gibt, ich bezog mich mit meiner Aussage nicht auf den DT Bench sondern auf die Aussagen zum Stromverbrauch. Zwecks dem DT Bench bin ich vorsichtig - kann sein das er stimmt/kann sein das er nicht stimmt.

Naja bald sind die Daten vom R600 bekannt, bis dahin möchte der Herr Fuzi bestimmt möglichst viel Aufmerksamkeit bzw. Zugriffe ;)

Gruß

Simon

ok, sorry :)
 
Hier mal eine Analyse des Benchmarks von 3Dcenter:

... Zu erwarten ist diesbezüglich, daß ATI für diese dann mit heftiger Verspätung erscheinende Karte wenigstens ein gutes Stück Mehrleistung aufs Parkett legen will. Ob es allerdings trotzdem gegenüber der GeForce 8800 Ultra reichen wird, darf angesichts dieser Benchmarkwerte etwas bezweifelt werden: Denn rechnet man die Radeon HD 2900 XT/XTX auf einen schnelleren Chiptakt von 800 oder auch 850 MHz hoch, so reicht dies immer noch nicht aus, um überhaupt in die Nähe der fast auf Ultra-Taktraten übertaktete GeForce 8800 GTX zu kommen. Natürlich sind drei Benchmarks mit Launchtreibern keine vollständige Aussage, aber ATIs Radeon HD 2900 XTX scheint derzeit so weit zurückzuliegen, das schon ein mittleres Wunder passieren müsste, um dies wieder auszugleichen.
 
Beinhalten die Einstellungen auch 4xAA und 16xAF?

Und bei einer Auflösung von 1900x1200 macht die GTX knapp 100 Frames, wär ja wahnsinn!

Evenuell kann ja ein GTXler was dazu sagen!

Etwas ot, sorry!

Danke und Gruß!
Eik

die GTX soll (siehe takt) die ULTRA simulieren ;)
 
Moin,

zu den DT-Benches, der Anh Huynh schreibt zu den Qualitätseinstellungen beim Oblivion-Bench folgendes: "Elder Scrolls IV Oblivion – Preset ultra quality settings. The scene used was where you’re at the end of the tunnel and run outside for a little bit."

Beinhalten die Einstellungen auch 4xAA und 16xAF?

Und bei einer Auflösung von 1900x1200 macht die GTX knapp 100 Frames, wär ja wahnsinn!

Evenuell kann ja ein GTXler was dazu sagen!

Etwas ot, sorry!

Danke und Gruß!
Eik

Der Test stinkt doch extrem wenn ich hier sehe http://www.computerbase.de/artikel/...e_8600_gts_sli_8600_gt/19/#abschnitt_oblivion

nie im leben 100FPS bei den Einstellungen selbst geOCed never bei der Auflösung :stupid:
 
Zuletzt bearbeitet:
Computerbase hat aber nur einen Dual Core verwendet, und die 8800GTX lief auf Standardtakt.
 
Ja und der lief auch auf 3,46ghz und ein Quad reißt in dem Game nich vielmehr raus und die höher getaktet GF ist ja höchstens 20% schneller als eine normale.
Vieleicht kann ja ein user mit der HW mal nachtesten, kommt mir sehr kommisch vor.:coolblue:
 
Ja und der lief auch auf 3,46ghz und ein Quad reißt in dem Game nich vielmehr raus und die höher getaktet GF ist ja höchstens 20% schneller als eine normale.

Öhm CB misst 70FPS, bei dem Tests sinds knapp 100.

Rechnet man noch die bessere CPU mit ein... hmm ehrlich gesagt für mich sind die Benches realistisch.
 
Zuletzt bearbeitet:
und bei cb wurde nur der nVidia ForceWare 97.92 (G8x) verwendet

wer sagt das cb und dt an der selben stelle in oblivion ihre test gemacht haben ......

das varriert drastisch von szene zu szene
 
Zuletzt bearbeitet:
Naja, 240W sind wohl übertrieben... Netmal ne X1950 GT und ne X1950 XTX unterscheiden sich um 60W...
Aber die 180W sind trotzdem schon ganz schön viel, wenn ich bedenke, dass mein gesamtes System unter Last 220W verbraucht, wenn die CPU nicht oced ist...
Ich lass jetzt wohl mal ne Generation aus, meine X1950 XTX reicht noch für alles gut aus. Höchstens bei S.T.A.L.K.E.R könnte ich noch etwas Power für 1600x1200 gebrauchen...

hm siehst du keine alternativen außer ati karten ?
ich mein wenns dir wirklich nur um die fps geht dann leg dir doch eine 640mb gts oder GTX zu. wo ist dass problem ?
ich verstehe menschen nicht die jahre lang nur karten von einer marke kaufen und davon überzeugt sind. beide hersteller liefern gute und schlechte karten.
aber egal :wink:

ich denke die XT wird knapp 200w ziehen.
die XTX allerdings etwas mehr.

edit:

Hier mal eine Analyse des Benchmarks von 3Dcenter:


... Zu erwarten ist diesbezüglich, daß ATI für diese dann mit heftiger Verspätung erscheinende Karte wenigstens ein gutes Stück Mehrleistung aufs Parkett legen will. Ob es allerdings trotzdem gegenüber der GeForce 8800 Ultra reichen wird, darf angesichts dieser Benchmarkwerte etwas bezweifelt werden: Denn rechnet man die Radeon HD 2900 XT/XTX auf einen schnelleren Chiptakt von 800 oder auch 850 MHz hoch, so reicht dies immer noch nicht aus, um überhaupt in die Nähe der fast auf Ultra-Taktraten übertaktete GeForce 8800 GTX zu kommen. Natürlich sind drei Benchmarks mit Launchtreibern keine vollständige Aussage, aber ATIs Radeon HD 2900 XTX scheint derzeit so weit zurückzuliegen, das schon ein mittleres Wunder passieren müsste, um dies wieder auszugleichen.

ob neue treiber dieses wunder sein könnten ? ich bezweifle es ein wenig :hmm:
 
Zuletzt bearbeitet:
Das ist NICHT mit AA und ja, das macht einen Unterschied, bei meiner 8800 sogar einen sehr gewaltigen.
 
Carsten Spille In Sachen Boardlänge liegt die HD 2900 XT also offenbar genau in der Mitte zwischen GTX und GTS, während Gerüchten zufolge die Leistungsaufnahme deutlich höher als bei den Nvidia Modellen ist.Da stellt sich doch die Frage: Liegt die Performance auch in der Mitte zwischen den beiden G80-Karten?

Soll wohl eine Andeutung der Performence sein???? Der war ja in Tunis.
http://www.pcgameshardware.de/?article_id=600364
 
Zuletzt bearbeitet:
@ starkpc.com

wollt ich gerade posten warst nen tick schneller

hmmm also so unglaubwürding scheinen die benches nicht zu sein
 
Soll wohl eine Andeutung der Performence sein???? Der war ja in Tunis.
http://www.pcgameshardware.de/?article_id=600364

Die Andeutung auf die Performance hat der nicht aus Tunis (glaube kaum, daß AMD/ATI da den Journalisten Vergleiche zwischen ATI- und Nvidia-Karten vorführen), sondern sich selbst aus den derzeit kursierenden "Benchmarks" zusammengereimt...

1. der kursierende Benchmark zwischen 8800 GTS und 2900 XT sieht die 2900 XT vorne

2. der kursierende Benchmark zwischen 8800 GTX (Ultra) und 2900 XT / XTX sieht die 8800 GTX (Ultra) vorne, die XTX wird sogar von der 2900 XT in einigen Szenarien geschlagen...

3. er geht (idiotischerweise) nach Schwanz...- äh Boardlänge und reimt sich dadurch die Performance-Unterschiede zusammen...

Ist bezogen auf 1. und 2. ja nicht schwer, die These aufzustellen, daß die XT (und sogar XTX) zwischen GTS und GTX liegen... Wäre noch interessant gewesen, die GTX mit Standardtakt gegen XT/XTX laufen zu lassen...
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh