ATi R600/RV6xx *Infothread* (Part 3)

Status
Für weitere Antworten geschlossen.
ja so meinte ich das. Deswegen wird der R600 auch solche Treiber Probleme haben, weil sich ja was geändert hat und somit muss auch der Code des Treibers richtig angepasst werden.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
The 8 pin power connector is compatible with the 6 pin connector. So you can use the 6 pin cable, or if you have a power supply with a 8 pin connector, use the 8 pin.
This is done for future card's that still need more power.
-6 pin = 75 WATT
-8 pin = 150 WATT
Die Karte wird also MAX 225W mit zwei PCI-Express-Stecker (6 pin) ziehen.

75W (PCI Steckplatz) + 75W Stecker (1) + 75W Stecker (2) = 225W.
 
Zuletzt bearbeitet:
Der R600 ist ein viel besserer Chip als er momenatn vermuten lässt. ... prophezeiten 40-60% durchaus stimmen....
Denn dieser Chip ist für die Zukunft gebaut, und weniger für jetzt.

sry aber wirst du von AMD bezahlt??
Du eträumst dir hier Sachen und stellst es dann quasi als FAkt hin. Klar ich warte auch auf den R600 und hoffe auch dass er gut wird aber ich bleib im gegensatz zu dir realistisch. Schraub mal deine Ertwartungen etwas runter.
mfg
 
@Mondrial: Ich spalte nicht, ich wollte nur ein evtl. Missverständnis ausräumen.
 
Leider wird es von der Awafab morgen kein Review geben. Sie haben sich, auf Grund der großen Unterschiede zwischen den letzten Treibern. entschieden min. den 8.38er abzuwarten. Die wollen einfach kein Review erstellen das nach 2 Tagen seine Gültigkeit verloren hat.

Sehr schön von Awafab...besser als nen Test, der nichts aussagt :)
 
Der R600 hat sehr große Shader(5D), ideal für Vertex und Geometrieberechnungen.

Und was passiert, wenn "Vertex und Geometrieberechnungen" weniger als 4 Komponenten verwenden?

Der G80 hat 128 1D-Shader. Er berechnet immer für 8 solcher Shader(Vec8) eine Komponente, also es können immer 8 gleiche Berechnungen am Stück durchgeführt werden.

Der G80 hat nur 8x2 Recheneinheiten, die für 16 Pixel genau eine Komponente berechnen.

Also es werden 8 Vec3-Berechnungen in 3 Takten pro Vec8-Shaderblock ausgespuckt.

Ein r600 benötigt 16 Recheneinheiten, um die für 16 Pixel 3 Komponenten zu berechnen. Zwar geschieht dies in einem Takt, dafür bleiben nur noch 48 Recheneinheiten übrig, bei nVidia ganze 7(!) Recheneinheiten.
Ausserdem gibt es einen anderen D3D10 Test, in dem die 8800GTX um Faktor 6 schneller ist.
 
Sehr bescheiden was man so liest. Wird wohl doch kein Wunder. Die Benchmarks verhalten sich aber auch komisch. In Oblivion liegt die GTX hinter einer GTS 320/640.
 
jap, aber leider das was anzunehmen war ist eingetreten. In den Benches liegt die X2900 leider immer bissle hinter der 8800GTX.

Bei der Bildquali konnte sie aufschliesen, ... gut besser gehts ja auch kaum noch.

Stromverbrauch scheint auch auf GTX Niveau zu sein, also Entwarnung.

Trotzdem etwas enttäuschend. Man hat schon gehofft das die GTX wenn nicht deutlich wenigstens geschlagen wird.

Und die Leute die jetzt was von DX10 labern... einfach mal RUHE ! die Karte ist jetzt draußen und nicht wenn DX10 Gamez im herbst kommen.

Bis dahin gibts von beiden NV und ATI wieder neue Karten.


Und jetzt mal als erstes an dich BERNI_ATI !

Von deinen komische Behauptungen und Wünsche ist wohl nix wahr geworden. :haha:

Die X2900 ist eine gute Karte aber garantiert keine Wunderkarte;)
Wenn man bedenkt wie spät sie kommt ist es eher enttäuschend.

Was ich sehr komisch finde ist das die ATI in hohen Auflösungen mit AA noch mehr Boden verliert. Trotz der riesigen Bandbreite vom GDDR4 Speicher. Sehr seltsam.
 
Zuletzt bearbeitet:
Geiler Test!Endlich zeigt sich das die X2900 XT klar schneller als eine 8800 GTS ist.Mit 2 oder 3 Treiberupfates wird die Karte mit sicherheit gleichziehen mit der 8800 GTX...

Vielleicht hat die X2900 XT das schon mit denn 8.38 getan.....

In hohen settings + aa gibts noch Treiberprobleme.Ein weiterer Indiz dafür das die X2900 XT noch lange nicht am Ende ist...
 
Zuletzt bearbeitet:
:lol: der Server ist ja schon total überlastet.

ALso die Bildqualität finde ich ja mal richtig :kotz: das sieht alles so verschwommen und unscharf aus.... schade. Hoffe das ändert sich...
 
Geiler Test!Endlich zeigt sich das die X2900 XT klar schneller als eine 8800 GTS ist.Mit 2 oder 3 Treiberupfates wird die Karte mit sicherheit gleichziehen mit der 8800 GTX...

Vielleicht hat die X2900 XT das schon mit denn 8.38 getan.....


Jo jetzt kommste so daher, das die ja gegen die GTS laufen soll :haha:

Oh wie geil !

Die X2900 ist das schnellste von ATI momentan also läuft sie gegen die schnellste von NV.

Das wäre die Ultra, aber eher wohl die GTX, da die Ultra ja nur eine gepushte GTX ist.
 
wäre cool wenn jemand die seiten einzeln speichert und als zip bei rapidshare hochläd, in weiser voraussicht das sie bald wieder down ist
ich muss leider jetzt weg :(

gruß klasse

EDIT:
leider ein ähnlich hoher idle-verbrauch wie bei NV *grrrrr*
 
Zuletzt bearbeitet:
Naja der Speed ist nicht schlecht, ich denke da geht noch was... aber was meint ihr den zur Bildquali..

Also wenn ich mir die Bilder anschaue im vergleich finde ich die Nvidia schärfer vom Bild her. Oder hab ich was verpasst ???
 
Also sie ist schonmal immer langsamer als ne GTX! Am Anfang war die GTS schneller (Quake :d) dann wirds anders....einmal hat sie bei HL2 nur unter 30FPS (die XT) was sind das denn für Treiber -_-
 
Jop Le_Frog hast nix verpasst das sehen einige hier so.

Naja ich sags nochmal, die Karte ist ein halbes Jahr hinter der GTX rausgekommen, von diesem Standpunkt aus ist der Speed zum :kotz:

Wenn man es real sieht isses ok-
 
Tatsächlich das erst Review. Die Server sind aber fast down, weil jeder darauf zugreifen will. Bei mir aufjedenfall.
 
Jo jetzt kommste so daher, das die ja gegen die GTS laufen soll :haha:

Oh wie geil !

Die X2900 ist das schnellste von ATI momentan also läuft sie gegen die schnellste von NV.

Das wäre die Ultra, aber eher wohl die GTX, da die Ultra ja nur eine gepushte GTX ist.

Wir müssen ausdenn Schlafwagen heraus.

Die 8800 Ultra kostet leider das doppelte,:) Da gibts nichts zu vergleichen.

Und man kann doch schon erahnen wo die X2900 Xt mit paar Treiberupdates landen wird.Genau auf dein 8800 GTX niveau.

:bigok: Also die X2900 XT doch keine enttäschung wie angenommen.:bigok:
Für denn Preis einfach Spitze!Und dann nach das geile Ocing bei der Karte,:bigok:
 
Oh bitte bleib locker-_- Manchmal ist sie sogar lahmer als ne GTS und manchmal stürzt sie total ein! Da ist nix geklärt....die kann noch total hochgehen, oder NUR die Tiefpunkte ausmerzen....

Neverwinter Nights 2....26FPS zu 44FPS bei der GTS....also das sind affige Tests! Entweder erstmal auf neue Treiber warten, oder die Karte gleich abschreiben :d Aber mit solchen Ergebnissen...
 
Wir müssen ausdenn Schlafwagen heraus.

Die 8800 Ultra kostet leider das doppelte,:) Da gibts nichts zu vergleichen.

Und man kann doch schon erahnen wo die X2900 Xt mit paar Treiberupdates landen wird.Genau auf dein 8800 GTX niveau.

:bigok: Also die X2900 XT doch keine enttäschung wie angenommen.:bigok:
Für denn Preis einfach Spitze!Und dann nach das geile Ocing bei der Karte,:bigok:

Jo was die Karten kosten ist doch mal latte. Es geht um das was beide aufm Markt haben .... also ?


Klar ist die Ultra kein P/L hammer das kaufen ja auch nur die Freaks ;)

Aber warte ab was die GTX kostet nächste Woche bzw. übernächste.

Ich sag ja die Karte ist gut, aber eben für das, das sie ein halbes Jahr zu spät kommt nicht.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh