HD2900XTX im Anmarsch/Erste Benchmarks

F-kopp

Semiprofi
Thread Starter
Mitglied seit
04.05.2007
Beiträge
1.568
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ahja, ein XTX Crossfire Gespann ist also 109% schneller als ein GTX SLI Gespann... :hmm:
Lass mich raten, es wurde Vista verwendet, da funzt SLI nämlich noch gar nicht richtig. Aber halt, da wurde ja gar nichts bezüglich OS, Treiber, etc. angegeben.
Sorry aber so ist das für die Tonne!

MfG :cool:
 
Ahja, ein XTX Crossfire Gespann ist also 109% schneller als ein GTX SLI Gespann... :hmm:
Lass mich raten, es wurde Vista verwendet, da funzt SLI nämlich noch gar nicht richtig. Aber halt, da wurde ja gar nichts bezüglich OS, Treiber, etc. angegeben.
Sorry aber so ist das für die Tonne!

MfG :cool:

Wenn nVidia es nicht auf die reihe bekommt, das sie für ein OS das bereits seit über 9 Monaten als Final exisitiert, und seit über einem Jahr als Beta, gescheite SLI Treiber zu programmieren, zeugt das wohl eher an unfähigkeit der Firma. Sorry, dein Post ist für die Tonne.
 
Das Nvidia keine SLI Treiber hinbekommt,sagt zeweierlei,oder auch nicht:
1)Wer sich trotz der konstanten Treiberprobs ne 8800er kauft,hat viel Gottvertrauen
2)SLI ohne SLI Treiber zu benchen,sagt nicht süber die Leistung.
 
1)Wer sich trotz der konstanten Treiberprobs ne 8800er kauft,hat viel Gottvertrauen

Hab seit Dezember ne 8800er (erst GTS, jetzt Ultra) und ausser den anfänglichen Problemen mit Source-Spielen noch nie irgendein Treiberproblem gehabt.
Wenn du selbst keine hast solltest du vorsichtig bei solchen Aussagen sein ;)

sli oder auch cf ist für mich eh nur was zum benchen, für nen spieler-pc würde ICH mir das nie antun.
 
Wenn nVidia es nicht auf die reihe bekommt, das sie für ein OS das bereits seit über 9 Monaten als Final exisitiert, und seit über einem Jahr als Beta, gescheite SLI Treiber zu programmieren, zeugt das wohl eher an unfähigkeit der Firma. Sorry, dein Post ist für die Tonne.

*in die Signatur schau* -> Alles klar! ;)
Wie schon gesagt, zwei HD 2900 XT(X) im CF laufen zu lassen und diese dann gegen quasi eine GTX antreten zu lassen (weil SLI funkt nicht richtig) ist irgendwie schwachsinnig.

MfG :cool:
 
*in die Signatur schau* -> Alles klar! ;)
Wie schon gesagt, zwei HD 2900 XT(X) im CF laufen zu lassen und diese dann gegen quasi eine GTX antreten zu lassen (weil SLI funkt nicht richtig) ist irgendwie schwachsinnig.

MfG :cool:

Sobald man irgendwo lesen tut das ne ATI schneller ist als ne Nvidia bist du der erst der sofort drauf anschpringt:shot:

Und wenn Nfurz das nicht hin bekommt mit dem SLI Treiber für Vista ist das ihr Problem, un bleibt halt hinten dran pech gehabt.
Und SLI funzt wohl bei Vista ob nun zu 90% oder zu 100% kann ich nict sagen aber es geht.

Wenn nVidia es nicht auf die reihe bekommt, das sie für ein OS das bereits seit über 9 Monaten als Final exisitiert, und seit über einem Jahr als Beta, gescheite SLI Treiber zu programmieren, zeugt das wohl eher an unfähigkeit der Firma. Sorry, dein Post ist für die Tonne.

genauso sieht es aus.
 
Der ganze Test dort ist sinnlos, das die Karten in 3DMark gleichschnell oder schneller sind, wissen wir, das die Karten ohne AA gleichschnell oder schneller sind, wissen wir auch, wieso schreiben die da also " sieht so aus als wäre amd wieder im rennen " -> absoluter schwachsinn, ohne AA waren die Karten immer sehr fix, was bei hoher Preislage aber keinen interessiert
 
Wie gesagt, die Quellen sind alt und es handelt sich nicht um ne 2900 XTX, sondern um ne 2900 XT 1024... Die Benches sind nicht aussagekräftig... Wurde alles schon im 2900 XT Thread besprochen...
 
Ahja, ein XTX Crossfire Gespann ist also 109% schneller als ein GTX SLI Gespann... :hmm:
Lass mich raten, es wurde Vista verwendet, da funzt SLI nämlich noch gar nicht richtig.

MfG :cool:

Selbst schuld wenn Nvidia das nicht gebacken bekommt.:shot: Deswegen ist der Test jetzt für dich unbrauchbar.:shot:
 
Selbst schuld wenn Nvidia das nicht gebacken bekommt.:shot: Deswegen ist der Test jetzt für dich unbrauchbar.:shot:

dem kann man wohl zustimmen, immerhin gehts hier um die funktionalität
2tens wird mit dem R680 abhilfe geschaffen, soll ja deutlich weniger verbrauchen
 
Zuletzt bearbeitet:
Am besten find ich:

"DirectX-10-Effekte überfordern aber selbst die 670 Euro teure High-End-Karte [MSI NX8800 Ultra]: Company of Heroes läuft nur noch mit ruckelnden 24,7 fps"

;)

Gogogo GF 8x00 und ATi 2x00 for DX10 !!! :d

p.s. und noch besser als 'starkstrohm' find ich eigentlich 'anschpringt' aber das nur so am Rande ;)
 
Zuletzt bearbeitet:
lol 24,7 FPS :lol: :lol: :lol: :lol:

Da bin ich ja mit 47.6 FPS dopplet so schnell, jetzt kann ich entlich auch mal:

Liegt bestimmt am Treiber, und ihr wartet alle auf den Super Treiber :shot:
 
Kindergarten hier.............:hmm:
 
Wieso 4 ?

PCIe Stecker 1 = 125 Watt
PCIe Stecker 2 = 125 Watt
PCIe Slot =75 Watt

=325 Watt, wie kommst du auf 4 Stromstecker ?
 
Zuletzt bearbeitet:
omfg das sind die gesamt sys werte
 
Wieso 4 ?

PCIe Stecker 1 = 125 Watt
PCIe Stecker 2 = 125 Watt
PCIe Slot =75 Watt

=325 Watt, wie kommst du auf 4 Stromstecker ?



schön das du rechnen kannst. es ist aber falsch, pro 6pin stecker können ebenfalls max nur 75watt zur verfügung gestellt werden.

und wie pulse eben schon geschrieben hat sind die 325w angaben des gesamten systems. also totaler käse was gs verzapft, als ob eine grafikkarte so viel strom verbauchen würde^^
 
omfg das sind die gesamt sys werte

Zitat von GS " Weniger zurückhaltend ist der Energiehunger – unter Volllast genehmigt sich die Platine unglaubliche 325 Watt."

Die Platine, ist doch nicht das System





P.S. ich weiß selbst das GS und auch andere wie immer Mist testen ist ja nichts neues.:)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh