ATI R600 2900XT "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen (Part 7)

also meine beiden pros´s packen beide die 1ghz speicher =) ohne volterhöhung
wohl glück gehabt^^
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Und da will man uns noch erzählen, die Karte verbrauche doch soo viel Strom :stupid: Bei mir läuft sie zur Zeit mit einem alten 350W NoName Netzteil :fresse:
 
Und da will man uns noch erzählen, die Karte verbrauche doch soo viel Strom :stupid: Bei mir läuft sie zur Zeit mit einem alten 350W NoName Netzteil :fresse:

Neja, eine XT mit 1,2V brauch ca. 161W unter Volllast.
Sooo viel ist das nicht, aber es gibt Karten die arbeiten weit aus effizienter ;) Und das ist genau der Punkt.
 
Ja, klar gibt es Karten die weitaus effizienter arbeiten. Aber meistens wird ja nur der Stromverbrauch angesprochen, und nicht die Effizienz, und darauf wollte ich hinaus ;)
Die Karte läuft eh im 2D mit 300/300 bei 0,9V. Aber der 3D Modus ist nicht denkbar. Habs gestern Abend mal kurz probiert mit Trackmania, sofort Bildfehler ;) Und das nur Im Startbildschirm
 
Neja auch wenn man nur den sturen Stromverbrauch als Wert sieht, gibt es nicht viele Karten, die dort mti der 2900XT mithalten können...
Das Thema effizient kommt spätestens dann hinzu, wenn man die sichtbare Leistung gegen den Stromverbrauch setzt.

Klar 160W sind nun nicht unmengen viel unter Last, aber warum sollte man sich eine 160W verballernde Karte in den PC stecken, wenn es eine mit 120W Verbrauch genau so gut kann ;)


Aber gut, mir wars damals auch egal und ist es immer noch, hatte ja selbst 2 2900XT, wobei die erste schnell den Geist aufgegeben hat ;)
Und ich muss sagen, die Karte gefiel mir spontan recht gut... Wobei eigentlich aus Kosten/Nutzen Sicht die 8800GTS 640MB deutlich besser dagestanden hat ;)
 
Das stimmt, aber für mich war das keine Alternative, denn was will ich mit einer Karte, die man nur einbaut?
Ich will was ändern, etwas umbauen, etwas testen. I will mich mit der Karte auseinandersetzen und alle Probleme, so gut es geht, ausmerzen.

Ab und an ist es zwar schön, wenn man Hardware hat, die man einfach nur einbauen muss, aber bei einer Graka muss das nicht so sein. Jedenfalls nicht für mich.

Zur Karte selbst:

Ist eine tolle Karte gewesen und hat alle oben genannten Punkte erfüllt.
Liegt jetzt irgendwo aufm Arbeitstisch, kaputt. Hattte einen EK Kühler gekauft, der, wovon ich überzeugt bin, zu kurze Schrauben hat und mir somit das PCB ordentlich verbogen hat. Auf meiner jetzigen HD4850 ist deswegen ein GPU-only Kühler drauf, der sich vor dem Kauf des EKs auch schon auf der 2900XT befunden hat.
 
hehe, die Arme Karte...

neja die 2900XT Zeit geht so langsam vorbei würd ich meinen, aber was solls, es wird bestimmt irgendwann wieder so ein Produkt geben, wo es heist, selbst ist der Mann (oder die Frau)
 
Also bei mir verrichtet immernoch eine ATI Radeon 2900XT mit mod. Bios ihren Dienst.:wink:
Aber du hast schon Recht, langsam ist ihre Zeit vorbei, immer Sommer werde ich mir wohl was Neues holen.;)
 
also ich hab mir eine "aufgehoben"... die 2. hab ich verkauft :d irgendwie ist mir leid um die karte und geld bekommt man auch fast keines mehr dafür...

so long
 
Also bei mir zieht die Karte noch ordentlich ^^ hab noch nen 19" tft und wenn ich nich AA zu hoch einstell, flutscht da noch jedes game auf High :-P
 
Bei mir bleibt sie auch nocht etwas im Rechner bevor sie in Rente darf. Die Leistung reicht mir völlig und so neue Games zocke ich eh nicht, also wofür wechseln?
 
seh ich genau so =)
warum jetzt ne neue kaufen wenn die 2 alten mit modbios immer noch ihren dienst gut antreten
 
seh ich genau so =)
warum jetzt ne neue kaufen wenn die 2 alten mit modbios immer noch ihren dienst gut antreten

Bei zweien ist das wieder was anderes, da hat man noch brauchbare gute Leistung...
Aber mit halbwegs vernünftigen Monitor und 4xAA/16xAF packt die Karte leider nicht mehr alle neuesten Games mit max. Details... Wobei man sagen muss, mit ein wenig Detailreduzierung hält sie immernoch gut mit ;)
 
Jo seh ich genauso hab auch 2 2900er und bin zufrieden nur das ich mich bei max details von aa verabscheiden muss speziell bei crysis auch von vollen details :-)
Aber ansonsten werd ich wohl erstmal die nächste graka generation abwarten was die so bringt.
 
Schade, dass meine beiden nicht so gelaufen sind wie se sollten.

Überall ein deutliches Leistungsplus. Im 3D Mark 06 hatte ich mit nem 4Ghz Dual und zwei 2900er auf XT Takt 18091 Punkte, nur hat das Bild immer gezittert/gewackelt.
 
Gleiches Problem hatte ich auf mienm icfx 3200 auch (mit ati crossfire chip). Hab dann crossfire brücke ausgetauscht und es ging besser ganz weg issses jetzt aber erst mit nem neuen mobo. Komisch dabei war das icfx extra crossfire board mit 2x16 lanes, war ja damals nich so standart wie heute ^^
 
mit beiden brücken? weil das problem hatt ich auch.. mit einer war alles in butter :)

byebye
 
@foxm
Ja weis nicht eine schien kaputt zu sein hab ich sie ausgebaut gings dann halt besser. Als ich nur eine (die vermutlich kaputte) oder 2 drin hatte gings nicht.
Auf dem neuen Mobo dann wieder nur eine.

(Bei dem Gigabyte UD4P x58 is auch ne bridge dabei, allerdings ein Format was nicht passt oder hab ich mich bloß wieder nass angestellt)
 
was heist denn, "was nicht passt"?

Die Brücken sollten theoretisch alle die gleiche Größe haben, sich nur einzig in der Länge unterscheiden.
 
@fdsonne
Naja die is kürzer und nicht mehr biegsam und der Anschluss ist schmaler ich krieg ihn nicht auf die Nase rauf die am PCB der Graka is

@Holly_d
Ja das komplette Zittern ging auch erst mit Mobo wechsel weg ich konnt es so nur auf ein erträgliches Maß reduzieren ^^
 
@fdsonne
Naja die is kürzer und nicht mehr biegsam und der Anschluss ist schmaler ich krieg ihn nicht auf die Nase rauf die am PCB der Graka is

Kannst du mal bitte ein Bild von dem Teil schießen, wenn es dir noch vorliegt?
Tät mich mal irgendwie interessieren...
 
So hab da mal 2 Fotos gemacht weis nicht ob du das alles erkennen kannst.
 

Anhänge

  • IMG_0387.jpg
    IMG_0387.jpg
    163,2 KB · Aufrufe: 42
  • IMG_0386.jpg
    IMG_0386.jpg
    113,9 KB · Aufrufe: 41
So wie ich es mir dachte, sieht des stark nach ner SLI Brücke aus...
 
So hab mich jetzt nochmal im Handbuch belesen und mein Fehler is mir aufgefallen ^^ (war spät beim zusammenbau des rechners)

Da war ne 3way sli bridge bei hab ich gelesen, also dachte ich die ander is ne crossfire bridge, naja falsch gedacht !

Der 2. Fehler is zwar Offtopic muss ich aber einfach erwähnen, ich hab es tatsächlich geschafft nen floppy Kabel falschrum ins Laufwerk zu würgen:stupid:
und wunder mich dann noch warum die Lampe die ganze Zeit an ist :banana:

Aber naja beides nicht schlimm denn es is nichts kaputt gegangen, is halt nur peinlich.
 
Zuletzt bearbeitet:
wieso liegt einem CF Mainboard bzw. einem CF fähigen Mainboard ne SLI Brücke bei?

Das kann nicht sein... scheinbar unterstützt dein Board SLI, aber kein CF.
Oder hast du ein Intel Skulltrail System bzw. ein X58er Board?
Ansonsten hast du quasi neben einigen Außnahmen im Server/Workstation Bereich nur eins von beiden, und wenn ne SLI Brücke bei liegt, sollte CF eigentlich gar net funktionieren!?


Zum anderen, Floppykabel falsch rum dran sollte eigentlich nix machen, sollte noch net mal den PC stören, außer das du eben nicht auf das Floppy zugreifen kannst...
 
Ja nee eben weil ich ein x 58 Board hab (gigabyte UD4P) und beides unterstützt wird dachte ich, das auch für beides Brücken dabei sind.

Dass CF board hatte ich vorher bin jetzt aber auf nen core i7 umgestiegen.

Tut mir Leid das ich mich hier so wirr ausdrücke, aber ich denke mal das jetzt alles klar ist ^^
 
jo, jetzt ists klar... Wollt schon sagen, anders wäre das auch fast unmöglich gewesen ;)

Aber was anderes, sollten den Grafikkarten nicht je mindestens eine Brücke beiliegen?

Also alle von mir bisher gekauften AMD/ATI Grafikkarten welche CF über die Brücken unterstützt haben, hatten so ne Brücke im Karton...
Selbst wenn man Bulk gekauft hat, lagen die Teile bei...
 
Beim meinem alten Abit Board lag trotz CF-Unterstützung auch eine SLI-Bridge bei
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh