ATI R600 2900XT "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen (Part 1)

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich hab da ne ganz böse vermutung....
PCIe x1 Bug vom Gigabyte 965 DS3, erklärt die weniger Power unter CPU Last, mal schnell Bios flashen und gucken was wird...
 
708/708 --- 46,37

+20.4% Leistung

644/644 --- 38,52 ?

na das ist ja mal interessant, der std takt scheint ja genau auf einem peak der Leistungssteigerung in Abhängigkeit von Frequenz zu liegen....

Ist da hardware- bzw software intern irgendwas auf den std Takt abgestimmt? und hat dieses etwas mit der Art der Instruktionen zu tun(*auf dx10 rüberschiel*)?
oder haben die erst später festgestellt, dass die Architektur genau bei der core Frequenz am effektivsten ist bzw dass danach ein anderer bottleneck auftritt (ROPs?), was ich aber weniger glaube.

hmmm, da muss ich mal drüber meditieren....



Ich hab da ne ganz böse vermutung....
PCIe x1 Bug vom Gigabyte 965 DS3, erklärt die weniger Power unter CPU Last, mal schnell Bios flashen und gucken was wird...


den bug kenn ich von meinem p5b auch zu gut, schau doch in cpu-z vorbei, da siehste direkt wie die pcie lane lauft.
 
Zuletzt bearbeitet:
Naja im CPU-Z wird nix angezeigt ( Also 16x ), neues Bios bringt auch keine Hilfe ausser das manche Ruckler weg sind.
Nur kann ich meine CPU jetz nimma so hoch takten wie sie vorher war bzw. der Rechner startet nich beim ersten mal... naja mal morgen weiterschauen was das los is, vieleicht kann Mekki ja das auch mal Benchen.
 
Habe ich bis jetzt auch nur bei der Jetway gesehen :d

na toll kann ich mir gleich n neues NT mit bestellen weill mein Liberty keinen 8poligen stecker hat:wall:

@oC-Devil

ist bei meinem P5B Deluxe auch so das bei zu hohen Cpu Takt das Biest auf 1x umstellt 1101 Bios hat garnix gebracht leider
 
Zuletzt bearbeitet:
Das stimmt nicht. Eine X1900XT bzw. XTX verbraucht nicht 40% mehr Strom wie eine 7900GTX.

7950gt_power.gif

aolgj52u0v5hzvlg9.png


Besonders nicht im Idle bzw. 2D Betrieb (da sogar weniger).

Das kommt immer ganz drauf an wie und was gebenched wurde.
Wenn ich mir die Werte bei CB so ansehe stimmt da was nicht ganz.
Im vergleich, die Tests vor dem G80 GTS 320M Artikel lagen die X1900XT und die 7900GTX noch gleich auf, bei um die 11% mehr Stromverbrauch bei der NV Karte.
Ab dem besagten Artikel ist die Leistung der ATIs deutlich angestiegen und der Stromverbrauchsunterschied liegt jetzt bei um die 25-30% mehr seitens ATI.

Irgendwas kann da doch net stimmen, ...

Schlussendlich kann man aber sagen, wenn man die Karten bei release vergleicht, sprich mit release Treibern dann liegt NV bei Performance pro Watt vor ATI. Und genau bei diesem release sind wir jetzt. Wer versichert denn das die 2900XT in nem Jahr durch optimierungen und sehr gute Treiber nicht vllt dann 30% vor der Ultra liegt aber nur 20% mehr Strom verbraucht.
Verstehst was ich meine? Solche Sachen vergleicht man zum release und nicht irgendwann später mal wenn die Gelegenheit gerade günstig ist.

Im Grunde genommen ist es aber recht egal wer in dem Punkt besser da steht, denn eigentlich ging es ja darum die Leistung pro Watt der letzten Generationen zu bewerten. Und diese ist mit jeder Generation angestiegen, ...
So gut jetzt hiervon, ist sowieso alter Buckmist und gehört hier net so wirklich rein :btt:

na toll kann ich mir gleich n neues NT mit bestellen weill mein Liberty keinen 8poligen stecker hat:wall:

@oC-Devil

ist bei meinem P5B Deluxe auch so das bei zu hohen Cpu Takt das Biest auf 1x umstellt 1101 Bios hat garnix gebracht leider

Doch das Liberty hat diesen 8Pol Stecker, bzw. da gibts wohl jetzt ne neue Liberty Serie mit 8Pol Stecker. Musst mal auf der Enermax Seite schauen wie das genau heist.
Aber selbst wenn, es geht auch mit dem alten Liberty mit 2x6Pin Steckern. Oder wenns ganz hart kommt nimmst du halt zwei 2xMolex to 1xPICe Adapter und gut ist.

nene
der msi 2900xt hat glaub so nen 8 pol stecker dabei

Übrigens, den HiS Karten liegen überhaupt keine Adapter bei. Wollt ich nur mal anmerken, ...
 
Zuletzt bearbeitet:
So leude, da meine Anfrage ein paar Seiten vorher "frech" ignoriert wurde:drool: :Ich möchte mir auch gerne die 2900XT zulegen, habe aber das Problem das ich sie bei mir im Rechner nur in einem pci-e 8x slot betreiben kann. Bekomme ich dann Probleme (Ausfälle) mit der Graka oder, wenn es denn dann läuft, limitiert dieser Slot die Graka dann? Des weiteren würde mich interessieren ob meine CPU die 2900XT ausbremst!

MfG T-REX
 
Zuletzt bearbeitet:
So leude, da meine Anfrage ein paar Seiten vorher "frech" ignoriert wurde:drool: :Ich möchte mir auch gerne die 2900XT zulegen, habe aber das Problem das ich sie bei mir im Rechner nur in einem pci-e 8x slot betreiben kann. Bekomme ich dann Probleme (Ausfälle) mit der Graka oder, wenn es denn dann läuft, limitiert dieser Slot die Graka dann? Des weiteren würde mich interessieren ob meine CPU die 2900XT ausbremst!

MfG T-REX

Seit wann hat das Ultra-D nur nen PCIe 8x Slot???
Aber egal, selbst mit 8x sind wenn dann nur sehr minimale Leistungseinbußen zu erwarten.
Deine CPU reicht auch noch gut aus. Mit 2,9GHz bist so zwischen Std. E6600 und E6700. Ich wette hier werden gleich wieder welche kommen, von wegen ne C2D@OC größer 3GHz, sonst läuft gar nix, aber das ist totaler Schwachsinn.

Das passt schon. R 580 wurde mit jedem Treiber etwas schneller.

logisch, aber deswegen steigt der Stromverbrauch unter Last nicht um mehr als 10% an.
Wie gesagt, man vergleicht solche Sachen bei release, sonst ist das nicht aussagekräftig. Und bei release der X1900er Reihe ist das bessere Leistung pro Watt-Verhältniss eindeutig auf NV Seite.
 
Zuletzt bearbeitet:
Wie gesagt, man vergleicht solche Sachen bei release, sonst ist das nicht aussagekräftig. Und bei release der X1900er Reihe ist das bessere Leistung pro Watt-Verhältniss eindeutig auf NV Seite.

Ich denke das es nicht nur bei einem Vergleich nach release bleiben sollte, da durch Treiberoptimierungen die performance stetig steigt (bei beiden Herstellern).
Dementsprechen wär es sinnvoll ebenso häufig zu vergleichen und nicht zu sagen
mit dem 1. Treiber war aber die und die Karte so und soviel schneller...
 
aber meint ihr der treiber reisst noch soviel?

die karte muss doch alles über die shader lösen oder? hierbei fährt sie ebenso mit 742mhz! die gtx jedoch mit ca. doppeltem takt, da dort die shader von der gpu gekoppelt sind... dh man müsste die xt karte dementsprechend overclocken um an die gtx ranzukommen?

oder hab ich einen gedankenfehler?

so long
 
Ich denke das es nicht nur bei einem Vergleich nach release bleiben sollte, da durch Treiberoptimierungen die performance stetig steigt (bei beiden Herstellern).
Dementsprechen wär es sinnvoll ebenso häufig zu vergleichen und nicht zu sagen
mit dem 1. Treiber war aber die und die Karte so und soviel schneller...

Ja gut, sowas sehe ich noch ein. Aber dann sollte man im Beispiel 2900XT ATI auch ein halbes Jahr Zeit geben um den Treiber zu optimieren.
Und dann wird der vergleich schon wieder schwer, weil ja in der Zeit die G80 Treiber auch weiter entwickelt werden können.

Genau so bei der alten Generation, die 7800GTX ist schon ne weile draußen, dann kommt die X1800 raus und wird extrem kritisiert ein die 7800GTX ja so gut gelaufen ist.

Verstehst du was ich meine? So einfach lässt sich das nicht bewerkstelligen. Da ist der release Vergleich schon naheliegender. Mit dem Hinweis, es kann noch was kommen. So meine ich das.

aber meint ihr der treiber reisst noch soviel?

die karte muss doch alles über die shader lösen oder? hierbei fährt sie ebenso mit 742mhz! die gtx jedoch mit ca. doppeltem takt, da dort die shader von der gpu gekoppelt sind... dh man müsste die xt karte dementsprechend overclocken um an die gtx ranzukommen?

oder hab ich einen gedankenfehler?

so long

Du hast nen Gedanken fehler :fresse:
Das mit dem Takt stimmt schon mal. Aber die Architektur ist Grund verschieden. Es kommt auf die komplexität der Anweisungen an. Sprich mit komplexen Befehlen wird die R600 mit dem niedrigeren Takt extrem aufschließen können.
Derzeitige Anwendungen nutzen aber diese komplexen Befehle nicht, bzw. wohl eher wenig. Dafür gibts aber auch diesen Split Modi der Shader, ... Je nachdem wie effizient dieser Arbeitet könnte die R600 da auch noch was raus schlagen.

Ich hoffe darauf das in Zukunft genau diese komplexen Befehle mehr Einsatz finden. Geoshader sind ja nur ein Beispiel davon.
Die R600 könnte also auf längere Zeit gesehen wieder wie die alten Generationen gut aufholen bzw. vllt auch überholen.

Das ändert natürlich nichts an dem Problem das die Karte bei AA unnatürlich stark einbricht weil scheinbar irgendwas nicht so funktioniert wie es soll.

Die R600 hat ne enorme Leistung, die im Moment scheinbar noch brach liegt. Die Zukunft wird also zeigen ob man davon nutzen ziehen kann oder nicht.
Ich denke aber mal schon, denn es wird mit Sicherheit nachfolge Generationen geben die auf den R600 mehr oder weniger aufbauen. Sprich eine auf komplexe Shader ausgelegte Architektur beibehalten.
Und irgendwo her muss ATI das ja haben, ich denke die wissen mehr als wir was die Zukunft der Programmierung von Games betrifft
 
Moinsen,

@ T-REX: Laut THG ist es sinnvoll moderne GraKas mit PCI-E 16x zu betreiben, da 8x limitiert, wenn auch nur minimal.

http://hardware.thgweb.de/2007/04/27/pcie-pci-express-grafikkarten/index.html

Greetz neil_pm

Das liegt daran das die ne 320MB GTS genommen haben. Und diese 320MB reichen in sehr vielen Anwendungen nicht mehr aus. Siehe Thread von HisN wo er die ganzen Games auflistet, die mehr als 512MB Graka Speicher nutzen.

Alles was nicht in den Grakaspeicher passt, wird in den Hauptspeicher ausgelagert. Und natürlich verdoppelt sich die Bandbreite von PCIe 8x auf 16x. Das heist die Daten können doppelt so schnell aus dem Arbeitsspeicher gelesen werden, was sich natürlich bei dieser VRam Limitierung direkt auf die FPS Rate auswirkt.

Der Test ist also unbrauchbar, mit der GTX hätte das schon ganz anderst ausgesehen, die haben nicht ohne Grund die 320MB GTS genommen ;)
Hinzugefügter Post:
Kann man eigentlich mit diesem Adapter den 8-Pol Anschluss der HD2900 nutzen oder sind die 8-Pol-P4-Stecker verschieden?

Nein das geht nicht, du würdest auf der Karte nen Kurzschluss verursachen!!!

Nochmal für alle zum Mitlesen. Diese 4+4Pin Mobostecker sind nicht kompatibel mit dem PCIe 8Pin Stecker!!!

Die beiden zusätzlichen Pins im 8 Pin PCIe Stecker sind Massepins (sprich 3x Strom und 5x Masse)
Bei den Mobo Steckern sind es 4x Strom und 4x Masse
 
Zuletzt bearbeitet:
Das liegt daran das die ne 320MB GTS genommen haben. Und diese 320MB reichen in sehr vielen Anwendungen nicht mehr aus. Siehe Thread von HisN wo er die ganzen Games auflistet, die mehr als 512MB Graka Speicher nutzen.

Alles was nicht in den Grakaspeicher passt, wird in den Hauptspeicher ausgelagert. Und natürlich verdoppelt sich die Bandbreite von PCIe 8x auf 16x. Das heist die Daten können doppelt so schnell aus dem Arbeitsspeicher gelesen werden, was sich natürlich bei dieser VRam Limitierung direkt auf die FPS Rate auswirkt.

Da muss ich ihm Recht geben der Test von THG ist schon komisch habe mit SC A64 4000+@2,9GHZ mit ner GF8800GTS 320MB mit 8x PCie Lanes (mehr geht bei meinem Bone nicht trotz NForce4SLI, warum auch immer) mehr 3Dmark06 Punkte als THG mit nem E6600 :shot:

http://img58.imageshack.us/img58/5238/ocec5.jpg
 
Zuletzt bearbeitet:
Da muss ich ihm Recht geben der Test von THG ist schon komisch habe mit SC A64 4000+@2,9GHZ mit ner GF8800GTS 320MB mit 8x PCie Lanes (mehr geht bei meinem Bone nicht trotz NForce4SLI, warum auch immer) mehr 3Dmark06 Punkte als THG mit nem E6600 :shot:

http://img58.imageshack.us/img58/5238/ocec5.jpg

Dein Vergleich ist aber auch fürn Po, denn mit ner OC'ed GTS und nem knapp 3GHz A64 ist das auch kein Thema, die haben dort auf Default gebenched ...
 
Tag ich bin kein NVIDIA Fanboy ;)

Wollte nur mal ob die ganze Leute sie sich die neue ATI geholte haben zufrieden mit der Karte sind. Stimmt die Leistung bei euch?
Hab mir vor kurzem ne GTX geholte weil ich nicht länger warten wollte
 
Also ein paar sind wohl recht zu frieden mit der Karte, andere wiederum sind es nicht.
Ich kann nix sagen, meine ist Defekt und ich warte auf die neue, ...
 
Das kommt immer ganz drauf an wie und was gebenched wurde.
Wenn ich mir die Werte bei CB so ansehe stimmt da was nicht ganz.
Im vergleich, die Tests vor dem G80 GTS 320M
Artikel lagen die X1900XT und die 7900GTX noch gleich auf, bei um die 11% mehr Stromverbrauch bei der NV Karte.
Ab dem besagten Artikel ist die Leistung der ATIs deutlich angestiegen und der Stromverbrauchsunterschied liegt jetzt bei um die 25-30% mehr seitens ATI.

Irgendwas kann da doch net stimmen, ...

der stromverbrauch stammt nicht von computerbase sonder xbit-labs...denn das sind die einzigen die diesbezüglich was drauf haben und direkt messen was die karten ziehen und nicht was das gesamtsystem zieht...wenn bei computerbase in den ganzen reviews unterschiedliche hardware im system steckte also mitte 2006 was anderes als jetzt sind da natürlich die stromverbrauchsrechnungen unterschiedlich....

die 7900GTX und die X1900XTX lagen auch im GF8800GTS320 Artikel nicht gleichauf sondern die x1900XTX lag auch da 39% vor der GF7900GTX

vielleicht hast du dich einfach verguckt

Schlussendlich kann man aber sagen, wenn man die Karten bei release vergleicht, sprich mit release Treibern dann liegt NV bei Performance pro Watt vor ATI.

naja vielleicht lagen sie das unter last aber eigentlich hatte ATI im 2d idle bzw. peak vergleich auch da gleich die nase vorn...die leistungssteigerung in spielen kam halt erst mit der zeit dazu weil die ATI treiber schon immer am anfang einer neuen serie rumgezickt haben bz. die karten eher für die zukunft ausgelegt waren

Und genau bei diesem release sind wir jetzt. Wer versichert denn das die 2900XT in nem Jahr durch optimierungen und sehr gute Treiber nicht vllt dann 30% vor der Ultra liegt aber nur 20% mehr Strom verbraucht.
Verstehst was ich meine? Solche Sachen vergleicht man zum release und nicht irgendwann später mal wenn die Gelegenheit gerade günstig ist.

Klar vergleicht man zum Release darum kommen bestimmte GPUs auch schlecht weg weil einige sich immer die Release Reviews anschauen....das problem des G80 und des R600 ist meiner meinung nach der hohe idle 2d verbrauch....
2900xt_power.gif


ich mein das so eine neue HighEnd Karte das mehr als das doppelte unter 2d verbraucht wie eine alte highend karte kann nicht sein...denn sie liefert auf dem windows desktop ja nicht mehr leistung...
70-84 Watt sind da unakzeptabel...bei der 2900XT siehts genauso aus

da kann man nur hoffen das die spannung beim R600 wieder wie bei der letzten generation per software regelbar ist und ATI einen 2D Modus mit massiver spannungsabsenkung nachschiebt
 
der stromverbrauch stammt nicht von computerbase sonder xbit-labs...denn das sind die einzigen die diesbezüglich was drauf haben und direkt messen was die karten ziehen und nicht was das gesamtsystem zieht...wenn bei computerbase in den ganzen reviews unterschiedliche hardware im system steckte also mitte 2006 was anderes als jetzt sind da natürlich die stromverbrauchsrechnungen unterschiedlich....

Das das pic von dir mit dem Stromverbrauch net von CB ist, is klar, ...
Es ist aber egal mit welchem System gemessen wurde. Denn beide Karten müssen auch auf unterschiedlichem Systemen im gleichen Verhältniss stehen, was Stromverbauch angeht, und das tun sie eben bei CB nicht.
Ob andere davon mehr Ahnung haben, oder nicht ist fragwürdig, ...

die 7900GTX und die X1900XTX lagen auch im GF8800GTS320 Artikel nicht gleichauf sondern die x1900XTX lag auch da 39% vor der GF7900GTX

vielleicht hast du dich einfach verguckt

Deshalb schrieb ich ja auch, vor dem Artikel mit der 320MB Karte, und ab dem Titel mit der 320MB Karte. Ab dem ... heist soviel wie einschließlich diesem, ...
Und nein da hab ich mich nicht verguckt, sondern du dich verlesen.


naja vielleicht lagen sie das unter last aber eigentlich hatte ATI im 2d idle bzw. peak vergleich auch da gleich die nase vorn...die leistungssteigerung in spielen kam halt erst mit der zeit dazu weil die ATI treiber schon immer am anfang einer neuen serie rumgezickt haben bz. die karten eher für die zukunft ausgelegt waren

Ich sagte doch Performance pro Watt!?
Das hat doch meines Wissens nach nix mit idle zu tun? Das ist doch was ganz anderes, wovon ich gar net gesprochen habe.
Und nämlich wenn man Performance pro Watt vergleicht und bei NV Treiber von nem halben Jahr nach release nimmt, sollte man ATI diese Zeit auch einräumen. Würde ich zumindest als fair sehen.

Klar vergleicht man zum Release darum kommen bestimmte GPUs auch schlecht weg weil einige sich immer die Release Reviews anschauen....das problem des G80 und des R600 ist meiner meinung nach der hohe idle 2d verbrauch....
http://www.xbitlabs.com/images/video/radeonhd2000/test_results/2900xt_power.gif

dem muss ich zustimmen, was ich aber vorher sowohl bei NV als auch bei ATI schon kritisiert habe.

ich mein das so eine neue HighEnd Karte das mehr als das doppelte unter 2d verbraucht wie eine alte highend karte kann nicht sein...denn sie liefert auf dem windows desktop ja nicht mehr leistung...
70-84 Watt sind da unakzeptabel...bei der 2900XT siehts genauso aus

da kann man nur hoffen das die spannung beim R600 wieder wie bei der letzten generation per software regelbar ist und ATI einen 2D Modus mit massiver spannungsabsenkung nachschiebt

richtig, ...
Ein Tool soll irgendwie irgendwann die nächsten Tage/Wochen wohl kommen welches diese Spannungsänderung möglich macht, ob ATI da was über den Treiber ändert, weis ich net, glaube aber eher nicht. Aber man kann ja dann mit dem Tool manuell Hand an legen :coolblue:
 
Die Benchmark-Ergebnisse zeigen wie wichtig es ist, dass Chipsätze und Motherboards Ihre Grafikkarte(n) bei voller x16 PCI-Express-Geschwindigkeit unterstützen sollten. Wenn Sie also eine Spitzengrafikkarte auf einem unzureichenden Interface wie zum Beispiel mit x8 PCI Express betreiben, so verschwenden Sie heute wertvolle Performance.
THG is nich blöd, die wissen schon was sie tun...
 
trotzdem ist der Test fürn Po, denn wer kauft denn bitte die 320MB GTS???
Ist doch klar das dort der VRam sehr schnell zum Limit wird. Ne mal im Ernst
Die hätten mal ne GTX dagegen stellen sollen, und keine ATI Karte, bei der sieht man aber auch schon das es nicht sonderlich einbricht, weil nicht so viele Dinge Ausgalagert werden müssen, die hat ja schließlich 512MB, ...

Ich mein mit der GTX wären die Einbrüche bei weitem nicht so hoch wie mit der GTS. Und die wollen dort ja Einfluss von der PCIe Bandbreite auf die Leistung der Graka beweisen und nicht die VRam Limitierung der 320MB GTS.
Denn genau letzteres haben se damit getan.
 
Ich hab mir nach langem überlegen doch für die HD2900XT(330€ inkl.bei MF,Ms) entschieden und nicht für die GTS (310€ inkl.Alternate).

Kann mal einer die höhe des Kühlers posten??

:)
 
Zuletzt bearbeitet:
Wenn man sich die Theoretischen Tests anschaut sieht man eben ganz gut das die ATI Karte einbricht und nicht VRAM limitiert, da sie ja 512 hat?!
 
1. Alles was nicht in den Grakaspeicher passt, wird in den Hauptspeicher ausgelagert.
2. Und natürlich verdoppelt sich die Bandbreite von PCIe 8x auf 16x.
3. Das heist die Daten können doppelt so schnell aus dem Arbeitsspeicher gelesen werden, was sich natürlich bei dieser VRam Limitierung direkt auf die FPS Rate auswirkt

1. Asso
2. Rischdisch ;)
3. Asso (streamed oder duplex?)

Learning by Computerbild, oder wie !?

Am besten nochmal richtig informieren! Vllt. etwas Gedanken über die Bandbreiten und anfallenden Transferleistungen der angesprochennen Komponeten machen.

Ich bin jedenfalls froh, dass meine mickrige 7900GT keine Art von TurboCache oder HyperMemory nutzt. Vielleicht könnte man ja auch auf des Rätsels Lösung kommen, wenn man mal hinterfragt, warum ein Funktion namens "AGP Aperture Size" nicht in ähnlicher Weise auf PCIe-Boards Einzug gehalten.

Mit Prädikat:"besonders empfehlenswert" - learning at www.games-academy.de

greetz schwan01
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh