Jake Dunn
Urgestein
- Mitglied seit
- 26.10.2006
- Beiträge
- 11.521
liegt der karte den nen Adapter bei wegen 8polig oder nicht?
Habe ich bis jetzt auch nur bei der Jetway gesehen
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
liegt der karte den nen Adapter bei wegen 8polig oder nicht?
708/708 --- 46,37
+20.4% Leistung
644/644 --- 38,52 ?
Ich hab da ne ganz böse vermutung....
PCIe x1 Bug vom Gigabyte 965 DS3, erklärt die weniger Power unter CPU Last, mal schnell Bios flashen und gucken was wird...
Habe ich bis jetzt auch nur bei der Jetway gesehen
Das stimmt nicht. Eine X1900XT bzw. XTX verbraucht nicht 40% mehr Strom wie eine 7900GTX.
Besonders nicht im Idle bzw. 2D Betrieb (da sogar weniger).
na toll kann ich mir gleich n neues NT mit bestellen weill mein Liberty keinen 8poligen stecker hat
@oC-Devil
ist bei meinem P5B Deluxe auch so das bei zu hohen Cpu Takt das Biest auf 1x umstellt 1101 Bios hat garnix gebracht leider
nene
der msi 2900xt hat glaub so nen 8 pol stecker dabei
lagen die X1900XT und die 7900GTX noch gleich auf[/QUOTE
Das passt schon. R 580 wurde mit jedem Treiber etwas schneller.
So leude, da meine Anfrage ein paar Seiten vorher "frech" ignoriert wurde :Ich möchte mir auch gerne die 2900XT zulegen, habe aber das Problem das ich sie bei mir im Rechner nur in einem pci-e 8x slot betreiben kann. Bekomme ich dann Probleme (Ausfälle) mit der Graka oder, wenn es denn dann läuft, limitiert dieser Slot die Graka dann? Des weiteren würde mich interessieren ob meine CPU die 2900XT ausbremst!
MfG T-REX
Das passt schon. R 580 wurde mit jedem Treiber etwas schneller.
Wie gesagt, man vergleicht solche Sachen bei release, sonst ist das nicht aussagekräftig. Und bei release der X1900er Reihe ist das bessere Leistung pro Watt-Verhältniss eindeutig auf NV Seite.
Ich denke das es nicht nur bei einem Vergleich nach release bleiben sollte, da durch Treiberoptimierungen die performance stetig steigt (bei beiden Herstellern).
Dementsprechen wär es sinnvoll ebenso häufig zu vergleichen und nicht zu sagen
mit dem 1. Treiber war aber die und die Karte so und soviel schneller...
aber meint ihr der treiber reisst noch soviel?
die karte muss doch alles über die shader lösen oder? hierbei fährt sie ebenso mit 742mhz! die gtx jedoch mit ca. doppeltem takt, da dort die shader von der gpu gekoppelt sind... dh man müsste die xt karte dementsprechend overclocken um an die gtx ranzukommen?
oder hab ich einen gedankenfehler?
so long
Moinsen,
@ T-REX: Laut THG ist es sinnvoll moderne GraKas mit PCI-E 16x zu betreiben, da 8x limitiert, wenn auch nur minimal.
http://hardware.thgweb.de/2007/04/27/pcie-pci-express-grafikkarten/index.html
Greetz neil_pm
Kann man eigentlich mit diesem Adapter den 8-Pol Anschluss der HD2900 nutzen oder sind die 8-Pol-P4-Stecker verschieden?
Das liegt daran das die ne 320MB GTS genommen haben. Und diese 320MB reichen in sehr vielen Anwendungen nicht mehr aus. Siehe Thread von HisN wo er die ganzen Games auflistet, die mehr als 512MB Graka Speicher nutzen.
Alles was nicht in den Grakaspeicher passt, wird in den Hauptspeicher ausgelagert. Und natürlich verdoppelt sich die Bandbreite von PCIe 8x auf 16x. Das heist die Daten können doppelt so schnell aus dem Arbeitsspeicher gelesen werden, was sich natürlich bei dieser VRam Limitierung direkt auf die FPS Rate auswirkt.
Da muss ich ihm Recht geben der Test von THG ist schon komisch habe mit SC A64 4000+@2,9GHZ mit ner GF8800GTS 320MB mit 8x PCie Lanes (mehr geht bei meinem Bone nicht trotz NForce4SLI, warum auch immer) mehr 3Dmark06 Punkte als THG mit nem E6600
http://img58.imageshack.us/img58/5238/ocec5.jpg
Dein Vergleich ist aber auch fürn Po, denn mit ner OC'ed GTS und nem knapp 3GHz A64 ist das auch kein Thema, die haben dort auf Default gebenched ...
selbst da bin ich noch über der Angabe von THG!
Das kommt immer ganz drauf an wie und was gebenched wurde.
Wenn ich mir die Werte bei CB so ansehe stimmt da was nicht ganz.
Im vergleich, die Tests vor dem G80 GTS 320M
Artikel lagen die X1900XT und die 7900GTX noch gleich auf, bei um die 11% mehr Stromverbrauch bei der NV Karte.
Ab dem besagten Artikel ist die Leistung der ATIs deutlich angestiegen und der Stromverbrauchsunterschied liegt jetzt bei um die 25-30% mehr seitens ATI.
Irgendwas kann da doch net stimmen, ...
Schlussendlich kann man aber sagen, wenn man die Karten bei release vergleicht, sprich mit release Treibern dann liegt NV bei Performance pro Watt vor ATI.
Und genau bei diesem release sind wir jetzt. Wer versichert denn das die 2900XT in nem Jahr durch optimierungen und sehr gute Treiber nicht vllt dann 30% vor der Ultra liegt aber nur 20% mehr Strom verbraucht.
Verstehst was ich meine? Solche Sachen vergleicht man zum release und nicht irgendwann später mal wenn die Gelegenheit gerade günstig ist.
der stromverbrauch stammt nicht von computerbase sonder xbit-labs...denn das sind die einzigen die diesbezüglich was drauf haben und direkt messen was die karten ziehen und nicht was das gesamtsystem zieht...wenn bei computerbase in den ganzen reviews unterschiedliche hardware im system steckte also mitte 2006 was anderes als jetzt sind da natürlich die stromverbrauchsrechnungen unterschiedlich....
die 7900GTX und die X1900XTX lagen auch im GF8800GTS320 Artikel nicht gleichauf sondern die x1900XTX lag auch da 39% vor der GF7900GTX
vielleicht hast du dich einfach verguckt
naja vielleicht lagen sie das unter last aber eigentlich hatte ATI im 2d idle bzw. peak vergleich auch da gleich die nase vorn...die leistungssteigerung in spielen kam halt erst mit der zeit dazu weil die ATI treiber schon immer am anfang einer neuen serie rumgezickt haben bz. die karten eher für die zukunft ausgelegt waren
Klar vergleicht man zum Release darum kommen bestimmte GPUs auch schlecht weg weil einige sich immer die Release Reviews anschauen....das problem des G80 und des R600 ist meiner meinung nach der hohe idle 2d verbrauch....
http://www.xbitlabs.com/images/video/radeonhd2000/test_results/2900xt_power.gif
ich mein das so eine neue HighEnd Karte das mehr als das doppelte unter 2d verbraucht wie eine alte highend karte kann nicht sein...denn sie liefert auf dem windows desktop ja nicht mehr leistung...
70-84 Watt sind da unakzeptabel...bei der 2900XT siehts genauso aus
da kann man nur hoffen das die spannung beim R600 wieder wie bei der letzten generation per software regelbar ist und ATI einen 2D Modus mit massiver spannungsabsenkung nachschiebt
THG is nich blöd, die wissen schon was sie tun...Die Benchmark-Ergebnisse zeigen wie wichtig es ist, dass Chipsätze und Motherboards Ihre Grafikkarte bei voller x16 PCI-Express-Geschwindigkeit unterstützen sollten. Wenn Sie also eine Spitzengrafikkarte auf einem unzureichenden Interface wie zum Beispiel mit x8 PCI Express betreiben, so verschwenden Sie heute wertvolle Performance.
1. Alles was nicht in den Grakaspeicher passt, wird in den Hauptspeicher ausgelagert.
2. Und natürlich verdoppelt sich die Bandbreite von PCIe 8x auf 16x.
3. Das heist die Daten können doppelt so schnell aus dem Arbeitsspeicher gelesen werden, was sich natürlich bei dieser VRam Limitierung direkt auf die FPS Rate auswirkt