***8800GTS vs. 2900XT THREAD***

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Prima , ich habe durch aus Verständniss für das Löschen.Doch wieder mal wurden Posts gelöscht die zum Thema waren, und kein geflamme oder sonst etwas.

Unter anderem von George.Lucas und mir.
Ein kurzes Statement:
Ich habe vorhin etwas mehr als eine Seite an Posts hier rausgenommen! Es war genug geflame und spam dabei, das kannste mir glauben! :hmm:
Sobald ein Post Regelverstöße aufweist, wird er entfernt; egal ob auch Themenbezogen Inhalte darin waren! Fragen, ob eine Wechsel von GTX auf XT sinnvoll wäre gehört ins PC-Aufrüstungsforum und ist somit OT hier!

Bei weiteren Fragen -> gerne PN!

Gruß
:wink:
 
Die DX10 Treiber werden auch noch besser ( Nvidia hat ja schon einiges mehr an Erfahrung, da sie schon länger draußen sind ). Für mich ist die DX9 Performance wichtig, da ich XP so lange es geht nutzen werde.
Die AF Performance wurde offenbar auch stark gesteigert. Aber ich denke das ATI ein wenig mit der Qualität herum Trickst.
 
:eek:

holaaa, ich denk in sachen DX10 hat die ATI noch was zu bieten, so ca.10% werden sie noch aus dem Treibern raus holen (in DX10).
Aber 319 € VS 600 €, ownet:shot:



Ruhig bleiben Leute !1! Spiel ;) Es zählt immer noch der Durchschnitt also immer realistisch bleiben ;)
 
Finde das auch sehr gut ,

aber wie gesagt das ist 1 spiel mal sehen wie sich die ATI in Kommenden Games schlägt.

Gruß

Eagleoen19
 

Den DX10 Bench hat wohl keiner gepostet ? :angel:


Da fällt die 2900 sogar bei 1600 und 1920 hinter die 8800 GTS 320 zurück.

Zitat:Things change quite dramatically under DirectX 10 though, as the Radeon HD 2900 XT is now the slowest card tested as it suffers a fairly hefty performance drop, while Nvidia's cards saw a slight performance increase across the board
 
Den DX10 Bench hat wohl keiner gepostet ? :angel:


Da fällt die 2900 sogar bei 1600 und 1920 hinter die 8800 GTS 320 zurück.


Gut aber nV hat in sachen DX10 gute 8 Monate vorsprung , gib den Treibern noch was Zeit und das wird sich dann auch geben.

Eagleoen19
 
wie benchen die denn Bioshock?? Das läuft bei mir unter maximalen Einstellungen mit gemittelten 100fps.
Ich habe einfach mal Fraps mitlaufen lassen und drauflos gespielt.. ist doch unter D3D10 (1680x1050, 16xAF) und Vista völlig smooth..



X2 3800+, X1950PRO, 2GByte RAM, Vista DX9, Bioshock 1280x1024, max
2007-09-10 18:01:13 - Bioshock
Frames: 11215 - Time: 249681ms - Avg: 44.917 - Min: 21 - Max: 209
2007-09-10 18:05:26 - Bioshock
Frames: 105257 - Time: 1339338ms - Avg: 78.588 - Min: 23 - Max: 237

C2D E6600, 8800GTX, 2GByte RAM, Vista DX10, Bioshock 1680x1050, max
2007-09-08 13:14:56 - Bioshock
Frames: 98086 - Time: 979938ms - Avg: 100.094 - Min: 29 - Max: 275
2007-09-08 17:42:47 - Bioshock
Frames: 42375 - Time: 383572ms - Avg: 110.474 - Min: 36 - Max: 283


PS.
Verwundert mich irgendwie nicht sonderlich - auf meiner 360 läufts ja auch anständig ;) Was mich wundert, sind die schlechten Werte in den Internet-Benchmarks von dubiosen Webseiten ^^



Grüße,
Euer George
 
Zuletzt bearbeitet:
Auf Wunsch des Verfassers entfernt

Auf Wunsch des Verfassers entfernt
 
Zuletzt bearbeitet:
lass mal Riva Tuner laufen , dort wird der Ram verbrauch angezeigt und drücke dann im game mal die Tasten kombination...

Spiele mal COD2 in 1280x1024 mit aa und af dann merkst du das aber sehr deutlich , weil die FPS aufeinmal stark in die höhe schiessen.

Eagleone19
 
Auf Wunsch des Verfassers entfernt

Auf Wunsch des Verfassers entfernt
 
Zuletzt bearbeitet:
lass mal Riva Tuner laufen , dort wird der Ram verbrauch angezeigt und drücke dann im game mal die Tasten kombination...

Spiele mal COD2 in 1280x1024 mit aa und af dann merkst du das aber sehr deutlich , weil die FPS aufeinmal stark in die höhe schiessen.

Eagleone19

Oder ARMA, da hatte ich 450mb gemessen bei der ATI, bei NV sind es über 700mb :eek:
 
Jo ARMA ist der nV ram fresser überhaupt meine GTX hatte bei 1600x1200und aa +af über 730MB verbrauch was doch erschreckend ist. bei arma liegt es aber auch daran , das das spiel richtig MIES programiert ist.

Eagleone19
 
Gut aber nV hat in sachen DX10 gute 8 Monate vorsprung , gib den Treibern noch was Zeit und das wird sich dann auch geben.

Eagleoen19
Das könnte man AMD auch als Vorteil anlasten, immerhin hatten sie genug Zeit in ihren Entwicklungslabor ihr System mit nVidia zu vergleichen und zu optimieren, zu steigern, zu verbessern. Warum sollte AMD aus dem späten Einstieg einen Nachteil erhalten?
Immerhin stand ihnen Vista genauso zur Verfügung wie es für nVidia war.
Jeder hatte ein DX10 SDK zur Hand.
 
naja wenn ich mein rechenr anmache spiele ich und da man den strom selebr zahlt ist es schon wichtig.... Das is das einzige was mich an der Karte stört
und evtl die Lautstärke ^^ aber sonst bin ich mitlerweile voll zufrieden
 
Solange die IHVs unterschiedliche Methoden zur Texturkompression einsetzen,
könnt ihr diese (überflüssigen) VRAM-Auslastungsmessungen mit jedem neuen Treiber wiederholen und werdet trotzdem nicht schlauer.

Technisch ist es völlig richtig, wenn vorhandener RAM (oder auch VRAM) maximal ausgenutzt wird. Freihalten nutzt rein gar nichts.

Mit dem nächsten offiziellen NVidia-Forceware-Treiber kann sich messen übrigens wieder mal lohnen (für die Mess-Fans), denn da kommen neue Komprimierungs-Algorithmen zum Einsatz. Damit ist dann auch das als VRAM-Bug bezeichnete Problem bei den Speicher reduzierten GeForces (GTS) obsolet.

Gerüchten zufolge soll auch schon der subsamplezugriff auf den Z-Buffer im MSAA-Betrieb beim G80 funktionieren (inoffiziell, da eigentlich eine D3D10.1-Funktion). Das ermöglicht dann z.B. Kantenglättung in Spielen wie Bioshock auf dem D3D10-Renderpfad zu erzwingen.


Grüße,
Euer George
 
Zuletzt bearbeitet:
Hilft des bei jedem Spiel, also das der Ram dann reicht mit der 320MB Karte?
 
Unwahrscheinlich. Der Unterschied zwischen 320, 640 und 768 MByte Modellen wird dadurch nicht geringer - nur die VRAM-"Probleme" mit im Verlauf des Spielens einknickenden Frameraten wird damit ausgeräumt.

Man bekommt weiterhin das, was man bezahlt und wer nur 320MByte kauft, wird sich in Sachen Kantenglättung, Texturkompression und Auflösung weiterhin dem Techlevel des Spiels anpassen müssen.

"Volles Programm" bleibt den GTX und Ultra -Karten vorbehalten.


Grüße,
Euer George
 
Zuletzt bearbeitet:
Mit dem nächsten offiziellen NVidia-Forceware-Treiber kann sich messen übrigens wieder mal lohnen (für die Mess-Fans), denn da kommen neue Komprimierungs-Algorithmen zum Einsatz. Damit ist dann auch das als VRAM-Bug bezeichnete Problem bei den Speicher reduzierten GeForces (GTS) obsolet.


Grüße,
Euer George


:fresse: das haben sie bei dem neuen Beta auch gesagt, und was war ?
***Pustekuchen***

Aber mal sehen, das es seit 9 Monaten so ist ist ja schon sehr hart, und ich glaub auch net dran das sie den beheben/können, die quatschen nur rum um die 8800 GTS Besitzer bei der Stange zu halten.
 
Nein, das "Problem" ist nur vergleichsweise komplex und bei dem "letzten" Betatreiber hat niemand ausser der User-Community von einer Behebung gesprochen.

Dass 163.44 in bestimmten Fällen Linderung brachte, hatte rein gar nichts mit der Speicher-Entleerung zu tun.

Nicht immer wahlloses Internet-Geschreibsel mit offiziellen Mitteilungen verwürfeln und ggf. auch mal zurückhalten, wenn man eh nicht genau weiß, was man schreiben soll.

Auch habe ich nicht den Eindruck, dass jemand "rumquatscht" (User in diesem Thread mal ausgeklammert).
Das Speicherproblem bei den kastrierten Karten wurde von NVidia erkannt, nachgestellt, lokalisiert und man kam zu der Feststellung, dass es per Treiber zu beheben ist - nur zaubern kann da niemand. Man kann auch nicht einfach irgendwelche Fixes releasen ohne sie vorher auf Nebenwirkungen abzuklopfen. Das dauert nunmal immer etwas.

btw.
Dein Lieblingsgrafikchiphersteller brauchte über ein halbes Jahr länger, als in lt. Roadmap vorgesehen, um diesen Ofen auf die Straße der Ladenlokale zu bringen ;)


Grüße,
Euer George
 
Zuletzt bearbeitet:
George du scheinst ja relativ gut informiert zu sein... ;)
Kannst du mir auch etwas zu den unterschiedlich getakteten Speicherdomains sagen? Denn es scheint doch nur beim ersten Treiber so gewesen zu sein, dass alle auf den korrekten Takt gestartet wurden und wenn mich nicht alles täuscht haben sämtliche Treiber bis heute 2 Domains, die nur mit dem halben Takt arbeiten.

mfg
 
Nein, zu unterschiedlichen Speichertakten kann ich nichts sagen. Eine G80 kennt hardwareseitig nur zwei Zustände, was den RAMtakt angeht. Den Vesa-Mode und den Modus wenn der Treiber geladen ist.

btw. von Domains spricht man nur bei den ROPS/TMUs und Shadereinheiten.

dass es einen Speicherbetrieb mit halbierter Taktfrequenz geben soll, lese ich grad zum ersten Mal.


Grüße,
Euer George
 
Zuletzt bearbeitet:
Sorry für den falschen Ausdruck mit Domains ;)

Genau diese zwei Zustände sind das Thema. "Vesa" (um dich zu zitieren) läuft ja mit dem halben Takt. Soweit ich das mitbekommen habe sollen nach dem ersten Treiber 2 Taktgeneratoren nicht mehr im Treiber integriert sein, weshalb nur noch einer der 3 Bereich auf den richtigen Takt gebracht wird.
Sehen konnte man das mit dem Rivatuner, dazu gibt es irgendwo eine Anleitung, um sich die 3 Bereiche anzeigen zu lassen.
Und beim ersten treiber waren eben alle auf 800mhz (792) und bei den späteren nur einer.

Tschuldige, wenn ich das so laienhaft ausdrücke, aber mit der Hardware/Software selbst kenn ich mich als Maschinenbauer net so gut aus ;)
 
Genau diese zwei Zustände sind das Thema. "Vesa" (um dich zu zitieren) läuft ja mit dem halben Takt.
nein, nicht pauschal mit halbem Takt; mit 400MHz - Das ist aber nur bei den Karten die Hälfte, die mit 800MHz unter Windows arbeiten. Bei GTXen z.B. nicht, denn die arbeiten unter Windows mit 900MHz.
Soweit ich das mitbekommen habe sollen nach dem ersten Treiber 2 Taktgeneratoren nicht mehr im Treiber integriert sein, weshalb nur noch einer der 3 Bereich auf den richtigen Takt gebracht wird.
Gibt es dazu irgendwelche Links oder Quellen, wo ich nachlesen kann, was gemeint ist? Der Taktgenerator ist ein PLL-Chip, der auf dem PCB der Karte sitzt und der den Takt festlegt. Und zwar nach den Einstellungen, die im Karten-BIOS festgeschrieben sind. In bestimmten Abständen (etwa in 27MHz-Schritten) lässt sich der PLL auch über Software beeinflussen/ verstellen.
Sehen konnte man das mit dem Rivatuner, dazu gibt es irgendwo eine Anleitung, um sich die 3 Bereiche anzeigen zu lassen.
Und beim ersten treiber waren eben alle auf 800mhz (792) und bei den späteren nur einer.
Kann es sein, dass du das durcheinander bringst und die Taktstates für 2D, Throttling und 3D meinst? Die gibt es nämlich bei Ultra und GTX nicht mehr - bei GTS bin ich mir grad nicht sicher; man kann es aber nachschauen, wenn man das BIOS ausliest.
Tschuldige, wenn ich das so laienhaft ausdrücke, aber mit der Hardware/Software selbst kenn ich mich als Maschinenbauer net so gut aus ;)
Das macht gar nichts. Ich kenne mich mit Maschinenbau auch nicht aus. Verglichen mit anderen Postings in diesem Thread, ist deine Schreibe wenigstens nicht provokant, was ein Beantworten angenehm macht.


Grüße,
Euer George
 
Zuletzt bearbeitet:
Nein, von Throttling oder 2D spreche ich nicht.
Um dir ne Quelle zu nennen müsste ich jetzt selbst ein Weilchen suchen, vielleicht finde ich ja eben was.
Ich glaube, dass wir das damals (hatte meine erste GTS Ende Dezember gekauft) im GTS Sammelthread besprochen hatten.
Hinzugefügter Post:
So, hab mal ganz schnell was aus dem Sammelthread von damals rausgesucht:

http://www.forumdeluxx.de/forum/showpost.php?p=5117097&postcount=866

http://www.forumdeluxx.de/forum/showpost.php?p=5168415&postcount=967

http://www.forumdeluxx.de/forum/showpost.php?p=5174239&postcount=994

Ich wüsste nicht, dass das Thema bis heute schon in Ordnung gebracht worden wäre, aber vielleicht hab ich es auch nur nicht mitbekommen...

Die Anleitung für den RT hab ich jetzt auf die Schnelle leider nicht gefunden.

mfg
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh