ATI R420 - die X800-Serie ist da

tortiator schrieb:
@marc

das heisst für 40% aus diesem forum (nämlich die bei denen die Karte sowieso nur ein halbes Jahr drinbleibt) kaufe jetzt die ati und in einem halben Jahr den refresh der nvidia...


Das kann sein aber man weiß ja nicht wirklich, wie's bis dahin mit der Geschwindigkeit aussieht.

Wenn nVidia wie in o.g. Link mit der Filtermogelei so weiter macht, würden die so oder so nicht für mich in Frage kommen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
In einem solch frühen Treiberstadium würde ich nicht von bewusster "Cheaterei" sprechen.

Der Reference Raterizer mit dem man @ Driverheaven den LOD Level bei den
MIP-MAPs verglichen hat hat sich im nachhinein ja bereits als nicht optimal herausgestellt und im Endeffekt war der Wind der um die FarCry Story initiiert maßgeblich durch die Chip auch nur halb so wild in FarCry gab es laut NVIDIA Statement beisp. nen EarlyZ Bug im Forceware und das war der Grund für die nicht unbeträchtlichen Performanceverbesserungen einen Beweis über einen Verlust der IQ bliebt Chip schuldig.
 
Tja und bezüglich "Far Cry" geht es ja inzwischen noch weiter->

Durch einen Bug läuft die GeForce etwa 30% zu langsam wenn man AA im Treiber aktiviert! Aktiviert man das AA stattdessen im Spielmenu, kommt die GF6800Ultra in 1600x1200 4xAA 8xAFnahezu auf dieselben Frameraten wie die X800XT!!!! Das würde bedeuten, daß die X800XT von der GeForce 6800 Ultra Extreme sogar geschlagen wird!!

Weiterhin besteht gegen ATI in OpenGL der dringende Verdacht, daß heimlich ein brilinearer statt trilinearer Filter eingesetzt wird, der sich aber automatisch deaktiviert wenn man die MipMapübergänge per Einfärbungsfunktion überprüfen will!!
 
Weiterhin besteht gegen ATI in OpenGL der dringende Verdacht, daß heimlich ein brilinearer statt trilinearer Filter eingesetzt wird, der sich aber automatisch deaktiviert wenn man die MipMapübergänge per Einfärbungsfunktion überprüfen will!!

Das kling ja wie ne Geschichte aus 1001 Nacht. Wo haste das denn her?
Wenn es stimmt wäre das echt lolig...
 
Sachtman, wie bringe ich denn die ATI X800 Demo auf ner 9800Pro zum laufen?

Hieß doch, dass das geht.
 
Tja, wenn das sich alles so herausstellt, könnt's eventuell n Vorteil sein, weil ich dann die 6800GT nehmen würde und bis zu 150 € SPAREN könnte.

Marc Wessels der sonst nichts anderes als bedingslose Performance bereit ist zu akzeptieren spricht von "sparen" und zeigt tatsächlich ein Bewusstsein Preis/Leistung

Das überrascht mich positiv.

Obgleich ich vom Prinzip mit Deiner Meinung übereinstimme ist es technisch zwar als Mogelei zu bewerten wenn jedoch die Spielergonomie erhalten bleibt und keine wirklich ersichtliche IQ Quality geopfert wird könnte ich das tatsächlich hinnehmen.

Die GT ist mit Sicherheit das interessanteste Produkt der gesamten NextGen Linie.
 
Hi Leute, grad Shop entdeckt in dem man die ganze X800-Reihe und die Nvidia-Karten schon bestellen kann (sind schon gelistet), praktisch VORbestellen und werden am ersten Tag wenn sie sie haben gleich verschickt an alle !

www.xm-solutions.de
mfg,

ryceps :banana:
 
@ryceps: Genug mit der Werbung, das will hier keiner sehen!

@marc: Wenn ich Dennis richtig verstanden hab, sehe ich das auch so :d Mogeln bedeutet für mich, daß Bildqualität geopfert wird. Ist dies aber augenscheinlich nicht der Fall, soll's mir quasi "wurscht" sein.

Trotz allem, nachdem es jetzt mal wieder auf beiden Seiten Beschuldigungen gibt, warte ich doch lieber mal auf Retail-Vergleiche mit Omega-Treibern...
 
@Radical

Richtig verstanden.

----

Die Geforce 6800GT ist schon ein erstaunliches Produkt geschätzte 20Watt weniger Verlustleistung als die Ultra Variante aufgrund eines nicht unbedingt astronomischen GPU-Taktunterschieds von greade 50MHZ.

Das dieser Umstand NVIDIA dazu ermöglicht das PCB Design etwas günstiger zu gestalten im konkreten also auch auf den secondary Molex zu verzichten sowie eine SingleSlot Kühlung zu bevorzugen stimmt mich ebenfalls nachdenklich.
Diese Vergünstigungsmaßnahmen dürften dem Overclocking der GT definitiv nicht zuträglich sein ansonsten würde das wohl ziemlich kurios anmuten wenn eine GT mit SingleSlot Kühlung insbesondere aber trotz Single Molex auf dasselbe Niveau einer 6800Ultra kommt ich kann mir nicht vorstellen das die 50MHz hier das Zündlein an der Waage für einen weiteren Molex gewesen sind.
 
Ja, die Karten kommen mir auch alle sehr grenzwertig vor... die GT wird da vermutlich nicht viel Potenzial bieten, bei dem Mehraufwand bei der Ultra.
Und jene wird sicher nicht ohne Wasserkühler höher zu takten sein, wenn man den Anstieg der Verlustwärme von GT zu Ultra mit den Kühlergrößen vergleicht... sehr seltsam...
 
Die GT wurde aber schon in Reviews auf Taktfrequenzen oberhalb der Ultra übertaktet. Ich hoffe schon, daß sich das in den Verkaufsversionen bestätigen wird.
 
Hoffen heißt nicht wissen, sagt man so schön. Da bin ich lieber mal skeptisch, statt mich auf ein vermeintliches "Schnäppchen" zu freuen, was dann doch keines ist.
 
@Marc

Die GT wurde aber schon in Reviews auf Taktfrequenzen oberhalb der Ultra übertaktet.

Wo? Links, Quotes oder ähnliches!?

Das würde den Sinn und Zweck des DoppelMolex gänzlich in Frage stellen sollte ein Betrieb der GT innerhalb der Ultra Spezifikation bei gleichwertiger Stabilität möglich sein.
Aus ganz simplen und logischen Gründen dürfte das nicht gehen können.
Aber wenn Du wiegesagt Links oder ähnliches vorzuweisen hast nur her damit.
 
Zuletzt bearbeitet:
Schliesse mich da Dennis an wieso so ein Theater um Kühlung und Stromverbrauch-Aufnahme wenn es wie bei der GT "angebblich" auch anders gehen "soll"
 
das macht ansich schon Sinn aber es kann ja möglich sein das die Grenze der GT etwa bei dem der Ultra liegt und diese wiederum um einiges weiter zu ocn geht. Zumal ja gleich einer Extreme hinterher geschickt wurde. So hat man sich mit dem Design der Ultra noch genug Luft nach oben gelassen während die GT eben nur auf das Niveau selbiger kommt.
 
@Bilbo

Schwachsinn.
Wenn die Ultra keiner Doppel-Molex Anschlüsse bedürfte was ja evident wäre sofern man die GT reproduzierbar auf das Taktniveau einer Ultra anheben könnte hätte man diese hier nicht verwendet die Exxtreme hätte man bei Bedarf dann eben mit den erforderlichen Dual Molex Anschlüssen augestattet.

Allein die Tatsache das NVIDIA bei der Ultra diebszüglich die PowerConsumption auf ein nicht unbeträchtliches Niveau nach unten hätte korrigieren können wäre bereits Motivation genug gewesen dies bei der Ultra zu tun sofern es denn machbar gewesen wäre.

Nein. Der Punkt ist Dual Molex bei der Ultra muss in irgendeiner Weise auch bedeuten das Dual Molex essentiell ist für einen bedingungslosen stabilen Betrieb selbiger.

@Marc

Ich hab keine Informationen @Digit-Life gefunden bitte untersuch das mal genauer und lass es mich wissen.
 
dito

nVidia würde es sicher mit aller Macht zu verhindern versuchen noch weitere Image-Kratzer zu riskieren.

Also so chaotisch wie grad wars ja noch nie bei nem Generationswechsel..
 
please....deren ernst

und warum nicht-obs für 600€ einer kauft ist ja Deren problem ;)
 
600 teuros sind schon sehr viel für eine grakka ohne wasserkühlung was ???!
 
für 600 euro würd ich mir nen neues sys zusammenstellen:hmm: und nicht nur ne graka holen
 
Hier mal ein Auszug aus dem Interview mit Luciano Alibrandi seines Zeichens PR-Fatzke für NVIDIA:

Im Bereich um die $499 bieten wir mit der 6800 Ultra eine neue Architektur, Unterstützung für Next-Gen-Features (SM 3.0, 64bit Filtering / Blending von Texturen) und Spielraum zum übertakten an. Deswegen lautet unsere Empfehlung für jemanden, der $499 für eine Grafikkarte ausgeben möchte: Nimm die 6800 Ultra, nicht zuletzt wegen der Übertaktbarkeit ist sie die bessere Langzeit-Investition.

Die zweite Karte ist die GeForce 6800 GT. Diese Karte bietet 16 volle Pipes, 256 MB DD3, und alle Next-Gen-Features wie die GeForce 6800 Ultra, und wie das rumprobieren mit dem Übertakten zeigt, sollte sie ebenfalls den Spielraum für die Übertakter haben. Die Karte hat alle Features zum tollen Preis: 16 Pipelines, Support für SM 3.0 und 64 Bit Textur-Filterung / Blending, eine Ein-Slot-Kühlerlösung, und kommt mit einem Stromanschluss aus.

Hat man mit der DualMolex Geschichte etwa ganz besonders die OCer Fraktion bedacht?
Nicht das im sowieso rah gesähten Kundekreis derjenigen die bereit sind 400 - 500 Euro für eine solche Karte auszugeben nicht solche Gestalten zu fünden wären aber ob das tatsächlich der Grund ist.

@Marc

Wo ist die GT @ >Ultra?
 
Zuletzt bearbeitet:
hmm ist sehr komisch. also doppel molex nur fürs übertakten? die xt von ati hat doch nur einen oder? lässt die sich schlussfolgernd dann gar nicht takten also blicke hinter diese entscheidung nicht so ganz durch :hmm:
 
Ne die Ati braucht einfach weniger Strom bei ähnlicher Leistung! Is ja auch nich son Hitzkopf wie der Nvidia Chip
 
der zweite molex ist einfach nur dazu da damit der Strom über zwei anschlüsse vom netzteil an die graka fließt, wegen der Wärmeentwicklung an den Kabeln. Und wenn die ultra schon von nv aus für mehr oc takt ausgelegt werden sollte, dann wird die gt wahrscheinlich weniger vcore haben, wodurch sie auf keinen Fall auf die Verlustleistung der ultra kommen wird. wodurch die Einspeisung nur über einen molex geschieht. Allerdings ist der zweite Anschluss der ultra völlig sinnlos wenn ein noob oder andere die zwei molexe nehmen die an einem strang durchgeschleift währen, was dann wiederum dem effekt gleichzusetzen währe dass wenn die graka nur über einen molex gespeist werden würde
 
Denkt ihr eigentlich es ist geschickter die nächsten Woche nen X800 PRO für so 350€ zu kaufen oder lieber noch auf die GT warten ??
 
GeForce 6800GT oder ATI X800 PRO! :stupid: also diese Frage stelle ich mir jetzt auch! Wollte mir für EUR 380,- ne ATI kaufen! Wann kommt die GeForce 6800GT????????? Gruß Timo
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh