GeForce FX ist offiziell vorgestellt!!!

Thread Starter
Mitglied seit
16.10.2002
Beiträge
862
Ort
Nürnberg
Zusammengefasst:

- TSMC's .13u process
- 125 million transistors
- Flip Chip package
- ~500MHz operation
- 128bit memory bus width
- 1GHz DDR2 RAM
- 8X AGP
- 64-bit and 128-bit floating point color
- Beyond DirectX 9 support
- Vertex Shader 2.0+
- Pixel Shader 2.0+
- 8 pixels/clock
- 16 textures per pixel
- Intellisample technology
- Cg and HLSL support

<img src="http://www.hardocp.com/images/articles/1037482125yomDI2gHPV_1_7_l.jpg" alt=" - " />

<img src="http://www.hardocp.com/images/articles/1037482125yomDI2gHPV_1_9_l.jpg" alt=" - " />

<img border="0" title="" alt="[Eek!]" src="eek.gif" /> <img border="0" title="" alt="[Eek!]" src="eek.gif" /> <img border="0" title="" alt="[Eek!]" src="eek.gif" /> <img border="0" title="" alt="[Eek!]" src="eek.gif" />

Hier die ersten Links:

<a href="http://www.nvidia.com/view.asp?PAGE=geforcefx" target="_blank">nVidia.com</a>

<a href="http://www.computerbase.de/news.php?id=4231" target="_blank">ComputerBase.de</a>

<a href="http://www.hardocp.com/article.html?art=Mzkw" target="_blank">Hardocp.com</a>

Wollte ich nur mal so erwähnt haben <img border="0" alt="[scoolblue]" title="" src="graemlins/scoolblue.gif" />

MfG Multi
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
<img border="0" alt="[steufel]" title="" src="graemlins/steufel.gif" /> <img border="0" alt="[steufel]" title="" src="graemlins/steufel.gif" /> <img border="0" alt="[steufel]" title="" src="graemlins/steufel.gif" />

... jo, ich war erster :p :d

<img border="0" alt="[steufel]" title="" src="graemlins/steufel.gif" /> <img border="0" alt="[steufel]" title="" src="graemlins/steufel.gif" /> <img border="0" alt="[steufel]" title="" src="graemlins/steufel.gif" />
 
Die reinen techn. Daten klingen ja nicht schlecht, aber da gibt's auf jeden Fall noch zu viel Ungereimtheiten wie z.B. das 128-bit-Interface, die mangelnde Wafer-Ausbeute, sowie die schlechte Verfügbarkeit von DDRII-Speicher...
 
lieber warten oder 9700 pro kaufen? die frage stell ich mir grad aber ich glaub ich schlag lieber jetzt bei er 9700 zu die gf fx dauert mir doch noch zu lange
 
<img border="0" alt="[steufel]" title="" src="graemlins/steufel.gif" /> <img border="0" alt="[steufel]" title="" src="graemlins/steufel.gif" /> <img border="0" alt="[steufel]" title="" src="graemlins/steufel.gif" />

Hier weitere Infos aus <a href="http://www.heise.de" target="_blank">www.heise.de</a>

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Comdex: Nvidia präsentiert neuen 3D-Grafikchip GeForceFX

Nvidias neuer 3D-Prozessor GeForceFX, bislang unter der Codebezeichnung NV30 gehandelt, bricht mit 125 Millionen Transistoren und 500 MHz Speichertakt einmal mehr alle Rekorde. Er soll durch Cinematic Rendering die letzte Hürde zu realistisch wirkenden 3D-Welten nehmen.

Wie erwartet nutzt der Chip keinen 256-Bit-Datenbus, sondern weiterhin einen 128 Bit breiten Datenpfad zum lokalen Speicher. Die erforderliche Speicherleistung erzielt Nvidia durch Einsatz der schnellsten, verfügbaren DDR2-Speicherchips von Samsung, die für 500 MHz Speichertakt spezifiziert sind und eine effektive Datentransferrate von 1 GHz erreichen. Damit kommt Nvidia allerdings nicht an das theoretische Maximum von 19,8 GByte/s des Radeon 9700 Pro heran, sondern muss sich mit 16 GByte/s begnügen. Beide Architekturen haben ihre Vor- und Nachteile: Der Nvidia-Speicher lässt sich effektiver nutzen, da die kleinste adressierbare Einheit nur halb so groß ist wie beim Radeon 9700/9500. Und ATI hat wegen der niedrigeren Taktfrequenz von 310 MHz weniger Latenz und weniger Wartezyklen im Speichertiming.

Beide Hersteller nutzen zudem Kompressionsverfahren für die Grafikdaten, was die Speicherleistung indirekt weiter erhöht. Nvidia verweist beim GeForceFX auf eine verlustlose 4:1-Kompression der Pixeldaten und ein schnelles Löschen des Framebuffers (Intellisample). ATI spricht beim Radeon 9700/9500 lediglich von einer Z-Daten-Kompression und einem Fast-Z-Clear (HyperZ III). Welche Methode wirksamer ist, muss die Praxis zeigen.

Bei der Taktfrequenz des Chips selbst ist sich Nvidia noch nicht sicher. Sie soll aber eher bei beindruckenden 500 MHz als bei 400 MHz liegen. Der Geometriedurchsatz soll jedenfalls das Dreifache eines GeForce4 Ti4600 betragen, was für einen vierfach parallelen Vertex Shader und annähernd 500 MHz spricht. Man möchte jedenfalls die höchst mögliche Leistung aus der neuen 0,13-µm-Technik herausholen. Schließlich führt der Chipfabrikant TSMC die interne Verdrahtung nicht mehr in Aluminium sondern in Kupfer aus (copper interconnect), das die Signale schneller zwischen den Baugruppen des Chips transportiert. Kompromisslos ist auch die Kühltechnik: Heatpipes leiten die Abwärme des Chips zu einem Wärmetauscher beim Slotblech, über den der Lüfter kühle Außenluft ansaugt. Dass die Grafikkarte zwei Slots belegt und wie bei ATI ihren Strom über einen separaten Anschluss direkt vom Netzteil bezieht, dürfte dann auch nicht mehr überraschen.

Hohe Speichereffizienz macht sich spätestens beim Antialiasing bezahlt. Nvidia fügt den AA-Modi des GeForce4 (2X, Qunicuncx, 4X, 4XS) noch die Modi 6XS und 8X hinzu. Allerdings nutzen die Modi 4X und 8X lediglich ein regelmäßiges Subpixel-Raster (ordered grid), mit dem die Glättungswirkung der Kanten weniger gut ausfällt. Ein gutes Ergebnis kann man dagegen von den Modi 4XS und 6XS (skewed grid) erwarten. Leider stehen sie nur unter Direct3D zur Verfügung.

Eine andere Neuerung ist adaptive Textur-Filterung. GeForceFX kann die Zahl und den Typ der Samples für die Texturierung den Gegebenheiten anpassen und so die Geschwindigkeit bei trilinearer und anisotroper Filterung erhöhen. Die Bildqualität würde dabei nicht beeinträchtigt. Dieser Filter-Modus ist zudem abschaltbar.

DirectX 9 übererfüllt

Der wesentliche Unterschied zwischen den beiden DirectX-9-Chips Radeon 9700/9500 und GeForceFX ist zweifellos in den Fähigkeiten der jeweiligen Vertex und Pixel Shader zu suchen. Der ATI-Chip ist ein relativ exaktes Abbild von DirectX 9.0 und verarbeitet Pixel-Shader-Programme mit einer Länge von maximal 160 Befehlen. Für Konstanten und Zwischenergebnisse stehen 44 Register zur Verfügung. Der GeForceFX kann dagegen Shader aus maximal 1024 Befehlen verarbeiten und verfügt über 64 Register. Auch der Befehlssatz geht bei Nvidia über die Vorgaben von DirectX 9 hinaus. Insbesondere ist mittels Schreibmasken die bedingte Ausführung von Programmteilen möglich, wodurch sich Code-Teile mehrfach verwenden lassen und lange Shader-Programme erst sinnvoll einsetzbar sein sollen. Vertex-Shader-Programme sind beim Nvidia-Chip ebenfalls länger und flexibler. Prinzipiell ist der Radeon 9700/9500 gleichfalls in der Lage, komplexe Pixel-Shader-Programe auszuführen. Allerdings muss er diese in mehrere Teile zerlegen und im Multipass-Verfahren abarbeiten.

Auch bei der Genauigkeit legt der GeForceFX eins drauf. Farbberechnungen führt sein Pixel-Shader in einem 32-Bit-Gleitkommaformat aus. Alternativ steht noch ein doppelt so schnelles 16-Bit-Format zur Verfügung. Der ATI-Shader arbeitet bei Farbberechnungen mit einem 24-Bit-Gleitkommaformat.

Im Pixel Shader sieht Nvidia den Schlüssel zu besseren Bildern. Um schwierige Flächen wie Fell, Haut, Vinyl, gebürstetes Metall oder blätternde Farbe zu erzeugen, seien für jedes Pixel hunderte von Berechnungen zu durchlaufen. Mit genügend Shader-Power lassen sich anstelle vorgefertigter Texturen auch prozedurale Texturen für Stein- oder Holzmaserungen direkt im Grafikchip errechnen. All diese Möglichkeiten findet man in gleicher Weise in Profi-Software wie Softimage oder RenderMan, die Animationsstudios für Effekte in TV- und Kinoproduktionen einsetzen. Nvidia hat nämlich nicht nur Spiele im Auge, sondern möchte aus Prestige-Gründen, dass der GeForceFX auch für Animationsstudios interessant ist.

Die dort eingesetzten Software-Renderer bewältigen zwar beliebig komplexe Effekte, lassen den Designer aber auf jede simple Preview minutenlang warten. In der Praxis ist dadurch die Zahl der Optimierungsschritte für Texturierung, Ausleuchtung und Reflexionsverhalten begrenzt. Dagegen präsentiert Hardware wie der Radeon 9700 oder der GeForceFX das Ergebnis nicht nur unmittelbar sondern auch als bewegliches 3D-Modell -- ein Traum für jeden 3D-Designer. Nvidia unterstützt die Entwicklung von Shader-Programmen mit einem Compiler für die eigene Grafiksprache Cg, der in Softimage, 3D Studio und Maya als Plugin zur Verfügung steht.

Spielepraxis

In Spielen sind hochkomplexe Shader-Programme für ultrarealistische Effekte nur bedingt praktikabel. Hunderte von Rechenschritten auf Pixelebene sind mit den erforderlichen Bildraten von mindestens 30 fps allenfalls vereinbar, wenn das betreffende Objekt das Bild nicht dominiert. Es ist daher schwer vorstellbar, dass Spieleentwickler die Shader des GeForceFX voll ausreizen. Wahrscheinlicher ist, dass man sich auf die ATI-Fähigkeiten als größten gemeinsamen Nenner beschränkt. Für die Spielepraxis wird ausschlaggebender sein, welche der beiden Architekturen beim Antialiasing und anisotroper Texturfilterung schneller ist und besser aussieht. Natürlich ist auch der reine Polygon- und Pixeldurchsatz von Interesse.

Nvidia macht zur Zeit noch keine Angaben zu verschiedenen Geschwindigkeits-Versionen oder kostenoptimierten Ablegern des GeForceFX, sondern arbeitet noch daran, die Chipausbeute zu erhöhen. In diesem Jahr werden allenfalls einzelne Exemplare in den Handel kommen. Mit breiter Verfügbarkeit ist dagegen erst Januar oder Februar 2003 zu rechnen. Der Preis der entsprechenden Grafikkarte wird voraussichtlich über 600 Euro liegen.

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Für 600 Euro kann man, denke ich, getrost zu der Radeon 9700 greifen, die bis dahin wohl ein stückweit billiger geworden sein dürfte.

<img border="0" alt="[steufel]" title="" src="graemlins/steufel.gif" /> <img border="0" alt="[steufel]" title="" src="graemlins/steufel.gif" /> <img border="0" alt="[steufel]" title="" src="graemlins/steufel.gif" />
 
</font><blockquote><font size="1" face="Verdana, Helvetica, sans-serif">Zitat:</font><hr /><font size="2" face="Verdana, Helvetica, sans-serif">Original erstellt von Fragleader:
<strong> </font><blockquote><font size="1" face="Verdana, Helvetica, sans-serif">Zitat:</font><hr /><font size="2" face="Verdana, Helvetica, sans-serif">Original erstellt von easyrieder:
<strong>...lieber warten oder 9700 pro kaufen?...</strong></font><hr /></blockquote><font size="2" face="Verdana, Helvetica, sans-serif">Für aktuelle Games (Leistungsreferenz UT2003) reicht eine GF4 (zumindest wenn du mit 1024x768/32bit zockst, auf AntiAliasing verzichten kannst und dir 2fach Anisotrope Filterung reicht) <img border="0" title="" alt="[Wink]" src="wink.gif" /> </strong></font><hr /></blockquote><font size="2" face="Verdana, Helvetica, sans-serif">AMEN! Ich warte auf die GeForce FX, bis dahin langt mir meine Ti4600 alle mal :cool:
 
</font><blockquote><font size="1" face="Verdana, Helvetica, sans-serif">Zitat:</font><hr /><font size="2" face="Verdana, Helvetica, sans-serif">Original erstellt von Fragleader:
<strong> </font><blockquote><font size="1" face="Verdana, Helvetica, sans-serif">Zitat:</font><hr /><font size="2" face="Verdana, Helvetica, sans-serif">Original erstellt von easyrieder:
<strong>...lieber warten oder 9700 pro kaufen?...</strong></font><hr /></blockquote><font size="2" face="Verdana, Helvetica, sans-serif">Für aktuelle Games (Leistungsreferenz UT2003) reicht eine GF4 (zumindest wenn du mit 1024x768/32bit zockst, auf AntiAliasing verzichten kannst und dir 2fach Anisotrope Filterung reicht) <img border="0" title="" alt="[Wink]" src="wink.gif" /> </strong></font><hr /></blockquote><font size="2" face="Verdana, Helvetica, sans-serif">Mir würde meine r8500 auch reichen aber leider hat sie nen defekt uns der pc friert bei games ein
 
angeblich soll die geforce fx um ca. 400€ rauskommen. da wird der 9700pro preis wohl in den keller müssen (hoffentlich).
 
</font><blockquote><font size="1" face="Verdana, Helvetica, sans-serif">Zitat:</font><hr /><font size="2" face="Verdana, Helvetica, sans-serif">Original erstellt von forumdeluxxuser:
<strong>angeblich soll die geforce fx um ca. 400€ rauskommen. da wird der 9700pro preis wohl in den keller müssen (hoffentlich).</strong></font><hr /></blockquote><font size="2" face="Verdana, Helvetica, sans-serif">starke betonung auf angeblich :)
 
laut heise 600 und das ist glaub ich am realsten! ddr2 ist teuer und bei der wafferproduktivität sind die waffern auch sauteuer
 
verdammt, das kühlsys ist ja krank?!!?
aber hoffentlich nehmen die net so laute lüfter wie bei dem vergleichbaren kühlsys von der aopen aeolus g4 ti4200!!

vom preis her bete ich mal für unter 500€ *g
 
Meine Meinung:

Ich habe mir obigen langen Artikel durchgelesen und schliesse daraus: Bei Spielen wird es sichtbar wohl keinen Unterschied zur Radeon geben. (Irgendwelche messtechnischen 1/1000 interessieren in der Praxis nicht). Dafür gibts die Radeon im Moment schon um 400 € und die Tyan kommt (hoffentlich) bald. Sie hat auf jeden Fall die coolste Optik und das höchste oc-Potential. Falls sie am Anfang auch teuerer ist - gegen X-mas hin wird so wohl auch um 400 € kosten.
Und da denke ich ganz einfach: Wenn die Weihnachtslieder gesungen, die Kinder beschert, die Eltern besucht sind - was muß dann sein???
Ja, zocken, bis der Arzt (hoffentlich nicht) kommt. Dafür sind schliesslich die Tage zwischen den Jahren da. Und gute Games gibts genug (bis dahin auch noch Gothic 2). Und wenn keine NVidia unterm Baum liegen kann (weil sie erst im Februar kommt), muß es halt ne Radeon sein (und auch noch Geld gespart).

In vorweihnachtlicher Erwartung grüßt das
Sackgesicht
 
</font><blockquote><font size="1" face="Verdana, Helvetica, sans-serif">Zitat:</font><hr /><font size="2" face="Verdana, Helvetica, sans-serif">Original erstellt von Hellangel:
<strong> </font><blockquote><font size="1" face="Verdana, Helvetica, sans-serif">Zitat:</font><hr /><font size="2" face="Verdana, Helvetica, sans-serif">Original erstellt von forumdeluxxuser:
<strong>angeblich soll die geforce fx um ca. 400€ rauskommen. da wird der 9700pro preis wohl in den keller müssen (hoffentlich).</strong></font><hr /></blockquote><font size="2" face="Verdana, Helvetica, sans-serif">starke betonung auf angeblich :) </strong></font><hr /></blockquote><font size="2" face="Verdana, Helvetica, sans-serif">Betonung auf angblich... Aber auf diese Karte müssen wir noch 3 Monate warten, dann wird die sicherlich auch über 450€ kosten (die Händler werden dann DA rauf noch mehr oder weniger Kosten draufpacken, wollen ja bei dem anfänglichen Boom auch was verdienen) und dann hat ATI ja auch wieder was neues auf Lager... Irgendwie zwiespältig die Sache also... Einerseits ist sie wirklich beeindruckend, andererseits gibts ja auch noch ATI. WENN, dann würde ich mir aber sowieso nicht die dicke, teure Version holen, mich interessieren eher die Karten BIS 300€... :)
 
Irgendwie find ich es komisch das auf dem ersten Bild die Graka nur einen Slot belegt (und hat) auf dem zweiten jedoch 2 und der zweite Slot am ersten fest ist(ein Stück).

Ich kann mir nicht vorstellen das die Kühlung echt soooo fett wird. <img border="0" alt="[cwm13]" title="" src="graemlins/cwm13.gif" />
 
jaaaa, aber es sieht teuer aus...

aber wie gesagt, wenn die da 7200er lüfter wie aopen es tut/tat einbaun, dann hol ich mir keine G FX!!
 
Es aoll wohl eine Ultra version geben und die hat dann wahrscheinlich 500/1000 mhz und diesen Monsterkühler. Wie laut der ist weiß allerdings noch niemand.
Man muß die ersten Retail Boards abwarten, vielleicht kommen die ersten ja schon Im Dezember. (zumindest Testmuster)

WIr mich könnte das Timing passen, bis die Granite Bay /SIS 655 boards verfügbar sind ist auch Januar und dann kriegt man vielleicht auch schon die FX.
 
Schön und gut, aber wenn das Teil nicht irgendwie "besonders" ist, werde ich bei meiner GF4TI bleiben - vor allen, da es ja jetzt wirklich keines und im nächsten halben Jahr kaum Spiele geben wird, die diese Monsterteile (GeforceFX & Radeon97k) wirklich voll ausnutzen.

Da warte ich lieber, und hole mir vielleicht irgendeinen Nachfolger, den es in 1/2 Jahr geben wird...wie schon immer.

Apropos: Das Kühlsystem ist ziemlich cool, hoffentlich ist es nicht zu laut. Die Idee ist zweifellos von Abit abgekupfert, aber das Prinzip ist schon genial. Vor allen wird die Gehäusetemp nicht unnötig in die Höh getrieben.

Kann es sein, daß es zwar tolle KArten, aber keine Software dafür gibt ?(rethorische Frage!)

Was soll ich mit einer sauteuren Karte, die mir zwar noch ein paar mehr Frames (oder viele) auf meine eh schon spielbaren Sachen draufpackt oder mir einen neune 3DM2001 Rekord beschert???
 
</font><blockquote><font size="1" face="Verdana, Helvetica, sans-serif">Zitat:</font><hr /><font size="2" face="Verdana, Helvetica, sans-serif"> Was soll ich mit einer sauteuren Karte, die mir zwar noch ein paar mehr Frames (oder viele) auf meine eh schon spielbaren Sachen draufpackt oder mir einen neune 3DM2001 Rekord beschert??? </font><hr /></blockquote><font size="2" face="Verdana, Helvetica, sans-serif">Ich denke das reicht fuer viele schon als Kaufargument :)
 
</font><blockquote><font size="1" face="Verdana, Helvetica, sans-serif">Zitat:</font><hr /><font size="2" face="Verdana, Helvetica, sans-serif"> Ich kann mir nicht vorstellen das die Kühlung echt soooo fett wird </font><hr /></blockquote><font size="2" face="Verdana, Helvetica, sans-serif">A propos Kühlung,...kann ich mir auch nicht so 100% vorstellen und zweitens ist das von der Optik her...naja...wie soll man sagen.....

<img src="http://www.hardware-mag.de/images/news/geforcefx_3_big.jpg" alt=" - " />

<img border="0" alt="[Laugh]" title="" src="graemlins/laugh.gif" /> <img border="0" alt="[Laugh]" title="" src="graemlins/laugh.gif" /> <img border="0" alt="[Laugh]" title="" src="graemlins/laugh.gif" />

Die Karte wird sicherlich verflucht teuer werden, wie schon aus den oberen Post gesagt wurde und ne GF4 reicht eh noch ein weilchen. Interessant ist diese eher für jene die sich im Sommer 03 ne neue Karte holen wollen :d dann brauch man sicherlich auch so einen Lüfter :d

Sil
 
Sparkle (TW)

Geforce FX: Sparkle nennt Preis und Verfügbarkeit

21.11.2002 16:55 Uhr - Der Grafikkartenhersteller Sparkle teilte soeben in einer Pressemeldung Verfügbarkeit und Preise erster Geforce-FX-Platinen mit. Demnach sollen erste Karten bereits im Januar in 2003 den Handel gelangen und zwischen 500 Euro und 600 Euro kosten.

Als Board-Spezifikation übernahm Sparkle die Angaben des Nvidia-Referenzboards: Die DirectX-9-GPU in 0,13-Micron-Fertigungstechnik verfügt über ein 1-GHz-DDR-II-Speicherinterface. Der Chiptakt liegt bei 500 MHz.
 
</font><blockquote><font size="1" face="Verdana, Helvetica, sans-serif">Zitat:</font><hr /><font size="2" face="Verdana, Helvetica, sans-serif">Original erstellt von seahawk:
<strong>Sparkle (TW)

Geforce FX: Sparkle nennt Preis und Verfügbarkeit

21.11.2002 16:55 Uhr - Der Grafikkartenhersteller Sparkle teilte soeben in einer Pressemeldung Verfügbarkeit und Preise erster Geforce-FX-Platinen mit. Demnach sollen erste Karten bereits im Januar in 2003 den Handel gelangen und zwischen 500 Euro und 600 Euro kosten.

Als Board-Spezifikation übernahm Sparkle die Angaben des Nvidia-Referenzboards: Die DirectX-9-GPU in 0,13-Micron-Fertigungstechnik verfügt über ein 1-GHz-DDR-II-Speicherinterface. Der Chiptakt liegt bei 500 MHz.</strong></font><hr /></blockquote><font size="2" face="Verdana, Helvetica, sans-serif">Hehe, habe ich auch gerade gelesen. Tja, war ja nicht anders zu erwarten <img border="0" title="" alt="[Wink]" src="wink.gif" />
Wenn man aber bedenkt das Sparkle nicht gerade der teuerste Anbieter für Grafikkarten ist, dann kann man sich mal ausmalen was ´ne GeForce FX (mann, dass hört sich fast so an wie MX :d ) von einem "Marken"-Hersteller wie z.B. ASUS (Vxxx DELUXE anyone?) kosten wird :rolleyes:

MfG Multi
 
Harhar. Der Kühler erinnert mich an was ganz böses. (Kleiner Tipp: Thermal Exhaust System :d ) Also, die Karte werde ich mir garantiert nicht kaufen. Vor allen Dingen wird mit dieser merkwürdigen 2-Slotblech Architektur der Einbau von einem anderen Kühler (Wasser, Thermaltake etc.) bestimmt schwer/unmöglich... :rolleyes:

Edit: Vor allen Dingen bin ich mal gespannt, ob die das mit dem DDR-II RAM überhaupt hinbekommen. Von wegen Samsung einziger Hersteller und der auch noch mit Schwierigkeiten bei der Fertigung.

<small>[ 22. November 2002, 17:32: Beitrag editiert von: jofo ]</small>
 
Aber mal nen kleines Gedankenspiel meinerseits (<a href="http://www.tecchannel.de/hardware/1072/9.html" target="_blank">Erste Quelle</a> + <a href="http://www.de.tomshardware.com/graphic/02q4/021030/r9700pro-cards-23.html" target="_blank">Zweite Quelle</a>):

Eine GFFX soll bei UT2K3, 1280*1024, 32Bit und 4*FSAA, 8*AF 108 FPS schaffen, eine GF4Ti4600 39 FPS... Getestet auf einem P4 3.06GHz... Eine R9700 Pro schafft auf einem P4 2.2GHz bei gleichen Vorraussetzungen:

55 FPS

Die GF4Ti4600:

20 FPS

Ich gehe weiter:

- Bei dem P4 2.2GHz: R9700 ist 2.75mal schneller als eine GF4Ti4600
- Bei dem P4 3.06GHz: GFFX ist 2.77mal schneller als eine GF4Ti4600

Ich gehe mal davon aus, das alle drei Karten bei dem CPU-lastigen UT2K3-Bench gleich gut skallieren! Dann müsste eine R9700 Pro auf nem 3.06GHz P4 107 FPS schaffen und die GFFX auf nem 2.2GHz P4 55.4 FPS. Na, fällt jemand was auf? :)

Gut, hier wurden unterschiedliche Systeme genutzt und vergleichen kann man das alles im Endeffekt vllt doch nicht so vereinfacht, wie ich das jetzt hier mache, aber trotzdem: Ich komme nicht weg von der Annahme, dass die GFFX irgendwie DOCH nicht 30% schneller ist, als eine R9700 Pro... Was meint ihr?

Und nicht das ihr mich falsch versteht: Ich bin kein nVidia-Hasser noch verteidige ich grundlos eine Radeon! Nur finde ich dieses Fazit irgendwie treffend:

</font><blockquote><font size="1" face="Verdana, Helvetica, sans-serif">Zitat:</font><hr /><font size="2" face="Verdana, Helvetica, sans-serif">"Die Shader sind deutlich aufgewertet, DDR II wird zum ersten Mal benutzt, und die erhöhte Farbpräzision ist innovativ - doch nach einem technologischen Durchbruch sieht der GeForceFX zumindest auf dem Papier nicht aus.

Zu groß sind die Zugeständnisse an die Fertigungsmöglichkeiten und das Design als AGP-Karte - nicht umsonst gibt NVIDIA den Stromverbrauch mit keiner Silbe an. Auch dass der Lüfter "leise" sein soll, ist alles, was der Hersteller von seinem eigenwilligen Konzept preisgibt.

Auf dem Papier ist der DDR-II-Speicher mit 128-Bit-Bus in der Bandbreite nicht schneller als DDR-I mit 256 Bit beim Radeon 9700Pro. Das müssen dann wohl der Chiptakt von 500 MHz und die überarbeiteten Pipes richten. Damit wäre zumindest das Klassenziel erreicht. Aber wie groß der Vorsprung ist, kann erst ein unabhängiger Test zeigen.

Um nachzulegen hat ATI ein Vierteljahr Zeit; die Nutzung des bereits vorhandenen DDR-II-Interfaces ist hier nur eine Option. Auch ein Wechsel auf 130 Nanometer erscheint noch denkbar, hier hat NVIDIA seinen Spielraum bereits ausgereizt - und vielleicht sogar überreizt. Die GeForceFX erscheint in der derzeitigen Form als Grafikkarte, die sich am Rande des technisch machbaren bewegt. Sein selbst gestecktes Ziel, alle sechs Monate den schnellsten Grafikchip auch zu liefern, hat NVIDIA diesmal jedoch gründlich verfehlt.

Product Line Manager Geoff Ballew begründete die früher Vorstellung im Gespräch mit tecCHANNEL nicht etwa damit, dass man ATI das Weihnachtsgeschäft verderben wolle. Vielmehr müsse man die Software-Entwickler bereits jetzt mit den Karten versorgen, damit Weihnachen 2003 genug Titel verfügbar seien, die das Potential des NV30 nutzen. Das bringe aber eine Vielzahl an Stellen mit sich, aus denen Informationen entweichen könnten. Daher habe sich NVIDIA entschieden, mit seinem neuen Design gleich an die Öffentlichkeit zu gehen.

Doch eine abschließende Bewertung des GeForceFX ist am Tag der Vorstellung mangels Testexemplaren noch nicht möglich. NVIDIA hat mit den technischen Daten hoch gepokert, ohne allerdings die Karten auf den Tisch zu legen."
</font><hr /></blockquote><font size="2" face="Verdana, Helvetica, sans-serif">
 
naja das ist ja eigentlich egal ob der nv30 schneller ist als der R300 den wenn sich nvidia nicht beeilt.....

naja der R350 hatte schon seinen Tapeout und das heist wahrscheinlich das der NV30 nicht der gegner vom Radeon9700pro ist sondern vom Radeon9900 mit 13µm und DDRII.....
 
hi

Ich solltet euch das mal durchlesen. Die FX soll nicht vor April 2003 kommen :)

Das Heist das ATI jetzt genug Zeit hat für den R350 wenn das stimmt

<a href="http://investor.cnet.com/investor/b...0.html?tag=ltnc" target="_blank">http://investor.cnet.com/investor/b...0.html?tag=ltnc</a>

Gruß
Meta
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh