Erste GeFroce Fx Benches

seahawk

Neuling
Thread Starter
Mitglied seit
08.10.2002
Beiträge
823
Ort
The Land where time stands still
Von Thilo von der PCGH


UT2003 auf Athlon XP2600, NForce 2, 512 MB, Windows XP

9700 Pro Ti-4600 FX Ultra
201 170 196 PCGH-Standardmodus 1.024x768, 32 Bit
110 65 143 PCGH Qualitätsmodus 2X FSAA + 4:1 AF
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also wenn ich die Tabelle jetzt richtig gelesen, gedeutet habe, ist die FX fürn Arsch, weil 9700Pro gleich schnell, aber billiger, oder
 
jo, so hab ichs jetzt auch aufgefasst.
währ doch kul! kann aber nicht stimmen oder? :confused:

mfg
 
Im qualitätsmodus hat die FX doch 33 Frames mehr!
Wenn ich das richtig entziffere!
Somit wäre die FX 30% Schneller als die Ati 9700pro
 
Hmm....warten wir erstmal "vernünftige" Tests/Reviews ab...:d ;)
 
dafür ist sie @ Standard langsamer als die ATi, die wie gesagt zudem noch um einiges billiger ist.
 
weiß denn hier wirklich einer wie man so ne tabelle richtig liest?
ich schau da nicht durch! kann mir das mal wer erklären?

thx
 
So, dann schreib ich die "Tabelle" für euch mal um.

1024x768, 32bit (Standardmodus)
-------------------------------------------
ATi Radeon 9700Pro: 201fps
GeForce4 Ti4600: 170fps
GeForce FX Ultra: 196fps


1024x768, 32bit, 2xFSAA, 4-1 AF (Qualitätsmodus)
----------------------------------------------------------------
ATi Radeon 9700Pro: 110fps
GeForce4 Ti4600: 65fps
GeForce FX Ultra: 143fps


So, hoffe ihr könnt sie jetzt lesen.
 
Ich nicht deuten das kann. Ich nicht glauben an Tabellee. Ich schnell vergessen das Tue.
Ich noch kein Vorurteil mir bilde.

:) Mögen die Frames mit euch sein :)
 
Hmm verliert die radeon9700Pro wirklich knapp 50% ihrer Leistung. bei nur 2xFSAA und 4xAF???? Kann ich schlecht glauben. Und warum wurden nicht 4xFSAA und 8XAF getestet. Vielleicht weil die GFFX da floppt?

Naja jedenfalls denke ich das die GF FX wirklich floppt. Vielleicht wird die in richtigen Test in den Standart Einstellungen schneller sein. Denke jedoch nciht in AA oder AF. Naja mal schauen was die bringt. Jedenfalls was diejetzigen Werte zeigen lohnt es sich nciht knapp 150€ mehr auszugeben für ne GF FX gegenüber ner Radeo9700Pro.

Ist jedenfalls meine Meinung
 
Also wenn sich diese Ergebnisse in anderen Tests bestätigen sehe ich schwere Zeiten auf Nvidia zukommen....... :rolleyes:

Besonders wenn der R350 kommt...... :d

Weil wer kauft sich den eine teure GF FX wenn er ne günstige Radeon9700Pro haben kann.... bei ähnlicher Leistung in bester Quali..... naja okay.... die Nvidia Freaks kaufen sie bestimmt :d
 
Also dieses Bild spricht eine andere Sprache.

ut2003_1.png


Hier verliert die Radeo9700Pro nur knapp 40% ihrer Leistung in 4XFSAA und 8XAF. Anstatt knapp 50% in den Test der angeblichen PCGH mit nur 2XFSAA und 4XFSAA.

Bei Hard Tecs wurde auf nem AMD Sys mit XP2000+ getestet. Dieser reizt die Karte nicht so richtig aus. Und PCGH berichtet 200fp!!! Sprich es muss nen starken CPU gewählt worden sein. z.b 3.06er P4. Denke wenn dieser in Benutzung kommt, wird die radeo9700Pro erst recht auftrumpfen können, weil XP2000+ nciht richtig die komplette Leistung der Radeon9700Pro ausspielen kann.

Deke die Werte sind entweder gefaktet, oder einfach nur Scheiße getestet.
 
Es ist nur logisch, daß sich bei höherer Plattformgeschwindigkeit der prozentuale Speedverlust bei Einsatz von AA und AF vergrößert.

Nimm nen 1GHz TB, dann haste auf einmal 0% Speedverlust bei 16x AF und 6xAA.
 
Häh nen 1Ghz Rechner soll 0% Leistungsverlust hinkriegen mit 16xAF... ? In welcher Zeit lebst du? Du meinstest wohl 10-100Ghz.

Und ne 0% Leistungsverlust wird das Teil auch nie erreichen. Sowas wird von der Grafikkarte berechnet. Und irgendwann ist auch mal Schluss. Man muss nur einen CPU haben, der die Karte volkommen ausreizt wo auch das Maximum der Karte heruasgeholt werden kann.

Ein Beispiel. Wo die Geforce2 raus kam, gabs ja auch schon FSAA. Gabs glaube ich schon auf der TNT2. Weiß nciht hatte eine eghabt, kann mich aber nicht mehr dran Eriinenr ob die das Feature benutzt hat. Naja zur der Zeit waren so 700Mhz üblich. Oder 1Ghz schon ziemlich gut. ich spreche jetzt wo die GF2 ganz neu raus kam. Nicht wo es schon PRO etc. gab. Aber deswegen kann ich mit meiner GF2Ti und nem 2Ghz Rechner trotzdem nicht mit 0% Speed VErlust in FSAA Spielen. Weil die Grafikkarte nicht mehr packt. Von daher ist die Aussage komplett falsch das durch einen schnelleren Rechner FSAA irgendwann der Leistungsverlust bei 0% liegt.

Auch wenn du ein Marc Weesels bist. Alles weist du nun auch nicht, und vertun kannst du dich auch. :)

Auserdem sollte das Bild kein AF vergleich oder sonstiges Herstellen. Den der Vergleich war dafür um zu Zeigen das die Werte die von PCGH geliefert werden irgendwie nicht stimmen könne.

Sagen wir deine Aussage wäre richtig (was sie definitiv nicht ist :cool: ) dann müsste die Verlustleistung bei den Werten von PCGH kleiner sein, als bei HardTecs. Den bei PCGH kam ne max FrameRate von 200fps. Bei HardTecs nur 127fps. Also muss es Grundsätzlich so sein das bei den 200fps ein schnellerer CPU eingesetzt wurde, oder?

Okay und warum hat dann bei dem schnelleren CPU der R300 schon bei 2xFSAA und 4xAF einen Leistungsverlust von knapp 50% bei den PCGH Werten?

Während bei dn HardTecs4u Werten. Bei einem langsameren CPU die VErlustleistung bei sogar 4xFSAA und 8XAF bei nur 40% liegen. Da kann ja etwas nicht stimmen. Und laut deiner Aussage müsste dann die PCGH Werte auch bei FSAA und AF folglisch höher sein, was sie nun aber nun mal nciht sind.

Von saher denke ich durch diesen kleinen Logisches Denkspiel, das die PCGH Werte auf irgendeiner Weise gefakt sind.

EDIT: Jaja hab dein Name Falsch geschrieben.
 
Also für alle die meine Schlussfolgerung nicht verstanden haben hier nochmal im Überblick.

PCGH max Werte = 200fps
HT4u max Werte = 127fps

Schlussfolgerung. PCGH nimmt nen besseren CPU was die Karte besser Auslastet. Den die Auflösung etc. war die selbe.

PCGH 2xFSAA+4xAF = 50% Leistungsverlust
HT4U 4xFSAA+8xAF = 40% Leistungsverlust

Trotz weil HT4u einen langsameren CPU benutzen muss. Ist die Verlustleistung der R300 bei einegschlateten und sogar höheren FSAA und AF niedriger. Nur 40% gegenüber 50%.

Logisch wäre jedoch das beim PCGH Test durch nen höheren CPU die GraKa besser ausgereizt ist und der R300 da die Verlustleostung niedriger ist. Weil unter anderen nen 2000+ bei HT4U nciht die Karte ausreizt, dort jedoch schon eine niedrigere Verlustleistugn hat.

Hoffe nun hat es jeder gerallt. Auch du MArc Wessels?

P.S.: Tut mir leid ich garbbe immer Tief in Wunden :d

EDIT: Nimm es nicht Persönlich nur nen Sherz. :ha
 
Also tecChannel hat jetzt auch einen Test herausgebracht und allein die Leistungsaufnahme hat bei mir für Kopfschmerzen verursacht. Da kannste ja gleich eine Wakü für das Ding bestellen oder einen Delta.
Jungs 75 WATT!!!!!
Das muss mal einer toppen :d :d :d
Was sich Nvidia wohl dabei gedacht hat. Nur müll. wegen 400 3dmark-Punkten soll man mal eben 200 Euro mehr zahlen????
Also wenn die keinen totalen lattenschuss haben, weiss ich auch nicht. Naja überzeugt euch mal selbst:

http://www.tecchannel.de/hardware/1109/13.html

Naja jedenfalls drückt das den Preis und das ist das erfreuliche. In 3 Monaten wird eine radeon gekauft.

char
 
falls das stimmen sollte mal ne frage:

wer kauft sich die fx für ca. 500-700€, wenn die r350 (9800 oder 9900) bald kommt.

ich schätz mal das die radeon nicht soo teuer ist, denn nvidia ist ja jetzt auch teurer. und die radeon wird sicher schneller sein.

da kauft sich doch im moment jeder ne radeon 9700pro übertaktet die und ist schneller als ne fx mit standard takt (aber nur wenn das stimmt!).

irrgendwie kann ich das aber nicht glauben. das würd ja nen wahnsinns umsatzrückgang für nvidia bedeuten.
 
nvidia ist schon so gut wie tot. Deren letzte Hoffnung ist die FX und ich hab vor ein paar Tagen gelesen, dass die 350 April rauskommen soll und die FX in 8 von 10 Benchs schlägt. Ich denke, dass spricht für sich.
Naja was ich aber wirklich top an Nvidia finde ist die verträglichkeit mit spielen und deren wirklich vorzügliche Treiberupdates.

char
 
In einer News bei Hard Tecs 4U wird folgendes egschrieben:

...Wenn man die Leistung der GeForce FX 5800 Ultra mit einer Radeon 9700 Pro vergleicht und im gleichen Zug sowohl Preis als auch den erforderlichen Aufwand bei Kühlung und Stromversorgung betrachtet, liegt die Vermutung nahe, dass nVidia mit ihrer Technologie vielleicht sogar schon die Leistungsgrenzen erreicht hat. Ob das wirklich so ist und inwiefern dies die Machtverhältnisse zwischen nVidia und ATI beeinflusst, wird man wohl in den nächsten Monaten sehen müssen.

Und naja nach dem Lesen dieses teils habe ich Überlegt, und denke da ist etwas dran.

Zu Lesen im Archiv am Tag 18.Janur2003 Titel "GeforceFX verlangt nach 350 Watt Netzteil" auf www.hardtecs4u.de

EDIT: ATI ist ncoh lange nicht am Ende angekommen. Die können immer noch auf 0.13µ Umspringen was den Core Takt nochmal um einiges erhöhen Läst. Dazu noch DDR-II technik benutzten, was den Speicher Takt um einiges erhöht. Alleine diese Änderungen dürften die GF FX wieder schlagen.
 
Zuletzt bearbeitet:
Also was mal wieder erstaunlich ist. Die Testen nur die Standarteinstellung ohne AA und AF. Und diese Werte die du gepostet hast @Zero sind schon jetzt das Todesurteil. Den die paar Points mehr. Nichtmal 1K. und die Karte wird ziemlich Tueer sein am Anfang. Ne Radeon9700Pro ist ja dagegen bestimmt noch nen Schnäppchen.

naja Frage mich wie es nur in AA und AF aussieht. Da wird die GFFX bestimtm Sucken. :d
 
@Sid Burn
Sorry, aber Du bist hier derjenige, der es nicht ganz verstanden hat.

Bei einer schwachen Plattform (CPU, Mainboardchipsatz) hast Du eine geringere Grundframerate als bei einer starken.

Also ist es nur logisch und schon lange klar, daß auf dem schwachen System die Framrate beim Zuschalten von 16x AF + 6x AA beispielsweise nur 1% abnimmt, während der Feschwindigkeitseinbruch auf dem schnellen System im zweistelligen Bereich liegen würde.

Ich erinnere mich noch gut an das Geschrei beim Erscheinen der GF4, weil die Framerate beim Einsatz von AF ziemlixh runter ging. Da kam dann auch einer um die Ecke und meinte "Washabt Ihr alle? Bei mir geht die Framerate nur um 3% runter." Dieser "Jemand" hatte nur nen 600MHz Athlon... :rolleyes:
 
@Sid Burn
Sorry, auch wenn dus momentan noch anders siehst, Marc hat Recht! Bei langsameren Systemen begrenzt die CPU die Leistung. Wenn die CPU die Daten langsamer berechnet, rechnet doch auch nicht die Graka langsamer! Sie muss nur länger auf die CPU warten. Folglich hat die Graka mehr Zeit die Berechnungen durchzuführen und zudem wird die Bandbreite der Graka und des Grafikspeichers nicht voll ausgenutzt. Und das bedeutet, dass bei Features die viel Grafikspeicher-Bandbreite benötigen (FSAA, AF), der Leistungsunterschied zwischen aktiviert und deaktivert bei Systemen mit schwächerer CPU geringer ausfällt.

Mal ein extremes Beispiel: Wenn du in einem P1 mit 200 MHz ne RadeOn 9700 betreibst, hast du definitiv keinen Leistugsunterschied zwischen aktivierten und deaktiviertem FSAA+AF, also 0% Speedverlust. Die Bandbreite der Graka wird in dem Beispiel in keinsterweise ausgenutzt. Die Graka langweilt sich in der Zeit, in der sie auf die CPU wartet. Natürlich ist die Gesamtleistung dann sehr niedrig.

Anders sieht es bei einem System mit einer 5 GHz CPU aus. Dort würde die 3D-Leistug von der Graka begrenzt. Sie läuft nun mit max. Speed und verliert bei aktiviertem FSAA+AF am meisten an Leistung. Weil die Bandbreite der Graka im normalen Modus bereits komplett ausgereizt wird!
 
Okay das was du sagst stimmt schon. Aber...

Das ist ja der extreme Fall. und dieser ist auch cnithmals mit 1 ghz gegeben. Und zur Zeit sieht es so aus, je mehr CPU Speed du hast desto schnelelr wirds nachher in AA und AF. Du willst mir ja wohl nicht Erzählen das je schneller der CPU wird desto langsamer wird die AA leistung.

Alles klar, mit nem 2ghz Rechner habe ich 140 fps, und mit nem 100Ghz Rechner nur noch 10 fps. Das ist einfach lachhaft. Bei 100Ghz wird ne Radeon9700 Pro volkommen ausgelastet und der CPU langweilt sich. Jedoch geht die Leistung nicht runter, je schneller der CPU wird.

Okay und jetzt zum langsamere CPU. Die BAndbreite wird dann schon bei Standarteinstellung komplett ausgenutzt und ruckelt sagen wir mal mit 7 fps dahin. wenn du jetzt AA und AF einschlatest wirst nur noch 5 fps haben. Okay wird für dich kein leistungsunterschied sein. Aber das ist es wohl. von 7 auf 5 fps runter sind wieder 30% und wenn die Karte mit nem 200er sogar nur 1fps rechnet, und mit aktivierten AA sogar nur 0.7fps sind es wieder 30% langsamer. Nur macht sich das eben bei kleinen Mhz Zahlen nciht bemerkbar.

Zum einen kann ich das nachvollziehen, zum anderen ist es wieder Mißt. Meine Gf2Ti läuft mit meinen Xp2000+ in AA und AF auch besser als unter meinen P3 700er vorher.

EDIT: Ihr denkt viel zu Theoretisch. theoretisch gesehn dürfte ein Asynchroner Speicherbetrien nix bringen. Den der CPU liefert z.b. 2Gb Daten. Und der RAM ist schneller. jedoch ist der CPU immer ausgelastet mit den 2GB/s. Den der kann ja nicht mehr Übertagen pro Sekunde etc. Trotzdem bring asynchrone Speichertaktung was. jedenfalls auf KT333 System. bei mir knapp 20% mehr an leistung.

Synchron 4000 3Dmarks2001
Asynchron 5000 3Dmarks2001

= 20% schneller.

Theoretisch dürfte es nix bringen. Aber die Praxis sieht immer anders aus.
 
Zuletzt bearbeitet:
Also, ich muss zugeben das ich derbst entäuscht von der GeForce FX bin :(
Wer zum Geier gibt den 200-250€ mehr für die FX aus??
Für die 400 Points mehr im 3D Quark?? Für die ~5 Frames mehr??
Und in manchen Games bei aktivierten FSAA auch noch langsamer?? Dann auch noch volle Pulle audrehen (bei 3D-Anwendungen) das einem das Trommelfell platzt, ganz zu schweigen von dem belegten PCI-Slot, der Größe und des Gewichtes (660 Gramm)?? :wall: :wall: :wall: :wall:
Wenn das wirklich so hinausläuft, wie die Benches es zeigen, ist der kurz vor der Tür stehende R350 der Todesstoß für nVidia!!!
 
Also irgendwie erinnert mich Nvidia zur Zeit an 3dfx damals. Damals hatte Nvidia mit dem TNT und dem Geforce den grossen Wurf gelandet und 3dfx ist fleissig hinterhergedackelt und hat sich an der vorherigen Generation gemessen. Wenn man bedenkt, dass nvidia jetzt nach soviel Theater gerade mal mit der r300 mithalten kann und diese nur minimal schlagen kann und DAS, obwohl die 9700pro schon seit über einem halben Jahr auf dem Markt ist, frage ich mich, ob ich noch nvidia-Aktien kaufen würde? vorallem sind die negativen Punkte:
-Preis
-Wärmeentwicklung
Einfach zu gravierend. Ich hab das Gefühl, dass die den gleichen fehler wie amd machen und aus einer alten Technologie soviel wie möglich rausquetschen wollen. Ati hat sich Zeit genommen und komplett von vorne angefangen und man sehe es klappt. Tja ich glaube Nvidia hat einfach zu oft mist gebaut und war zu selbstgefällig, so wie 3dfx damals.
wenn man bedenkt, dass ende des Jahres schon über den r400 gesprochen wird, kann ich nur noch für nvidia beten ;)
Der 350 wir massig noch zulegen an Performance. Wenn ich mir das nur vorstelle. 400 mhz taktraten, ddr2, 0.13er Herstellung. Geil, Geil, Geil. vorallem werden 9700er und 9700 Pro Karten zum Schnäppchen. 190 für eine 9700 oder 260 für eine Pro, wie geil isn das :d
char
 
@Sid Burn
NEIN; AA und AF-Frameraten steigen natürlich bei einer schnelleren CPU an, aber NICHT so stark wie die Framerate bei deaktiviertem AA und AF.

Daß es grundsätzlich 30% Leistungsabfall von tril zu AF + AA seien, egal auf welcher Plattform, stimmt einfach nicht!!

Die Schere wird umso größer, je schneller die Plattform ist.

Irgendwann ist dann der Zenith erreicht, wo auch die norm. Framerate nicht emhr ansteigt, meinetwegen beim Sprung von 8GHz auf 10GHz, erst DANN ist der Speedunterschied zwischen deaktiviertem AF/AA gegenüber aktiviertem AF/AA immer gleich, ob nun 20, 30 oder 40GHz.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh