Lohnt sich GF2 Ultra

Psycho

Enthusiast
Thread Starter
Mitglied seit
03.08.2001
Beiträge
48
Ort
Wuppertal
Lohnt es sich 200.- mehr für ne Ultra zu bezahlen, oder besser die 200.- sparen und sich ne Pro holen ?

Rechner soll werden: TB 1,4 ghz, 512 DDR, usw.

Ich hab bis jetzt noch keine Benchmarks dazu gefunden...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Rein vom Preis-Leistungsverhältnis gesehen würde ich dir eher raten eine Pro zu nehmen.
Unter tecchannelfindest du auch Test in dem sowohl Pro- als auch Ultra- Karten dabei waren.
Ich hoffe der kann dier helfen.
 
Wenn du richtig gamen willst --> Geforce 3

Da wären dann die Asus 8200 und die Elsa Gladiac 920 zu empfehlen.

Preislich bewegen sich Geforce 3 Karten im Bereich 5500 - 7000 ATS (800 - 1000 DM)
 
Ich würde dir empfehlen eine Karte von Hercules, Asus oder Elsa zu nehmen, die sind alle nicht schlecht.
Was eine Geforce 3 angeht, bin ich der Meinung das sich diese Anschaffung zur Zeit nicht lohnen dürfte, da es in nächster Zeit fast keine Spiele gibt/geben wird die die neuen Features der Geforce 3 auch unterstützen.
 
Hi,

ich würde eine GF3 nehmen!!

Es geht hier nicht um irgendwelche Features, die noch nicht genutzt werden, sondern einzig und allein darum, dass in 99% aller Fälle noch immer die Grafikkarte der limitierende Faktor ist, nicht die CPU, nicht das Mainboard und auch nicht die Geschwindigkeit des Speichers!!

Ich gehe mal davon aus, dass Du in 1024x768x32 plus trilinearer Filterung + anisotroper Filerung spielen möchtest...okay, aus eigener Erfahrung kann ich Dir sagen, dass ein Thunderbird schon ab über 1,2 GHZ+SDRAM von einer übertakteten GF2Ultra ausgebremst wird, d.h. Dein 1.4er TB würde sich mit einer GF2Pro erst recht zu Tode langweilen...

Nimm also auf jeden fal eine GF3; übertaktete auf etwa 225/515MHz passt sie optimal zu Deinem 1400er!

Wenn bald die ersten Spiele erscheinen, die die DX8-Features (bzw. GF3-Features) WIRKLICH nutzen, nützt Dir allerdings eine GF3 auch nicht mehr viel...dann müsste es schon eine GF3Ultra oder eine GF4 sein.

So ist das nun mal und war auch immer schon so: Neue features werden eingeführt, kein aktuelles Spiel nutzt sie, dann kommen die ersten Games und dann stellt sich heraus, dass die erste Karte, die diese Features unterstützte, zu unmotorisiert ist, um diese dann auch tatsächlich im "Real Life" zu nutzen... <IMG SRC="smilies/frown.gif" border="0">

Aber wie schon gesagt, kannnst Du die füllrate der GF3 trotzdem sehr gut gebraucehn; ist die erste Karte, bei der Quake3 an keiner einzigen Stelle mehr unter 60fps fällt!!!

Apropos sieht man an diesem Spiel mal wieder, dass es in etwa immer 1,5 bis 2 Jahre nach Erscheinen eines Spiels dauert, bis man es (mit aktueller Hardware)tatsächlich flüssig zocken kann.

cu

Marc <IMG SRC="smilies/rolleyes.gif" border="0">
 
Ich möchte mal behaupten, dass man wohl kaum sagen kann Quake würde erst ab eine Geforce 3 richtig laufen.
Aber im Verhältnis zur Mehrleistung ist die Geforce 3 für den normalen User eigentlich zu teuer.
Da man sich für den Preis einer Geforce 3 auch schon fast 2 andere Grafikkarten kaufen kann, lohnt es sich wahrscheinlich mehr sich jetzt eine GTS Pro zu kaufen und in 1 Jahr von dem gesparten Geld noch eine neue Grafikkarte.
Wenn das Geld natürlich keine Rolle spielt, würde ich auch eine Geforce 3 nehmen.
 
Ich sage jetzt einfach mal, das eine GeForce 3 zwar sehr teuer ist, aber auch ihr geld wert ist!

Mann sieht es einigen Games schon an, dass ne GF3 dahinter steckt. Wenn man alle Effekte einschalten kann und immer noch flüssig spielen kann...

Wenn man Geld für einen 1400er hat, dann sollte man sich schon eine Geforce 3 leisten können, der Leistungszuwachs spricht für sich. In DX8 Games ist eine Geforce 3 Bis zu 70 % schneller als eine GF2 Ultra. und vor allem jetzt, wo langsam die DX8 Gmaes kommen (Max Payne, Aquanox). Und hoffentlich wird auch Halo die Geforce 3 unterstützen.

@marc Wessels:
Es reichen 30 fps, um flüssig zu zocken. und Quake III läuft bei mir eigentlich auch immer über 50 fps...
 
Würde auch sagen 'ne GF3. Nochmal auf 'ne Ultra upzugraden bringt nicht viel. Die fliegt dann spätestens Jahresende wieder raus, weil sie die neuen Features nicht unterstützt. Empfehlen kann ich die Gainward. Die macht übertaktet 225/525 stabil. <IMG SRC="smilies/biggrin.gif" border="0">

@moe
Wo hast Du die lustigen Smilies her. Sieht toll aus.

[ 05. August 2001: Beitrag editiert von: D-Gun ]
 
@moe
Nein, 30fps reichen nicht. Alle Games versuchen nunmal, mit maximaler Framerate zu laufen; leider kann man dem Detonator nicht sagen, dass er mit der Hälfte der hz-Anzahl laufen soll...

Sonst würde ich mit 100hz spielen und 50 fps pro Sekunde laufen lassen.

60hz ist die geringste Bildwiederholfrequenz die geht, also sollte das Spiele im Idealfall mit der gleichen fps laufen, sprich 60fps/60hz.

Wenn das Spiel aber unter diese unterste Grenze kommt, macht sich das als Ruckeln bzw. Verwischen bemerkbar, da die Framerate nicht mehr der Bildwiederholfrequenz entspricht.

Guck Dir mal einen PAL-Film an, während Du Deinen Monitor nicht mit 100hz laufen läßt. Dann weißt Du (hoffentlich) was ich meine.

cu

Marc <IMG SRC="smilies/rolleyes.gif" border="0">
 
Ich hab einen Sony E200 Multiscan <IMG SRC="smilies/biggrin.gif" border="0"> und spiel Quake III mit 50fps.

Der Punkt ist, dass die Grafikkarte solange ein Bild an den Monitor schickt, bis ein neues im Frame-Buffer liegt.
Der Unterschied 60Hz/100Hz beim Monitor ist was anderes als 15fps/30fps bei der Grafikkarte.

Die Bildwiederholfrequenz beim Monitor beugt dem Flackern des Bildes vor.

Je Mehr Fps ein Spiel hat, desto weniger ruckelt es.

Da ein PAL-Film mit 25fps läuft, ist ein SPiel mit 30 fps als Flüssig laufend anzusehen. Alles, was mehr ist, ist entweder eine Leistungsreserve oder "unnütz".
Du wärst der erste Mensch der den Unterschied 30fps/60fps merkt.

Und bei einem Pal Monitor mit 100Hz läuft der Film trotzdem mit 25 fps.
 
hehe...da hab ich doch tatsächlich was von Max Payne gehört??????

Also für dieses Game braucht wohl kein Mensch ne Gf3!!
Ich spiele das jedenfalls mit meinem 800er und ner PRO auf allen höchsten Stufen in 1024 sehr flüssig(mal abgesehen von der bullet-time-da ist es irgendwie als wäre da zeitlupe <IMG SRC="smilies/eek.gif" border="0"> <IMG SRC="smilies/biggrin.gif" border="0"> <IMG SRC="smilies/biggrin.gif" border="0"> )

Naja, jedenfalls ists trotz Gf2PRO und nem 800er(der auch noch auf 100Mhz FSB läuft) astrein!

wollte ich nur mal so anmerken! <IMG SRC="smilies/biggrin.gif" border="0">

MfG <IMG SRC="smilies/scoolblue.gif" border="0"> <IMG SRC="smilies/cwm13.gif" border="0">
 
Alle Features aktiviert? (Anti-istopisches Filterung kannst eh nich)

Mein Kollege Spielts auf einem 900er und einer MX flüssig.

Auf einer GeForce 3 schauts natürlich auch super aus... Bildqualität und Effekte und so
 
<BLOCKQUOTE><font size="1" face="Verdana, Helvetica, sans-serif">Zitat:</font><HR>Original erstellt von moe:
<STRONG>Ich hab einen Sony E200 Multiscan <IMG SRC="smilies/biggrin.gif" border="0"> und spiel Quake III mit 50fps.

Der Punkt ist, dass die Grafikkarte solange ein Bild an den Monitor schickt, bis ein neues im Frame-Buffer liegt.
Der Unterschied 60Hz/100Hz beim Monitor ist was anderes als 15fps/30fps bei der Grafikkarte.

Die Bildwiederholfrequenz beim Monitor beugt dem Flackern des Bildes vor.

Je Mehr Fps ein Spiel hat, desto weniger ruckelt es.

Da ein PAL-Film mit 25fps läuft, ist ein SPiel mit 30 fps als Flüssig laufend anzusehen. Alles, was mehr ist, ist entweder eine Leistungsreserve oder "unnütz".
Du wärst der erste Mensch der den Unterschied 30fps/60fps merkt.

Und bei einem Pal Monitor mit 100Hz läuft der Film trotzdem mit 25 fps.</STRONG>[/quote]


Hi,

Du hast nicht verstanden, wie ich es meine... <IMG SRC="smilies/frown.gif" border="0">

Klar läuft der Film trotzdem mit 25fps wenn der Monitor mit 100hz rennt aber die Framerate passt 1A zur Bildwiederholfrequenz, denn...tatatata...4x25=100!!!!

Ein Fil hat den Vorteil, dass er eine stabile Framerate hat, während ein Spiel eine flexible Framerate aufweist!

Wenn nun die Framerate bei beispielsweise Quake3(angenommen, du zockst mit 100hz) ständig zwischen 100fps und 70fps hin- und hersaust, macht sich das als äußerst störend bemerkbar, denn Du hast nur in den Momenten, wo das Spiel mit 100fps läuft ein absolut scharfes und verwischungsfreises Scrolling; ist doch logisch, oder?

Also könntest Du in diesem Fall besser etwas Flimmern bei 60hz in Kauf nehmen (was sowieso nur bei großen einfarbigen Flächen oder Text richtig auffällt) und Dein Spiel würde stabil mit 60fps laufen, also zu 100% zur eingestellten Bildwiederholfrequenz passen. Bedeutet: astreines Scrolling (x,y &z-Achse) ergo saubereres 3D-Spielgefühl!!

Aber DEN Fehler machen die meisen, nämlcih dass sie in hohen Bildwiederholfrequenzen spielen und dann oftmals auch noch das VSync deaktivieren. Das sollte man nicht tun...

Wie gesagt wäre es natürlich einfacher, wenn im Detonator von NVidia (oder anderen Treibern für andere Grafikchips) ein Schalter eingebaut wäre, mit dem man die Framerate halbieren oder vierteln kann.

Dann könnte man z.B. mit 120hz/4=30fps oder mit 100hz/2=50fps spielen. Dann wäre es flimmer- und ruckelfrei. <IMG SRC="smilies/biggrin.gif" border="0"> Ich fürchte aber, dass so ein Treiber nie herauskommen wird... <IMG SRC="smilies/frown.gif" border="0">

Nichtsdestotrotz ist eine hohe Framrate (60fs vs. 30fps) natürlich so oder so besser-> Selbst wenn man den Unterschied bewußt nicht sieht, so nimmt das Gehirn doch trotzdem mehr Bilder pro Sekunde auf, die es verarbeiten kann. So kannst Du dann besser auf das was auf dem Bildschirm geschieht, reagieren.

Das menschliche Auge ist durchaus in der Lage dazu, so viele Frames pro Sekunde wahrzunehmen und Du sprichst ja selber vom sogenannten Flimmern. Denkst Du, Du könntest 60hz auf dem Dektop als Flimmern wahrnehemen, wenn Deine Augen sowieso nicht mehr als 30fps aufnehmen könnten? NEIN, natürlich nicht. So gesehen darf man hz und fps sogar in einen Topf werfen, denn was Du auf Deinem Desktop in Word oder was auch immer siehst sind ja schließlich auch Einzelbilder die umso schneller auf den Schirm geworfen werden, je höher die Bildwiederholfrequenz ist.

Die meisten Menschen sehen ab 85hz kein Flimmern mehr, es gibt aber auch ein paar wenige, die erst ab 100hz kein Flimmern mehr wahrnehmen.

So, wenn Du mich jetzt nicht verstanden hast, dann weiß ich auch nicht mehr weiter... <IMG SRC="smilies/tongue.gif" border="0">

cu

Marc <IMG SRC="smilies/smile.gif" border="0">
 
Ich würde dir bei einem Athlon 1,4 auch zun einer GF3 Karte raten. Denn bei so einem System an der Grafik zu sparen wäre der schlimmste Fehler den man machen kann. Das man sie von vornherein übertakten sollte finde ich unsinnig. Sie bietet in ihrer jetzigen Form mehr als genug Performance. Ich selber spiele auf meinem Rechner (GF3 von Elsa + Athlon 1,4) Max Payne in 1600x1200x32 mit allen Details auf max + Anisotropic Filtering ziemlich flüssig. Ziemlich flüssig heisst rund 40fps im Schnitt, was mir vollkommen reicht. Mal sind es 50, mal kommt er auch in grossen Szenen wie z.B. den Lagerhallen auch mal kurz unter 25fps, doch das sind 1-2 Sekunden die mich nicht weiter stören und sich auch nur am etwas ruckelnden Mauszeiger bemerkbar machen. Bin jedenfalls mit meiner Wahl eine GF3 zu kaufen äusserst zufrieden. Zudem sieht die Grafik im direkten Vergleich doch, u.a. dank HW T&L und Anisotropic Filtering, im Vergleich zu einem Freund, der eine GF2MX besitzt, um einiges besser aus! Ich persönlich brauche nun keine 60fps um bei einem Shooter glücklich zu werden. Indirekt hat Marc nun nicht sooo unrecht wenn er meint, daß man vom Mausscrolling her schon einen kleinen aber feinen Unterschied bemerkt, zwischen 30 und 60fps. Aber alles was über 60fps läuft ist verschwendete Bandbreite, dann lieber eine Auflösung höher oder mehr Details an. Denn 150fps braucht wohl kein Mensch. Alles in allem freue ich mich schon auf die Spielezukunft wie Aquanox und Unreal 2. Obwohl Unreal 2 wohl so, wie schon der erste Teil, für viele ein Grund sein wird spätestens dann ihre alte GraKa gegen eine GF3 oder vergleichbares (Radeon2, Kyro III ??) austauschen werden.

@Marc. Ich bin einer von denen die erst bei 100Hz das Bild als Flimmerfrei wahrnehmen. <IMG SRC="smilies/smile.gif" border="0">

Das waren meine 2 Cents zum Thema. *g*

Nachtrag: War ja klar, daß ich wieder die Hälfte vergesse, von dem was ich noch schreiben wollte. Man muss sich ja nun keine GF3 mit 5 Anschlüssen, 10 Spielen und sonstigem Schnickschnack kaufen, wie z.B. die Asus. Das ist natürlich eine Geschmacksfrage. Ich selber habe mir jedoch die GF3 von Elsa zugelegt, denn sie hat nur die nötigsten Ausgänge und bis auf Giants nichts weiter im Paket. Dafür kostet sie im Gegensatz zur Asus 8200 Deluxe, die über 1000 DM macht, auch "nur" rund 879 DM. Das ist zumindest der Preis, den ich vor 5 Wochen bei Funcomputer bezahlt habe. Auch die GF3' anderer Hersteller sind bei einigen Versendern inzwischen für etwas über 800 DM zu haben. Wer also nicht unbedingt ein Asusfanatiker ist, kann hier gut und gerne bis zu 200DM sparen. Davon kann man sich dann z.B. schon wieder einen 256er Crucial DDR-Riegel kaufen. <IMG SRC="smilies/wink.gif" border="0">
Von der Leistung nehmen die sich doch sowieso alle nichts. Mal hier und dort 1-2fps Unterschied macht die Kuh nicht fett. Sind doch grössenteils sowieso nach dem Referenzdesign gebaut.

Zum Abschluss noch zwei hilfreiche Links:
Zum einen
Preistrend. Hier findet man Preisvergleiche von Hardwareprodukten bei unzähligen Versendern. Hat mir schon geholfen einige Märker beim aufrüsten zu sparen.
Und dann noch RIVA Station (VGA Charts). Hier wiederum findet man einen sehr guten Überblick von allen möglichen Grafikchipsätzen auf 2 Systemen. Sogar eine Voodoo2 und TNT1 sind vorhanden. Fand ich recht interessant.

Das wars jetzt aber wirklich.

Trybe

[ 06. August 2001: Beitrag editiert von: Trybe ]
 
Lieber Marc Wessels!

Sag mir bitte EIN einziges aktuelles Spiel, bei dem die Framerate konstant bleibt. Ich mach dir die Antwort einfach, ES GIBT KEINES.

Schon klar, dass man das Bild sauberer sehen würde, aber unterscheide bitte die Framerate und die Bildwiederholfrequenz. Weil ob du von 100 Bildern in der Sekunde(siehe mein Sony <IMG SRC="smilies/wink.gif" border="0">) 2 oder 3 in folge siehst(so wird das gemacht), dass checkt dein Brain garnet. Es werden nur ganze Bilder an den Monitor geschickt, sonst würde man selbst bei 100Hz ein dauerndes Flackern Haben.

Und bei den Detonatoren gibts unter Advanced Options-> Open GL Settings->Vsync :Immer aus, Default Off, Default on.

Und ja, fps und Hz darf man in keinem Fall in einen Topf werfen!!!

Fps: Das einzelbild wird in einem Stück im Frame-buffer gespeichert und über den DAC (Digital->Analog Converter) an den Monitor geschickt.
Hz: Hier kommt das Bild vom Frame Buffer im Monitor an. ein Elektronenstrahl fährt dan die ganze Strecke über den Monitor ab und baut so ein Bild auf.. Wenn der Strahl unten ankommt, is oben der Bildschirm eigentlich wieder schwarz. und dass erzeugt das Flimmern...

Wenn dus jetzt nicht glaubst, dann muss ich wohl oder übel ein paar Fachberichte und -bücher über Telekommunikation- und Fersehtechnik durchstöbern. DANN ABER !!


Also, hiermit sollte alles erklärt sein! und bitte nicht mehr so lange Postings, mir ist schon schlecht vor lauter lesen...


Übrigens, ich stimme Trybe voll zu, spätestens nächstes Jahr, wenn die ganzen Killergames rauskommen, wird die Geforce 3 in den PC kommen müssen... (dort gibts eh schon die Ultra oder die 4er?)
 
<BLOCKQUOTE><font size="1" face="Verdana, Helvetica, sans-serif">Zitat:</font><HR>Original erstellt von moe:
<STRONG>Lieber Marc Wessels!

Sag mir bitte EIN einziges aktuelles Spiel, bei dem die Framerate konstant bleibt. Ich mach dir die Antwort einfach, ES GIBT KEINES.
</STRONG>[/quote]

DOCH, gibt es! Und zwar so ziemlich alle, die etwa anderthalb Jahre oder älter sind...okay, nicht mehr so GANZ aktuell... <IMG SRC="smilies/rolleyes.gif" border="0">
<BLOCKQUOTE><font size="1" face="Verdana, Helvetica, sans-serif">Zitat:</font><HR><STRONG>
Es werden nur ganze Bilder an den Monitor geschickt, sonst würde man selbst bei 100Hz ein dauerndes Flackern Haben.
</STRONG>[/quote]

Warum erklärst Du mir das? <IMG SRC="smilies/wink.gif" border="0">
<BLOCKQUOTE><font size="1" face="Verdana, Helvetica, sans-serif">Zitat:</font><HR><STRONG>
Und bei den Detonatoren gibts unter Advanced Options-> Open GL Settings->Vsync :Immer aus, Default Off, Default on.
</STRONG>[/quote]

<IMG SRC="smilies/confused.gif" border="0"> Häh?? Was hat denn jetzt bitte VSync mit meinem Wunsch zu tun, dass ich gerne mit der Hälfte oder 'nem Viertel der Bildwiederholfrequenz zocken möchte? Oder willst Du etwa allen Ernstes vorschlagen, Vsync zu deaktivieren??!?
<BLOCKQUOTE><font size="1" face="Verdana, Helvetica, sans-serif">Zitat:</font><HR><STRONG>
Also, hiermit sollte alles erklärt sein! und bitte nicht mehr so lange Postings, mir ist schon schlecht vor lauter lesen...
</STRONG>[/quote]

Das sagt der richtige... <IMG SRC="smilies/biggrin.gif" border="0"> <IMG SRC="smilies/biggrin.gif" border="0">

Gute Nacht

Marc <IMG SRC="smilies/smile.gif" border="0">

[ 07. August 2001: Beitrag editiert von: Marc Wessels ]
 
Ok, dann spiel mal Giants und gib im Chat fr ein, oder spiel Diablo 2 und gib FPS im Chat ein oder spiel Half-Life (Mods gehn auch) und gib "net graph 3" oder net_graph 3 ein (sorry weiss jetzt nich mehr was). Als bei mir schwankt die Frame Rate bei Giants so um die 45-40, bei Diablo um die 25 (weiss nicht warum, ist von Blizzard beschränkt, vor der Beschränkung warens 69) und bei Half-Life ist 69-71 (wobei 71 offensichtlich das Maximum der Engine markiert, oder hat da jemand andere Erfahrungen)


VSync hat eigentlich jeder deaktiviert...
 
VSync hat jeder deaktiviert???

Um Gotttes Willen, das ist der größte Mist, den man beim Spielen machen kann!!! <IMG SRC="smilies/eek.gif" border="0">

VSync-Deaktivierung hat nur und WIRKLICH nur beim Benchmarken Sinn!!! Beim Benchmarken will man natürlich auch alle Leistungsspitzen mitbekommen, um verschiedene Grafikkarten, CPUs usw. miteinander vergleichen zu können.

Aber beim Spielen MU? VSync aktiviert sein. Nur so ist sauberes Scrolling möglich. Von den Tearing-Effekten will ich garnicht erst reden...

Was bitteschön versprichst Du Dir von der Deaktivierung des VSyncs?? Mehr Bilder pro Sekunde als der Monitor hergibt kannst Du sowieso nicht sehen.

Den Blödsinn, dass Spiele bei deaktivierter vertikaler Syncronisation flüssiger sein sollen, haben "kompetente" Fachmagazine wie die PCGames oder die PCGames-Hardware in die Welt gesetzt... <IMG SRC="smilies/madgo.gif" border="0"> Das ist Schwachsinn!!! <IMG SRC="smilies/mad.gif" border="0">

Es spielt sich viel schöner MIT VSync! <IMG SRC="smilies/smile.gif" border="0">

cu

Marc <IMG SRC="smilies/smile.gif" border="0">
 
Naja, bei mir siehts eigentlich so super perfekt aus.. kann ja mal bei Giants probieren, obs was bringt... sonst..

---------------------------------------------


Ok, jetzt mal zum eigentlichen Thema:

GeForce III bringts wirklich, ob jetzt mit oder ohne VSync <IMG SRC="smilies/biggrin.gif" border="0">
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh