pure oder deluxe

moe

Semiprofi
Thread Starter
Mitglied seit
28.06.2001
Beiträge
2.449
Ort
Thüringen, VLBG, Österreich
Also ich will DIE karte:
v82t5p.jpg

das ist die ASUS V8200T5

Sollte ich nun die Deluxe Version nehmen oder die pure, was sind die genauen unterschiede, habe bis jetzt keine ASUS karten gehabt (zu teuer).
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
PURE: Ganz normal ohne Ausgänge

DELUXE: Zusätzlich bietet die Deluxe Variante Onboard TV-OUT & Video-in
Funktionen, dazu noch ne 3D Brille!!!

Wenn du genug Geld hast, kauf dir ne DELUXE, wenn du den zusätzlichen Schnickschnack nicht brauchst und nur zockst, dann bleib bei der Pure, die Performance ist ja dieselbe, denn die Ausstattung hat nix mit dem Grafikchip zu tun!!! Es kommt eben darauf an, ob du mal nen Videorecorder, nen DVD-Player oder sonstige Geräte direkt an deine GraKa anschließen willst und ob du auch deinen PC mal an einen Fernseher ranstöpseln willst, um z.B. DVDs abzuspielen oder einfach nur auch ner größeren Mattscheibe zocken willst!!!
 
Hi moe!

Also ich hab bis jetzt noch nichts negatives über die TV-Outs von Asus gehört!
Ich würde dir auch die Deluxe Version empfehlen, ist nur minimal teurer als die Pure Version!
 
Eben, im Geizhals-Preisvergleich ist der Unterschied nur ATS 700 / DEM 100

nur ich sollte halt einen guten TV-Out haben, nicht so einen mit dem schwarzen Rand rundherum, weil der Rand + Kinoformat ist dann sch**, wenn man sich nen Film reinziehn will...
 
Auf der deutschen Version von Geizhals (www.geizhals.at/de) beträgt der Preisunterschied aber nur 20 DM!
 
Bei einem so geringen Preisunterschied wäre auf jeden Fall die deluxe Version zu empfehlen.

Man weis ja nie, für was man die Anschlüsse mal gebrauchen kann. <IMG SRC="smilies/biggrin.gif" border="0">
 
Naja, der "minimale" preisunterschied ist zZ. ein Window-Kit <IMG SRC="smilies/wink.gif" border="0">

Ich möchte später einmal schon gerne ein-zwei DVDs auf dem fernseher kucken, und nicht aufm Bildschirm. Nur wenn dann Das bild aufm TV wegen den trauerrändern kleiner ist, als auf dem Bildschirm selber, bringt mir die Sache nix...
 
Dann würd ich mir ne andere GeForce 3 hohlen... den TV-In brauch nämlich wirklich fast niemand und TV-Out haben alle GF3 Karten ausser der Pure.

Es mag ja sein, dass du genauso viel Geld übrig hast wie ich <IMG SRC="smilies/biggrin.gif" border="0"> aber meinst du wirklich ne 500er lohnt ?
Die 200er hat doch die gleichen Features und is nur nen bissel niedriger getaktet... aber ruckeln wird damit sicher nix.

Und schau dir mal bitte das hier an http://www.world-of-pc.de/product_info.php/products_id/793

Im 3ten Abschnitt in der 2ten Zeile steht, dass die Graka 4ns Speicher mit 400MHz hat. Is das ein Druckfehler und sie hat 5ns oder werde ich mir diese Karte bald kaufen und auf die nominelen 500MHz Takten und mich freuen viel Geld gespart zu haben ?
 
Mh, die Ti200 käm für mich aber auch nicht in Frage: Die ist teilweise 'ne ganze Ecke langsamer als meine "normale" GF3... <IMG SRC="smilies/rolleyes.gif" border="0">

Moe, kauf' Dir doch eine umgelötete bei www.pctweaker.de, die hau richtig was raus und paßt optimal zu Deinem kommenden System!!!

cu

Marc <IMG SRC="smilies/tongue.gif" border="0">
 
Soviel ich weiss, haben die meisten Ti500 Karten aber 3.5 ns Speicher, was wiederum nochmal ein wenig OC-Potential versprechen würde...

@Marc: Was wurde denn da alles umgelötet? Mehr Spannung auf den Rams?
 
Also, bei den Standard-GF3s haben sie die Chip- und die Ram-Spannung erhöht, bessere Kühkörper verbaut und garantieren einen Betrieb bei 260/570MHz !

Da es schon einigen Hardcoreoverclockern gelungen ist, eine normale GF3 mit 300/600MHz stabil zu betreiben, rechne ich bei der kommenden Ti500 von pctweaker mit etwa 290/620MHz... <IMG SRC="smilies/drool.gif" border="0">

cu

Marc <IMG SRC="smilies/tongue.gif" border="0">
 
Mhhhh, klar ist die Titanium 200 langsamer als ne normale GF3, da hab ich nie was anderes behauptet... ist auch irgendwie logisch bei gleicher Ausstattung und niedrigerem Takt. Trotzdem wirst du mit ner 200er bis in 1nen Jahr nichts finden, was bei angemessenem System ruckelt.

@moe
Meinst du, dass mit den 4ns Stimmt ? Ich glaube doch eher, die haben 5ns und sich verschrieben.

Aber gerade wenn das mit den 4ns stimmt finde ich es noch viel lächerlicher für 0,5ns schnelleren Arbeitsspeicher 300.- mehr auszugeben... den das ist ja der einzige Unterschied.
 
@highwind
Ich könnte Dir jetzt einen ganzen Packen Spiele aufzählen, die damit ruckeln und in einem Jahr würde die Zahl auch nicht gerade geringer werden aber die Schmerzgrenze liegt wohl bei jedem an einer anderen Stelle... <IMG SRC="smilies/rolleyes.gif" border="0">

Ich kaufe mir nämlich garantiert keine schnellere Hardware, damit ich im MadOnionOrb höher oder auf Platz 1 komme (obwohl das auch ein Grund ist), sondern, weil ich mit der Frameratenleistung von einigen Titeln unzufrieden bin und beispielsweise für ReturnToCastleWolfenstein gerüstet sein möchte!

Rein technisch gesehen dürfte ein Spiel erst als ruckelfrei bezeichnet werden, wenn es in keiner Situation unter 60fps kommt (wenn man die niedrigst mögliche Bildwiederholfrequenz von 60hz unterstllt), da nur dann das Zueinanderpassen von Frequenz und Framerate gegeben ist.

Wenn z.B. MaxPayne zwischen 43 und 60fps hin- und herpendelt, so sieht das doch nun wirklich nicht optimal aus...

cu

Frameratenfetischist Marc <IMG SRC="smilies/biggrin.gif" border="0">
 
Die Shader usw haste ja auch mit der 200er auch, die find ich eigentlich auch das wichtigste, gerade deshalb würde ich die 300 für die 0,5ns spaaren.

Ein DVD oder DivX Video läuft mit exact 25 Bildern pro Sekunde, ruckelt das ?
(Ich weiss, dass der Vergleich schief ist, aber mehr als 40 tragen nur subjektiv zu einem Gefühl des fließens bei, das kann man nicht als ruckeln bezeichnen)

Bitte sag mir mal die ganzen Spiele die ruckeln... eins reicht mir eigentlich schon.
 
Naja, ich denke eher, dass die 200er nur 5 ns Chips hat... oder 4.5

hmmm... ich will aber nicht die ASUS V8200T2, die hat so ein komisches braunes PCB <IMG SRC="smilies/wink.gif" border="0">

Die V8200T5 ist in den letzten Tagen um ATS 400 / DM 60 gefallen, das lässt hoffen.
 
@highwind
Bevor ich hier schon wieder so einen langen Text verfasse, kopier ich mal eben ein statement von mir aus einem anderen Forum hier rein:
<BLOCKQUOTE><font size="1" face="Verdana, Helvetica, sans-serif">Zitat:</font><HR>
Es ist ein großer Unterschied, ob etwas vorher (oder auch live) mit einer optischen Kamera aufgezeichnet wurde und dann mit 50 Halbbildern pro Sekunde auf einer Mattscheibe erscheint oder ob eine Computergrafik in Echtzeit berechnet wird!!

Die Linse hat auch die Bewegungsunschärfen aufgezeichnet und dadurch wird dem menschlichen Auge, wenn es eine Fernsehsendung betrachtet, vorgegaukelt, daß es sich um eine höhere Bildwiederholrate handelt.

Bei der Computergrafik muß also eine höhere Framerate her, damit sie ruckelfrei und damit naturgetreuer wirkt.

Ein nicht unwichtiger Faktor ist allerdings (und das hat es mit dem Fernsehen gemeinsam), daß die Framerate zur Bildwiederholfrequenz passen muß. So sollte z.B. die stabile Framerate eines Spiels bei einer Bildwiederholfrequenz von 100hz 50, 75 oder 100fps betragen. Nur so kann eine "schlierenfreie" Bildwiedergabe gewährleistet werden. Leider ist es ja so, daß die PC-3D-Schnittstellen/Grafikkartentreiber keine Möglichkeit bieten die fps-Rate aus der Bildwiederholfrequenz beispielsweise zu halbieren. Das Spiel wird immer versuchen, so viel Frames wie möglich zu berechnen! Die niedrigste Bildwiederholfrequenz, die der User einstellen kann, beträgt (natürlich flimmernde) 60hz, daher sollte es das Spiel natürlich möglichst schaffen, 60fps über die gesamte Strecke zu berechnen um eine Differenz zu vermeiden.

Deshalb "existiert" diese magische 60fps-Grenze. Wenn es "nur" um flüssig wirkende Grafik gehen würde, könnten theoretisch natürlich auch 30fps ausreichen (wie z.B. bei RidgeRacer I auf der PlayStation). Wie oben beschrieben, kann man das Spiel aber nicht auf diese Framerate fixieren und selbst wenn man es könnte, wäre die Reaktionszeit des menschlichen Gehirns bei einer höheren Framerate trotzdem besser in der Lage, auf das Spielgeschehen zu reagieren. Der Mensch selbst würde es nicht bewußt wahrnehmen, aber seine Spielergebnisse wären bei z.B. 50fps (100hz) etwas besser als bei 30fps (90hz).
[/quote]

So, mehr brauch ich dazu wohl nicht zu sagen, oder?

In der aktuellen PC haben die anscheinend einen GANZ "optimistischen" Redakteur-> Der behauptet, daß ein Rechner mit GF3 und TB1400 noch ruckelfreies Spielvergnügen bis Weihnachten 2003 garantieren würde! <IMG SRC="smilies/rolleyes.gif" border="0"> Eine GF2Pro sollte immerhin bis Ende 2002 genügen...AHA...ich möchte mal DOOM3 mit 'ner GF2Pro sehen! <IMG SRC="smilies/eek.gif" border="0">

cu

Marc <IMG SRC="smilies/tongue.gif" border="0">

[ 23. Oktober 2001: Beitrag editiert von: Marc Wessels ]
 
1024*768 low details vielleicht, aber sowas möchte ich meinen Augen nicht zumuten...

btw, schöner artikel <IMG SRC="smilies/wink.gif" border="0">
also müsste meine graka 50 fps haben, oder noch besser 100, um meinen Sony E200 zu beschäftigen, aber ich denke mal, dass so eine These rein Objektiv ist, zb bei meinem Action-Shooter hat man während des Games wenig möglichkeiten, sich den Bewegungen an sich zu widmen, da das Gehirn sich auf andere Dinge fokussiert, was die Problematik der magischen 60 fps wiederum mildert...
 
Aber das wäre ja zumindest auch wieder eine unbewußte Sache: Du zielst auf schlierenbildende Objekte schlechter als auf ein scharf umrissenes...

Oder nehmen wir eine Rennsimulation: Es stört mich einfach gewaltig, wenn ich auf eine Kurve zufahre und ich nicht ein absolut "weiches" Gefühl hab'. Was natürlich NOCH stärker stört sind die Effekte die in dem Moment auftreten in dem die Framerate von den fps die zur Bildwiederholfrequenz passen zu den nicht passenden sinkt: Das nimmt man dann immer als scharfen Ruckler wahr, wobei man sich dann schon wieder die Frage stellen müßte, welches Überl nun das größere und damit störendere ist, das oben beschriebene oder das Tearing, wenn man auf VSync verzichten würde!?

Mh, am schönsten wäre es, wenn man nie Kompromisse eingehen müßte, sondern alles immer vollständig perfekt laufen würde. Aber das ist wohl nur ein Traum... <IMG SRC="smilies/rolleyes.gif" border="0">

Marc <IMG SRC="smilies/tongue.gif" border="0">
 
Ok, das ist schon ein wenig übertrieben... Die Effekte sind schon da, aber sie treten in den hintergrund... oder man gewöhnt sich daran, wie an das andauernde Cola-Gefühl im Mund nach 36 h ohne Schlaf
 
Mh, tja, zu C64- und Amigazeiten sah das alles noch anders aus: Da wurde in den einschlägigen Zeitschriften immer über Spiele hergezogen, die sich trauten, ohne anständiges, gleichmäßiges mit sich scharf abzeichnenden Grafiken, auf dem Markt zu erscheinen... <IMG SRC="smilies/biggrin.gif" border="0">

Ich weiß z.B. "nur", daß meine Rundenzeiten in F1RC gut 2 Sekunden besser waren, wenn ich ohne Cube Enviroment Mapping, welches das Spiel auf etwa 35-45 fps abbremste, auf der Strecke unterwegs war! <IMG SRC="smilies/smile.gif" border="0">

Marc <IMG SRC="smilies/tongue.gif" border="0">
 
LOL @ moe
braunes PCB... na und, es ist eine Grafikkarte... ich sag doch auch nicht, ich will mit dem Mädchen nicht zusammen sein, weil die 100m Sprint nicht unter 15 Sekunden schaft.

Ausserdem gibt es ja wohl auch noch andere Hersteller und Hercules ist z.B. blau und Elsa weinrot.

Und ich hab nochmal nachgefragt, es sind wirklich 4ns Module aus JEDER Titanium200 Karte.

@marc
Na dann kauf dir deine Ti500... und freu dich, 300.- für 0,5ns schnelleren Speicher (was immerhin 35MHz sind) ausgegeben zu haben, damit du dann noch weich in die Kurven fahren kannst und Doom mit 1600x1200 mit FSAA4x und Max-Details spielen kannst.

Und bald kommt bestimmt die nächste Karten Generation, aber bis dahin hast du ja 900 Märker wieder locker zusammen um die das Ultra Model kaufen zu können, gell ?

Ach, du scheinst es oben auch nicht ganz verstanden zu haben oder ? Ich habe genau das gesagt, nämlich, dass ab 25fps das ganze als ruckelfrei angesehen wird, da mann nämlich keine Einzelbilder mehr sehen kann... und auch, das höhere Frameraten auf jeden Fall noch zu einem subjektiven fliessen des Spieles beitragen. Dein Artikel ist zwar putzig, aber meiner Aussage wiedersprechen tut er irgendwie nicht, Sorry.

[ 24. Oktober 2001: Beitrag editiert von: highwind ]
 
War ja klar, dass da einer wieder die Hardwarewelt mit weibern vergleicht <IMG SRC="smilies/wink.gif" border="0">

Und die Ti500 geht mit dem Speicher bis 571 MINIMUM!!!
Der Chip läuft eigentlich auch höher, was bei der GF3 höhere Auswirkungen hat, wie bei der GF2...

Und ich werde mir eh erst wieder eine GeForce 5 ULTRA kaufen <IMG SRC="smilies/wink.gif" border="0">

@Marc:
Vielleicht warst du immer schlechter, weil du von der schönen Grafik abgelenkt wurdest <IMG SRC="smilies/smile.gif" border="0">
 
Leider geht der Speicher auch bis 571MHz Maximum... da kann man fast garnix mehr übertakten, wie ich inzwischen in verschiedenen Reviews gelesen hab. (Die 35MHz waren auf den physischen nicht den DDR-Takt bezogen <IMG SRC="smilies/wink.gif" border="0"> )
Wieso sollte der Chip höher laufen ? Er ist nur Standardmäßig höher getaktet, aber immer noch der gleiche Chip, so dass man mit OCen theoretisch auf die gleich Leistung kommen sollte.

GeForce5 Ultra rult... genauso wie Weiber <IMG SRC="smilies/biggrin.gif" border="0">

Ach, spielst du wirklich Train-Simulator ? Hört sich spannend an <IMG SRC="smilies/cwm13.gif" border="0">
 
<BLOCKQUOTE><font size="1" face="Verdana, Helvetica, sans-serif">Zitat:</font><HR>Original erstellt von highwind:
<STRONG>Ach, du scheinst es oben auch nicht ganz verstanden zu haben oder ? Ich habe genau das gesagt, nämlich, dass ab 25fps das ganze als ruckelfrei angesehen wird, da mann nämlich keine Einzelbilder mehr sehen kann... und auch, das höhere Frameraten auf jeden Fall noch zu einem subjektiven fliessen des Spieles beitragen. Dein Artikel ist zwar putzig, aber meiner Aussage wiedersprechen tut er irgendwie nicht, Sorry.
[ 24. Oktober 2001: Beitrag editiert von: highwind ]</STRONG>[/quote]

Nein, Du hast ganz klar von Videos gesprochen und nicht von Spilen und ich hab' erklärt, warum das einen Unterschied darstellt!

Wie dem auch sei; hab' heute mein EnmicKT266A ausprobiert (OT) und mußte leider feststellen, daß es meinen niedrigeren Multi vom AthlonXP nicht annimmt... <IMG SRC="smilies/frown.gif" border="0"> Und dabei geht auf dem board der FSB immerhin bis 163MHz (mit TB)! Deshalb schick' ich die CPU zurück und bestell mir eine professionel ungelockte. <IMG SRC="smilies/rolleyes.gif" border="0">

Marc

P.S.: Übrigens ist das Board sehr schnell, allerdings erst, seit dem ich 4 Register mit WPREST angepaßt hab'... 8% zusätzlich hat es bei der MaxPayne-Demo rausgehauen (bei der niedrigsten Framerate), insgesamt also 25% fixer als das 8K7A+! <IMG SRC="smilies/biggrin.gif" border="0">
 
LOL, schau doch mal, was in Klammern dadrunter steht <IMG SRC="smilies/wink.gif" border="0">
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh