LOL Nvidia 3DMK3

aber is schon ein komisches Zeichen für nvidia...

jedenfalls von meiner kleinen spielgemeinschaft aus... 4leute...alle 4 hatten vorher nvidia boards...und nun alle ATI's ^^


naja future mark is eh müll
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ich weiß garnicht, was ihr euch schon über ungelegte eier den kopf zerbricht

sobald das erste DirectX9-Spiel aufm Markt kommt, wird man wirklich sehen, was eine karte zu leisten vermag
 
Nope ...

Ich hab mal auf PC angezockt nur die Kameraführung hat mit beim Training so abgefuckt das ich aufgehört hab ...
 
das ändert alles nix daran, dass TR-6 Angel of Darkness oder so ein vollwertiges DX-9 game ist - in dem die nvidia-karten gut abscheissen, um es einfach mal so auszudrücken.

3dmark 2k1 + 2k3 ist eh mehr ne art rennen um platz 1 der ORB für overclocker, kein "wahrer" leistungsvergleich. prestige und PR, nicht viel mehr.
 
Richtig den NVidia wird ATI in DX9 nie das Wasser reichen können und da können sie noch so sehr an den Treibern rumbasteln, anderste sieht es bei DX7 und 8 aus.
 
Fakt ist das ATI einen FP24 Berechnungseinheit hat um die Texturen zu berechnen und FP12, FP16 und FP32 in FP24 umwandelt. Dafür stehen bei ATI 8 Pixelpipelines die in der lage sind jeweils eine Textur aufzunehmen, egal ob sie als FP12/16 oder FP32 ankommen werden sie in FP24 umgewandelt was ATI bei DX7/8 und OpenGL einen Leistungeinbuß beschert, weil alles aufgrund der Architektur umgerechnet wird. NVidia hat zudem 4 Pixelpipelines die FP12, FP16 und FP32 individuell berechnen und so gewinnen sie gegen ATI bei DX7/8 und unter OpenGL da keine umrechnung erfolgen muss. FP24 benötigt mehr Daten als FP12/16.
 
naja lassen wir uns mal überraschen, wenn doom3 und hl2 kommen, dann wird man wohl erst festellen welche Karte nun unter dx9 besser abschneidet. Ausserdem sieht es zurzeit so aus das nvidia bei hl2 wieder die Nase wahrscheinlich vorne hat da die jetzt wohl an einer optimierung für nvidia grakas arbeiten, naja spekulationen halt.
 
ma wieder irgendwo gelesen, dass nvidia cheatet, und schon wieder n neuer thread auf...

mal ganz ehrlich:
selbst wenn nvidia cheatet (was ich bei den neuen treibern nicht glaube)...
seht ihr da tatsächlich bei spielen wie z.b. Quake3 n unterschied in der bildqualität? oder max payne2 oder was weiß ich...bei aquanox bestimmt auch nich...so genau sieht man bei etwas schnelleren spielen echt nich hin...

mir fällts schon schwer den unterschied bei screenies zu sehen, und ich seh alles andre als schlecht...

des ganze gelabere find ich deshalb ziemlich schwachsinnig...
war bisher auch nvidia-vertreter...hab mir jetzt aber ne se geholt (siehe sig.), weil se einfach als PRO sackschnell und saubillig is...
auf so viel bildqualität würd ich dann auch verzichten wenn nvidia sowas rausbringt...

btw: s gibt auch diverse sachen, bei denen ati zu bescheissen scheint...weiß nimmer wo ich des gelesen hab, aber die ati-treiber sind auch nich so ganz ohne...
 
Eigentlich verstehe ich die ganze Aufruhr nicht. Wir wissen, dass 3D Murks kein Spiel ist... Wir wissen, wie "schlecht" es ist... Doch eigentlich zeigte uns Futuremark Anfang 2003 nur, wo nVidia Probleme hatte und CineFX wurde in Frage gestellt... Weitere Spiele belegten dies und mehr nicht. Hier wird nur eine Schlammschlacht veranstaltet, bei der sowieso jeder dem anderen den schwarzen Peter zuschieben will und keiner mehr durchblickt. Futuremark würde gut daran tun, sich mehr auf einen "spielbaren" Benchmark zu konzentrieren, der auch nach etwas aussieht. So wird aber weiter mit Dreck umhergeworfen, ohne dass IRGENDJEMAND nutzen davon hat. Naja, mir solls egal sein.
 
Original geschrieben von zgm-taurus
btw: s gibt auch diverse sachen, bei denen ati zu bescheissen scheint...weiß nimmer wo ich des gelesen hab, aber die ati-treiber sind auch nich so ganz ohne...

ATI filtert bei aktiviertem anisotropen Filter nur die erste Texture-Stage trilinear und die anderen lediglich bilinear ABER es läßt sich per einfachem Tweak zurückschalten. nVidia hingegen greift u.a. massivst in die AF-Filterung ein, indem, egal was der Anwender im Treiber auswählt, alles andere außer der ersten Texture-Stage grundsätzlich nur 2x AF gefiltert wird!!

Das hat jetzt natürlich nichts mit der Sahderleistung zu tun, die bei nVidia nunmal schlecht ist und durch Tricks, die die fps steigern, scheinbar nach oben gepusht werden kann, wodurch aber SICHTBAR das visuelle Spieleerlebnis leidet!

Aber Brillenträgern, die noch nicht wissen, daß sie eine derartige Sehhilfe benötigen, fällt das alles natürlich nicht auf.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh