Nvidia VS ATI - die Pros und Kontras. Ein Erfahrungsbericht.

Levare

Enthusiast
Thread Starter
Mitglied seit
12.08.2006
Beiträge
652
Moin.

Ich hätte nie gedacht, dass ich mich mal auf die ATI VS Nvidia-Diskussion einlassen werde, denn eigentlich war es mir bisher egal, von wem meine Grafikkarte kommt. Von daher habe ich das ganze Fanboy-Geseiere beinahe komplett ignoriert. Die Erfahrungen der letzten zwei Wochen haben aber gezeigt, dass es sehr wohl Unterschiede zwischen den Karten/Grafikchips und hinsichtlich der Bildqualität gibt. Umso verwunderter bin ich, und auch verärgert, dass die üblichen Hardware-Redaktionen das Thema nicht angehen. Vielleicht ist's auch an mir vorbeigegangen, keine Ahnung.

Auslöser der Problematik war der Kauf einer XFX GTX260 XT vor knapp zwei Wochen. Vorher hatte ich für rund drei Jahre eine XFX 7900GT im Einsatz - hat einfach noch gereicht. War sehr zufrieden mit dem Ding. Keinerlei Probleme. :)

Mit der Entwicklung der jüngsten Grafikkarten-Generation scheinen sich aber offenbar Probleme eingeschlichen zu haben. Die eben genannte GTX260 habe ich mittlerweile wieder an den Händler zurückgeschickt. Grund? Spulenfiepen. Und zwar so extrem, dass ich einfach nicht fassen konnte, was heutzutage auf den Markt geschleudert wird. :fire: Mein Video führt vor, wie meine Nvidia versucht hat, in Bild UND Ton mit mir zu kommunizieren. :kotz: Für mich als Liebhaber von wassergekühlten Silent-Systemen einfach nicht tragbar.

In etlichen Foren habe ich recherchiert, mich erkundigt, was es damit auf sich hat, nach Lösungsmöglichkeiten gesucht. Die gibt es nicht. Oder zumindest nicht ausreichend. Mag sein, dass bei einigen die Aktivierung von Vsync und anderen Mittelchen geholfen hat - bei mir nicht. Und ehrlich gesagt habe ich es als Verbraucher nicht eingesehen, noch länger recherchieren zu müssen, um Hardware-Bauteile zum Schweigen zu bringen. Den interessantesten Blog-Eintrag fand ich hier. In den Comments meldet sich anscheinend verdeckt ein Nvidia-Mitarbeiter ausführlich zu Wort. Und rechtfertigt die Sache offenbar. Die Versuche des Blogbetreibers, dem Spulenfiepen ein Ende zu setzen sind 1. unnötig peinlich (weil die Problematik dem Hersteller zuzuschieben ist und nicht von eigener Kompromissbereitschaft und Bastelarbeiten kompensiert werden dürfte) und 2. droht nach dem Verlust der Garantie auch noch ein frühes Ableben der Bauteile. Zugunsten des Herstellers versteht sich. Wenn man sich in den Foren so umschaut und die Reaktionen überfliegt, gehen sehr viele Kunden tolerant mit den Mängeln um, nehmen das Versagen des Herstellers in Kauf - hauptsache "die Karte hat endgeilen Speed!". :grrr:

Klar, diesen Umstand wollte ich nicht unterstützen und habe die Karte also gegen einen Aufpreis von 20 Euro gegen eine Radeon XFX HD4870 getauscht. Wohlgemerkt nach ETLICHEN vergeudeten Stunden für Ursachenforschung, Lösungsfindung, Umbauarbeiten am Rechner und Zurücksenden der Karte. Und - juhu - die Radeon ist still. Zu behaupten, es gäbe gar kein Spulenfiepen, wäre übertrieben. Aber das ist so leise, dass es im geschlossenen Gehäuse nicht zu hören ist. Dann Ernüchterung: in Benchmarks im Schnitt weniger Punkte als vorher. 3DMark Vantage quittiert mir den Wechsel auf ATI mit rund 2000 Punkten weniger. Der Test "Crash'n'Burn" besteht nur noch aus Standbildern - vorher war's flüssig. Okay, es wird ja eh behauptet, dass Futuremark NVidia-Karten eh stets besser dastehen lässt. Im Furmark erreicht die Radeon mehr Punkte, es sei denn, man geht mit dem Anti-Aliasing rauf - dann verreckt die ATI komplett. Trotz faktisch mehr Hardwareleistung auf dem Papier. :motz: Und sowieso: warum ist in der Rotation des Fell-Rings plötzlich in regelmäßigen Abständen ein ganz leichtes Stocken wahrnehmbar?

Das wäre nicht so schlimm. Tragisch ist dann aber die grundsätzliche Bildquali, die mir diese Radeon serviert. In Crysis plötzlich heftiges Grafikschlieren bei schnellen Bewegungen. Als würde Picasso auf LSD stolpern und seinen Pinsel über den Bildschirm schmieren. Auch bei der GTX260 gab es diesen Wischeffekt. Aber nur leicht und längst nicht so auffällig. Und sowieso wirkt das Bild insgesamt unruhiger, Mausbewegungen erscheinen nicht mehr so präzise wie bei den Nvidia-Karten. Dann Tests mit anderen Spielen. World of Warcraft: kein Schlieren, aber ein sehr unruhiges Bild bei Drehungen. Längst nicht so butterweich wie mit der GTX260. Trotz ähnlicher Einstellungen und niedriger Auflösung. Läuft man mit der Figur einfach nur geradeaus, ist ein regelmäßiges ganz leichtes Stocken im Bildlauf wahrnehmbar. Hatte der Fell-Ring im Furmark das nicht auch? Jedenfalls darf auch hier der ATI eine unsaubere, grafische Darstellung bescheinigt werden.

Jetzt bin ich an dem Punkt angelangt, wo ich vielleicht in den sauren Apfel beißen und auch die ATI wieder zurückschicken werde. Dann kommt meine uralte 7900GT wieder in den Rechner und dort bleibt sie auch. Bis zur nächsten Grafikkarten-Generation, wo es die Hersteller vielleicht schaffen, vernünftige Hardware auf den Markt zu bringen. Hardware, die ihr Geld wert ist.

Ich hatte hier jetzt den direkten Vergleich und wundere mich, dass derartige Unterschiede bisher kaum jemandem aufgefallen sind. Hätte Nvidia dieses unfassbar schrottige Spulenfiepen im Griff, würde die Wahl ganz klar auf Nvidia fallen. Zum jetzigen Zeitpunkt gehören beide Teilnehmer im Wettkampf um die Gunst des Kunden auf die Strafbank.

So, Ruhe jetzt. Bla. :d
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hallo, interessanter Bericht auch nachvollziehbar geschrieben.
Bei mir war es ähnlich, allerdings bin von einer 9800GTX 512MB auf eine HD4870 512MB gewechselt. Ich hatte regelmäßig Framedrops und kurze Ruckelleien. Daraufhin zog eine GTX 260 216 in mein System mit 896MB vRAM und siehe da, die Mini-Ruckler waren weg. So war das Spielgefühl deutlich angenehmer.

Weil mich es interessierte, woran es lag, lieh ein Bekannter seine HD4870 mit 1024MB vRAM und das Spielgefühl war besser als mit der 512MB-Variante, gleichauf mit der GTX260 216 Version.

Damit meine Frage: Wieviel vRAM hat deine ATI-Karte?
 
Lol, du hältst es 3 Jahre mit ner 7900gt aus, (die Serie war für ihre ich sag ma "mittelprächtige" Bildquali berühmt) und willst uns weißmachen das dich die Radeon auf einma so dermaßen stört das du sie wieder zurückschickst. Also ich weiß ja nicht...
Zu den Zucklern kann ich allerdings nix sagen, ausser bei FarCry 2, ist aber eh net so toll das Spiel.
 
Also dieses Rucken fiel mir mit meiner Karte mal bei Oblivion auf.... Deaktivieren von VSync hat bei mir da geholfen.

Ansonsten merke ich kein Rucken.... aber meine letzte nvidia ist auch schon 2 Jahre her... deshalb fehlt mir evtl. der Vergleich.... !?

Hast du die Treiberreste ordentlich entfernt ?? Die HD4870 1GB ist eigentlich wirklich ne edle Karte, wäre schade ! :(
 
Ja. Denn mittlerweile haben wir ein anderes Level an Möglichkeiten. Bei der 7900GT musste ich Ruckler natürlich tolerieren, weil die Graka am Ende einfach zu schwach geworden ist. Da lag es aber allein an der Leistung und nicht an schwacher Bildquali.
Nicht schön, daher ja auch jetzt endlich der Umstieg. Die GTX260 hat mir gezeigt, dass butterweiche Darstellungen ohne Hänger möglich sind. Warum sollte ich es dann bei der ATI einfach so hinnehmen, die laut Datenblatt mehr auf dem Kasten hat und (in dem Fall) sogar 20 Euro mehr kostet?

---------- Beitrag hinzugefügt um 23:24 ---------- Vorheriger Beitrag war um 23:20 ----------

Christoph, alle Treiberreste restlos entfernt, ja. Ich kann es nachvollziehen, dass einem die Ruckler, bzw. das unstabile Bild nicht auffallen, wenn man den Vergleich nicht hat. Man hält es dann eben für "normal". Nach meinem jetzigen Erfahrungsstand würde ich sogar fast schon behaupten, dass so mancher Spieler mit ATI-Karte einen Nachteil in Online-Shootern hat. So unsanft ist der Bildlauf zumindest hier.
 
Hmmm.... meine nächste Karte wird wahrscheinlich wieder eine nvidia. Da kann ich dann mal gucken. Dauert aber noch bis zum GT300 ;)
 
In Kürze geht's hier sowieso mit dem Geflame los. :d Ist mir klar. Ich möchte schon mal rechtzeitig darauf hinweisen, dass es sich um die hier geschilderten Erlebnisse lediglich um MEINE aktuellen Erfahrungen handelt. *zitter* Fruchtbare Diskussionen sind ja immer gut ...
 
Also ich habe gerade 5 Minuten auf den sich drehenden FurMark-Ring gestarrt.... wenn die Frames über 70 liegen dreht der sich so butterweich, weicher gehts nimmer !!

Ich würde an deiner Stelle nochmal etwas mit den Settings rumprobieren....
 
Einen interessanten Artikel hast du da erfasst.

Das Fiepen im Video scheint auch extrem zu sein, obwohl es logischerweise lauter erscheint, wenn man die Kamera direkt daneben hält. Damit will ich jetzt nichts entkräften, sie fiept nunmal.

Was ich allerdings nicht bestätigen kann, sind irgendwelche Ruckler oder Bildprobleme mit der 4870 - im Gegenteil, ich war sehr zufireden.

Mein einziges Problem mit der 4870 war, dass sich der Treiber alle paar Tage im Multi-Monitor-Betrieb (LCD+Beamer) verabschiedet hat.

So musste ich den Treiber im abgesicherten Modus deinstallieren, weil ich im normalen Betrieb kein Bild mehr hatte. Danach Neustart, Neuinstallation und gründlicherweise noch ein Neustart.
Danach lief es wieder ein paar Tage.

Was die Leistung angeht, ist die 4870 top - sogar die 512MB Variante hat mich in 1920*1080 nie im Stich gelassen.

Nun habe ich eine Gtx275 von Gainward und die fiept nicht, Glück gehabt :)

Die Problematik, dass die Hersteller solche "unfertigen" Produkte auf den Markt werfen, beunruhigt mich aber auch.
 
In Kürze geht's hier sowieso mit dem Geflame los. :d Ist mir klar. Ich möchte schon mal rechtzeitig darauf hinweisen, dass es sich um die hier geschilderten Erlebnisse lediglich um MEINE aktuellen Erfahrungen handelt. *zitter* Fruchtbare Diskussionen sind ja immer gut ...

Das hoffe ich nicht, denn imho hast du deinen Bericht sehr sachlich und dennoch mit viel Humor formuliert ;)
Das wäre nicht so schlimm. Tragisch ist dann aber die grundsätzliche Bildquali, die mir diese Radeon serviert. In Crysis plötzlich heftiges Grafikschlieren bei schnellen Bewegungen. Als würde Picasso auf LSD stolpern und seinen Pinsel über den Bildschirm schmieren.
Mein persönliches "Best of" :d

Und ich muss zugeben, dass ich das Spulenfiepen - was ich allerdings noch nie live erlebt habe - schon sehr heftig finde.
Ich denke mal da hätte ich auch die Nase gestrichen voll, denn mein Rechner ist sehr leise und darauf lege ich großen Wert.

Ich würde mir jedenfalls wünschen, dass es hier weiterhin so sachlich zugeht und der Thread von einem Close verschont bleibt :wink:
 
Was mir nicht in die Birne will: du sagst dass die ATI bei hohen AA Einstellungen "verreckt" !?

Gerade da sollte die HD4870 gegenüber der GTX260 doch punkten !?

Evtl. ist was mit der Graka nicht i.O. !? Ich meine aber dass da treibermäßig was nicht stimmt !!
 
Also ich habe schon sehr oft davon gehört, dass ATI-Karten langsamer werden, sobald es um starkes AA geht. Ab 8x gehts so richtig los. Da lag die GTX weit vorn. Treibermäßig alles ganz frisch und neu. Alles zuerst mit den Standardeinstellungen ausprobiert. Demnach dürfte es weder zu seltsamen Hängern noch zu Geschwindigkeitseinbußen kommen. Bei der GTX lief ja auch alles bestens mit den Standardeinstellungen.

AMDUser: Tauschst du deine GTX275 gegen meine ATI? :d
 
Ich glaube nicht, dass sie ne Macke hat. Vielleicht stimmt sich die GTX besser auf meine restliche Hardware ein? Also ich hab ja nicht unbedingt die aktuellste Hardware. Core 2 Duo E6600 auf 3,2 getaktet, 4 GB OCZ 800er-RAM, PCIe-1-Port. hmmmm ... grübel. Im Ati-Catalyst CC, was sollte ich denn da aktivieren? Adaptive AA (ist aus)? A.I. hab ich mittlerweile auch mal testweise ausgemacht. Mipmap steht auf High Quality. Overdrive ist aus.
 
AMDUser: Tauschst du deine GTX275 gegen meine ATI? :d

ich überleg's mir...
...hm, nein!

Hab meine 4870 im September 08 für 229€ gekauft und vor zwei Wochen für 125 bei Eb*y verkauft. Der Verlust hat mich hart getroffen - hätte aber auch höher ausfallen können :fresse:

Eine 260 hätte mir wahrscheinlich auch gereicht, aber ich wollte kein Geld ausgeben um am Ende mit einer ungefähr gleichschnellen Karte dazustehen, die mich auch noch Aufpreis kostet...
 
Ich glaube nicht, dass sie ne Macke hat. Vielleicht stimmt sich die GTX besser auf meine restliche Hardware ein? Also ich hab ja nicht unbedingt die aktuellste Hardware. Core 2 Duo E6600 auf 3,2 getaktet, 4 GB OCZ 800er-RAM, PCIe-1-Port. hmmmm ... grübel. Im Ati-Catalyst CC, was sollte ich denn da aktivieren? Adaptive AA (ist aus)? A.I. hab ich mittlerweile auch mal testweise ausgemacht. Mipmap steht auf High Quality. Overdrive ist aus.

Naja, wenns richtig flott gehen soll würde ich, je nach Game, 2x oder 4x AA einstellen (box), 16xAF, MIP-Mapping auf höchste Qualität, Catalyst AI auf "Erweitert", VSync aus, Adaptive AA ruhig auf "Qualität" !

Guck mal im CCC ob die Karte unter Last hochtaktet auf 750/900 !!

EDIT: Teste mal den Furmark mit:
AA: Aus
AF: Anwendungsgesteuert
AI: Erweitert
MIP-Mapping: niedrigste Quali
VSync: aus (zweite Einstellung von links)
Adaptive AA: aus

Guck mal ob dann die von dir genannten Ruckler weg sind !
 
Zuletzt bearbeitet:
Das Fiepen im Video scheint auch extrem zu sein, obwohl es logischerweise lauter erscheint, wenn man die Kamera direkt daneben hält. Damit will ich jetzt nichts entkräften, sie fiept nunmal.
meine radeon 4850 fiept auch so schrecklich. am schlimmsten ist es bei ati tool und bei älteren titeln mit entsprechend hohen fps. wenn ich die tür von meinem zimmer öffne, höre ich die graka noch eine etage tiefer fiepen... aber der wakühler war schon drauf:shake:

edit: die garantie war ja schon erloschen, dank dem wasserkühler.
 
Zuletzt bearbeitet:
Christoph, mit den von dir genannten Einstellungen sind die Mini-Ruckler tatsächlich weg. Keine Ahnung ob sich die Score sehen lassen kann: 6268. Müsste in Ordnung sein. Oder? Das ist jedenfalls mehr als mit der GTX. 2000 mehr oder so. :d

Jointi, das Ding hätte ich innerhalb der 14tägigen Widerrufsregelung zurückgeschickt. Hast wohl Pech gehabt, denn ATI-Karten scheinen nur selten zu fiepen.
 
Meine HD4850GS hatte auch stark gefiept....

Dann liegen die "Ruckler" daran dass es zu wenig fps waren. Klar dass es dann ruckelt ! Warum das dann ingame schlimmer ist als mit der GTX weiß ich auch nicht ! Grundsätzlich würde ich es aber so einstellen: Je nach Game, 2x oder 4x AA einstellen (box), 16xAF, MIP-Mapping auf höchste Qualität, Catalyst AI auf "Erweitert", VSync aus, Adaptive AA ruhig auf "Qualität" !

EDIT: AA und AF immer ingame einstellen wenn möglich. Nur im Treiber erzwingen wenns ingame nicht einstellbar ist ! (Falls es ingame eingestellt wird muss es im Treiber natürlich auf "Anwendungsgesteuert" stehen !
Würde mir für jedes Game ein Profil erstellen, so dass du immer optimale Performance und Bildquali hast....

EDIT2: Und wenn du sowieso in einem Spiel immer mehr fps hast als der Moni mit Hz fährt kannst du ruhig VSync auch anschalten.... !

---------- Beitrag hinzugefügt um 01:15 ---------- Vorheriger Beitrag war um 01:10 ----------

Keine Ahnung ob sich die Score sehen lassen kann: 6268. Müsste in Ordnung sein. Oder?

In welcher Auflösung ?? Naja, aber selbst für 640x480 isses top ! :d

Viel Spaß noch mit der Karte.... :bigok:
 
Zuletzt bearbeitet:
Also das waren keine Ruckler, die auf zu wenig fps zurückzuführen sind. Nicht bei einer Auflösung von 1280x1024 - der Ring dreht ja sonst butterweich, nur gelegentlich ein minimales Stocken. Eben war's zumindest weg. ABER in WOW ist das Stottern immer noch da. Es ist auch minimal, aber man merkt es einfach. Beim Laufen ist es so, als würde die Landschaft immer häppchenweise geringfügig kurz im Bildlauf "beschleunigen", einen Satz zum Spieler hin machen. Schwierig zu erklären. Und WOW hat ja nun wirklich keine hohen Anforderungen an die Hardware. Muss ich wohl noch ein wenig mit den Settings rumprobieren ...
 
Jo, Vsync überall aus. Vielleicht mach ich mal mit Fraps ein Video und hoffe, dass die Ruckler auf YTube noch sichtbar sind.

---------- Beitrag hinzugefügt um 01:30 ---------- Vorheriger Beitrag war um 01:20 ----------

LOL. Jetzt kommt's: Gerade versucht in WOW das "Ruckeln" aufzunehmen. Ohne Fraps latsche ich bei ca. 72 FPS durch die Gegend. Schalte ich die Fraps-Aufnahme an, werden die FPS auf 34 reduziert - und die Ruckler sind weg! :d Soll ich jetzt immer die Fraps-Aufnahme an lassen, wenn ich zocke? ;)

Man könnte nun vermuten, es liegt daran, dass ich mit 75 FPS schneller als mein Monitor mit 65 Hz bin. Richtig? Aber ich spiele tatsächlich noch auf einer Röhre mit 85 Hz-Setting.
 
Der TE testet Benchmarks wovon er kein Dust hat warum und wiso die Werte so sind beim Vantage (PhysX vs. Non PhysX), desweiteren scheint auch "Tearing" komplett unbekannt und die "Schalter" die das abstellen. :fresse:



Edit: zu Geil!

Nach meinem jetzigen Erfahrungsstand würde ich sogar fast schon behaupten, dass so mancher Spieler mit ATI-Karte einen Nachteil in Online-Shootern hat. So unsanft ist der Bildlauf zumindest hier.

:lol:

Also ich habe schon sehr oft davon gehört, dass ATI-Karten langsamer werden, sobald es um starkes AA geht. Ab 8x gehts so richtig los.

:lol:
 
Zuletzt bearbeitet:
und dort bleibt sie auch. Bis zur nächsten Grafikkarten-Generation, wo es die Hersteller vielleicht schaffen, vernünftige Hardware auf den Markt zu bringen. Hardware, die ihr Geld wert ist.

Hätte Nvidia dieses unfassbar schrottige Spulenfiepen im Griff, würde die Wahl ganz klar auf Nvidia fallen. Zum jetzigen Zeitpunkt gehören beide Teilnehmer im Wettkampf um die Gunst des Kunden auf die Strafbank.

So, Ruhe jetzt. Bla. :d

Puh erstmal respekt für deinen ausführlichen beitrag hier da weiss man garnicht auf was man zuerst antworten soll:p

Sowas sollte man öffters mal lesen hier,das hebt das niveau,als ewige das nervtötente"geflamme"

Ich hab meinen fingern zu liebe mal das bedeutenste rausgegriffen:drool:

Hardware die ihr geld wert ist
Da liegt der Hund begraben
Nicht falsch verstehen ich will hier jetzt keinen hersteller in irgendeiner weiße in schutz nehmen dies bezüglich,aber in gewisser weiße haben wir es uns selbst mit zuzuschreiben.Das ewige motto"geiz ist geil"ist ja schön und gut,nur führt es uns im highendsegment,wo der user eigentlich highend elektronikbauteile erwarten sollte,in eine sackgasse.
Da werden dann aus kostengründen u um dem mitbewerber noch paroli bieten zu können minderwertige spulen(kondensatoren) verbaut die bei der kleinsten lastwechselsituation anfangen zu schwingen u das von dir beschriebene pfeifen hervorrufen(dieses taucht aber auch bei ati karten auf).Oder es werden an den verbauten Kühlern optimierungen(einsparungen) vorgenommen,die dann zur folge haben das spannungswandler mal gerne ihre spezifikationen überschreiten u bis zu 140grad heiss werden.
Was otto normal user gar nicht auffällt weil er nicht das know how u die nötige fachkenntniss hat dieses zu überprüfen.

Daraus resultiert natürlich eine geringere lebenserwartung der bauteile u im endefekt der karte selbst.

Was ich damit sagen will hier muss langsam umgedacht werden"das gute qualität nunmal ihren gewissen preis hat!,aber nicht nur seitens der hersteller,auch im kopf des verbrauchers muss diese einsicht ankommen.

Jetzt werde ich sicherlich gleich gesteinigt dafür:Aber die preise die imo im highendsegment anliegen sind der absolute supergau für die qualität u dieses wird sich fortsetzen sollte sich daran nix ändern!!

Ich bin gerne bereit für anständige qualität ein paar euro mehr auf den tisch zu legen,als mich mit minderwertiger ware dann wochen oder monate lang mit aus u umtauschaktionen zu befassen:drool:


So das wars von meiner seite dazu:p
 
Zuletzt bearbeitet:
@Jake: "Überraschend jedoch ist der starke Einbruch der HD 4870 mit der eigentlichen Paradedisziplin 8x MSAA in Far Cry 2. Keine Chance hat die Radeon dagegen in Call of Duty 5, hier wird sie von der Geforce geradezu deklassiert." (Quelle: PC Games Hardware)

"In Fallout 3 kann die Radeon die Geforce GTX 295 einzig in 2.560 x 1.600 überrunden, allerdings rendert die Nvidia-Karte das RPG noch flüssig. Einen herben Einbruch erlebt die X2 in Call of Duty World at War (dt.), selbst mit 8x FSAA kann sie sich nicht wirklich gegen die Geforce GTX 280 durchsetzen. Far Cry 2 ist wie beschrieben keine Domäne für die HD 4870 X2, die Geforce GTX 295 ist über alle Auflösungen hinweg die schnellere Karte, in 2.560 x 1.600 rendert die Radeon gar nur halb so viele Fps." (Quelle PC Games Hardware)

und

"Die Geforce GTX 295 ist über die fünf getesteten Spiele hinweg mit vier- wie achtfacher Kantenglättung der klare Sieger. Zwar schrumpfen die 25 Prozent mit 4x FSAA auf 18 Prozent mit 8x FSAA zusammen, der Vorsprung bleibt aber deutlich."

Es hieß zwar offenbar mal, dass ATI bei AA die Nase vorn hat - anscheinend ist das aber nicht mehr Fall. Keine Ahnung.

Und bzgl. des Tearings ... jo, natürlich von gehört. Dachte aber eigentlich, dass sich das nur auf TFTs bezieht - ich spiele auf einem CRT. Anscheinend ändert das aber nichts dran.

Das mit dem PhysX hatte ich ebenfalls schon vermutet. Dann aber wiederum frage ich mich, weshalb der Test im CPU-Bereich läuft (war doch so?!) und warum der Test überhaupt im Standard-Benchmark integriert läuft, zum Nachteil von ATI.

---------- Beitrag hinzugefügt um 02:09 ---------- Vorheriger Beitrag war um 02:02 ----------

@Scully: Ich weiß. Letzten Endes sind die Verbraucher mit dran schuld, da sie zum Großteil die Mängel kompromissbereit in Kauf nehmen. Offenbar mit fatalen Folgen hinsichtlich der Qualität. Problem ist: diejenigen, die bereit sind ein paar Euro mehr hinzulegen, haben trotzdem keine Aussichten auf hochwertigere Karten. Selbst ne teure GTX295 fiept wie blöd. Den Kids, die überwiegend ihre Headsets auf dem Kopf haben, Fiepen tolerieren oder so gar nicht hören, freuen sich doch über jede Grafikkarte - hauptsache billig, schnell und in Benchmarks weit vorn.

---------- Beitrag hinzugefügt um 02:10 ---------- Vorheriger Beitrag war um 02:02 ----------

Übrigens nehme ich just in diesem Moment ein leichtes Fiepen meiner Radeon im 2D-Desktop-Betrieb war. Oh Mann ey ...
 
Und bzgl. des Tearings ... jo, natürlich von gehört. Dachte aber eigentlich, dass sich das nur auf TFTs bezieht - ich spiele auf einem CRT. Anscheinend ändert das aber nichts dran.

Das hat man nicht nur auf TFTs ;)

Das mit dem PhysX hatte ich ebenfalls schon vermutet. Dann aber wiederum frage ich mich, weshalb der Test im CPU-Bereich läuft (war doch so?!) und warum der Test überhaupt im Standard-Benchmark integriert läuft, zum Nachteil von ATI.

Frag das Futuremark mal.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh