Stehen NVIDIA schlechte Zeiten bevor? (Update)

das einzige argument dem man zustimmen kann.
Begründung?

geht ganz klar für gamer an die 260 GTX
Wenn ich von P/L im dem Kontext spreche, sollte klar sein, dass wir vom gesamten Portfolio über einen entsprechenden Zeitraum reden. Und selbst wenn du nur die GTX 260 aktuell betrachtest, ist das maximal vergleichbares Niveau zur HD 4870. Beide gibt es aktuell ab etwa 130 Euro. Die GTX 260 (216) mag zwar das eine oder andere Prozentchen schneller sein, dafür musst du auch noch ein paar Euro drauflegen.

und ebenfalls nicht zu vergessen ist die bessere bildqualität bei Nvidia ab dem G80.
Ach hört doch bitte mit diesem Ammenmärchen auf. Wenn man schon pauschalisieren will, kann man maximal sagen, dass nVidia etwas besseres AF hat, ATI etwas besseres AA. Und zu HD gab es hier erst einen Thread. Wo soll nVidia da besser sein? Im Gegenteil, wenn schon, dann ist ATI tendenziell eher etwas besser. Aber so weit würde ich noch nicht mal gehen. Vieles basiert einfach auf subjektiven Eindrücken.

bei den vielen schulden müssen sie auch irgendwie geld machen. :d
Was aber noch lange kein Grund dafür ist, dass nun nVidia Schulden macht. ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@kowa1981
wie soll man über probleme reden, wenn du sie nicht siehst/sehen willst :fresse:
lassen wir das.

@mr.dude
wie gesagt, ich spiele auf den grakas, mit HD habe ich nichts am hut.
 
Deshalb sollte man es trotzdem nicht totschweigen u nur die vorzüge loben,das gehört zur objektivität dazu:wink:
da hast du natürlich recht.
ich habe kein problem damit, dass ATI die videos schöner wiedergeben kann. wenn man sowas für wichtig hält, dann nimmt man keine Nvidia.
 
da hast du natürlich recht.
ich habe kein problem damit, dass ATI die videos schöner wiedergeben kann. wenn man sowas für wichtig hält, dann nimmt man keine Nvidia.

Das weiss man leider vorher nicht,mir ist es auch erst durch den direkten vergleich von le frog aufgefallen,das es dort gewisse differenzen gibt in der wiedergabe von hd material:p

Jetzt nicht die kontrast u die farbwiedergabe betreffend,denn diese ist mit den nvidia filtern ati ebenbürtig;)
 
Zuletzt bearbeitet:
Mit etwas Abstand dazu ändert sich manchmal die Sichtweise...oder so. :fresse:


Weitermachen!! :d
 
@kowa1981
wie soll man über probleme reden, wenn du sie nicht siehst/sehen willst :fresse:
lassen wir das.

ich weiss nicht was du von mir willst. ich hab gefragt was für ein flimmern gemeint ist. mir ist das halt noch nicht aufgefallen. dann brauchst du nicht zu schreiben das ich sowas nicht sehen will. ist doch völliger quatsch.
wenn mir das aufgefallen wäre hätte ich sicherlich das schon erwähnt.

wenn ich mich zurück erinner an crysis warhead hatte ich mal sowas an bestimmten bäumen. ich bin mir nicht ganz sicher aber ich meine damals gelesen zu haben das das ein allgemeines problem war und nicht auf ati bezogen. sollte auch mit irgendeinem patch verschwunden sein. meintest du sowas?

wenn ich cod oder bf2 zogge kann ich kein texturflimmer feststellen. und auch bei grid ist mir das nicht aufgefallen.

gibt es irgendwo videos zu diesem flimmern damit ich mir was darunte vorstellen kann?
 
Nutze mal die Sufu da haben wir nen Thread dazu.

Aber tu dir selbst den Gefallen und schau sie nicht an, wenn du weißt was gemeint ist und auf was du achten musst wird es dir in Games dann leider auch immer wieder auffallen. So lange du nicht weißt wie es aussieht zockst du echt ruhiger. Eigene Erfahrung! ;)
 
Tuts bei ATI auch :p

Nicht im ganzen Bild, sondern nur an kritischen Stellen. Hat den Vorteil, dass es weniger Leistung frisst, aber den Nachteil, dass eben möglicherweise Positionen "übersehen" werden. Kann man natürlich auch andersrum auslegen. Tatsächlich sind es aber sogar nur sehr wenige Stellen. Wie soll Edge-Detection auch Texturaliasing bekämpfen?
Ist aber zugegeben sicherlich Geschmackssache, denn es gibt eben Fans von SSAA (zu denen ich mich in eingeschränkter Form durchaus zähle), Fans von CFAA und so weiter und so weiter...
 
Zuletzt bearbeitet:
Wie soll Edge-Detection auch Texturaliasing bekämpfen?

Edge nicht, aber Tent :fresse:

Ist aber zugegeben sicherlich Geschmackssache, denn es gibt eben Fans von SSAA (zu denen ich mich in eingeschränkter Form durchaus zähle), Fans von CFAA und so weiter und so weiter...

SSAA ist nicht schlecht, leider in neueren Games recht selten zu gebraucht (wegen den PP-Effekten und den daraus resultierenden Fehlern) und es klappt nur mit DX9


Downsampling könnte helfen :)

CRYSIS 2x2SSAA, 2xAA/16AF
 
Nutze mal die Sufu da haben wir nen Thread dazu.

Aber tu dir selbst den Gefallen und schau sie nicht an, wenn du weißt was gemeint ist und auf was du achten musst wird es dir in Games dann leider auch immer wieder auffallen. So lange du nicht weißt wie es aussieht zockst du echt ruhiger. Eigene Erfahrung! ;)
:lol: nette feststellung
 
Er meint Texturflimmern das tritt in Games mal mehr mal weniger und Nvidia ist davon genau so betroffen kommt immer auf die gewählten Einstellungen an.

Kann mir dieses Flimmern mal endlich jemand per Video oder Screen zeigen ?? Ich will nicht behaupten dass es das nicht gibt, würde es aber trotzdem gerne mal sehen ! Wenn das stimmt und das bei nvidia wirklich anders ist wird meine nächste Graka nämlich auch wieder grün !!
 
Edge nicht, aber Tent

So? Wie? Das ist immernoch nur MSAA mit erweitertertem Filterbereich. Oder meinst du den Blur? Das ist tatsächlich eher ... unsauber. Da kommt nämlich Bildinformation an Stellen, wo sie eigentlich nicht hingehört. An Kanten funktioniert das gut, auf Texturen wirds unscharf.

Und was meinst du mit Downsampling? Beim SSAA passiert auch "downsampling", wobei man das allgemein lieber filtern nennen sollte. Downsampling ist nämlich ein bisschen ein Oxymoron ;)
 
Zuletzt bearbeitet:
ich mache auch nicht ati runter,hatte selber immer wieder ati drin gehabt im PC.gerade die x1800xt x1900xtx und die x1950xtx waren geniale Karten im Vergleich zu damaligen 7800 gtx und 7900 gtx mit ihren Texturflimmern,gerade auch weil ati damals wegen dem sogenanten chack patch aa in Verbindung mit hdr in oblivion konnte musste eine ati rein.was mir nur nicht gefällt an ati ist dieser dual Karten Müll,wenn das ganze mal funktionieren würde aber ich hatte mr bei der hd 3870x2 und bei der hd 4870x2 und nen genialen Stromverbrauch.die gtx 280/85 ist zwar langsamer trotzdem spiele ich mit der Karte besser flüssiger ohne jeglichen Hacker.ich will die dicke big über karte auf Basis von einem big Chip und das gibt mir einfach nur noch nvidia!
ja die 5900 Karten waren Schrott aber ati hat bei den x800 Karten einfach mal das schader modell 3 wegelassen und ein shader model 2.05 eingesetzt, mit der x800 konnte ich die ganzen geilen shader 3.0 Effekte bei splinter cell nicht sehen,bei der damaligen 6800 ultra ging das alles.
 
mit der x800 konnte ich die ganzen geilen shader 3.0 Effekte bei splinter cell nicht sehen,bei der damaligen 6800 ultra ging das alles.

Jau, das war aber auch eins der einzigen Spiele, bei denen man den Technologievorteil der 6er-GF-Generation nutzen konnte. Bei allen anderen fortgeschritteneren SM3.0-Spielen war die Möhre nähmlich zu langsam.
 
Oder meinst du den Blur?

Deshalb auch der Smilie oben ^^

Und was meinst du mit Downsampling? Beim SSAA passiert auch "downsampling", wobei man das allgemein lieber filtern nennen sollte. Downsampling ist nämlich ein bisschen ein Oxymoron ;)

Das stimmt, wird aber auf unterschiedlichen Wegen erreicht und geht bei beiden IHVs (nat. noch Experimentell) :wink:
 
Ah :fresse: Man nehme den Schlauch hinfort, auf dem ich stehe. ^^

Du meinst für ATi da diese lustige Entdeckung, die sie im 3DC gemacht haben, was? Das ist tatsächlich sehr experimentell. :) Aber kann man verfolgen.

Mal sehen was da noch so kommt, gut wäre es wenn es übers Game ginge (bei CRYSIS gehts z.b. mit einem Trick) und bei ARMA 2 ist es auch mit drin im Menu, nur leider kostet es sehr viel Performance.
 
So viel zum Thema Transkodierung per CUDA:

Dabei vertraut man weder auf Nvidias CUDA- noch auf ATis Stream-Technologie, sondern nutzt den neuen Compute Shader, so dass das Feature auf saemtlichen Compute-Shader-kompatiblen GPUs (ab Direct3D-10-Unterstuetzung) moeglich ist.

Klick!
 
Was man nicht vergessen darf. AMD kämpft auf zwei Fronten - CPU /GPU.
Und Intel will demnächst auch in das Grafikkartengeschäft einsteigen.
 
Falls ich damit gemeint war: das proprietaere Modelle, egal ob sie nun CUDA oder STREAM heissen, mittel- bis langfristig keine Chance am Markt haben.
 
Falls ich damit gemeint war: das proprietaere Modelle, egal ob sie nun CUDA oder STREAM heissen, mittel- bis langfristig keine Chance am Markt haben.

Wieso sollte ggpu keine chance am markt haben?;) Nur die umsetzung der ganzen sache wird wohl demnächst eine andere werden,hin zu einem gemeinsamen standard:p

Hoffen wir es zumindestens;)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh