ATI R600 [Spekulations Thread] (Part 1)

Status
Für weitere Antworten geschlossen.
thade schrieb:
Vergiss es, die breite Masse nutzt noch nichtmal AA und AF, nV wird nix ändern an der BQ, bin mir da sicher.

AAA ist ATis Gegenstück zu nVs Transparent AA. Mit einigen Tricks lassen sich auch auf nVs Karten eine gute BQ erreichen, aber 90% der Leute wissen nichtmal wie, also zählt das nicht. Es zählt out of the box, da hat ATi die Nase weit vor nV.

in meiner pcgh ist ein interview mit Nvidia in der ausgabe 8/06
dort steht unter anderem auch dass NV sehr auf ein Konsistenteres verhalten bei Features wie texturfilterung, Anti aliasing und Transparenz effekten achten wird.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
thade schrieb:
Alles nur Marketing Geblubber...
ach sei doch nicht so pessimistisch ;)
Intel hat ja nach vielen jahren auch aus den fehlern gelernt :)
okay bei intel war ich auch pessimistisch :)
 
Die meisten interessiert es nicht, was sie für eine Grafikkarte im System haben.

Schlechte BQ interessiert den meisten auch nicht, also warum sollte Nv etwas ändern?

Bei Prozessoren ist das ja etwas anderes, da muss auf Stromverbrauch geachtet werden, da einigen Firmen komplett mit Intelprozzis ausgestattet wurden.

Lass mal 50 PCs laufen und schau auf deine Stromrechnung.

Stromsparendere Grafikkarten wird es geben, aber erst in ein bis zwei Jahren.
Die meisten benutzen eh nur eine Onboardgrafik oder eine aus dem Mainstreamsegment.

in meiner pcgh ist ein interview mit Nvidia in der ausgabe 8/06
dort steht unter anderem auch dass NV sehr auf ein Konsistenteres verhalten bei Features wie texturfilterung, Anti aliasing und Transparenz effekten achten wird.

Vorallem in der Reduzierung oder?

Ich weiß, das ich NV sinnlos runtermache, aber bis jetzt hat sich in der BQ nicht viel geändert, seit dem NV30 war NV hintendran.
Wenn man beim G80 alles besser macht, dann :hail: NV.

Naja wir werden sehen.

mfg Nakai
 
Nakai schrieb:
Ich weiß, das ich NV sinnlos runtermache, aber bis jetzt hat sich in der BQ nicht viel geändert, seit dem NV30 war NV hintendran.
Wenn man beim G80 alles besser macht, dann :hail: NV.

Naja wir werden sehen.

mfg Nakai

Richtig
den NV30 fand ich noch am besten. der war Bug frei bis auf die shaderschwäche
will Hoffen das NV diesesmal alles richtig macht,
die sollten sich einfach die letzten generationen von ATI als beispiel nehmen :d
 
Night<eye> schrieb:
Richtig
den NV30 fand ich noch am besten. der war Bug frei bis auf die shaderschwäche
will Hoffen das NV diesesmal alles richtig macht,
die sollten sich einfach die letzten generationen von ATI als beispiel nehmen :d

Dem Fön darf man nicht vergessen, aber NV war auch schon mit dem NV30 hintendran.
Die 5700ultra war aber damals die beste Midrage-Karte^^

mfg Nakai
 
Philipp88 schrieb:
Die 9600 XT war doch besser, als die 5700 Ultra, soweit ich weis!
die 5700Ultra hatte eine höhere speicherbandbreite dank GDDR3 ram
 
Philipp88 schrieb:
Die 9600 XT war doch besser, als die 5700 Ultra, soweit ich weis!

Ich hab mir echt noch Benchmarks angeguckt, bevor ich das gepostet habe.
Beide sind ungefähr gleich schnell, manchmal ist die Geforce 5700ultra ein paar Prozentpunkte schneller.

mfg Nakai
 
GA-Thrawn schrieb:
[…]
Mit meiner 6800 UE und jetzt 7900 GT hingegen bin ich sehr zufreiden und das bild gefälltm ir auch, kleiner tipp wenns flimmert, die Herz Zahl im Treiber hochstellen ;)
lol dazu sage ich wohl besser mal nichts oder doch ;) Glaubst du den Scheiß wirklich den du da gerade geschrieben hast? die Herz Zahl im Treiber hochstellen um Texturflimmern zu verhindern lol??? Ich glaube du verstehst gar nicht um was es geht oder? :hmm:

Davon mal abgesehen Flimmert jede, wirklich jede Graka ;) ATI liefert aber halt das ruhigere bild (Weniger Flimmern (Ja Texturflimmern ist gemeint ;)) und weniger Textur Matsch durch schlechte AF Filterung ;) (Extreme Winkelabhängikeit bei 16AF + Optis drine + non-HQ) )
Dennoch Flimmern alle Grakas egal ob ATI oder NV ;)

Also komm mir ja nicht noch mal mit dem scheiß das ich die Hertz Zahl hochstellen soll für mein Monitor damit es kein Texturflimmern und Texturmatsch gibt!! Ich lass mich doch nicht von nem n00b wie dir (der nicht mal weiß worum es geht) als n00b hinstellen!!
BTW: Geh mal hier hin da kannst mal erstmal par Basics aufschnappen: http://www.forum-3dcenter.org/vbulletin/index.php?

GA-Thrawn schrieb:
Bei mir flimmert nix, dafpür laufen alle Games wie sie sollen und ichm uss net dauernd auf ATI Treiber warten die fehler ausbügeln.
Ich war bei meiner 9700 sehr enttäuscht von den Treibern, erst auf Treiber warten dann spielen.
Mit meiner 6800 UE und jetzt 7900 GT hingegen bin ich sehr zufreiden und das bild gefälltm ir auch, kleiner tipp wenns flimmert, die Herz Zahl im Treiber hochstellen ;)
thade schrieb:
Ganz großes Kino...., glaubst Du eigentlich selbst was Du schreibst? Es muss schon hart sein, seine Karte immer wieder verteidigen zu müssen, mit Fakten die nicht stimmen.
DITO!

thade schrieb:
Dann sag nicht ständig meine 7300gs flimmert nicht, wenn Du nichtmal ansatzweise weißt worum es geht.

Texturen flimmern, das hat nix mit dem Bildschirm zu tun. Schau mal ins 3DC, da sind genug Artikel und Meinungen von Usern.
:xmas: Ne mal ernst: 3DC ist die erste Anlaufstelle, denn das sind wirklich läute unterwegs die Ahnung haben ;)

Night<eye> schrieb:

in meiner pcgh ist ein interview mit Nvidia in der ausgabe 8/06
dort steht unter anderem auch dass NV sehr auf ein Konsistenteres verhalten bei Features wie texturfilterung, Anti aliasing und Transparenz effekten achten wird.
Glaubst du das wirklich? :confused: Ich hab nicht den glauben das die das umsetzen werden.

Wieso auch: Der Durchschnitts DAU, der nicht in nem Forum wie HWL, 3DC etc unterwegs ist, weiß es doch nicht besser und hat auch NULL Ahnung (und weiß auch nicht was man alles in Treibern Forcieren kann um die BQ zu steigern). Sol heißen, der durchschnitt DAU kauft sich ne GRaka baut sie ein (oder lässt sich die einbauen) und stellt dann alles zur Optik in den Einstellungen vom Game Ein und weiß noch nicht mal das es so was wie das ForceWare oder Catalyst gibt (Und wenn er es weiß hat er NULL ahnung wozu AA AF und so weiter da ist und wie man das einstellt oder Profiele macht) ;) Für ihm ist Alles in Ordnung, er kann sich nicht beklagen über irgendwelches Flimmern weil er kein Begriff (im wahrsten sinne des wortes) dafür hat! Für ihm ist das alle Normal und Super. Alles läuft schnell und das wenige Texturflimmern stört ihn nicht (mich übrigens auch nicht aber ich bin nicht bereit für ne HighEnd GRaka 500€ zu löhnen die Extrem schlecht BQ liefert weil das AF und AA schlecht Arbeitet) und nimmt es auch nicht als solches wahr. Genau an solchen läuten verdient NV und nicht an den freaks die hier im Forum und anderen Foren unterwegs sind! ;) U See?

Deshalb glaube ich nicht das NVIDIA irgendwas an ihrer Strategie ändern wird, denn die wenigen Läute die sich über die schlechtere BQ beschweren sind in der Minderheit. Die Mehrheit ist daran schon gewöhnt und nimmt es auch gar nicht mehr wahr, wie oben schon beschrieben!

Jo diese Tatsache traf irgendwie auch auf mich zu. Früher hatte ich NULL plan und hab dann immer gedacht das es an den Spielen liegt :-)fresse:). Erst wenn man ein wenig Ahnung hat wie Texturen Gefiltert werden, was es für Möglichkeiten in der Kantenglätung etc gibt, weiß man was genau für die BQ verantwortlich ist. Naja nun lese ich ja schon öfter mal auf 3DC und hab auch schon etliche Artikel gelesen über BQ (z.B. "NV Flimmerkiste 1 und 2") etc…Zumindest hab ich für mich entschieden das ich nicht bereit bin 500€ für ne Graka zu bezahlen, die nur auf FPS aus ist und die BQ extrem vernachlässigt…Aber wie gesagt das juckt NV wenig, weil sie das meiste Geld am LowEnd und MidEnd Markt verdient und die DAUs ehe kein Ahnung haben und das für Normal hinnehmen ;)

Deswegen WARUM sollte NVIDIA was ändern? NVIDIA ändert doch nichts wegen den par Optik-Geilen Nörglern hier im Forum (und anderen Foren) die immer was zu meckern haben! ;)

lg
 
xtra9 schrieb:
lol dazu sage ich wohl besser mal nichts oder doch ;) Glaubst du den Scheiß wirklich den du da gerade geschrieben hast? die Herz Zahl im Treiber hochstellen um Texturflimmern zu verhindern lol??? Ich glaube du verstehst gar nicht um was es geht oder? :hmm:

Davon mal abgesehen Flimmert jede, wirklich jede Graka ;) ATI liefert aber halt das ruhigere bild (Weniger Flimmern (Ja Texturflimmern ist gemeint ;)) und weniger Textur Matsch durch schlechte AF Filterung ;) (Extreme Winkelabhängikeit bei 16AF + Optis drine + non-HQ) )
Dennoch Flimmern alle Grakas egal ob ATI oder NV ;)

Also komm mir ja nicht noch mal mit dem scheiß das ich die Hertz Zahl hochstellen soll für mein Monitor damit es kein Texturflimmern und Texturmatsch gibt!! Ich lass mich doch nicht von nem n00b wie dir (der nicht mal weiß worum es geht) als n00b hinstellen!!
BTW: Geh mal hier hin da kannst mal erstmal par Basics aufschnappen: http://www.forum-3dcenter.org/vbulletin/index.php?


DITO!

:xmas: Ne mal ernst: 3DC ist die erste Anlaufstelle, denn das sind wirklich läute unterwegs die Ahnung haben ;)


Glaubst du das wirklich? :confused: Ich hab nicht den glauben das die das umsetzen werden.

Wieso auch: Der Durchschnitts DAU, der nicht in nem Forum wie HWL, 3DC etc unterwegs ist, weiß es doch nicht besser und hat auch NULL Ahnung (und weiß auch nicht was man alles in Treibern Forcieren kann um die BQ zu steigern). Sol heißen, der durchschnitt DAU kauft sich ne GRaka baut sie ein (oder lässt sich die einbauen) und stellt dann alles zur Optik in den Einstellungen vom Game Ein und weiß noch nicht mal das es so was wie das ForceWare oder Catalyst gibt (Und wenn er es weiß hat er NULL ahnung wozu AA AF und so weiter da ist und wie man das einstellt oder Profiele macht) ;) Für ihm ist Alles in Ordnung, er kann sich nicht beklagen über irgendwelches Flimmern weil er kein Begriff (im wahrsten sinne des wortes) dafür hat! Für ihm ist das alle Normal und Super. Alles läuft schnell und das wenige Texturflimmern stört ihn nicht (mich übrigens auch nicht aber ich bin nicht bereit für ne HighEnd GRaka 500€ zu löhnen die Extrem schlecht BQ liefert weil das AF und AA schlecht Arbeitet) und nimmt es auch nicht als solches wahr. Genau an solchen läuten verdient NV und nicht an den freaks die hier im Forum und anderen Foren unterwegs sind! ;) U See?

Deshalb glaube ich nicht das NVIDIA irgendwas an ihrer Strategie ändern wird, denn die wenigen Läute die sich über die schlechtere BQ beschweren sind in der Minderheit. Die Mehrheit ist daran schon gewöhnt und nimmt es auch gar nicht mehr wahr, wie oben schon beschrieben!

Jo diese Tatsache traf irgendwie auch auf mich zu. Früher hatte ich NULL plan und hab dann immer gedacht das es an den Spielen liegt :-)fresse:). Erst wenn man ein wenig Ahnung hat wie Texturen Gefiltert werden, was es für Möglichkeiten in der Kantenglätung etc gibt, weiß man was genau für die BQ verantwortlich ist. Naja nun lese ich ja schon öfter mal auf 3DC und hab auch schon etliche Artikel gelesen über BQ (z.B. "NV Flimmerkiste 1 und 2") etc…Zumindest hab ich für mich entschieden das ich nicht bereit bin 500€ für ne Graka zu bezahlen, die nur auf FPS aus ist und die BQ extrem vernachlässigt…Aber wie gesagt das juckt NV wenig, weil sie das meiste Geld am LowEnd und MidEnd Markt verdient und die DAUs ehe kein Ahnung haben und das für Normal hinnehmen ;)

Deswegen WARUM sollte NVIDIA was ändern? NVIDIA ändert doch nichts wegen den par Optik-Geilen Nörglern hier im Forum (und anderen Foren) die immer was zu meckern haben! ;)

lg

Mein Pist war als Provaktion gedacht, wo du ja gut drauf angeprungen bist wie ich sehe. Die NV BQ Diskussion ist extrem müssig, sie ist nicht viel schlechter als die von ATI wenn man weiss wie mans einstellt.
Dafür hat NV geringeren Stromverbrauch, weniger Abwärme und mit Abstand bessere Treiber, die Vorteile sind mir wichtiger als n BQ bei der ich pers keinen Unterschied sehe.

Die PCGH listet die 7900 GTX übrigenz VOR der X1900XTX :heuldoch:
 
Ich werde den Thread wieder öffnen, gleichzeitig aber unter Beobachtung behalten.
 
Zuletzt bearbeitet:
GA-Thrawn schrieb:
Mein Pist war als Provaktion gedacht, wo du ja gut drauf angeprungen bist wie ich sehe. Die NV BQ Diskussion ist extrem müssig, sie ist nicht viel schlechter als die von ATI wenn man weiss wie mans einstellt.
Dafür hat NV geringeren Stromverbrauch, weniger Abwärme und mit Abstand bessere Treiber, die Vorteile sind mir wichtiger als n BQ bei der ich pers keinen Unterschied sehe.

Die PCGH listet die 7900 GTX übrigenz VOR der X1900XTX :heuldoch:


Na ja PCGH ist aber nicht das Maß der Dinge.

Des weiteren kann man selbst im high-quality-mode das flimmern der Texturen einfach nicht wegbekommen (jedoch arg mindern). Das ist eine Tatsache. Egal was du einstellst.
Natürlich legt jeder seine Gewichtung woanders, weshalb du dich eben für eine Karte mit einem nVidia-Chipsatz entschieden hast. Zaubern kannst du aber nicht.
Und das die Treiber tatsächlich besser sind wage ich zu bezweifeln. Jeder der beiden hat eben Stärken und Schwächen. Nur eben an anderen Stellen.

Punkt. :)


bye Hübie
 
GA-Thrawn schrieb:
und mit Abstand bessere Treiber

Übetreibt doch nicht immer maßlos, das stimmt doch hinten und vorne nicht!

GA-Thrawn schrieb:
Die PCGH listet die 7900 GTX übrigenz VOR der X1900XTX :heuldoch:

Ja genau wie die Gamestar seit Jahren nur nVidia Karten vor den ATis listet. Man muss nur ein paar ältere Zeitschriften durchblättern, da hat wohl nV wieder die Finger im Spiel...
 
:wayne: als PCG abonent kann ich sagen PCG hat doch eh keine ahnung von hardware, die schreiben nur den standardmüll

edit:
ich hab mir schnell meine liste nochmal angeguckt,
die 7900GTX ist bei
1024x xxx und 1028x1024 knapp vor der 1900XTX
bei
1600x1200 ist die 1900XTX knapp vorne
 
Zuletzt bearbeitet:
bawde schrieb:
:wayne: als PCG abonent kann ich sagen PCG hat doch eh keine ahnung von hardware, die schreiben nur den standardmüll

edit:
ich hab mir schnell meine liste nochmal angeguckt,
die 7900GTX ist bei
1024x xxx und 1028x1024 knapp vor der 1900XTX
bei
1600x1200 ist die 1900XTX knapp vorne

Die X1900XTX ist in allen Auflösungen vorne, wenn man die gleiche BQ einstellt.
Aber da dies keine Seite macht, bringt es auch nichts.
Für mich gibt es keine Perfekte Graka, die X1900XTX ist zu heiß und zu laut...leider.
Aber egal, die X1950XTX hat viele Dinge besser gemacht, leider kommt sie zu spät...:wayne:

Aber eigentlich gehts hier um den R600 und den G80....also:btt:

mfg Nakai
 
mein Zitat stammt nicht aus der pcg sondern aus der pcgh
außerdem sagte dass niemand von der pcgh sondern ein vertreter von nvidia :)
daher kritisiert ihr grad die falschen
 
:btt:

wär super toll, wenn ihr über die Grakas spekulieren würdet, anstatt euch sonstwie die Köpfe einzuschlagen.

Danke
 
Nakai schrieb:
Die X1900XTX ist in allen Auflösungen vorne, wenn man die gleiche BQ einstellt.
Aber da dies keine Seite macht, bringt es auch nichts.
Für mich gibt es keine Perfekte Graka, die X1900XTX ist zu heiß und zu laut...leider.
Aber egal, die X1950XTX hat viele Dinge besser gemacht, leider kommt sie zu spät...:wayne:

Aber eigentlich gehts hier um den R600 und den G80....also:btt:

mfg Nakai

und wie willst du die gleiche BQ einstellen:fresse:

Einer der von einer ATI zu NVIDA gewechselt ist hat gesagt die Qualität von ATI ist viel besser, aber nur wenn kein AA und der rest dazu geschaltet ist. Wenn alles an ist, ist die Qualität ziemlich gleich.

Ja für mich gibt es auch keine perfekte Graka, die könnte nämlich aktuelle Spiele @all details mit einer super auflösung komplett flüssig spielen. Aber da heute nur noch geld gemacht werden soll, wird es so eine graka nie geben....
 
Zuletzt bearbeitet:
Also nehmen wir an der G80 kommt im November, der R600 im Dezember, dann schauts schlecht aus für den G80. Wenn er schon im September gekommen wäre, hätte er einen gewissen zeitlichen Vorsprung.

Ich gehe davon aus, R600 wird schneller, das wird auch so sein, R600 wird vermutlich auch mehr Features haben und die bessere BQ. Bleibt nVidia nur noch der Stromverbrauch. Ich bin ja sehr gespannt wie das ausgeht:)
 
thade schrieb:
Also nehmen wir an der G80 kommt im November, der R600 im Dezember, dann schauts schlecht aus für den G80. Wenn er schon im September gekommen wäre, hätte er einen gewissen zeitlichen Vorsprung.

Ich gehe davon aus, R600 wird schneller, das wird auch so sein, R600 wird vermutlich auch mehr Features haben und die bessere BQ. Bleibt nVidia nur noch der Stromverbrauch. Ich bin ja sehr gespannt wie das ausgeht:)


Nee , Nvidia bleiben solidere Treiber und der Stromverbrauch und dies heraus
über eine klar grössere bisherige Käuferschaft , womit es sich immer leichter verkaufen lässt.

Und mit der DualGPU Karte oder aber auch einer angekündigten Dual-GPU in
einem Kern der technologische Fortschritt um doch die schnellste Karte zu bieten
mit dem G80.

Das AMD/ATi Thema könnte sich eher negativ als positiv auswirken, auch
nicht zu vergessen.

Und zu Deinem Zeitvorsprung , selbst 1 Monat nach Ankündigung & Verfügbarkeit gegenüber dem Konkurrenten ist ne Menge da derjenige
der dann nur ankündigt dieses auch nicht durch Verfügbarkeit bestätigen
kann , verschoben wurde von beiden oft genug durch Paperlaunch.

Warten wir es ab , ich freu mich drauf :)

Greetz Koyote008
 
Zuletzt bearbeitet:
Was habt ihr immer mit den Treibern? Ich hatte zuletzt eine 7800GTX im Rechner, vor nem gutem Jahr. Wieso sollten die Treiber von nV besser sein? Unter Linux ja, aber nicht unter Windows, das vergesst mal schön.
 
thade schrieb:
Was habt ihr immer mit den Treibern? Ich hatte zuletzt eine 7800GTX im Rechner, vor nem gutem Jahr. Wieso sollten die Treiber von nV besser sein? Unter Linux ja, aber nicht unter Windows, das vergesst mal schön.

Da lies doch einfach mal die Problemthreads , dann erschliesst sich
ziemlich alles.
Viele Betroffene lassen nicht vergessen +g+

Natürlich schön wenn Du keine Probleme kennst ;)

Greetz Koyote008
 
thade schrieb:
Was habt ihr immer mit den Treibern? Ich hatte zuletzt eine 7800GTX im Rechner, vor nem gutem Jahr. Wieso sollten die Treiber von nV besser sein? Unter Linux ja, aber nicht unter Windows, das vergesst mal schön.


Bitte HIER weitermachen!
 
thade schrieb:
Was habt ihr immer mit den Treibern? Ich hatte zuletzt eine 7800GTX im Rechner, vor nem gutem Jahr. Wieso sollten die Treiber von nV besser sein? Unter Linux ja, aber nicht unter Windows, das vergesst mal schön.

Naja der eigentliche Treiber ist nicht besser/schlechter aber die Software auf die man drauf zurückgreift. Der ForceWare ist halt besser als der Catalyst. Nicht nur das man da Transparente Profile hat, sondern der RAM verbrauch ist nicht so hoch und das hervorholen aus dem SysTray geht auch schneller als beim Catalyst. Aber wer nutzt schon Catalyst, ATT ist ja ehe besser :)
 
eLw00d schrieb:
Bitte HIER weitermachen!

Mit Sicherhiet nicht, der Thread ist so schnell dicht, so schnell kannst Du gar nicht schauen.

@Koyote

Nein Ich hatte wirklich noch nie Treiberprobs mit meiner ATi und Ich habe viel Software daheim, deswegen verstehe Ich das schlechte Treiber Argument seitens ATi wirklich nicht, weil es schlicht gelogen ist!

Naja abwarten, Ich hoffe nV schließt auf mit der BQ auf ATi, dann haben sie wieder ne Chance bei mir ;)
 
Koyote008 schrieb:
Da lies doch einfach mal die Problemthreads , dann erschliesst sich
ziemlich alles.
Viele Betroffene lassen nicht vergessen +g+

Natürlich schön wenn Du keine Probleme kennst ;)

Greetz Koyote008
Läute ihr dürft den Treiber nicht mit der Steuerungssoftware (ForceWare, Catalyst) verwechseln ;) Das sind 2 par Schuhe ;)
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh