ATi R600/RV6xx *Infothread* (Part 3)

Status
Für weitere Antworten geschlossen.
Inwiefern cheatet ATI denn mit dem neuen Treiber der auf CB kurz verglichen wird? Dazu ist noch nichts genaueres bekannt, daher würde ich dazu noch nichts sagen...
Was wohl laut diversen Aussagen gemacht wurde ist das die Jungs von CB mit eatm getestet haben und auf den NV Karten lief TSSAA.
Also wäre dieser Vergleich dann für die Katz, abwarten.
EATM sieht doch eh kein Stückchen schlechter aus als AAA, nicht erreichen! Finden auch einige im 3DC, ja zugegeben Lolman ist ein Fanboy, aber er hat schon recht.

Dann muss aber die 8800 auch mit TMSAA getestet werden.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
471W im XFire sind wirklich gut, mit OC von CPU und GPUs sollte man da unter 600W bleiben, voll toll, da brauch ich kein neues Netzteil, 600W reichen dicke.

wenn mit meinem Enermax Liberty 500W ein QX6700 @ 4 GHz + 8800 GTX SLI + SCSI U320 läuft, solle das auf jedenfall möglich sein.
 
ich geb auch mal meinen Senf zur neuen AMD-ATI Generation ab:

ich finds lustig, hatte mir das aber eigentlich schon so gedacht.

Ich fasse mal zusammen:

hoher Stromverbrauch, weniger Leistung(langsammer als eine GTS), gleiche bis schlechtere Bildquallität und hässlich, da rotes PCB

ATI-AMD hatte nun so lange Zeit, den G80 total zu zerlegen und durchzu leuchten, und trotzdem bringen die was raus, was langsamer ist?

Das kanns doch echt nicht sein, es heist ja "Gut Ding will Weile haben" aber bei ATI tauschen wir das gut mal aus.

Da hätte Nvidia die Ultra ja gar nicht nachschieben müssen, wobei ich das trotzdem gut finde.

Mir braucht nun auch keiner sagen, das die Karte ohne Qualitäts Einstellungen schneller ist, denn wer holt sich so eine Karte, um dann mit einem hässlichen Bild zu zocken?, da kann man sich auch eine Karte für 150€ kaufen.

Ich denke von neuen-anderen Treibern kann man auch keine Wunder erwarten, eher im Bereich von 0,XX% Leistungssteigerung
 
ich geb auch mal meinen Senf zur neuen AMD-ATI Generation ab:

ich finds lustig, hatte mir das aber eigentlich schon so gedacht.

Ich fasse mal zusammen:

hoher Stromverbrauch, weniger Leistung(langsammer als eine GTS), gleiche bis schlechtere Bildquallität und hässlich, da rotes PCB

ATI-AMD hatte nun so lange Zeit, den G80 total zu zerlegen und durchzu leuchten, und trotzdem bringen die was raus, was langsamer ist?

Das kanns doch echt nicht sein, es heist ja "Gut Ding will Weile haben" aber bei ATI tauschen wir das gut mal aus.

Da hätte Nvidia die Ultra ja gar nicht nachschieben müssen, wobei ich das trotzdem gut finde.

Mir braucht nun auch keiner sagen, das die Karte ohne Qualitäts Einstellungen schneller ist, denn wer holt sich so eine Karte, um dann mit einem hässlichen Bild zu zocken?, da kann man sich auch eine Karte für 150€ kaufen.

Ich denke von neuen-anderen Treibern kann man auch keine Wunder erwarten, eher im Bereich von 0,XX% Leistungssteigerung

Das hätte vor 2-3 Stunden noch gepasst, aber wie es auschaut zerlegt eine XT die GTS 640 und ist fast auf GTX Niveau. Mal schauen, ob auch wirklich nicht gecheatet wurde. Die Karte ist unabhängig davon in einigen Test erheblich schneller geworden, soviel kann man da gar nicht cheaten, die CB Redakteure sind wohl nicht komplett blind.

Hör endlich auf die Karte runterzuputzen, obwohl du mit deinem Wissen 2-3 Stunden hinterherhinkst!
 
Zuletzt bearbeitet:
schon mal jemand gemerkt was die thg jungs für nv treiber verwenden ? :haha:
97.92

Grade bei SLI ist durch den neuen Treiber einiges dazugekommen.
 
...denken die sicher hier rennen nur Geisteskranke rum:haha:

mit Sicherheit :)

jetzt mal im Ernst Leute, regt euch etwas ab, mmmk?! :)

So, die Club3D würde mich jetzt interessieren. Warum? Ja gut, ich hab ne GTS mit der ich sehr happy bin, aber ich möchte immer das neueste ausprobieren und mir gerne ein eigenes Bild machen.
Falls ich sie dann doch behalten sollte würden mich an der jetzt ganz besonders die Valve-Leckerlis interessieren. (oder auch ohne Karte...)
 
Jup, man bekommt den Eindruck das hier nur Geisteskranke unterwegs sind, zum Glück habe ich mich aber auch an anderer Stelle hier im Forum aufgehalten, und da waren durchweg überzeugende Leuts unterwegs! Gruß an die Gigabyte P35 Fraktion .....

Und noch mal zur Leistung.... AMD/ATI hat die Rechenleistung der HD2900 mit >470 Gigaflops angegeben. Ich weiß nicht, manchen ist das nicht klar was das heisst. Im CF wurden laut AMD 1 Terraflop erreicht.
Um euch klar zu machen was das heisst, Intel hat ein Zukunfts-CPU-Forschungsprojekt am laufen, wo z.B. die 80 Kerne CPU auch herkommt. Grundsätzlich wurde bei Intel definiert, dass die Zukunfts CPU mindestens einen Terraflop an Rechenleistung erreichen muss. Die 80 Kerne CPU hat diese 1 Terraflop locker erreicht, obwohl so weit ich weiß haben sie die 1,5 Terraflop nicht erreicht [trotz extremen Overclocking].
Diese 1 Terraflop wurden aber nur mit recht einfachen Berechnung erreicht, sind also nicht Vergleichbar mit der Rechenleistung die heutige AMD oder Intel Cpus leisten. Die sind zwar vom Terraflop weit entfernt, aber sie sind so zu sagen kein Sprinter sondern 10 Kämpfer und müssen weit komplexere Sachen meistern. [Komplexer = komplexere Schaltungen und damit Platzverlusst im Chip so zu sagen]
Ich weiß nicht, aber vielleicht kann ja ein Nvidia Fanboy (oder auch nicht) sich mal schlau machen wass denn die 8800er so leistet.....
Und zu den Treibern, wer Software entwickelt weiß was da passiert ist, an einer Stelle was geändert und an der anderen damit etwas "zerschossen".... nichts ungewöhnliches, und wer die letzte PC Games Hardware gelesen hat, weiß das Nvidia bei den 8800er Treibern auch solche Sachen schon hatte... Fehler in einer früheren Version weg, in einer späteren wieder da..... nichts ungewöhliches!
 
Ach das macht aber nicht soviel aus. Nimm mal den Oblivion Bench, ja das wird die Ausnahme bleiben, aber 172% kann man durch solche "Cheats", EATM sieht doch eh kein Stückchen schlechter aus als AAA, nicht erreichen! Finden auch einige im 3DC, ja zugegeben Lolman ist ein Fanboy, aber er hat schon recht.

Es sind nicht nur fiese Tricks. Es ist nicht die feine englische Art, aber ich will nicht vorher schon wieder "Cheater ATi" lesen müssen. Vorher wars ne Krücke, jetzt sind sie die Cheater, was ist Morgen?

Verstehst du mich :)


Darum geht es doch nichtmal, ob das andere Verfahren so viel schlechter aussieht. Aber man kann doch dann nicht ein Multisampling Verfahren mit Supersampling von NVIDIA vergleichen und das als Wundertreiber ansehen. Wenn man NVIDIA ebenfalls mit Multisampling testen würde, sähe die Sache ganz anders aus.
 
WTF das geilste is doch wohl die farbe bzw das design der karte... geschmack wie nen pferd!!

das ist eben jedem sein eigener Geschmack, aber wen man im Case alles in schwarz hat, verschandelt eine rote oder grüne Karte einfach die ganze Optik
 
ich geb auch mal meinen Senf zur neuen AMD-ATI Generation ab:

ich finds lustig, hatte mir das aber eigentlich schon so gedacht.

Ich fasse mal zusammen:

hoher Stromverbrauch, weniger Leistung(langsammer als eine GTS), gleiche bis schlechtere Bildquallität und hässlich, da rotes PCB

ATI-AMD hatte nun so lange Zeit, den G80 total zu zerlegen und durchzu leuchten, und trotzdem bringen die was raus, was langsamer ist?

Das kanns doch echt nicht sein, es heist ja "Gut Ding will Weile haben" aber bei ATI tauschen wir das gut mal aus.

Da hätte Nvidia die Ultra ja gar nicht nachschieben müssen, wobei ich das trotzdem gut finde.

Mir braucht nun auch keiner sagen, das die Karte ohne Qualitäts Einstellungen schneller ist, denn wer holt sich so eine Karte, um dann mit einem hässlichen Bild zu zocken?, da kann man sich auch eine Karte für 150€ kaufen.

Ich denke von neuen-anderen Treibern kann man auch keine Wunder erwarten, eher im Bereich von 0,XX% Leistungssteigerung

Also diesen Senf hättest du dir wirklich auch sparen können, ...
Warum müssen solche unqualifizierten Kommentare immer von Leuten kommen die schon ne G80 im Sys haben, ... verstehe ich nicht.

Nur mal so am Rande, es gibt derzeit noch Treiberprobleme und somit ist die Leistung mit AA noch nicht so wirlich vergleichbar.
Ob die das Rot nicht gefällt, ist hier wohl auch jedem sowas von egal
Und nein du denkst falsch, die Treiber bringen sehr viel mehr Performance, vllt solltest du vorher mal lesen bevor du sodde sinnlosen Kommentare abgibst.

Und ich sags auch noch mal für dich, als G80 und R600's erste Planungen zu Papier gebracht wurden, war ne GF4 noch aktuell. Zu der Zeit wusste keiner was der Konkurent am Ende bringen wird. Und nein, die 6 Monate die die R600 nach dem G80 kam, reichen nicht aus um das komplette Chipdesign zu überdenken und dazu noch neue und komplett Bugfreie Treiber zu bringen...

Mesch tut das not das andauernd sodde unquallifizierten und kindischen Kommentare kommen müssen????
 
Da hast du dich glaube verlesen, je nach Test ist mal 88er mal 2900 schneller, insgesamt jedoch die 88er.

Richtig, dachte Wunder, was ATI da tolles ausbrütet... So vom Hocker reißt sie mich nicht. Außerdem was will man damit? Da muß sich jeder erstmal einen 24" TFT kaufen, um dieses Ding überhaupt richtig zu benutzen. Außerdem braucht man auch wie bei der 8800er vernünftige CPU´s mit entsprechender Leistung. Wird wohl kaum jeder hier besitzen. Ich sehe schon die neuen Threads beginnend mit: "Reicht mein A64 3200 für eine HD 2900 XT?", oder "Brauch ich jetzt ein 1000W NT für eine HD 2900 XT."

Außerdem eine blöde Farbe, da kann man sich ja kein Window-Kit mehr kaufen, alles drinnen in schwarz und dann kommt da so ein rotes Ding rein. Bäääh.

Das soll hier nicht als Fanboy-Gelabere von mir gelten, aber bei so einer hochspuligen Ankündigung nichts schnelleres als das, was nv rausgebracht hat zu backen find ich schwach.
 
Zuletzt bearbeitet:
Darum geht es doch nichtmal, ob das andere Verfahren so viel schlechter aussieht. Aber man kann doch dann nicht ein Multisampling Verfahren mit Supersampling von NVIDIA vergleichen und das als Wundertreiber ansehen. Wenn man NVIDIA ebenfalls mit Multisampling testen würde, sähe die Sache ganz anders aus.

Ich glaube aber nicht, dass solche teils enormen Leistungsteigerungen nur durch Cheating erreicht werden, ohne dass die CB Redis davon was bemerken.

Mal schauen, was die Tage bringen. Ich schwanke zwischen Euphorie und erneuter Ernüchterung hin und her.
 
Also das spannendste ist doch eindeutig, dass GPU's wie der R600 und der G80 so derartig komplex sind, dass so viel von den Treibern überhaupt abhängt. Vor allem diese neuen AA-Modi...

Dabei ist der R600 sogar noch komplexer vom Aufbau her als die geradlinige G80, und in meinen Augen damit sehr viel interessanter. Ich denke definitiv, dass da die Treiber eine Menge leisten müssen, vor allem bei den neuen AA-Modi.

Wenn man sich die Leistung ohne AA anguckt ist die vom R600 doch sehr ordentlich, vor allem für den Preis. Wenn ATI dann den Chip mit vernünftigen Treibern noch voll auslasten kann, sollte er schon Konkurrenzfähig sein.

Was mich am meisten stört ist der Stromverbrauch, sowohl bei G80 als auch bei R600. Die 50W, die der ATI-Chip mehr verbraucht, machen den Kohl nicht fett. Dass beide Hersteller kein Idle haben, wie es schon lange Gang und gäbe war, ist schlimm. Vor allem, weil es echt einfach zu implementieren wäre. Gibt's ja schon lange.

Ich werde persönlich sowieso weiter warten. Und ich drücke dabei ATI/AMD die Daumen. Insgesamt stecken imo in den ATI-Chips seit der 9700 die kreativeren Ideen, die jetzt beim R600 nur noch Nutzen entfalten müssen. Und ich sehe da schon stark Hoffnung. Nvidia hat dafür auf der Gegenseite beim G80 und seiner geradlinigen, performanten Struktur den Bonus der auskurierten Kinderkrankheiten und der vorhandenen real-life-performance. Ich würde eher technikinteressierten Leuten daher zum R600 raten, ich denke, der wird interessant bleiben, Leuten, die wollen, dass einfach alles rennt, könnte der G80 empfohlen werden. Für mich persöhnlich ein Gleichstand. Hätte ich die Kohle, würd' ich meiner Frau 'ne GTS einbauen und mir den R600 holen :lol:
 
Zuletzt bearbeitet:
wenn mit meinem Enermax Liberty 500W ein QX6700 @ 4 GHz + 8800 GTX SLI + SCSI U320 läuft, solle das auf jedenfall möglich sein.

Was nimmt denn dein System so wie hier aufgeführt aus der Steckdose??
Würd mich nämlich mächtig interessieren da ich auch ein Liberty 500W im Einsatz hab aber ich vermute das es bei meinem Workstation Sys (derzeit bei 3Prime + 3DMark06 285W) das Teil nicht mehr langen wird.
 
Darum geht es doch nichtmal, ob das andere Verfahren so viel schlechter aussieht. Aber man kann doch dann nicht ein Multisampling Verfahren mit Supersampling von NVIDIA vergleichen und das als Wundertreiber ansehen. Wenn man NVIDIA ebenfalls mit Multisampling testen würde, sähe die Sache ganz anders aus.

Sehe ich auch so.
Wenn Nvidia ein minderwertigeres Sampling benutzt, steigt die Performance dann auch an.
 
Also diesen Senf hättest du dir wirklich auch sparen können, ...
Warum müssen solche unqualifizierten Kommentare immer von Leuten kommen die schon ne G80 im Sys haben, ... verstehe ich nicht.

Nur mal so am Rande, es gibt derzeit noch Treiberprobleme und somit ist die Leistung mit AA noch nicht so wirlich vergleichbar.
Ob die das Rot nicht gefällt, ist hier wohl auch jedem sowas von egal
Und nein du denkst falsch, die Treiber bringen sehr viel mehr Performance, vllt solltest du vorher mal lesen bevor du sodde sinnlosen Kommentare abgibst.

Und ich sags auch noch mal für dich, als G80 und R600's erste Planungen zu Papier gebracht wurden, war ne GF4 noch aktuell. Zu der Zeit wusste keiner was der Konkurent am Ende bringen wird. Und nein, die 6 Monate die die R600 nach dem G80 kam, reichen nicht aus um das komplette Chipdesign zu überdenken und dazu noch neue und komplett Bugfreie Treiber zu bringen...

Mesch tut das not das andauernd sodde unquallifizierten und kindischen Kommentare kommen müssen????


die antwort auf deine erste frage hast du dir doch schon im nächsten "satz" beantwortet.


btt:
bei den neusten 1600x1200 benches ist doch wohl das erwartete eingetroffen oder?
unterstützt ein 930bf eig. 1600x1200?
oder liegt das an den spielen, dass mann nur max. 1280x1024 winstellen kann?!?
 
8.361 -> lahm
8.364 -> naja
8.3742 -> schnell
8.3743 -> lahm
8.375 -> keine Ahnung
8.38 -> schnell
8.39 -> keine Ahnung

Mal sehen wann ATI komplett durchdreht :fresse:
 
Ja aber warum gibt es keine test mit dem 8.38?? Oder hast einen?? Ich meine nen richtigen test mit hohem AA und nicht ohne wie so oft!
 
Also diesen Senf hättest du dir wirklich auch sparen können, ...
Warum müssen solche unqualifizierten Kommentare immer von Leuten kommen die schon ne G80 im Sys haben, ... verstehe ich nicht.

Nur mal so am Rande, es gibt derzeit noch Treiberprobleme und somit ist die Leistung mit AA noch nicht so wirlich vergleichbar.
Ob die das Rot nicht gefällt, ist hier wohl auch jedem sowas von egal
Und nein du denkst falsch, die Treiber bringen sehr viel mehr Performance, vllt solltest du vorher mal lesen bevor du sodde sinnlosen Kommentare abgibst.

Und ich sags auch noch mal für dich, als G80 und R600's erste Planungen zu Papier gebracht wurden, war ne GF4 noch aktuell. Zu der Zeit wusste keiner was der Konkurent am Ende bringen wird. Und nein, die 6 Monate die die R600 nach dem G80 kam, reichen nicht aus um das komplette Chipdesign zu überdenken und dazu noch neue und komplett Bugfreie Treiber zu bringen...

Mesch tut das not das andauernd sodde unquallifizierten und kindischen Kommentare kommen müssen????


Dein eigener Kommentar passt sehr gut dazu. Völlig unabhängig was vorher war und was noch kommen wird, Fakt ist: ATI hat 6 Monate später als NVidia ihre erste DX10 Karte auf den Markt gebracht. Diese wird heißer als die 8800GTS, verbraucht mehr Saft, ist teurer als die Karte gegen die sie ja angeblich antreten soll und kommt mit Treibern die nicht ausgereift sind. Wieso heißt es immer "wenn bessere Treiber kommen"? Diese besseren Treiber sind nun mal jetzt nicht da. Schön, vielleicht schafft es ATI die 2900XT schneller zu machen mit neuen Treibern. Aber warten wir doch bis dem so ist. Aktuell ist das Teil auf jedenfall keine Kaufempfehlung, es sei denn jemand mag rot besonders gerne.

Wenn es die Karte für 311€ gibt, sie Treiber hat die sie permanent an der GTS 640MB vorbeischieben dann kann man vielleicht über den Energiehunger hinwegsehen. Hinzukommt dass NVidia in Punkto Bildqualität mit ATI gleichgezogen hat, also auch das spricht nicht mehr für die Roten.
 
Also wenn man alles zusammen fasst ist es recht ernüchternd.

- gute 10% mehr Stromverbrauch
- ca. 20% mehr Abwärme und Temepratur
- bei durchschnittlich gleicher Performance
- und 20% höherem Preis.

Das nen ich mal einen Innovationsschub.
 
Was nimmt denn dein System so wie hier aufgeführt aus der Steckdose??
Würd mich nämlich mächtig interessieren da ich auch ein Liberty 500W im Einsatz hab aber ich vermute das es bei meinem Workstation Sys (derzeit bei 3Prime + 3DMark06 285W) das Teil nicht mehr langen wird.

~ 1000W, aber inkl modded Vapochill LS und FW900
 
Also wenn man alles zusammen fasst ist es recht ernüchternd.

- gute 10% mehr Stromverbrauch
- ca. 20% mehr Abwärme und Temepratur
- bei durchschnittlich gleicher Performance
- und 20% höherem Preis.

Das nen ich mal einen Innovationsschub.

10% mehr Stromverbrauch als die GTX? Alles klar. 20% mehr Abwäre? Quelle? Der Preis wird in 1-2 Wochen unten sein.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh