Nein, der G80 kann kein DX10.1.
warum nicht!?was fehlt der karte?
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Nein, der G80 kann kein DX10.1.
warum nicht!?was fehlt der karte?
hi, es kann noch keine Dx10.1 Karte geben, da die DX10.1 Features noch nicht final sind.
Also sollte man dies eher in die Ecke stellen MARKETING
Grüße
Angiesan
und gepostet hat es wieder mal wombat. eigentlich ist er es überall der diese "benches" verlinkt und verbreitet. vielleicht hat er ja den test bei l505 geschrieben??
ATI's fastest R600 graphic card in named 2800XTX.
It will feature 96 shader processors
will have GDDR4 memory at 2.2GHz effectivly
the 2800XTX/8800GTX performance in 1600x1200 resolutions is 12% in favor of ATI
OT: gute antwort @wombat BTT: mir persönlich sind gute Treiber und natürlich die Bildqualität wichtig, da darf ich dann auch nicht meckern wenn es mir den strom nur so weg frisst. ich finde den g80 schon sehr geil und hab mir jetzt eine gekauft. ich wollte auch auf den r600 warten habs dann aber nicht mehr ausgehalten. ich denke beide karten werden leistungsmäßig nahe bei einander liegen und sich somit wenig geben/nehmen. ich persönlich halte von test´s von ehr unbekannten site´s ( vorallem wenn das der einzige test ist mit abgeschriebenen daten) nicht wirklich viel. bringen farbe rein und lassen gut spekulieren und diskutieren aber dran festhalten tu ich mich persönlich nicht. auch auf die neuen nvidia treiber für den g80 bin ich gespannt aber ich denke immer noch das wir alle eher locker bleiben sollten und nicht hier unnötig provozieren oder gar beleidigen das haben wir nicht nötig.
[...]
Wer die letzten 4 Jahre eine ATi gekauft hat, war immer, wirklich immer besser dran. X1900 User lachen sich, wie vorausgesagt, einen schlapp, über die lahmen 7900er Karten, X800 User lachten GeForce 6 User auch aus, weil die Karten bis zu 50% schneller waren in neueren Games in hohen Auflösungen mit BQ Settings.
[...]
Nein Wombat, das stimmt nicht. Die GeForce 6 hat keine Power für SM3. Was sieht auf einer X800XT mit SM2b soviel schlechter aus, als mit einer 6800er?
Mit einer X800 bist du heute immer noch besser dran, weil sie einfach viel mehr Speed liefert und eine 6800er sowas von abzieht...
SM3 erleichtert bestimmt Berechnungen, also braucht man keine Power dafür - eher weniger. Es stimmt, daß die X800er schneller als die GF6er waren, aber z.Zt. kann man ohne SM3 ein paar Spiele (SCDA, R6V, usw.) nicht starten. Da ist mir eine langsamere Karte lieber wie wenn ichs gar nicht spielen kann.
SM3 erleichtert bestimmt Berechnungen, also braucht man keine Power dafür - eher weniger. Es stimmt, daß die X800er schneller als die GF6er waren, aber z.Zt. kann man ohne SM3 ein paar Spiele (SCDA, R6V, usw.) nicht starten. Da ist mir eine langsamere Karte lieber wie wenn ichs gar nicht spielen kann.
[...]
@Dominator
bei Company of Heroes wird die X800er Karte nur in SM2 rechnen wohingegen die GF6 schon SM3 rechnen muss wo viel aufwendigere Effekte drin sind, das wird den Unterschied machen!
[...]
@thade
das mit dem ATI war am Ende immer besser, ... kann man so oder so sehen!
wenn du dir überlegst das es einen bestimmten Stichtag gibt an dem Immer alles aufbaut und du den Stichtag jetzt meinetwegen auf den Release der X1900er Reihe setzt, dann wirft NV den G80 auf den Markt um die ATI Leistungsmäßig zu überholen, ...
logische Schlussfolge, ATI wird kontern mit dem R600!
Und dann geht das wieder von vorn los!
Man müsste mal herausfinden welcher Hersteller damit angefangen hat um das vollständig aufklären zu können!
@Dominator
bei Company of Heroes wird die X800er Karte nur in SM2 rechnen wohingegen die GF6 schon SM3 rechnen muss wo viel aufwendigere Effekte drin sind, das wird den Unterschied machen!
Nicht ganz, immerhin hat ATI mit der 9700 DX9 eigeführt, wo nV nur die gF4 am Markt hatte, von der FX mal ganz zu schweigen, war die erste echte DX9 Karte die 6800er von nVidia. Da gabs dann die R480, zwar immernoch mit PS2, dafür Sauschnell und zuverlässig.Aber festzuhalten ist das NV bei seinen Karten in den letzten Jahren immer neue Techniken und Features zu erst eingesetzt hat
Mein Reden die letzten 2 Monate.Ein R580 soll auch gar nicht gegen den G80 antreten. G80 vs R600, das ist der Kampf und bisher war jedes ATi Gegenstück schneller.
Blödsinn, man vergleicht keine Grakas, wo mit unterschiedlichen Bedingungen gebenched wurde..
Naja, eine 6800U bringt schon flüssige fps, halt auf niedrigeren Details. Aber ich spiels lieber als gar nicht.
Hinzugefügter Post:
Ne, durch SM3 werden die Berechnungen einfacher.
Eine 8800er zu kaufen war sowieso einfach nur dumm. Es gibt nie einen guten Zeitpunkt Hardware zu kaufen, das ist klar, aber in dieser Situation wie wir sie jetzt haben, hätte man ruhig 2 Monate warten können, zumal die 8800er auch minimal günstiger geworden wären.
Wenn der R600 wirklich so eine Granate wird, dann würde ich mich als Nvidia Käufer ganz schön verarscht vorkommen, aber war ja nicht selten so, dass der Nvidia Käufer der Dumme war.
Ein R580 soll auch gar nicht gegen den G80 antreten. G80 vs R600, das ist der Kampf und bisher war jedes ATi Gegenstück schneller.
Hinzugefügter Post:
Blödsinn, man vergleicht keine Grakas, wo mit unterschiedlichen Bedingungen gebenched wurde..
Nicht ganz, immerhin hat ATI mit der 9700 DX9 eigeführt, wo nV nur die gF4 am Markt hatte, von der FX mal ganz zu schweigen, war die erste echte DX9 Karte die 6800er von nVidia. Da gabs dann die R480, zwar immernoch mit PS2, dafür Sauschnell und zuverlässig.
[...]
Dann sieht es auch so aus als ob man sich die ca. 20% Mehrleistung mit sattem Mehrverbrauch erkauft 230Watt TDP des R600 gegen die 145Watt TDP der GTX ist auch nicht schlampig - ok - viele werden sagen: "drauf geschissen, hauptsache schnell" - aber trotzdem.
[...]
Wie kommst du auf die Idee, dass der R600 230W verbrauchen wird? Ich schätze mal so max. 160W für den R600, was nur 15W über der 8800GTX liegen würde.