ATI R600 [Spekulations Thread] (Part 2)

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
hi, es kann noch keine Dx10.1 Karte geben, da die DX10.1 Features noch nicht final sind.
Also sollte man dies eher in die Ecke stellen MARKETING ;)


Grüße
Angiesan
 
und gepostet hat es wieder mal wombat. eigentlich ist er es überall der diese "benches" verlinkt und verbreitet. ;) vielleicht hat er ja den test bei l505 geschrieben??:lol:
 
Seit doch froh dich sich jemand drum kümmert, das ist nen Spekulationsthread, also feststehende Fakten brauch man nicht wirklich erwarten.
 


Du verlinkst Benches, die ich dort gepostet habe und über die hier schon seit min. 5 Seiten diskutiert wird :lol:


hi, es kann noch keine Dx10.1 Karte geben, da die DX10.1 Features noch nicht final sind.
Also sollte man dies eher in die Ecke stellen MARKETING ;)


Grüße
Angiesan

Doch, die DX10.1 Specs sind schon fertig, nur sind alle noch nicht 100%tig definiert. Aber die Hardware dafür kann man schon herstellen - es geht ja hauptsächlich um WDDM 2.1 und flexiblere Verteilung.


und gepostet hat es wieder mal wombat. eigentlich ist er es überall der diese "benches" verlinkt und verbreitet. ;) vielleicht hat er ja den test bei l505 geschrieben??:lol:

*dentextlesenunddabeir600esstreicheln* :d


Edit:

ATI's fastest R600 graphic card in named 2800XTX.
It will feature 96 shader processors
will have GDDR4 memory at 2.2GHz effectivly
the 2800XTX/8800GTX performance in 1600x1200 resolutions is 12% in favor of ATI

:hmm:
 
Zuletzt bearbeitet:
OT: gute antwort @wombat BTT: mir persönlich sind gute Treiber und natürlich die Bildqualität wichtig, da darf ich dann auch nicht meckern wenn es mir den strom nur so weg frisst. ich finde den g80 schon sehr geil und hab mir jetzt eine gekauft. ich wollte auch auf den r600 warten habs dann aber nicht mehr ausgehalten. ich denke beide karten werden leistungsmäßig nahe bei einander liegen und sich somit wenig geben/nehmen. ich persönlich halte von test´s von ehr unbekannten site´s ( vorallem wenn das der einzige test ist mit abgeschriebenen daten) nicht wirklich viel. bringen farbe rein und lassen gut spekulieren und diskutieren aber dran festhalten tu ich mich persönlich nicht. auch auf die neuen nvidia treiber für den g80 bin ich gespannt aber ich denke immer noch das wir alle eher locker bleiben sollten und nicht hier unnötig provozieren oder gar beleidigen das haben wir nicht nötig.
 
:fresse:
OT: gute antwort @wombat BTT: mir persönlich sind gute Treiber und natürlich die Bildqualität wichtig, da darf ich dann auch nicht meckern wenn es mir den strom nur so weg frisst. ich finde den g80 schon sehr geil und hab mir jetzt eine gekauft. ich wollte auch auf den r600 warten habs dann aber nicht mehr ausgehalten. ich denke beide karten werden leistungsmäßig nahe bei einander liegen und sich somit wenig geben/nehmen. ich persönlich halte von test´s von ehr unbekannten site´s ( vorallem wenn das der einzige test ist mit abgeschriebenen daten) nicht wirklich viel. bringen farbe rein und lassen gut spekulieren und diskutieren aber dran festhalten tu ich mich persönlich nicht. auch auf die neuen nvidia treiber für den g80 bin ich gespannt aber ich denke immer noch das wir alle eher locker bleiben sollten und nicht hier unnötig provozieren oder gar beleidigen das haben wir nicht nötig.


Na ja ich will dir jetzt nicht weh tun,
aber

du kauft dir ne Kare für 600 EUR... und was merkst du
das eine neue karte die vielleicht nur 2 Monate später auf dem Markt kommt auch 600 EUR kostet und plötzlich die Messlatte nochmals um 20 % real verbesssert !!!

Was meinst du wie du aus der wäsche guckst !!!:o :heul: :kotz:
genau :)

Ich finde man müsste so ne art Funktionsgarantie für die Zukunkt bei Hardware bekommen, ich meine was bring es mri
ich kaufe mir eine Karte und nach 6 monate kann ich kein Spiel mehr spielen...

Warum kann man den Hersteller nicht verklagen dann
 
Eine 8800er zu kaufen war sowieso einfach nur dumm. Es gibt nie einen guten Zeitpunkt Hardware zu kaufen, das ist klar, aber in dieser Situation wie wir sie jetzt haben, hätte man ruhig 2 Monate warten können, zumal die 8800er auch minimal günstiger geworden wären.

Wenn der R600 wirklich so eine Granate wird, dann würde ich mich als Nvidia Käufer ganz schön verarscht vorkommen, aber war ja nicht selten so, dass der Nvidia Käufer der Dumme war.

Wer die letzten 4 Jahre eine ATi gekauft hat, war immer, wirklich immer besser dran. X1900 User lachen sich, wie vorausgesagt, einen schlapp, über die lahmen 7900er Karten, X800 User lachten GeForce 6 User auch aus, weil die Karten bis zu 50% schneller waren in neueren Games in hohen Auflösungen mit BQ Settings.

Hast du eine ATi, hast du längere Zeit mehr FPS! Soviel dazu NVidia könnte mit ATi mithalten, in Wirklichkeit hinken sie jede Grakageneration speedmäßig hinterher...
 
Ja Thade,so sehe ich das auch!!!!:) :wall:

Nach nen guten jahr hat man hauptsache nochwas von der Ati Karte,ne gleichwertige Nvidia karte ist dann schon bei Zukünftigen Spielen überfordert.
 
Zuletzt bearbeitet:
[...]
Wer die letzten 4 Jahre eine ATi gekauft hat, war immer, wirklich immer besser dran. X1900 User lachen sich, wie vorausgesagt, einen schlapp, über die lahmen 7900er Karten, X800 User lachten GeForce 6 User auch aus, weil die Karten bis zu 50% schneller waren in neueren Games in hohen Auflösungen mit BQ Settings.
[...]

X1900 vs 7900 ok, da sind die ATi wirklich besser. Aber bei X800 vs GF6 sind die nV z.Zt. im Vorteil: PS3.
 
Nein Wombat, das stimmt nicht. Die GeForce 6 hat keine Power für SM3. Was sieht auf einer X800XT mit SM2b soviel schlechter aus, als mit einer 6800er?

Mit einer X800 bist du heute immer noch besser dran, weil sie einfach viel mehr Speed liefert und eine 6800er sowas von abzieht...
 
@thade
das mit dem ATI war am Ende immer besser, ... kann man so oder so sehen!
wenn du dir überlegst das es einen bestimmten Stichtag gibt an dem Immer alles aufbaut und du den Stichtag jetzt meinetwegen auf den Release der X1900er Reihe setzt, dann wirft NV den G80 auf den Markt um die ATI Leistungsmäßig zu überholen, ...
logische Schlussfolge, ATI wird kontern mit dem R600!
Und dann geht das wieder von vorn los!

Man müsste mal herausfinden welcher Hersteller damit angefangen hat :fresse: um das vollständig aufklären zu können!

Aber festzuhalten ist das NV bei seinen Karten in den letzten Jahren immer neue Techniken und Features zu erst eingesetzt hat, rein vom Datum her betrachtet!
Das jeweilige Produkt seitens ATI welches diese Features auch beherschte war aber Trotzdem dann schneller, warum das so ist wird schwierig zu sagen sein!


Mal was anderes, wieso glauben denn einige Hier das man für den R600 NTs mit Größenordungen von 750W brauch???
Mein Rechner wie in der Sig. zieht unter Voll 3D Last grade mal 260W aus der Steckdose!
Unter berücksichtigung eines Wirkungsgrades von 80% benötigen die einzellnen Teile im Rechner grade mal 208W!

Ich sage einfach mal ein ein Anstieg des Verbrauchen durch einen Graka Wechsel von über dem 3fachen wäre wirklich etwas übertrieben!
Zumahl ich mit sicherheit mehr Platten und bei weitem mehr verbrauchende Lüfter im Zockrechner habe als andere hier, welche diese NT-Argumente gebracht haben, ...
 
Ja so siehts dann aber auch wirklich aus.

akmpfxz3dvu875tsp.gif

Weiss auch nicht warum ich mir damals ne 6800 Gt gekauft habe.:fresse:
 
SM3 erleichtert bestimmt Berechnungen, also braucht man keine Power dafür - eher weniger. Es stimmt, daß die X800er schneller als die GF6er waren, aber z.Zt. kann man ohne SM3 ein paar Spiele (SCDA, R6V, usw.) nicht starten. Da ist mir eine langsamere Karte lieber wie wenn ichs gar nicht spielen kann.
 
Nein Wombat, das stimmt nicht. Die GeForce 6 hat keine Power für SM3. Was sieht auf einer X800XT mit SM2b soviel schlechter aus, als mit einer 6800er?

Mit einer X800 bist du heute immer noch besser dran, weil sie einfach viel mehr Speed liefert und eine 6800er sowas von abzieht...

Das erinnert mich irgendwie an GF5 zeiten mit grotten schlechter SM2 Performance!
Wenn die G80 da auch wieder so verhältnissmäßig schlecht wird, ...!
 
Wenn es stimmt daß der R600 DX10.1 bekommt wird AMD diesmal im Vorteil sein. Ich sehe schon "Für Crysis brauchen sie einen DX10.1 fähige GPU" :d
 
SM3 erleichtert bestimmt Berechnungen, also braucht man keine Power dafür - eher weniger. Es stimmt, daß die X800er schneller als die GF6er waren, aber z.Zt. kann man ohne SM3 ein paar Spiele (SCDA, R6V, usw.) nicht starten. Da ist mir eine langsamere Karte lieber wie wenn ichs gar nicht spielen kann.

Warum kann man SCDA und R6V ohne SM3 nicht starten? Das wusste ich gar nicht. Asozial von den Entwicklern, solche Spiele sollte man sowieso nicht spielen.

Außerdem ist dein Sm3 Argument ohne Hand und Fuß, eine GeForce 6 wird in R6V sicher keine flüssigen Bilder darstellen, da spiel ichs lieber gar nicht...
 
SM3 erleichtert bestimmt Berechnungen, also braucht man keine Power dafür - eher weniger. Es stimmt, daß die X800er schneller als die GF6er waren, aber z.Zt. kann man ohne SM3 ein paar Spiele (SCDA, R6V, usw.) nicht starten. Da ist mir eine langsamere Karte lieber wie wenn ichs gar nicht spielen kann.

halte ich für ein Gerücht!
Will nicht wissen wie viele noch mit 9800Pro und X800er Karten zocken, ...
Und die Breite masse hat sowieso keine Überfliegerkarten ala G80 und R600
Bei SC war es glaube ich seit dem 2. Teil schon so das nur SM3 und SM1.4 unterstützt wurde!
wenn dann SCDA nur mit SM3 laufen würde, dann würde sich das Game nicht verkaufen können, aber ich hab keines von beiden angesprochenen!

Im übrigen selbst BF2 geht mit ner GF4 TI 4200 ziemlich flüssig zu spiele! :fresse:
man muss nur wissen wie und darf sich über das Aussehen nicht beklagen!

@Dominator
bei Company of Heroes wird die X800er Karte nur in SM2 rechnen wohingegen die GF6 schon SM3 rechnen muss wo viel aufwendigere Effekte drin sind, das wird den Unterschied machen!

Ne GF4 TI 4600 war in vielen Games auch nicht weit von der GF5 Performance weg, weil einfach weniger effekte berechnet werden mussten!
 
Zuletzt bearbeitet:
Naja, eine 6800U bringt schon flüssige fps, halt auf niedrigeren Details. Aber ich spiels lieber als gar nicht.
Hinzugefügter Post:
[...]
@Dominator
bei Company of Heroes wird die X800er Karte nur in SM2 rechnen wohingegen die GF6 schon SM3 rechnen muss wo viel aufwendigere Effekte drin sind, das wird den Unterschied machen!
[...]

Ne, durch SM3 werden die Berechnungen einfacher.
 
Zuletzt bearbeitet:
@thade
das mit dem ATI war am Ende immer besser, ... kann man so oder so sehen!
wenn du dir überlegst das es einen bestimmten Stichtag gibt an dem Immer alles aufbaut und du den Stichtag jetzt meinetwegen auf den Release der X1900er Reihe setzt, dann wirft NV den G80 auf den Markt um die ATI Leistungsmäßig zu überholen, ...
logische Schlussfolge, ATI wird kontern mit dem R600!
Und dann geht das wieder von vorn los!

Man müsste mal herausfinden welcher Hersteller damit angefangen hat :fresse: um das vollständig aufklären zu können!

Ein R580 soll auch gar nicht gegen den G80 antreten. G80 vs R600, das ist der Kampf und bisher war jedes ATi Gegenstück schneller.
Hinzugefügter Post:
@Dominator
bei Company of Heroes wird die X800er Karte nur in SM2 rechnen wohingegen die GF6 schon SM3 rechnen muss wo viel aufwendigere Effekte drin sind, das wird den Unterschied machen!

Blödsinn, man vergleicht keine Grakas, wo mit unterschiedlichen Bedingungen gebenched wurde..
 
Zuletzt bearbeitet:
Aber festzuhalten ist das NV bei seinen Karten in den letzten Jahren immer neue Techniken und Features zu erst eingesetzt hat
Nicht ganz, immerhin hat ATI mit der 9700 DX9 eigeführt, wo nV nur die gF4 am Markt hatte, von der FX mal ganz zu schweigen, war die erste echte DX9 Karte die 6800er von nVidia. Da gabs dann die R480, zwar immernoch mit PS2, dafür Sauschnell und zuverlässig.
Hinzugefügter Post:
Ein R580 soll auch gar nicht gegen den G80 antreten. G80 vs R600, das ist der Kampf und bisher war jedes ATi Gegenstück schneller.
Blödsinn, man vergleicht keine Grakas, wo mit unterschiedlichen Bedingungen gebenched wurde..
Mein Reden die letzten 2 Monate.
 
Zuletzt bearbeitet:
Naja, eine 6800U bringt schon flüssige fps, halt auf niedrigeren Details. Aber ich spiels lieber als gar nicht.
Hinzugefügter Post:


Ne, durch SM3 werden die Berechnungen einfacher.

das stimmt, trotzdem wurden mit SM3 mehr effekte bei Games eingebaut, welche "da entgegen wirken"
lass mal ne GF4 in nem Gamebench mit SM3/2 und 1.X Unterstützung gegen ne X1300 oder X300 antreten!
die GF4 wird der SM3 Karte davon ziehen!
 
Eine 8800er zu kaufen war sowieso einfach nur dumm. Es gibt nie einen guten Zeitpunkt Hardware zu kaufen, das ist klar, aber in dieser Situation wie wir sie jetzt haben, hätte man ruhig 2 Monate warten können, zumal die 8800er auch minimal günstiger geworden wären.

Quatsch! :stupid:

Ich hatte meine GTX am 9. November am Start und die hat mit schon viele schöne Stunden Gameplay in neuen Dimensionen beschert. Wenn die allerersten R600 Karten erscheinen sind wieder 3 Monate ins Land gegangen. Sofern die wirlich auch Ende Januar/Anfang Februar verfügbar ist. Kosten wird sie erstmal auch wie eine GTX. Vielleicht sogar etwas mehr - denn schließlich ist sie ja anscheinend schneller :p :asthanos:.

Dann sieht es auch so aus als ob man sich die ca. 20% Mehrleistung mit sattem Mehrverbrauch erkauft 230Watt TDP des R600 gegen die 185Watt TDP der GTX ist auch nicht schlampig - ok - viele werden sagen: "drauf geschissen, hauptsache schnell" - aber trotzdem. :fresse:

Wenn der R600 wirklich so eine Granate wird, dann würde ich mich als Nvidia Käufer ganz schön verarscht vorkommen, aber war ja nicht selten so, dass der Nvidia Käufer der Dumme war.

Also ich komme mir überhaupt nicht verarscht vor, schließlich ist der Leistungszuwachs anscheinend im zu erwartenden Rahmen - wie immer halt. :p Die Bildquali stimmt auch (endlich) und die Leistung reicht auch (noch) und das genieße ich seit 8 Wochen und sicherlich noch weitere 4 bis der R600 erhältlich ist - das war's mir allemal wert.

Außerdem würde mich mal brennend ein Min./Avg./Max.-FPS-Diagramm des R600 im Vergleich zum G80 interessieren - also eine Demo eines bekannten, shaderlastigen Spiels. Da würden die Architekturunterschiede gut hervortreten.
 
Zuletzt bearbeitet:
Ein R580 soll auch gar nicht gegen den G80 antreten. G80 vs R600, das ist der Kampf und bisher war jedes ATi Gegenstück schneller.
Hinzugefügter Post:


Blödsinn, man vergleicht keine Grakas, wo mit unterschiedlichen Bedingungen gebenched wurde..

das eine R580 gegen den G80 antreten soll sagte ja auch keiner!
Es liegt ja auch nur in dem Betrachtungszeitram!

Aber trotzdem ist ein sinvoller Vergleich eigentlich nur machbar wenn beide Hersteller ihre Karten im Gleichen Zeitraum veröffentlichen würden!
Würde ATI mit den Gegenargumenten gegen NV nicht schneller als NV sein würde ja keiner ATI kaufen, dafür ist NV aber immer eher dran irgendwie!
Ist das gleiche wie wenn jetzt ein 3. Hersteller ne SM3 Karte rausbringt die grade mal so fast so schnell wie GF7 oder X1950er Reihe ist!
die will heute keiner mehr!


Und ist schon klar das man eigentlich nur Karten mit den Gleichen Eigenschaften vergleicht, aber mit ner X800er Karte zockt sichs halt CoH besser als mit ner GF6 unter SM3.
Und nur weil die Karte kein SM3 beherscht hat sie aber trotzdem ihre Daseinsberechtigung, auch heute noch!
Hinzugefügter Post:
Nicht ganz, immerhin hat ATI mit der 9700 DX9 eigeführt, wo nV nur die gF4 am Markt hatte, von der FX mal ganz zu schweigen, war die erste echte DX9 Karte die 6800er von nVidia. Da gabs dann die R480, zwar immernoch mit PS2, dafür Sauschnell und zuverlässig.

Das stimmt allerdings
mal abgesehen davon das die 9700er Karten nur SM2.0a oder so konnten und die X800er dann aber SM2.0b!
Aber bei nachfolgenden Neueinführungen war immer NV schneller mit den Features dafür aber ATI am Ende immer etwas schneller!


Ich denke auch man kann den G80 und den R600 warscheinlich auch nicht direkt als Konkurenzprodukte sehen, weil meiner Meinung einfach zu viel Zeit zwischen den releases liegt!
Man reagiert ja sozusagen nicht direkt auf das Konkurenzprodukt es anderen!
also woher soll ATI meinetwegen immer wissen was NV zu der Zeit raus bringen wird und dann seine Karten immer ein Stück schneller machen!
 
Zuletzt bearbeitet:
[...]
Dann sieht es auch so aus als ob man sich die ca. 20% Mehrleistung mit sattem Mehrverbrauch erkauft 230Watt TDP des R600 gegen die 145Watt TDP der GTX ist auch nicht schlampig - ok - viele werden sagen: "drauf geschissen, hauptsache schnell" - aber trotzdem. :fresse:
[...]

Wie kommst du auf die Idee, dass der R600 230W verbrauchen wird? Ich schätze mal so max. 160W für den R600, was nur 15W über der 8800GTX liegen würde.
 
und wieder das leidige NT Problem!
161W brauch mein kopletter Rechner im Idle mit allen Platten und allen Lüftern auf max!

und dann am besten dort 2 R600 rein, oder gleich 3 wir sind ja bescheiden, ...
hehe Stromanbieter würden sich sicher freuen!
 
Wie kommst du auf die Idee, dass der R600 230W verbrauchen wird? Ich schätze mal so max. 160W für den R600, was nur 15W über der 8800GTX liegen würde.

Ähm habe mich etwas vertan: http://www.bit-tech.net/hardware/2006/11/08/nvidia_geforce_8800_gtx_g80/18.html

Sind wohl 185W TDP beim G80. Der Kühler des R600 soll ja 250W abführen können (siehe INQ) und die altbekannte Seite (505) spricht ja von den genannten 230W TDP also wird's schon auf 'ne gute Ecke mehr als nur 15W hinauslaufen.
 
Das mit dem gegeneinander antreten ist auch bei den aktuellen Karten so 'ne Sache, da zwischen diesen mittlerweile auch 1/4 - 1/2 Jahr liegt. Da passen dann diese Aussagen wie: "Die muss schneller sein, weil die ein paar Monate mehr Zeit dafür hatten"

Eigentlich muss man schon den Eindruck haben, dass die Hersteller das absichtlich machen, die Karten immer schön nacheinander rauszubringen anstatt gleichzeitig. So hat jeder der Hersteller eine Art kurzfristiges Monopol ("bessere Karte"), der dann "unterlegene" kann sein Gesicht wahren, weil seine Karte schließlich auch etwas älter ist, und ist dann in der Lage, einen Refresh rauszubringen. Und so geht's dann immer hin und her.

Ich glaube nämlich dass sich so viel mehr Geld machen lässt, als wenn man die Karten gleichzeitig vorstellt. Deswegen wohl auch diese Geheimniskrämerei bis zuletzt.


Denk ich jetzt nur so hinterhältig, oder ...?
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh