ATI R600 [Spekulations Thread] (Part 1)

Status
Für weitere Antworten geschlossen.
Wie - ich musste das alles per BIOS-Flash meiner Karte eintrichtern - da wurde doch nichts automatisch geregelt!?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Oh je. Fängt das schon wieder an? ;) DX9? DX10? R580+? G71? R600?

Leute, Leute. Steht ihr im Supermarkt auch so hilflos da? :shot:

Im November D3D10-Hardware zu kaufen is unsinnig. Aber wer das mag (und die Moppen am Start hat), kann gerne zuschlagen.
Ich kenne viele die damals rumsabberten: "Ooaah kauf bloß nVidia, die haben SM3.0... ATi nur SM2.0b+!!". Tja und dann kamen SM3.0 Spiele und die Karten waren zu gurkig ums vernünftig darzustellen (siehe HDR, was damit Einzug erhielt).
Ende vom Lied: Die Leute ärgerten sich, ließen HDR aus (evtl. auch andere eye-candys) oder kauften ne neue Karte. So wirds mit D3D10 (in abgeschwächter Form) auch ersma gehen.

Allerdings ist das ganze zu situativ, als das man es pauschalisieren könnte (z.B. Leute die eine DX8). Auf den Großteil der Spieler trifft das aber schon zu.


bye Hübie

Edit: @dracoonpit: In der übernächsten Generation (also nach R600/G80) wird soetwas kommen. Gab da mal ein Interview vor ein paar Wochen (weiß net mehr wo). In dem wurde gesagt, dass sich Teile des Kerns wie im Prozessor abschalten oder heruntertakten.
Die Idee ist schon alt, wurde jedoch nie wirklich umgesetzt. Bei den neuen Karten kann man wenigstens per software die Spannung und den Takt hinuntersetzten (siehe ATi-Tool).
 
Zuletzt bearbeitet:
@hübie: was willst du mit deinem post bezwecken? ich mein der thread ist dafür da über die neu dx10 chipgeneration zu diskutieren/spekulieren und ob es für jemanden sinnvoll/unsinnig für den interessen ist doch total unwichtig oder? ausserdem wurd darüber schon so oft geplenkelt. nicht falsch verstehen es nervt nur langsam das ein und selbe 5x in einem thread zu lesen ;)

@all: die ständige "diskussionen" , die meist in streitigkeiten ausarten , über NV vs ATI gehen mir auch langsam tierisch auf die klö**n. einige wie nighteye wollen ja zum thema posten aber es kann nicht sein das , das ein und selbe , nicht relevante , thema wieder aufgeriffen wird :rolleyes:. so und nun :btt:

btw: gibt es vllt schon nähere informationen zu den abgespeckten varianten gt o.ä.? würde mich interessieren ob diese in anzahl der pipelines beschnitten oder nur niedriger getaktet sind
 
Zuletzt bearbeitet:
epY schrieb:
@hübie: was willst du mit deinem post bezwecken? ich mein der thread ist dafür da über die neu dx10 chipgeneration zu diskutieren/spekulieren und ob es für jemanden sinnvoll/unsinnig für den interessen ist doch total unwichtig oder? ausserdem wurd darüber schon so oft geplenkelt. nicht falsch verstehen es nervt nur langsam das ein und selbe 5x in einem thread zu lesen ;)

@all: die ständige "diskussionen" , die meist in streitigkeiten ausarten , über NV vs ATI gehen mir auch langsam tierisch auf die klö**n. einige wie nighteye wollen ja zum thema posten aber es kann nicht sein das , das ein und selbe , nicht relevante , thema wieder aufgeriffen wird :rolleyes:. so und nun :btt:

btw: gibt es vllt schon nähere informationen zu den abgespeckten varianten gt o.ä.? würde mich interessieren ob diese in anzahl der pipelines beschnitten oder nur niedriger getaktet sind


Im Grunde hat da aber hübie schon Recht! Wenn ich mal gucke welche Spiele überhaupt PS 3.0 darstellen könnnen da reicht denn wohl eine ganze Hand um das abzählen zu können oder? Ich dennke auch das es Blödsinn ist sich gleich zum Anfang so eine Karte zu kaufen denn wofür?? Es gibt ja denn noch nichtmal Spiele Ok Crysis wird sicher denn geluncht mit Vista zusammen sagen ja Böse Zungen! Das durch Direct X10 dann alles soviel besser aussieht das wage ich zu bezweifeln, denn nen dicken Unterschied zu PS 3.0 von 2.0 sehe ich nicht! Also ich persöhnlich werde noch warten, auch wenn mich windows vista schon anhiebert, aber mehr wie 300 Teuronen werde ich nuie für ne Graka ausgeben!
 
da muss ich euch zwar recht geben aber habe ich das bestritten?! es geht mir nur darum das es in diesem thread nix verloren hat. und ob du momentan noch keine lust auf ein wechsel zu dx10 hast kann man verstehen , ist deine meinung (wie von vielen) und muss man respektieren. aber ich bin ja als interesse hier im thread unterwegs um was über die neue chipgen in erfahrung zu bringen und nicht über unrelevante oder nur zum teil mit dem topic zu tun habende themen zu diskutieren. versteht das nicht falsch ich will einfach nur das mal wieder was on topic kommt ;)
 
hab mir heute in der mittagspause die neu pcgh geholt. hier der auszug:

...Ati wird aktuell mit 64 Unified-Shader-Einheiten gehandelt , bei Nvidia vermuten wir 16 Vertex-/Geometry-Shader und 32 Pixel-Shader-Einheiten zu je zwei ALUs - im Pixelteil also ebenfalls 64 Einheiten. über die Anzahl der Textureinheiten kann nur spekuliert werden: Ati hat die Möglichkeit, deren Anzahl nahezu beliebig festzulegen, und könnte so von den bisherigen 16 eventuell auf 24 oder gar 32 TMUs skalieren - GDDR4-Speicher mit mehr als einem Gigahertz Takt würde die nötige Bandbreite liefern, um mehr als 16 TMUs auszulasten. Bei Nvidia sind in der bisherigen Render-Pipeline die TMUs stärker an die ALUs gekoppelt. Daher ist hier eher ein 2:1 Verhältnis von ALUs und TMUs (64:32) zu erwarten...
...Dies alles führt zu einer massiv erhöhten Zahl an Transistoren bei beiden Chips. Eine Größenordnung von runde 500 Millionen für den G80 und eher Richtung 550 bis 600 Millionen für den R600 scheint realistisch.


soll als kleine zusammenfassung dienen was momentan der aktuelle stand ist :)
 
epY schrieb:
hab mir heute in der mittagspause die neu pcgh geholt. hier der auszug:

...Ati wird aktuell mit 64 Unified-Shader-Einheiten gehandelt , bei Nvidia vermuten wir 16 Vertex-/Geometry-Shader und 32 Pixel-Shader-Einheiten zu je zwei ALUs - im Pixelteil also ebenfalls 64 Einheiten. über die Anzahl der Textureinheiten kann nur spekuliert werden: Ati hat die Möglichkeit, deren Anzahl nahezu beliebig festzulegen, und könnte so von den bisherigen 16 eventuell auf 24 oder gar 32 TMUs skalieren - GDDR4-Speicher mit mehr als einem Gigahertz Takt würde die nötige Bandbreite liefern, um mehr als 16 TMUs auszulasten. Bei Nvidia sind in der bisherigen Render-Pipeline die TMUs stärker an die ALUs gekoppelt. Daher ist hier eher ein 2:1 Verhältnis von ALUs und TMUs (64:32) zu erwarten...
...Dies alles führt zu einer massiv erhöhten Zahl an Transistoren bei beiden Chips. Eine Größenordnung von runde 500 Millionen für den G80 und eher Richtung 550 bis 600 Millionen für den R600 scheint realistisch.


soll als kleine zusammenfassung dienen was momentan der aktuelle stand ist :)

Alt,
haben wir hier seit 4 oder 5 Tagen in diesem Thread stehen, entsprechend weiter hinten im Forum findest du's auch. ;)
mfg


Powerplay, der R600 wird noch mehr Strom fressen als die 1900ter Reihe, das wurde bereits in nem Interview gesagt bzw. das er noch wärmer wird.
Ob sich seit dem Viertel Jahr daran etwas geändert hat, darf man stark bezweifeln.

Zudem kann man eine Chipachitektur nicht dermaßen stark ändern. Wenn sie etwas aus ihren Hitzeproblem der 1900XTX Generation gelernt haben, werden sie dies frühestens nächstens Jahr umsetzen können.

mfg
 
@ Epy :) ich hab die info 2 oder 3 seiten davor schonmal abgetextet :) aber gut dass du es wieder auffrischst, denn ich hatte das 150W problem angesprochen aber keiner hat was dazu gesagt, also nochmal die frage
wird bei 600mio transistoren welche mehr als doppelt so viele sind wie beim 7900 die gefahr auftreten dass die chips die 150W grenze erreichen ? wäre dass überhaupt möglich diese 150W zu überschreiten ? um die kühlung mache ich mir weniger sorgen.

und @ hübie. viele leute wollen sich die neuen karten auch kaufen um direct x 9 spiele schneller spsielen zu können wie zb obivilion ind 1600x1200 HDR+AAA(AF) etc.
also spekulieren ob die karten zu lahm sein werden braucht ihr nicht,
vorallem weils noch SLI und Crossfire gibt, für freaks ist also immer genug gegeben.
jetzt aber :btt:
 
Ich kaufe die Karte nur wegen dem Speed und HDR+AA, DX10 und anderes Zeugs ist mir ziemlich gleich.
 
hab mir schon halber gedacht das es schonmal gepostet wurde aber wenigstens steht nun mal wieder seit ein paar seiten wieder etwas zum topic , sorry junx :fresse:
 
epY schrieb:
hab mir schon halber gedacht das es schonmal gepostet wurde aber wenigstens steht nun mal wieder seit ein paar seiten wieder etwas zum topic , sorry junx :fresse:

:xmas:
Np, aber ich bin auch total gespannt, welche genauen Daten die beiden GPUs beherbergen werden.
 
Hübie schrieb:
In der übernächsten Generation (also nach R600/G80) wird soetwas kommen. Gab da mal ein Interview vor ein paar Wochen (weiß net mehr wo). In dem wurde gesagt, dass sich Teile des Kerns wie im Prozessor abschalten oder heruntertakten.
Die Idee ist schon alt, wurde jedoch nie wirklich umgesetzt. Bei den neuen Karten kann man wenigstens per software die Spannung und den Takt hinuntersetzten (siehe ATi-Tool).
Das geht doch jetzt aber nur mit den ATI-Karten, richtig? Die NV-Karten bleiben ja immer gleich und senken nur die Taktfrequenz (GEO-Kram).
Gibts da nicht ne Möglichkeit auch den NV-Karten das Spannungssenken beizubringen?
 
bei der geforce FX 5800 ging es, die hatten im 2D mode weniger v core und weniger takt. damals hat Nvidia noch vernünftige karten gebaut :drool:
und mit der 8800 wird es wieder vernünftig werden :drool:
genau wie bei der geforce 2 damals :drool:
2-5-8-11 usw usw ^^
 
Franzbrandwein schrieb:
Im Grunde hat da aber hübie schon Recht! Wenn ich mal gucke welche Spiele überhaupt PS 3.0 darstellen könnnen da reicht denn wohl eine ganze Hand um das abzählen zu können oder? Ich dennke auch das es Blödsinn ist sich gleich zum Anfang so eine Karte zu kaufen denn wofür?? Es gibt ja denn noch nichtmal Spiele Ok Crysis wird sicher denn geluncht mit Vista zusammen sagen ja Böse Zungen! Das durch Direct X10 dann alles soviel besser aussieht das wage ich zu bezweifeln, denn nen dicken Unterschied zu PS 3.0 von 2.0 sehe ich nicht! Also ich persöhnlich werde noch warten, auch wenn mich windows vista schon anhiebert, aber mehr wie 300 Teuronen werde ich nuie für ne Graka ausgeben!

Ich will mich ja nicht einmischen, aber tue es dennoch. Der Vorteil von DirectX 10 liegt in Optimierungen. So sollen gleiche Effekte wie in DirectX 9 mit teils wesentlich weniger Rechenleistung zu realisieren sein. Somit lassen sich dann auch Spiele "schöner" gestalten, weil die Rechenleistung anderwertig ausgenutzt werden kann. Stichwort Unified Shader. Wird ab DX10 auch unterstützt.

Franzbrandwein schrieb:
Oh je. Fängt das schon wieder an? DX9? DX10? R580+? G71? R600?

Leute, Leute. Steht ihr im Supermarkt auch so hilflos da?

Im November D3D10-Hardware zu kaufen is unsinnig. Aber wer das mag (und die Moppen am Start hat), kann gerne zuschlagen.
Ich kenne viele die damals rumsabberten: "Ooaah kauf bloß nVidia, die haben SM3.0... ATi nur SM2.0b+!!". Tja und dann kamen SM3.0 Spiele und die Karten waren zu gurkig ums vernünftig darzustellen (siehe HDR, was damit Einzug erhielt).
Ende vom Lied: Die Leute ärgerten sich, ließen HDR aus (evtl. auch andere eye-candys) oder kauften ne neue Karte. So wirds mit D3D10 (in abgeschwächter Form) auch ersma gehen.

Allerdings ist das ganze zu situativ, als das man es pauschalisieren könnte (z.B. Leute die eine DX8). Auf den Großteil der Spieler trifft das aber schon zu.


bye Hübie

Edit: @dracoonpit: In der übernächsten Generation (also nach R600/G80) wird soetwas kommen. Gab da mal ein Interview vor ein paar Wochen (weiß net mehr wo). In dem wurde gesagt, dass sich Teile des Kerns wie im Prozessor abschalten oder heruntertakten.
Die Idee ist schon alt, wurde jedoch nie wirklich umgesetzt. Bei den neuen Karten kann man wenigstens per software die Spannung und den Takt hinuntersetzten (siehe ATi-Tool).

Du hast eigentlich Recht. Aber bevor ich mir jetzt eine teure Grafikkarte kaufe, ggf. 400 Euro ausgebe, dann warte ich lieber auch noch bis Dezember. Denn der Vorteil von DirectX10 ist nicht zu unterschätzen. Weiterhin werden die neuen Grafikkarten (zumindest die von ATI) Unified Shader anbieten und jedes Spiele-Studio hat somit eine viel größere Freiheit und die Besitzer solcher Karten dann auch die bessere Leistung in den Spielen ;).

Nur so nebenbei: Bei Pixelshader 3 hat ATI verschlafen, aber nun verschläft NVIDIA bei Unified Shader.

Und zu dem Stromverbrauch: Gut ist, dass die Hersteller Besserungen einräumen. Leider zwar in mittelfristeger Zukunft (1.5 Jahre bis nächste Generation), aber immerhin. Bis dahin kann ich auch meine 5 Euro mehr pro Jahr ausgeben, wird mich nicht töten.

Anarchy schrieb:

War das nicht die Zeit, wo ATI Pixelshader 3.0 verschlafen hat? Wenn ja, hat es ja doch größere Auswirkungen als man denkt...
 
Zuletzt bearbeitet:
@ Spencer,
nvidia brauch kein keine US um dx10 darstellen zu können, Technisch sind US keine Pflicht, ich glaube da fehlt dir know how. informier dich drüber, nvidias chip wird die selben fähigkeiten haben wie ATI,s
 
Night<eye> schrieb:
@ Spencer,
nvidia brauch kein keine US um dx10 darstellen zu können, Technisch sind US keine Pflicht, ich glaube da fehlt dir know how. informier dich drüber, nvidias chip wird die selben fähigkeiten haben wie ATI,s


Ich weiß nicht ob ich was überlesen habe, aber er schreibt doch gar nicht das deshalb DX10 nicht gehen würde.
 
w0mbat schrieb:
Ich weiß nicht ob ich was überlesen habe, aber er schreibt doch gar nicht das deshalb DX10 nicht gehen würde.
er sagte NV verschläft bei US
da gibt es nix zu verschklafen, ATI wechselt NV wechselt erst zur Geforce 9
ATI hatte dieses jahr keine probleme vom alten chip design zum neuen zu kommen, wieso sollte Nvidia dann zeitlichen rückstand haben ?
 
Ich denke er mein sie machen damit einen Fehler. Er ist halt die Meinung, daß US schneller ist, das hat nichts mit DX10 zu tun.
 
Powerplay schrieb:
Ich glaube nicht das der R600 so eine standheizung wird wie der R520 und R580 da haben die besteimmt dazugelernt das könnten die sich wohl kaum leisten nochmal den gleichen fehler zu machen!
Aber das hat ja nicht ATI verbockt sondern der chip hersteller von ATI

Naja, beim Lüfterdesign haben sie ja auch nichts gelernt :lol:
 
Vielleicht macht ATI auch einen Fehler bei den US.
Immerhin hat noch keiner Erfahrung damit gemacht.
 
w0mbat schrieb:
Ich denke er mein sie machen damit einen Fehler. Er ist halt die Meinung, daß US schneller ist, das hat nichts mit DX10 zu tun.
achso
US sollte effizienter und schneller sein,
ich denke Nvidia denkt sich was, schließlich hatten sie letztes jahr noch 5 monate vorsprung.
die tatsache das ATI im speed vorbei zieht mit dem r600 wird was peinlich für NV,
finde ich jedenfalls,
aber speed ist ja nicht alles, wenn die bild quali stimmt und die karte preiswerter ist und sie wird auf jedenfall sparsamer und kühler, dann wär es für mich schon ein grund Nvidia zu loben, auch wenn sie vom speed dann ein stück hinter ati hängen würden :)
 
Wie würdet ihr die Preisentwicklung von den aktuellen Flagschiffkarten einschätzen? Meint ihr dass die Preise extrem fallen werden?
 
goldtitan schrieb:
Wie würdet ihr die Preisentwicklung von den aktuellen Flagschiffkarten einschätzen? Meint ihr dass die Preise extrem fallen werden?
wiederverkaufswert wird wohl um 50% sinken, mindestens ! Vorraussetzung erst wenn die neuen karten raus kommen

netter nick und netter avater :)
 
Guten Abend! Was gibts neues? ;)

Night<eye> schrieb:
... wenn die karte preiswerter ist und sie wird auf jedenfall sparsamer und kühler, dann wär es für mich schon ein grund Nvidia zu loben, auch wenn sie vom speed dann ein stück hinter ati hängen würden :)

Das ist doch jetzt schon der Fall! nV will wie auch AMD (irgendwie passt ATI da nicht rein... :fresse: ) auf der Effizienz-Schiene fahren. ATI bleibt nur effektiv. Tja - und Intel bewegt sich irgendwo dazwischen. ;)
 
Zuletzt bearbeitet:
Also erstmal muss NV bei der Shaderleistung aufholen. Der R580 hat fast die dreifache Shaderleistung wie der G71.
Wenn der G80 genauso aufgebaut ist wie der G71 dann hat er nur 50% höhere Shaderleistung bedingt durch die Erweiterung der Architektur.
Höheren Takt wie bei der Geforce 7900GTX schätze ich nicht.

Der R600 wird nur kaum höhere Shaderleistung wie der R580 haben. Ich denke ATI wird in der Texelleistung aufholen und versuchen eventuelle Bandbreitennachteile auszugleichen. Vorallem der Tempregister muss bei US stark erweitert werden.

Naja ich schätze den R600 auf ungefähr 620mill Transistoren.
Den G80 auf etwa 520Mill Transis.

mfg Nakai
 
[Rain] schrieb:
Vielleicht macht ATI auch einen Fehler bei den US.
Immerhin hat noch keiner Erfahrung damit gemacht.

Wohl kaum, ATI liefert nämlich schon einen "US" Grafikchip aus, nämlich für die XBOX 360 - ATI hat diesbezüglich also schon einige Erfahrungen gesammelt. ;)

Generell hat ATI punkto Shaderleistung, schon heute, enorme Vorteile - das einzige was ATI's Vorteil so drückt ist, dass bei den meisten Spielen noch immer die Texturleistung mehr zählt, da wirken sich halt viele Pixel-Pipelines mehr aus als viel Shaderleistung und ATI ist eben gezwungen diesen Nachteil mit einer hohen Taktrate wett zu machen. Mit DirectX10 kann ATI die Reserven dann viel besser ausnutzen, der R600 dürfte bzgl. Shaderleistung nicht mit wesentlich mehr ausgestattet sein - allerdings wird sich in nächster Zeit nicht viel dran ändern das viele Pipelines leistungsgünstiger sind, so wird ATI wohl auch beim R600 mit einem hohen Takt fahren müssen - demzufolge ist von einer großen Besserung bzgl. Verbrauch und Wärmeentwicklung nicht zu rechnen.
 
@[Rain]

Naja so ganz stimmt das ja auch nicht, Ati müsste ja schon genug Erfahrungen mit der XBox360 haben, in der ja auch ne GRAKA mit US ist.
Vielleicht kann man das nicht ganz miteinander vergleichen, aber glaube kaum das sich für Ati irgendwelche Nachteile durch US ergeben.
@Shader

Ups da war ich viieeel zu langsam!
 
netter nick und netter avater
Das hab ich auch grad gedacht :)
Höheren Takt wie bei der Geforce 7900GTX schätze ich nicht.
Bei 80nm schon. Ich rechne mit 700-800 auf dem Kern und mind. 1000 auf dem Ram. Ich hoffe das jedenfalls. ;) ...oder nv machts wie Intel mit dem Core 2 Duo und bringt 500MHz-Karten, die den Rest gnadenlos abziehen und dabei noch sparsamer und kühler bleiben. Wenn Sie das schaffen, wäre auch ein schnellerer R600 keine so große Gefahr mehr.

Irgendwie ärgert es mich, dass die Karten nicht zeitnah erscheinen. Ich glaube kaum, dass ich mich bis zum R600 Release gedulden kann, wenn ich schon längst volle G80 Power haben könnte....
 
Zuletzt bearbeitet:
bin gespannt ob der G80 in 80 oder 90nm kommt.
 
Ich schätze mal in 90nm, da Nvidia damals mit der FX etwasauf der Nase gelandet ist mit 'nem kleineren Fertigungsprozess. Die lassen jetzt wahrscheinlich immer ATI den ersten Schritt zu einem kleineren Fertigungsprozess machen und hoffen vielleicht auch auf ein kleines Mißgeschick ...
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh