ATI R600 [Spekulations Thread] (Part 1)

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
kosten nutzen faktor wär zu hoch
 
Ja leider, deswegien habe ich ja von "was gutes tun" gesprochen :d.

+50% Performance gegenüber einer GX2 und HDR+AA würden mir aber reichen, um sofort zuzuschlagen.
 
ich denke die graka wird deinen erwartungen erfüllen,
das wäre dass mindeste
ansonnsten hätte NV echt sch... gebaut :)

mfg Night
 
Night<eye> schrieb:
noch 2 monate dann wird der G80 wohl auf den markt kommen
kann ich mir garnicht vorstellen bei so wenig news...
und
Nakai schrieb:
Also der G80 wird eine ALU mehr pro Pipe haben und mit 650Mhz getaktet sein.
Er verfügt über 32 Pixelpipes mit je 3 ALUs(eine vor und 2 nach der TMU).
Und 16, noch verbesserte, Vertexshader.
Leistungssteigerung wäre dann an die 60% + 10% durch höheren Speichertakt.
Das wäre in einem angemessenen Maße
Kann das noch jemand bestätigen, bzw. woher sind die Infos?
 
Es wird erstmal kein 512bit speicherinterface kommen:
1. viel zu teuer (der preis steigert sich praktisch zum quadrat)
2.In der nächsten generation gibt es doch für alle karten GDDR4 also sind bestimmt bis zu 50-70% mehr bandbreite mit 256bit drin.Wofür dann noch 512bit.
3.Die aktuellen karten leiden immer weniger an geringer bandbreite da spiele immer mehr alu leistung brauchen aber weniger texel fillrate.Alu leistung fordert kaum bandbreite.(texel hingegen sehr)

also wird g80 und r600 100% noch 256bit haben!
 
sklave_gottes schrieb:
3.Die aktuellen karten leiden immer weniger an geringer bandbreite da spiele immer mehr alu leistung brauchen aber weniger texel fillrate.Alu leistung fordert kaum bandbreite.(texel hingegen sehr)

diese aussage solltest du nochmal überdenken, sie ist schon etwas aus dem zusammenhang gerissen und sehr einseitig. da gibt es noch einige andere vorgänge die bandbreite benötigen...
bandbreite ist jetzt schon sehr wichtig, in der zukunft steigt das nochma sehr deutlich. ob GDDR4 das auffangen kann bezweifle ich, innovative technologien wie atis ring bus MC sind gute alternativen während des übergangs zum 512bit interface.
 
Zuletzt bearbeitet:
bassmecke schrieb:
+50% Performance gegenüber einer GX2 und HDR+AA würden mir aber reichen, um sofort zuzuschlagen.

lol, wo lebt ihr denn? ne 8800 GTX (sofern es bei den bezeichnungen bleibt) wird wenn schon an die leistung einer 7950GX2 rankommen, aber niemals 50% schneller sein!
das wäre dann: 8800GTX = 3* 7900GT :haha:
bei ner 8800GX2 wärs möglich, aber nicht bei ner gtx

glaubt mir, ich wär der erste der sich die karte kaufen würde wenns so wäre, aber sowas würde weder NV noch ATI machen

aber solange wir noch nichts genaues wissen, können wir nur eins: warten!
 
dx10 is zwar cool aber das vista vorrausgesetzt wird ist eine frechheit :motz:

ich würde mich freuen wenn die spieleentwickler wieder zurück zu opengl finden würden
 
lol, wo lebt ihr denn? ne 8800 GTX (sofern es bei den bezeichnungen bleibt) wird wenn schon an die leistung einer 7950GX2 rankommen, aber niemals 50% schneller sein!
das wäre dann: 8800GTX = 3* 7900GT
bei ner 8800GX2 wärs möglich, aber nicht bei ner gtx

glaubt mir, ich wär der erste der sich die karte kaufen würde wenns so wäre, aber sowas würde weder NV noch ATI machen

aber solange wir noch nichts genaues wissen, können wir nur eins: warten!
Bleib mal entspannt, niemand hat hier von GTX oder GX2 gesprochen, sondern nur vom G80. Die Leistungssteigerung von einer 6800Ultra auf eine 7800GTX war beträchtlich. Die von der 6800GT auf die 7800GT ebenfalls. Du darfst nicht vergessen, das es sich um einen völlig neuen Chip handelt, nicht um eine Version des G70/71. Außerdem kannst Du gar nicht wissen, ob die erste G80 High-End Graka auf Single (GT/GTX) oder Dual (GX2) Design setzt. Egal wie, 50% Leistungssteigerung muss sein, wenn nv von mir 500€ haben will...und das ist nicht so unrealistisch. 3x7900GT, was ist das schon in Zeiten von GX2 Quad-SLI und X1950XTX Crossfire....eine vernünftige Leistungsteigerung, mehr nicht.

Das Du die Karte sofort kaufst, glaub ich Dir nicht, da dein Sys eher nach Preis/Leistung aussieht, als nach High-End. ;)
 
Zuletzt bearbeitet:
ich bin entspannt:d naja nicht ganz, chefin ging mir heut mächtig aufn sack
sollte nicht so rüberkommen :)

es ist klar, dass ne gewisse leistungssteigerung kommen muss, aber nicht unbedingt eine so hohe, wegen dx10
alleine das dürfte für nv nen verkaufsargument sein und wenn der r600 rauskommt, der dann evtl. etwas schneller ist, bringt nv nen refresh der dann die genannte leistung bringt, um den kunden nochmal das geld aus den taschen zu ziehn;)
naja, ob nun single oder dual, werden wir erst in einigen wochen erfahren

zu meinem sys, das zählt nicht:shot: ist schon über nen jahr alt,
conroe ist aber schon geplant, warte noch aufs AW9D und den g80 werd ich mir zu beginn kaufen (müssen), da ich meine graka schon jemandem versprochen hab
es sei denn der g80 wird nichts, dann muss ich schauen wie ich über die runden komme
 
Zuletzt bearbeitet:
King Bill schrieb:
dx10 is zwar cool aber das vista vorrausgesetzt wird ist eine frechheit :motz:

ich würde mich freuen wenn die spieleentwickler wieder zurück zu opengl finden würden

dieses statement kann ich so unterschreiben!!!
ich bin genau der selben meinung.
 
pcgh interview mit ati
ati peilt denr600 im Winter an
und 32 einheiten sind angepeilt und keine 64 zusammen gefassten beim R600 !!
 
Night<eye> schrieb:
pcgh interview mit ati
ati peilt denr600 im Winter an
und 32 einheiten sind angepeilt und keine 64 zusammen gefassten beim R600 !!


diese aussagen ist auch für die füße...

32 pixel pipelines?oder 32 pixel shader?

und wenn pixel pipes, wieviele shader pro pipe?wenn 2, dann die sind es 64 pixel shader. so wie vermutet...
 
32 pixel pipelines und 64 pixel shader beim R600
und noch etwas lässt sich daraus zu 100% schließen
der G80 soll 500 Mio transistoren haben und der R600 600 Mio transistoren
also der R600 wird wohl was wärmer als der G80

edit: R600 64 Alus zu 32 TMUS
beim G80 16 vertex/geometry shader und 32 pixel shader einheiten zu je zwei ALUs im pixelteil also ebenfalls 64 einheiten


edit: nochwas zur sache mit AMD/ATI

nvidia sieht sich dadurch gestärkt da nvidia der einzichste große hersteller sein wird der CPU Neutral sei !!!
da haben sie recht !!!
 
Zuletzt bearbeitet:
wie kannst du dir so sicher sein das die specs von nv und ati stimmen?
es sind alles nur gerüchte, solange es nicht offiziell bestätigt ist.
 
ahhh endlich mal jemand der antwortet :d
sicher nicht, es sind die realistischsten werte,
sie sind keines wegs übertrieben,
denn nur mit dieser minimalen verbesserung ist mit etwas mehrleistung zu rechnen, natürlich könnten wir alle von viel mehr aus gehen aber das wäre nicht möglich wenn man sich schonmal anschaut wie viele transistoren die chips bei diesen vermutungen hätten, währe nicht mehr kühlbar.
von 24 auf 32 findest du etwa unrealistisch nach 16 monaten ?
 
Zuletzt bearbeitet:
Die Frage für mich ist eher, wie sehr die Leistung durch DX10 oder durch D3D10 steigt.
Durch die neue API soll einiges beschleunigt werden....

mfg Nakai
 
ahh endlich jemand der antwortet :d
bei D3D10 wirst du wohl nicht einen sehr großen leistungszuwachs spüren da d3d10 games sicher sehr detailreicher und rechenlastiger für die gpu,s werden.
es geht schließlich um optische verbesserung
 
können die nicht einfach die chips größer bauen, dan wär auch mehr platz für mehr pipes.....
 
und wo soll der rest der leistung hingepflanzt werden, wenn kein platz mehr ist? in grafikkarten gibt es keine einzige kleine ecke, die nicht mikro-technologie beinhaltet
 
Der Directx 10 Chip von Nvidia intressiert mich nicht weil er kein USA hat.;)

Wartet auf denn R600 der hat mehr zu bieten.....:teufel:

R600 64 Alus zu 32 TMUS
beim G80 16 vertex/geometry shader und 32 pixel shader einheiten zu je zwei ALUs im pixelteil also ebenfalls 64 einheiten

Wenn das stimmt wisst ihr ja wer die Runde gewinnt.Ati braucht nur 16 PP um mit einer GTX mit 24 PP mithalten zu können,wie sieht das aus wenn die Ati 32 PP hat?Die Architektur wird bei der Ati besser sein,Ati wird die Runde ganz klar gewinnen.
 
Zuletzt bearbeitet:
hab ich gesagt das ich irgendwas unrealistisch finde?

es gibt nur eine sache die sehr unwahrscheinlich klingt, nämlich 600Millionen transistoren.

auch in 80nm wäre der yield und die ausbeute pro wafer sehr gering, sowas zu produzieren kostet deutlich mehr als jetzt...
ich lasse mich überraschen, aber ja, es ist unrealistisch.
 
also wenn du 600 millionen transistoren zu unrealistisch findest würde es auch wiederrum sagen dass du nicht an den geschwindigkeits vorteil des R600 glaubst,

wenn alles so kommt wie oben beschrieben wird ATI,s chip sehr sehr heiß
wenn nicht, (=weniger transistoren) wird ATI,s chip halt auf keinen fall vorm G80 liegen. eher dahinter
 
Night<eye> schrieb:
also wenn du 600 millionen transistoren zu unrealistisch findest würde es auch wiederrum sagen dass du nicht an den geschwindigkeits vorteil des R600 glaubst,

diesen zusammenhang verstehe ich nicht, aber du wahrscheinlich auch nicht;)
 
also es hört sich so an als ob du denkst er wird weniger haben
wenn er weniger haben wird werden die hardware spekulationen nicht machbar sein mit 32US pipes etc wie oben beschrieben,
 
zum glück gibts keine sicheren quellen, mehr transistoren bedeutet mehr befehle in einem laboratorischen zeitraum :eek: nv-fanboy ;)
 
Jop ich auch nicht,mit einer guten Kühlung kann man auch ein 600 Transi Chip kühlen.

Ausserdem:Wisst ihr wie hoch die Taktraten von denn R600 sind.;)Vielleicht kann man jetzt dank denn 32 PP und der neuen Architektur die Taktraten senken und trodzdemm konkurenzfähig sein.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh