ATI R600 [Spekulations Thread] (Part 1)

Status
Für weitere Antworten geschlossen.
VL125 schrieb:
Ja aber am Anfang wird er aufgrund des "Hypes" wohl n/a und wenn unbezahlbar sein, da ihn alle haben wollen.
redest du vom G80 ?
also hier im forum siehts so aus dass mehr leute den R600 erwarten,
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Kann man allg. auf beide beziehen leider.
 
R520 kann man schon als neuen Chip bezeichnen, imho wird der R600 genau der selbe Sprung wie von R420/480 auf R520. Dagegen basiert R300-R480 auf der selben Architektur.

Naja Ich bin auch kein Oberexperte in diesem Gebiet...
 
Also man kann es auch übertreiben. Man könnte ja immer sagen: "Die letzte Generation hat auch schon PCIe, 'ne GPU und RAM gehabt. Somit auch nicht vollkommen neu"

Natürlich übernimmt man immer was aus älteren Generationen, wenn's sich bewährt hat ...

P.S.: Gut, war jetzt auch ein bisschen übertrieben.
 
Der R520 ist mehr verwandt zum R420 oder R480 als du denkst.

Beide haben bei gleichem Takt gleiche Füllraten.
Zusätzliche Leistung holt der R520 nur aus einer besseren Auslastung der Pipes, da wurden ungefähr 15% gutgemacht.
Hinzukommt noch PS 3.0 und erweiterte FP-Befehle.

Der G80 wird wohl wieder auf den G70 aufbauen.
Wenn man meint das der NV40 keine ähnliche Architectur zum Nv30 hatte, der irrt sich.
Beide hatten 2 ALUs nacheinandergeschaltet, Unterschiede gabs beim VS und bei der TMU.
Der G80 wird wieder eine normale Pipeline Architekur haben wie alle anderen Chips vor ihm.
16VS sorgen für Vertex- und Geoberechnungen. Da die Vertexberechnungen vor den Geoberechnungen sind, wird wohl jede VS zwei nacheinandergeschaltete ALUs haben, oder die VS müssen 2 Durchläufe machen.
32 PP sorgen für eine 50%ige Leistungssteigerung, solange die Pipes gleichwertig zum G70 sind.
Hier erwarte ich eine zusätzliche ALU und einen größeren Tempregister pro Pipe.
Der Rest wird auf D3D10 ausgelegt sein, Leistungssteigerung ungefähr 70% schätz ich.

Der R600 könnte 32 TMUs haben, die nur in der Hälfte aller USCs eingebaut ist.
Ansonsten erwarte ich nicht viel mehr, er wird Leistungstechnisch etwa doppelt so schnell sein.
Das Problem sind die USCs, ich kann nicht viel dazu sagen, da ich ihre effektivität nicht kenne.
Im Dreh werden beide gleichschnell sein....

mfg Nakai
 
@ nakai
durch den GDDR4 ram wird in hohen auflösungen und oder AA/AF oder HDR usw wohl noch eine leistungssteigerung von 10% bis 30% zusätzlich anfallen,
 
Also wie immer ;)
 
Danke euch für eure Antworten! :)

Klar ist mir bewusst dass alle GPUs, CPUs nicht ein totale Neuentwicklung sind, aber ich dachte halt das bei nem neuen Arch wechsle gravierenden (!) Neuerungen drin sind! Z.B jetzt dieses US. Ich dachte aber auch dass halt bestehende Konzeptionelle Fehler beseitigt werden bzw. durch effizientere Methoden ersetzt werden. Z.B. langsame "Methoden" die durch schneller Arbeitenden ersetzt werden, damit mehr Leistung herausgeholt wird aus der Arch.

Bei dem C2D scheint das ja gemacht worden zu sein. Die Arch scheint (so weit ich das als Laie verstanden hab/beurteilen kann) ja fast "komplett" neu zu sein. Man hat sich da z.B. von der Netburst getrennt, hat was designt was mehr Leistung pro takt bringt und die Verlustleistung senkt.

Naja, wenn ich mir jetzt so die letzte Post so durchlese, ist ja der G80 nur ein Aufgewärmter alter Kaffe (Aufgebohrter G71). Wo soll den da bitte was neues sein, das es würdig ist es mit "Neue Architektur" zu tittulieren. Genauso mit dem R600. OK das US ist schon was Neues aber das wars dann auch oder? Mehr ist da nicht als Neuerung drin oder? :confused:

Und dann noch ne Frage an die Profis: Sind wir eigentlich am ende der Graka-Entwicklung angelangt, so das eigentlich alles "perfekt" ist – es quasi nichts gibt was man verbessern könnte oder neue designen könnte - und nur von Release zu Release ein Hochgezüchtete Variante erscheinen kann? Also sind praktisch alle Ideen die es zu realisieren gab ausgeschöpft? Oder "veräppeln" uns die GPU Entwickler ein wenig und wollen ihre grundlegende Architektur soll lange wie möglich ausschöpfen, bis der endgültige Höhepunkt erreicht ist (weil es dann nicht mehr weiter geht) und man dann auf was komplett neues umsteigen muss!?

LG Xtra9

P.S: Ich hoffe das ist jetzt nicht Off Topic!
 
Nakai schrieb:
Der R600 könnte 32 TMUs haben, die nur in der Hälfte aller USCs eingebaut ist.
Ansonsten erwarte ich nicht viel mehr, er wird Leistungstechnisch etwa doppelt so schnell sein.
Das Problem sind die USCs, ich kann nicht viel dazu sagen, da ich ihre effektivität nicht kenne.
Im Dreh werden beide gleichschnell sein....

mfg Nakai

ich denke mal der r600 wird bei 16 tmus bleiben. da im netz ja schon von 64 alus gesprochen wird passt die zahlt gut zu den 16 tmus. also pro tmu dann 4 alus anstatt 3 beim r580.
 
SWz.Iwan schrieb:
ich denke mal der r600 wird bei 16 tmus bleiben. da im netz ja schon von 64 alus gesprochen wird passt die zahlt gut zu den 16 tmus. also pro tmu dann 4 alus anstatt 3 beim r580.

Zu wenig...er braucht mind. 32 um gegen den G80 bestehen zu können.
Du vergisst das er ein USC ist, also funktioniert das etwas anders.


durch den GDDR4 ram wird in hohen auflösungen und oder AA/AF oder HDR usw wohl noch eine leistungssteigerung von 10% bis 30% zusätzlich anfallen,

höchstens 10% zum Vergleich des X1950XTX, ich shcätze einen Takt von 1,4Ghz.

Sind wir eigentlich am ende der Graka-Entwicklung angelangt, so das eigentlich alles "perfekt" ist – es quasi nichts gibt was man verbessern könnte oder neue designen könnte - und nur von Release zu Release ein Hochgezüchtete Variante erscheinen kann? Also sind praktisch alle Ideen die es zu realisieren gab ausgeschöpft? Oder "veräppeln" uns die GPU Entwickler ein wenig und wollen ihre grundlegende Architektur soll lange wie möglich ausschöpfen, bis der endgültige Höhepunkt erreicht ist (weil es dann nicht mehr weiter geht) und man dann auf was komplett neues umsteigen muss!?

In Punkto Pixeln sicherlich, aber in Sachen Shaderleistung noch lange nicht.
Du vergisst das GPUs unheimlich parallelisierbar sind.
Wenn man eine bestehende Architektur hat, holt man sich solange Leistung daraus wie es möglich ist...kosten auch weniger Geld.

mfg Nakia
 
xtra9 schrieb:
Bei dem C2D scheint das ja gemacht worden zu sein. Die Arch scheint (so weit ich das als Laie verstanden hab/beurteilen kann) ja fast "komplett" neu zu sein. Man hat sich da z.B. von der Netburst getrennt, hat was designt was mehr Leistung pro takt bringt und die Verlustleistung senkt.

Der C2D basiert auf dem Pentium M, Intel preist zwar eine neue Architektur an, stimmt aber nicht. Man kann sagen, der C2D basiert auf dem Pentium Pro, das ist nicht wirklich aktuell, aber wen juckts...

xtra9 schrieb:
Und dann noch ne Frage an die Profis: Sind wir eigentlich am ende der Graka-Entwicklung angelangt, so das eigentlich alles "perfekt" ist – es quasi nichts gibt was man verbessern könnte oder neue designen könnte - und nur von Release zu Release ein Hochgezüchtete Variante erscheinen kann? Also sind praktisch alle Ideen die es zu realisieren gab ausgeschöpft? Oder "veräppeln" uns die GPU Entwickler ein wenig und wollen ihre grundlegende Architektur soll lange wie möglich ausschöpfen, bis der endgültige Höhepunkt erreicht ist (weil es dann nicht mehr weiter geht) und man dann auf was komplett neues umsteigen muss!?

Das wäre ja schlimm, wenn der Höhepunkt schon erreicht wäre, das glaubst Du doch wohl selbst nicht?
 
Nakai schrieb:
Zu wenig...er braucht mind. 32 um gegen den G80 bestehen zu können.
Du vergisst das er ein USC ist, also funktioniert das etwas anders.

ok was hast die anzahl der tmus mit den unfied shadern zu tun? und wieso brauchen die genausoviele tmus wie nv? ati wird wohl den weg des hohen taktes gehen während nv weiter in die breite geht und mehr tmus verbaut.
 
SWz.Iwan schrieb:
ok was hast die anzahl der tmus mit den unfied shadern zu tun? und wieso brauchen die genausoviele tmus wie nv? ati wird wohl den weg des hohen taktes gehen während nv weiter in die breite geht und mehr tmus verbaut.

Okay, wird der R600 genauso hoch getaktet sein wie die X1950XTX oder wie?
(Recht viel höher als 650Mhz glaub ich nicht, der Refresh könnte dann mit etwa 850Mhz getaktet sein)

Der G80 hat eine unglaubliche Texelleistung durch die 32TMUs, falls es wirklich 32 sind.

mfg Nakai
 
Nakai schrieb:
Okay, wird der R600 genauso hoch getaktet sein wie die X1950XTX oder wie?
(Recht viel höher als 650Mhz glaub ich nicht, der Refresh könnte dann mit etwa 850Mhz getaktet sein)

Der G80 hat eine unglaubliche Texelleistung durch die 32TMUs, falls es wirklich 32 sind.

mfg Nakai

der r600 soll auf jedenfall höher takten als der r580(+). hier schwirren ebenfalls schon zahlen von 700mhz und mehr durch das internet.

zu der texelleistung: ja womöglich wird sie beim g80 höher sein, aber das ist nur noch zweitrangig. die spiele die demnächst anstehen (crysis, ut07...) profitieren viel mehr von hoher arithmetik-leitung als von der texelleistung.
 
Zum G80 ein Zitat aus der aktuellen Gamestar:
"[...] Die von uns gesichtete Vorserienplatine belegt wie die Geforce 7900 GTX zwei Slotbleche und hat eine schwarze Kühlerabdeckung. Die neue Hardware unterstützt erstmals DirectX 10, soll aber vorallen Dingen in DirectX 9 die schnellste Grafikkarte sein. Wahrscheinlich greift der G80-Grafikprozessor auf 32 Pixel Shader zurück und taktet sie mit 700 oder mehr MHz. [...] G80-Grafikkarte sollen zwischen Oktober und Dezember erscheinen. [...]"
 
thade schrieb:
...
Das wäre ja schlimm, wenn der Höhepunkt schon erreicht wäre, das glaubst Du doch wohl selbst nicht?
Du hast nicht verstanden was ich geschrieben habe bzw. was ich gefragt habe.!!

Hab aber jetzt keine Lust noch mal alles durchzukauen. Es steht da ja alles und Nakai hat ja meine Frage verstanden. Falls etwas unkalr ist dan frag nach...
 
Ringkeeper schrieb:
Zum G80 ein Zitat aus der aktuellen Gamestar:
"[...] Die von uns gesichtete Vorserienplatine belegt wie die Geforce 7900 GTX zwei Slotbleche und hat eine schwarze Kühlerabdeckung. Die neue Hardware unterstützt erstmals DirectX 10, soll aber vorallen Dingen in DirectX 9 die schnellste Grafikkarte sein. Wahrscheinlich greift der G80-Grafikprozessor auf 32 Pixel Shader zurück und taktet sie mit 700 oder mehr MHz. [...] G80-Grafikkarte sollen zwischen Oktober und Dezember erscheinen. [...]"

Ich sehe es schon, der Chip wird 32 Shader haben und auf den G70 aufbauen.
32TMUs mit einer ALU vor und nach der TMU.:stupid:
Da hat der R580 auch noch mehr Shaderleistung.
Naja 60% mehr Leistung, mehr schätz ich nicht...

mfg Nakai
 
Nakai schrieb:
Ich sehe es schon, der Chip wird 32 Shader haben und auf den G70 aufbauen.
32TMUs mit einer ALU vor und nach der TMU.:stupid:
Da hat der R580 auch noch mehr Shaderleistung.
Naja 60% mehr Leistung, mehr schätz ich nicht...

mfg Nakai

wäre in der tat eine schwache vorstellung von nv, aber da die news von der gamestar kommt und nicht von einem renommierten hardware-mag lass ich die glaubwürdigkeit dieser meldung mal dahin gestellt.
 
SWz.Iwan schrieb:
wäre in der tat eine schwache vorstellung von nv, aber da die news von der gamestar kommt und nicht von einem renommierten hardware-mag lass ich die glaubwürdigkeit dieser meldung mal dahin gestellt.

Da hast du recht, aber von NV erwartet man eher einen kleinen Chip, also Hohe Yields und hohe Taktraten...

mfg Nakai
 
du schätzt 60% + GDDR4 ram also 70% kommt hin
ich schätze auch 70% - 100% mehr leistung bei den beiden neuen chips.
jedenfalls denke ich wird ATI den höheren takt haben,
der NV30 hatte damals auch US und schon sehr hohe takt raten für das jahr 2003....
okay will hier nicht birnen mit äpfel vergleichen, nur wer weiss

die meldungen sagen auch dass der R600 ziemlich groß sein soll, aber in zukunft will ati den weg mit mehr leistung pro watt gehen, habe ich aus einem interview.
also der R600 wird der letzte seiner art der so viel energy brauchen soll
 
@ xtra9

es geht viel mehr, sogar sehr viel mehr....
es wäre möglich eine GPU zu entwickeln die 500% schneller ist als ein GX2.

das einzige problem ist die wirtschaftklichkeit, oder bist du bereit 50000€ für eine graka zu zahlen?

nvidia baut nämlich auch "auftrags" produkte. also spezielle grafikkarten die den kundenwüschen entsprechen. Z.B mit extrem viel ram und arrays aus zich zusammengeschalteten grafikkarten...
 
cl55amg schrieb:
@ xtra9

es geht viel mehr, sogar sehr viel mehr....
es wäre möglich eine GPU zu entwickeln die 500% schneller ist als ein GX2.

das einzige problem ist die wirtschaftklichkeit, oder bist du bereit 50000€ für eine graka zu zahlen?

nvidia baut nämlich auch "auftrags" produkte. also spezielle grafikkarten die den kundenwüschen entsprechen. Z.B mit extrem viel ram und arrays aus zich zusammengeschalteten grafikkarten...

Bei Grafikkarten gibt es eh keine wirkliche Begrenzung der Leistung.
:fresse:

mfg Nakai
 
sehr viele sind sicher verunsichert gegenüber NV weil sie seid der GF4 nichts gutes mehr raus bringen konnten, zb
-die FX war unreif (shaderschwäche)
-die 68er war unreif (VP defekt, Flimmerkiste)
-die 78er ist unreif (HD-Video fake, Flimmerkiste)
mal hoffen dass der G80 kein flopp wird
von den letzten 3 generationen hat mir die FX am meisten zugesagt, lieber weniger power aber dafür gute quali und keine hohe ausfallrate
 
Night<eye> schrieb:
sehr viele sind sicher verunsichert gegenüber NV weil sie seid der GF4 nichts gutes mehr raus bringen konnten, zb
-die FX war unreif (shaderschwäche)
-die 68er war unreif (VP defekt, Flimmerkiste)
-die 78er ist unreif (HD-Video fake, Flimmerkiste)
mal hoffen dass der G80 kein flopp wird
von den letzten 3 generationen hat mir die FX am meisten zugesagt, lieber weniger power aber dafür gute quali und keine hohe ausfallrate

Ich denke eher, dass NV nicht mehr gute Chips rausbringt, weil NV wirtschaftlich handelt.
Mehr Leistung kann man auch durch 2 Chips oder mehr erreichen...:fresse:
Außerdem ist in den Chips immer nur das nötigste drin und so wird es immer bleiben, mehr Leistung kann man auch durch höhere Taktraten erreichen.

mfg Nakai
 
Nakai schrieb:
Ich denke eher, dass NV nicht mehr gute Chips rausbringt, weil NV wirtschaftlich handelt.
Mehr Leistung kann man auch durch 2 Chips oder mehr erreichen...:fresse:
Außerdem ist in den Chips immer nur das nötigste drin und so wird es immer bleiben, mehr Leistung kann man auch durch höhere Taktraten erreichen.

mfg Nakai

ich denke du hast recht....
echt schade.
warscheinlich wird der G80 meine letzte karte von NV solange sie sich nicht ändern.

natürlich kommt man mit geforce 5,6,7 zurecht aber zeitlich gesehen hat ati immer die besseren gegen produkte gehabt,
 
Night<eye> schrieb:
ich denke du hast recht....
echt schade.
warscheinlich wird der G80 meine letzte karte von NV solange sie sich nicht ändern...

Naja mein 6800er wird wohl definitiev die letze NV sein...vielleicht noch die 7600GT (...wegen geld...) aber ne "HighEnd" NV kommt mir nicht rein ins Case. Da kann ich mein Geld auch lieber aus dem Fenster werfen, denn wenigstens Flimmert es dann nicht wen die Geldschein vor sich hinwehen, wie bei den NV-Flimmer Grakas :fresse: U See? :xmas:
 
die GF6 hat wenigstens nicht so starkes flimmern wie G7 und auch keine so hohe ausfallrate,
die GF6 war wohl die beste NV seid der geforce 4
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh