ATI R600 [Spekulations Thread] (Part 2)

Status
Für weitere Antworten geschlossen.
hui!
danke!
das sidn doch mal interessante neuigkeiten!
besonders der cpu vergleich dazu ist herrrlich.

steht jetzt eigentlich schon nen datum fest?
g80 ist draußen und wird jeden tag günstiger (von 499€ gts jetzt schon preise um die 430-450€ wenn denn verfügbar)
der g81 erscheitn im februar...
und der r600??
weihnachten? oder auch erst zur cebit?

mfg
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Der R600 kommt im Januar, der G81 ist noch gar nicht angekündigt.
 
R600:
1GB GDDR4 @ 1,2GHz @ 512Bit
16 ROPs @ 850MHz
64 - 96 Vec4 Shader @ 850MHz

G80:
768MB GDDR3 @ 0.9GHz @ 384Bit
16 ROPs @ 775MHz
128 Shader @ 1350MHz

Der G80 hat 24 ROPs bei 575 MHz ansonsten schöne Aufstellung.

Rechnen wir den R600 mal um auf G80 Niveau:
64 Vec4 Shader -> entsprächen 256 Shadern bei 850 MHz -> bzw. 160 Shadern bei 1350 MHz -> +25%
16 ROPs bei 850 MHz -> entsprächen knapp 24 ROPs bei 575 -> Einstand

Dieser Vergleich hinkt natürlich aber zur Abschätzung mach ich es jetzt einfach mal:

Somit stehen 160 zu 128 Shadern, was einer theoretischen Mehrleistung von 25% entspricht, aber nur, wenn auch der Speicher gleichermaßen 25% Mehr Bandbreite hat. Wenn der R600 tatsächlich ein 512 Bit Speicherinterface hat (was ich noch nicht so recht glauben mag bei dem PCB) dann sinds bei 1,2 GHZ sogar satte 77% mehr Bandbreite - theoretisch.

Das lässt grob vermuten, dass der R600 bei komplexen Shadern um die 30% Mehrleistung gegenüber dem G80 haben wird aber bei einfachen um ca. 50% (64 Shader @ 850 mit höherer VRAM Bandbreite zu 128 Shader @ 1350 bei niedrigererm Speicherdurchsatz) hinterherhinkt und fast auf X1950XTX Niveau absinkt.

Ich vermute daher, dass der R600 in neuen Spielen mit D3D10 auftrumpfen wird, aber bei älteren Titeln mit DX9 stellenweise das nachsehen hat und insgesamt wegen seiners weniger skalaren Aufbaus des G80 stärker in der Leistung schwankt (min. FPS und max. FPS) und somit nicht ganz das flüssige Gamplay in manchen Spielen wird bieten können.

Wie gesagt - das nur darauf basierend, dass ich versucht habe die technischen Daten auf einen Nenner zu bringen, das funktioniert natürlich nicht wirklich, aber als grobe Abschätzung könnt's hinkommen.
 
Ich vermute daher, dass der R600 in neuen Spielen mit D3D10 auftrumpfen wird, aber bei älteren Titeln mit DX9 stellenweise das nachsehen hat und insgesamt wegen seiners weniger skalaren Aufbaus des G80 stärker in der Leistung schwankt (min. FPS und max. FPS) und somit nicht ganz das flüssige Gamplay in manchen Spielen wird bieten können.
Du vergißt aber in diesem zusammenhang die enorme Speicherbandbreite, obwohl Du sie oben angeführt hast. Diese, sollte sie tatsächlich 512bit betragen, sollte von sich aus schon einen enormen Vorteil in Bezug auf Speicherhungriges AA bringen. Wie sich das auf Shader unter DX9 auswirkt, hab ich leider keine Ahnung.
 
Der G80 hat 24 ROPs bei 575 MHz ansonsten schöne Aufstellung.

Danke, habe ich korrigiert :angel:


Rechnen wir den R600 mal um auf G80 Niveau:
64 Vec4 Shader -> entsprächen 256 Shadern bei 850 MHz -> bzw. 160 Shadern bei 1350 MHz -> +25%
16 ROPs bei 850 MHz -> entsprächen knapp 24 ROPs bei 575 -> Einstand

Genau meine Meinung. Wenn der R600 mit 750MHz getaktet wird würde er bei den ROPs etwas hinterherhinken, mit 850MHz läge er sogar etwas in Führung.


Dieser Vergleich hinkt natürlich aber zur Abschätzung mach ich es jetzt einfach mal:

Somit stehen 160 zu 128 Shadern, was einer theoretischen Mehrleistung von 25% entspricht, aber nur, wenn auch der Speicher gleichermaßen 25% Mehr Bandbreite hat. Wenn der R600 tatsächlich ein 512 Bit Speicherinterface hat (was ich noch nicht so recht glauben mag bei dem PCB) dann sinds bei 1,2 GHZ sogar satte 77% mehr Bandbreite - theoretisch.

Das lässt grob vermuten, dass der R600 bei komplexen Shadern um die 30% Mehrleistung gegenüber dem G80 haben wird aber bei einfachen um ca. 50% (64 Shader @ 850 mit höherer VRAM Bandbreite zu 128 Shader @ 1350 bei niedrigererm Speicherdurchsatz) hinterherhinkt und fast auf X1950XTX Niveau absinkt.

512Bit sind auf dem PCB eigentlich unmöglich. Aber ATi will z.B. mit neuen Spannungswandlern viel Platzt einsparen. Beim G80 machen diese immerhin 1/3 des gesamten PCBs aus. Nur benutzen fast alle aktuellen Spiele (Auch DX9-Spiele) komplexe Shader. Deshalb wird es nie 64@850MHz vs 128@1350MHz stehen. Wenn ATi nun wirklich 512Bit + 1,2GHz GDDR4 verwendet würde der R600 vorallem mit AA/AF dem G80 weit davonziehen. Ich denke daß wir eher 256Bit oder eine krumme Lösung wie beim G80 sehen werden


Ich vermute daher, dass der R600 in neuen Spielen mit D3D10 auftrumpfen wird, aber bei älteren Titeln mit DX9 stellenweise das nachsehen hat und insgesamt wegen seiners weniger skalaren Aufbaus des G80 stärker in der Leistung schwankt (min. FPS und max. FPS) und somit nicht ganz das flüssige Gamplay in manchen Spielen wird bieten können.

Wie gesagt - das nur darauf basierend, dass ich versucht habe die technischen Daten auf einen Nenner zu bringen, das funktioniert natürlich nicht wirklich, aber als grobe Abschätzung könnt's hinkommen.

Der R600 wird sicher in DX10 nochmal mehr Leistung bringen. Man muss sich nur mal anschauen wie shaderlasting die neuen Engines sind (UE3, CE2, usw.). Ich denke daß es unter DX9 und niederen Auflösungen ohne AA/AF auf einen Gleichstand herauslaufen wird. Aber mit hohen Settings oder unter DX10 sehe ich gute Chance auf bis zu 20% Vorsprung für den R600.


Edit/
Die 1GB GDDR4 @ 1,2GHz @ 512Bit sind anscheinend bestätigt.
 
Zuletzt bearbeitet:
Nur benutzen fast alle aktuellen Spiele (Auch DX9-Spiele) komplexe Shader. Deshalb wird es nie 64@850MHz vs 128@1350MHz stehen.

Komplex, ja. Aber ist eine der 64 Einheiten auch immer voll ausgelastet mit ihrem 4-fach skalaren Aufbau? Das wage ich nämlich zu bezweifeln. Wenn die nicht immer ein 4-faches zu berechnen hat liegt sofort Leistung brach. Wenn 6 - oder schlimmer noch - nur 5 Berechnungen erforderlich sind, so liegen 2 bzw. 3 Shaderpipes brach für einen Takt. Das kann beim G80 nicht passieren. Daher denke ich, kommt es sehr stark auf die Anwendung an wie der R600 performt - wogegen der G80 in seiner Leistung einiges konstanter sein dürfte.
 
Ja, ich meinte nur daß es wahrscheinlich nie 64 vs 128 stehen wird. Aber 96 vs 128 ist schon vostellbar.
 
Danke, habe ich korrigiert :angel:




Genau meine Meinung. Wenn der R600 mit 750MHz getaktet wird würde er bei den ROPs etwas hinterherhinken, mit 850MHz läge er sogar etwas in Führung.




512Bit sind auf dem PCB eigentlich unmöglich. Aber ATi will z.B. mit neuen Spannungswandlern viel Platzt einsparen. Beim G80 machen diese immerhin 1/3 des gesamten PCBs aus. Nur benutzen fast alle aktuellen Spiele (Auch DX9-Spiele) komplexe Shader. Deshalb wird es nie 64@850MHz vs 128@1350MHz stehen. Wenn ATi nun wirklich 512Bit + 1,2GHz GDDR4 verwendet würde der R600 vorallem mit AA/AF dem G80 weit davonziehen. Ich denke daß wir eher 256Bit oder eine krumme Lösung wie beim G80 sehen werden


Der R600 wird sicher in DX10 nochmal mehr Leistung bringen. Man muss sich nur mal anschauen wie shaderlasting die neuen Engines sind (UE3, CE2, usw.). Ich denke daß es unter DX9 und niederen Auflösungen ohne AA/AF auf einen Gleichstand herauslaufen wird. Aber mit hohen Settings oder unter DX10 sehe ich gute Chance auf bis zu 20% Vorsprung für den R600.



Die 1GB GDDR4 @ 1,2GHz @ 512Bit sind anscheinend bestätigt.

Naja der Typ im 3DC oder?

Vec4 ALUs sind verdammt schwer auszulasten, schwerer als 128 Vec1 ALUs.
Nach meinen Infos werdens 96 Vec3 ALUs, 16 ROPs und 24 TMUs und ein Takt von 700 bis 800 Mhz.
Wobei der G80 seine ALUs besser auslasten kann, der R600 setzt mal wieder auf hohe Leistung und viel Shaderpower.

Er ist in der Texelleistung wie immer schwächer dafür massig Shaderpower.

Ach ja er ist bei gleichem Takt zum R580 kaum schneller als dieser. Mehr Leistung wird durch Treiberoptimierungen und höherem Takt erzielt....

mfg Nakai
 
Naja der Typ im 3DC oder?

:confused:


Vec4 ALUs sind verdammt schwer auszulasten, schwerer als 128 Vec1 ALUs.
Nach meinen Infos werdens 96 Vec3 ALUs, 16 ROPs und 24 TMUs und ein Takt von 700 bis 800 Mhz.
Wobei der G80 seine ALUs besser auslasten kann, der R600 setzt mal wieder auf hohe Leistung und viel Shaderpower.

Er ist in der Texelleistung wie immer schwächer dafür massig Shaderpower.

Ach ja er ist bei gleichem Takt zum R580 kaum schneller als dieser. Mehr Leistung wird durch Treiberoptimierungen und höherem Takt erzielt....

mfg Nakai

Woher hast du denn deine Infos? Ich muss ehrlich sagen daß meine Quellen bei nVidia brauchbar sind, die bei AMD/ATi eher weniger.
 
:confused:




Woher hast du denn deine Infos? Ich muss ehrlich sagen daß meine Quellen bei nVidia brauchbar sind, die bei AMD/ATi eher weniger.

Komisch, kaum vorher hat einer im 3dc die gleichen Speicherspecs losgelassen^^
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4996784&postcount=280

Ich kann nur sagen, das ich hoffe das meine Infos der Wahrheit entsprechen. Jedenfalls ist die Person von der ich die Infos bekommen habe, schon ziemlich ins Detail gegangen.
(AA-Quali, AF-Quali, programmierbarkeit...)

Außerdem beruhen die Infos schon einigen Tatsachen.
Der Chip wird ein Zwischending von R5x0 und dem R500 alias Xenos.
Texel : ALU = wird dann etwa 1:4 sein, also 24 TMUs!
Die 16 ROPs stammen vom R5x0 (wenn nicht nur 12!).
Die Art der ALUs vom Xenos, also Vec3-ALUs.
Das wären dann ungefähr 288 G80 ALUs, natürlich schwerer auszulassen.

Nächster Hinweis wäre, das ATI selbst in einer Pressemitteilung gesagt hat, das die neue Generation über 96 USCs verfügen könne und von daher über ein halben Terraflop Rechenleistung hat.

Mehr will ich dazu auch nicht sagen. Ich sage einfach nur, das es unter der Kategorie "Spekulation" fällt. Lass mich gern belehren.

mfg Nakai
 
ich freue mich schon auf das referenz layout wo wieder die DPWM chips nicht mitgekühlt werden. wer sich das bei der x1950pro ausgedacht hatte, sollte gehängt werden.
 
Quelle: www.computerbase.de und www.theinquirer.com
Am 8. November legte nVidia mit der Vorstellung der neuen GeForce 8800 GTX und GTS ein gutes Pfund vor – und ATi steht nun mit dem Rücken zur Wand, sieht die aktuelle Generation vom Typ „Radeon X19xx“ doch eher dürftig gegen die grüne Konkurrenz aus. Dies wird sich so schnell wohl auch nicht ändern. Zumindest bis zum Launch des R600-Chips.

Denn an diesem Tag werden die Karten wieder neu gemischt werden. Und welchen Trumpf ATi dabei in der Hand hat, wollen die Kollegen von The Inquirer nun erfahren haben. Denn wie dort berichtet wird, kann man Grafikkarten auf Basis des R600-Chips wohl als den komplexesten 3D-Beschleuniger, der jemals hergestellt wurde, bezeichnen. So wird das verwendete PCB das aufwendigste sein, das man in der Firmengeschichte bislang genutzt hat. Insgesamt 12 Layer soll dieses besitzen und auch einige weitere technische Neuerungen unter der Haube haben, die der R600-Chip brauchen wird.

Dieses komplexe Layout benötigt man vor allem wegen des angeblich 512 Bit breiten Speicherinterfaces. Dieses wird angeblich laut den Kollegen von The Inquirer auf Grafikkarten mit dem R600 sein Debut feiern. Daraus resultiert, dass jeder der 16 für ein solches Interface benötigten Speicherchips mit jeweils 32 Bit an den RingBus-Speichercontroller des Chips angeschlossen sein wird. Unter Verwendung eines solchen Interfaces und handelsüblichen Speicherchips mit 64 Megabyte Speicherdichte würde man also ohne Probleme auf einen Videospeicher von 1 Gigabyte kommen – setzt man 128 Megabyte große Chips ein wären es sogar 2 Gigabyte.

Gegen solche Werte würde nVidias GeForce 8800 mit seinem 384-Bit-Interface natürlich alt aussehen, unterstützt diese im Moment doch „nur“ maximal 768 Megabyte Speicher. Wir gehen jedoch nicht davon aus, dass ATi den maximal möglichen Speicherausbau für Desktop-Karten bringen wird. Die maximal möglichen 2 Gigabyte werden wahrscheinlich der FireGL-Grafikkarte auf Basis des R600 vorbehalten bleiben. Diesbezüglich muss man dann berücksichtigen, dass eine 2-GB-FireGL wahrscheinlich gegen eine Workstationkarte mit dem G80 und 1,5 Gigabyte RAM antreten müsste.

Aber nicht nur der maximale Speicherausbau des R600 wäre ein Novum. Auch die durch das 512 Bit breite Interface erreichbare Bandbreite würde in ungeahnte Räume vorstoßen. So würde man, wenn man 900 MHz schnellen Speicher vom Typ GDDR3 einsetzen würde, eine Speicherbandbreite von 115 Gigabyte pro Sekunde erreichen; setzt man auf GDDR4-RAM, der zur Zeit auch auf der Radeon X1950 XTX verbaut wird, kommt man sogar auf 140,1 Gigabyte pro Sekunde. Zum Vergleich: Eine GeForce 8800 GTX bringt es gerade einmal auf 86,4 GB/s – und ist damit immer noch weit schneller als alle anderen Grafikkarten, die es zur Zeit auf dem Markt gibt. Aufgrund eines aktuellen Produktionsengpasses für GDDR4-Speicher wird ATi wahrscheinlich nur das Top-Modell mit solchem RAM ausliefern. Alle anderen Modelle setzen noch auf GDDR3-Chips mit maximal 900 MHz.

Ferner soll das für den R600 entwickelte PCB zwar sehr komplex sein, in seiner Länge jedoch vergleichbar mit den aktuell erhältlicher ATi-Grafikkarten sein. Dies ist durchaus verwunderlich, stellte doch die GeForce 8800 GTX kürzlich – vor allem wegen ihres 384 Bit breiten Speicherinterfaces – in dieser Hinsicht einen neuen Rekord auf und ist länger als je eine Consumer-Grafikkarte zuvor.

Ein durchaus wuchtiges Gerät werden Grafikkarten mit ATis R600 dennoch sein. Denn der Kühler, den man für diesen Pixelbeschleuniger entwickelt hat, soll angeblich ein wahres Monstrum sein. So gehen die Kollegen davon aus, dass dieser länger als das PCB und mit insgesamt vier Heatpipes ausgestattet sein wird. Dass es sich dabei um einen Dual-Slot-Kühler handelt, sollte klar sein. Vor allem aufgrund dessen soll der R600 die schwerste Grafikkarte sein, die es zur Zeit auf dem Markt gibt. Das PCB wird also zwangsläufig Verstärkungen haben, die helfen sollen, den PCI-Express-Steckplatz zu entlasten. So sollen bleibende Schäden am Mainboard vermieden werden. Beim Transport eines PCs mit einer solchen Grafikkarte sollte man aber dennoch eher vorsichtig agieren. Ausgelegt ist der Kühler übrigens wohl auf eine Verlustleistung von maximal 250 Watt.

Bezüglich des Stromverbrauchs hat sich auch einiges getan. So schreibt The Inquirer, dass die bisherigen Gerüchte, die davon sprachen, dass der R600 bis zu 250 bis 300 Watt konsumieren könnte, schlichtweg falsch seien und wahrscheinlich von nVidia als gezielte Falschinformationen verbreitet sein worden. Vielmehr sollen nur circa 200 bis 220 Watt zu Buche stehen – und damit nicht mehr als auch nVidias G80-Chip verbraucht. Die gleichen Spezifikationen sollen angeblich auch für den Refresh-Chip R680 gelten, der auf den gleichen Kühler setzen wird.

Eine separate CrossFire-Edition wird es vom R600 wohl nicht mehr geben. Denn genau wie der RV570, der auf der Radeon X1900 GT eingesetzt wird, wird eine solche Grafikkarte einen Dual-Bridge-Anschluss haben und so ein CrossFire-System zwischen zwei handelsüblichen Karten erlauben.

Unserer Meinung nach sollten all diese Werte und Details aber mit großer Vorsicht genossen werden, ist vor allem die Verwendung eines 512-Bit-Interfaces doch eine extrem kostspielige Angelegenheit, die bislang noch kein Hardwarehersteller eingehen wollte. Auch müsste das PCB extrem komplex aufgebaut sein, was neben dem Einsatz von 16 Speicherchips, den Preis solcher Grafikkarten empfindlich in die Höhe treiben könnte. Dennoch ist nicht von der Hand zu weisen, dass die stets gut informierten Kollegen von The Inquirer auch in der Vergangenheit mit ihren Informationen schon des öfteren richtig lagen.

Ob dies aber auch in diesem Fall so war, werden wir wohl erst wissen, wenn man den R600 der Öffentlichkeit vorstellen wird. Aktuellen Gerüchten zufolge wird dies am 30. Januar des kommenden Jahres sein. Also pünktlich zum Start der Endkundenversion von Windows Vista, das die Basis für die neue DirectX10-Schnittstelle sein wird.
 
Zuletzt bearbeitet:
12 Layer PCB und 512Bit - das geht doch nicht, oder :confused:
 
Aber trotzdem können sie nicht zaubern. Ich erwarte ein 256Bit SI, dafür aber 1,4GHz GDDR4. Denkt doch mal nach. Selbst bei einem 20 Layer PCB müsste AMD einen Teil der RAMs hinten anbringen wenn sie ein 512Bit SI wollten. Mit 12 Layern geht das nicht. Also sind entweder die Layerangaben total falsch oder - was wahrscheinlicher ist - wird es ein 256Bit SI geben. Und mit 1,4GHz GDDR4 hätten sie trozdem noch einen enorme Bandbreite. Ich könnente mit auch eine Zwischenlösung wie bei nVidia mit 384Bit vorstellen.
 
Zuletzt bearbeitet:
Nun, wenn sie ein 512bit IF und 1Gb Ram haben, kann man das eben ruhig zaubern nennen. ^^
Irgendwas müssen sie bringen um nVidia auf den Boden der Tatsachen zurück zuholen. Es kann eben nur eine Performancekrone geben. ;)
 
Und wie wollen sie daß auf einem 12 Layer PCB machen?
 
Ich denke der R600 wird ein richtiger burner. Wie ATI mal verlauten ließ "Der R600 wird alles was wir je zuvor gebaut hatten weit in den Schatten stellen."

So ähnlich ist jetzt nicht Wortgetreu.
 
Und wie wollen sie daß auf einem 12 Layer PCB machen?
Bin ich Ingenieur? ^^
Ach das schöne daran ist die Vorfreude, wenn die ganzen GTX User seeeeehr lange Gesichter machen werden hihi...:drool:. Meine das aber nicht gehäßig oder so, das ist eben Wettbewerb.
 
Zuletzt bearbeitet:
Bin ich Ingenieur? ^^
Ach das schöne daran ist die Vorfreude, wenn die ganzen GTX User seeeeehr lange Gesichter machen werden hihi...:drool:. Meine das aber nicht gehäßig oder so, das ist eben Wettbewerb.

Nur gut das ich nicht zu den GTX User gehöre und nur ne GTS habe! :xmas: Und mich juckt das nicht wenn ATI ne bessere Karte raus bringt, wird die gekauft! :teufel:
 
Die 1GB GDDR4 @ 1,2GHz @ 512Bit sind anscheinend bestätigt.

Wo hast du denn Quarck her?:lol: :teufel: :haha:

Gib mall ein link,die zahlen sind ja richtig dämlich und aus der Luft gegriffen.;) :lol:

Ne sorry wombat aber die zahlen kauft dir keiner ab.;)

Ati will Nvidia überhollen und nicht auslöschen.:lol: :mad: :teufel: ;) :angel:
 
Zuletzt bearbeitet:
Bin ich Ingenieur? ^^
Ach das schöne daran ist die Vorfreude, wenn die ganzen GTX User seeeeehr lange Gesichter machen werden hihi.... Meine das aber nicht gehäßig oder so, das ist eben Wettbewerb.

Wieso lange Gesichter? Also ich möchte mir ebenfalls eine 8800GTX holen. Und sollte die ATI besser sein,dann wird halt die geholt.
 
Wo hast du denn Quarck her?:lol: :teufel: :haha:

Gib mall ein link,die zahlen sind ja richtig dämlich und aus der Luft gegriffen.;) :lol:

Ne sorry wombat aber die zahlen kauft dir keiner ab.;)

Ati will Nvidia überhollen und nicht auslöschen.:lol: :mad: :teufel: ;) :angel:

Wenn du meine Postings lesen würdest, hätest du bemerkt daß ich nicht von 512Bit ausgehe. Aber diese Angaben wurde von ein paar Quelle "bestätigt".
 
Und an der Rechtschreibung könnte man auch bisschen feilen... ich kann das "mall" nicht mehr lesen. Wie kommt man nur drauf, das mit Doppel-L zu schreiben? Das machen komischerweise einige Leutz hier im Forum...
 
TM30@ Schau mal auf die Uhr! Es ist heute Freitag und halb Deutschland hat schon mehr als 2 Bier hinter sich...

Außerdem kann man sich ja mal vertippen. Solang man den Sinn dahinter versteh is ja alles im grünen Bereich. :d

Edit: lol is ja scho samstag. xD
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh