ATI R600 [Spekulations Thread] (Part 1)

Status
Für weitere Antworten geschlossen.
wie siehts denn jetzt aus? die x1900er reihe hat AA+HDR und ist billiger als die variante von nvidia die das nicht kann!(bitte jetzt keine einwände. das hatten wir hier schon mal:fresse: )
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich habe auch vor mir noch eine x1900xt für mein Conroe-System zu kaufen(super Preis). Die wird mir sicher ein paar Jahre reichen.
Dann muss man mal von High auf Mid Quality runterschalten, aber dafür muss ich nicht Unmengen in neue Hardware investieren, die nach kurzer eh nur noch die Hälfte wert ist.

Ich rüste nur alle 3-4 Jahre komplett neu auf und in der Zwischenzeit am besten sich kein bischen um Hardwarenews etc. kümmern - so kommt man nicht in Versuchung und auch wesentlich billiger weg. ;)
 
paZe schrieb:
Leistung chip =X Rechenoperationen/takt * Takfrequenz ????????? richtig steppenwolf???

Ja, wobei da halt immer noch ein weiterer Faktor reinspielt, nämlich wieviele Einzelberechnungen man zu einer Rechenoperation zusammenfassen kann. Nehmen wir als Beispiel 3D-Berechnungen, das sind vor allem Matrixtransformationen oder optische Kompressionsalgorhythmen wie Fourier-Transformationen, diese lassen sich sehr gut zusammenfassen, weswegen z.B. spezialisierte Chips für MPEG oder eben GPUs in ihrem Spezialgebiet auch wesentlich höhere Leistungen bringen als eine wesentlich komplexere CPU.

Der Vorteil der CPU ist ja eben, daß sie jede Art von Berechnung ausführen kann, natürlich ist es also auch möglich, 3D-Graphik von der CPU berechnen zu lassen, aber die spezialisierte GPU ist besser auf diese Art von Daten angepasst.

Und genau darum geht es auch bei der Frage, welches Bauteil nun welche Shader-Operation übernehmen soll, letztlich läuft es alles auf den uralten Widerstreit hinaus: Spezialisierte Chips vs. Alleskönner.
 
steppenwolf78 schrieb:
Dennoch glaube ich, daß sich im konkreten Fall Hardtecs4u verschrieben hat und nicht der Inquirer:

http://en.wikipedia.org/wiki/GeForce_7_Series#GeForce_7800_GT

hier noch andere die sich verschrieben haben:

http://www.computerbase.de/artikel/...2006/test_geforce_7600_gt_7900_gt_7900_gtx/2/

So beinhaltet der G71 24 Pixel-Pipelines, wobei in jeder Pipeline eine Texture Mapping Unit (TMU) sowie zwei Shader-Einheiten verbaut sind.


http://www.hardwareluxx.de/cms/artikel.php?action=show&id=384

http://www.hardwareluxx.de/cms/artikel.php?action=show&id=390

http://www.guru3d.com/article/Videocards/326/2/
G71 has 24 pipes, with 2 ALU's per pipe. So NVIDIA counts up ALU's as 24 x 2 = 48 ALU's.

hoffentlich habe alle unklarheiten damit beseitigt?
 
Wie gesagt, irgendeiner wird sich verschrieben haben, und die anderen haben's dann alle nach dem Stille-Post Prinzip übernommen. Das war zuletzt auch schon beim Athlon 5000+ für Sockel 939 so.

Wer sich genau verschrieben hat, interessiert mich nur äußerst peripher, da ich für meine Belange mit einer frickeligen 100 Euro-Graphikkarte locker auskomme.

In diesem Sinne: Im Zweifelsfalle wirst Du wohl recht haben bzw. werde ich Dir wohl recht geben müssen, mir fehlt nämlich die Zeit, die verschiedenen Darstellungen zu überprüfen.
 
steppenwolf78 schrieb:
Wie gesagt, irgendeiner wird sich verschrieben haben, und die anderen haben's dann alle nach dem Stille-Post Prinzip übernommen. Das war zuletzt auch schon beim Athlon 5000+ für Sockel 939 so.

Wer sich genau verschrieben hat, interessiert mich nur äußerst peripher, da ich für meine Belange mit einer frickeligen 100 Euro-Graphikkarte locker auskomme.

In diesem Sinne: Im Zweifelsfalle wirst Du wohl recht haben bzw. werde ich Dir wohl recht geben müssen, mir fehlt nämlich die Zeit, die verschiedenen Darstellungen zu überprüfen.

sieh mal, wenn du dich für GPU architekturen tiefergehend interessierst, dann schau mal in das 3dcenter.de forum, da ist man mit dieser thematik besser aufgehoben.

ich spekuliere jetzt mal das der G80 bestimmt nicht nur ein pixel shader pro pipeline hat, denn nvidia muss sich irgendwie von ati abheben.
 
Zuletzt bearbeitet:
Wurde zwar schon viel drüber geredet, aber der Link selbst fehlt wohl noch:
http://uk.theinquirer.net/?article=32856

Ich denke, der R600 ist rein auf dem Papier klar überlegen. Wie sich die unterschiedlichen Shader-Varianten auf die Real-World-Performance auswirken, ist aber noch unklar. Bin jedenfalls gespannt.
 
xxmartin schrieb:
Wurde zwar schon viel drüber geredet, aber der Link selbst fehlt wohl noch:
http://uk.theinquirer.net/?article=32856

Ich denke, der R600 ist rein auf dem Papier klar überlegen. Wie sich die unterschiedlichen Shader-Varianten auf die Real-World-Performance auswirken, ist aber noch unklar. Bin jedenfalls gespannt.


der link wurde von steppenwolf gepostet, 2 seiten zurück, genau wegen dieser spekulation haben über die shader diskutiert.
 
cl55amg schrieb:
sieh mal, wenn du dich für GPU architekturen tiefergehend interessierst, dann schau mal in das 3dcenter.de forum, da ist man mit dieser thematik besser aufgehoben.

Sagen wir's so: Die Theorie finde ich faszinierend, ich könnte stundenlang über die Vor- und Nachteile von Unified Shadern oder Out-of-Order Execution usw. lesen. Die tatsächliche Anwendung, sprich: Welche Karte wieviele Shader hat und ähnliche Penisvergleiche finde ich langweilig.

Genau das gleiche beim Auto: Ich finde einen Mercedes-V12 unglaublich interessant, persönlich favorisiere ich nach einigen traumatischen Erfahrungen Autos mit möglichst wenig Elektronik (Peugeot 107 usw.), weil die nicht so oft kaputtgehen. :bigok:
 
Tja, ich glaube dass man ungeachtet der Leistung und Klasse, auf DX10 setzten sollte, wenn man zukunftssicher fahren will.
Das beste Beispiel ist meine Radeon 9600tx die mitlerweile schon über 3 Jahre alt ist. Das war eine der ersten Grakas, die DX9 unterstützt hat. Somit laufen Spiele wie Battlefield2 und co. immernoch. Mit einer 9800PRO wär ich zwar jetzt noch besser dran, aber hätte ich ein vergleichbares Gforce Modell gekauft, dann hätte ich kein DX9 und könnte die meißten aufwendigen Spiele seit über einem Jahr nicht mehr spielen. Ich glaub sogar das Nvidea damals noch garkeine DX9 Karten hatten. Da haben sich viele Gforce Besitzer in den Arsch gebissen (entschuldigung) als Battlefield 2 rauskam und die Karten wegen fehlendem DX9 nicht unterstützt wurden. Mods haben da auch nicht viel genutzt, da die Einzelbilder die zusehen waren garauenhaft aussahen!
 
Zuletzt bearbeitet:
steppenwolf78 schrieb:
...
Vereinfacht ausgedrückt, kann man sagen, daß die Leistung eines Chips gleich der Anzahl der Rechenoperationen pro Takt mal Taktfrequenz. Deswegen hat ein 4-fach superskalar ausgelegter Conroe auch Vorteile ggü. einem 3-fach superskalaren Athlon. Wenn man es genauer nimmt, dann ist die Leistung eines Computerchips gleich der Anzahl der Rechenoperationen pro Takt mal der der Anzahl der Einzelberechnungen, die zu einer Operation zusammengefasst werden (z.B. SSE = Single Instruction, Multiple Data Expansion, bei der mehrere gleichartige Berechnungen zu einem einzigen Befehl zusammengefasst werden) mal der Taktfrequenz.

Die Architektur entscheidet dabei über die Anzahl der Rechenoperationen pro Takt und darüber, wieviele Datensätze in einer einzigen Rechenoperation verarbeitet werden können.

Der Fertigungsprozess entscheidet über mögliche Taktfrequenz und Stromverbrauch. Gerade wenn man die Leistung pro Watt betrachtet, ist ein guter Fertigungsprozess unerlässlich, und AMD hat in den letzten Jahren unter anderem durch Strained Silicon da sehr große Fortschritte gemacht, erst mit dem Pentium M und jetzt Core konnte Intel dort wieder aufschließen.

Idealerweise muß also beides stimmen: Architektur UND Fertigungstechnik.
Thx für die tolle erklärung :)
 
laut 3dcenter spekulationen werden der R600 und G80 in 90nm
produziert. die low budget karten nvidia sollen in 80nm produziert werden.
 
Ja, die sollen beide (G80+R600) in 80nm produziert werden.
Zudem haben beide Chips noch den Vorteil, der mit 1,25 Ghz getakteten GDDR4 Speicherchips, welche auch noch weniger Strom verbrauchen, also GDDR3 Speicher. :banana:
 
Nightspider schrieb:
Ja, die sollen beide (G80+R600) in 80nm produziert werden.
Zudem haben beide Chips noch den Vorteil, der mit 1,25 Ghz getakteten GDDR4 Speicherchips, welche auch noch weniger Strom verbrauchen, also GDDR3 Speicher. :banana:


80nm?
 
@cl55amg
@steppenwolf78

Ob der g70/71 48 oder 24 pixel alus pro pipe hat liegt an der zählweise.
Das ist alles nicht so einfach.Die meisten seiten zählen eine alu dann, wenn sie eine MADD-Funktion verarbeiten kann.(somit hat der g70 dann 48 alu´s)

Der G70 kann aber nach wie vor nicht alle Befehle in jeder der beiden Shader Units berechnen. So genannte Special Functions (SFUs) sind auf Unit 1 und 2 verteilt.

hier mal alle möglichen rechnenoptionen vom r580 für den überblick.(von computerbase)
1 Vec3 ADD + Input Modifier
1 Scalar ADD + Input Modifier
1 Vec3 ADD/MULL/MADD
1 Scalar ADD/MULL/MADD
1 Flow Control Instruction

Also wie schon gesagt weder 24 noch 48 ist falsch.Es liegt einfach daran ab wann eine alu gezählt wird.

wobei am wichtigsten zur zeit die madd funktion ist.
 
sklave_gottes schrieb:
@cl55amg
@steppenwolf78

Ob der g70/71 48 oder 24 pixel alus pro pipe hat liegt an der zählweise.
Das ist alles nicht so einfach.Die meisten seiten zählen eine alu dann, wenn sie eine MADD-Funktion verarbeiten kann.(somit hat der g70 dann 48 alu´s)

Der G70 kann aber nach wie vor nicht alle Befehle in jeder der beiden Shader Units berechnen. So genannte Special Functions (SFUs) sind auf Unit 1 und 2 verteilt.

hier mal alle möglichen rechnenoptionen vom r580 für den überblick.(von computerbase)
1 Vec3 ADD + Input Modifier
1 Scalar ADD + Input Modifier
1 Vec3 ADD/MULL/MADD
1 Scalar ADD/MULL/MADD
1 Flow Control Instruction

Also wie schon gesagt weder 24 noch 48 ist falsch.Es liegt einfach daran ab wann eine alu gezählt wird.

wobei am wichtigsten zur zeit die madd funktion ist.

das hatte ich so ähnlich auch ge-quotet...
 
BMX-er Boi schrieb:
nein, es wurde bis jetzt überall von 80nm gesprochen. hat mich auch verwirrt, weil ich dachte, die nächste gewöhnliche stufe unter 90nm wären die 65...


es steht nur fest das midrange karten in 80nm produziert werden.
 
hmm... alles, was ich bis jetzt über den G80 und das fertigungsverfahren von dem gelesen habe, hatte mit 80nm zu tun. z.b. bei VR-Zone. beim r600 bin ich mir nicht mehr sicher.

und ich weiß nicht ob das bestätigt wurde. von 90nm hab ich jedenfalls noch nichts gelesen.
 
anfangs hies es noch der R600 soll in 65nm kommen
und der G80 in 80nm
aber wenn die Mid ranges nur in 80nm kommen könnte es sein dass der G80 doch in 90nm kommt
die 6600GT war auch in 110 während die 6800er alle in 130nm waren
daher schwer zu sagen
aber ich hoffe wohl schwer das er in 80nm kommen wird
 
gibts schon was neues ?
 
Und was gibt es zum refresh des R580 zu sagen?

Wann gibs denn wieder ne Hardware messe wo man was neues zum R600 erfaren kann?
 
die infos des r600 werden sicherst überschlagen wenn Nv,s G80 das licht der welt offiziell entdeckt ;)
also wenn NV werbung macht muss ATI anti Propaganda machen
 
ja aber wann kommt der G80 (dann heisst es aber nur sicher wie feste vertex und pixel zuordnung bein G80 und da sind wir weiter und so aber nicht genaues)
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh