ATI R600 [Spekulations Thread] (Part 2)

Status
Für weitere Antworten geschlossen.
Und der R600 wird kein PCIe 2.0 haben, wenn er nicht in einer PCIe 1.0 Schnittstelle läuft. Wenn eine PCIe 2.0 Karte nicht im 1er läuft und die R600 dennoch als 2er Version rauskommen wird, dann wird es wohl parallel produziert zu einer denkbaren 1er Version (vermutlich in geringen Stückzahlen - schließlich wird es auch zum Launch der Karte keine Boards mit PCIe 2.0 geben, wer soll denn die Karte betreiben können ?! ).

Höchstwahrscheinlich wird die News missverstanden, es heißt wahrscheinlich, dass es möglich ist die R600 an einer PCB raufzuhauen, die eine PCIe 2.0 Anbindung zur Verfügung stellt. Kommende Karten, z.B. ein Refresh, könnten dies nutzen, aber ich bezweifle aus oben genannten Gründen, dass zum Launch gleich PCIe 2.0 Karten erhältlich sein werden - vorausgesetzt es stimmt, dass PCIe 2.0 Karten nicht in PCIe 1.0 Steckplätzen laufen. Ansonsten klärt sich ja alles von selbst ...
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ATi R600 Card Re-Design In Progress
Quelle


Anscheinend arbeitet ATi gerade an einem Re-Design des R600, weil die bisherigen Karten zu lang und zu heiß sind. ATi will jetzt maximal die Länger der 8800GTX erreichen und der Karte eine neue, leise, Kühllösung spendieren.
Im XS wird außerdem darüber geredet, daß der R600 anscheinend schon DX10b kann, was ein relativ großer Vorteil gegenüber dem G80 wäre (mit DX10b kommen die meisten neuen Effekte). Vielleicht zieht nVidia ja mit dem G81 nach.
 
Zuletzt bearbeitet:
steht doch alles drin....
einen teil heir nochmal auf deutsch.....
http://www.hartware.de/news_41077.html

also statt des 1*6pin anschlusses wie bei 7800gt etc... und dem doppelten bei 8800er Karten hat die ATi jetzt einen 2*4pin strom anschluss.
also nix von wegen aus dem mainboard strom saugen. wäre auch bei 300Watt und was so ne Karte an Strom zieht ziemlich sonnlis sowas über die kleinen Adern des Meinboards zu jagen.... denn leckt es wirklich, von wegen leckströme.... ;-)

also keien PANIK
die werden schon was machen was auf allen gängigen Systemen läuft. wäre ja auch sonst Schwachsinn.

Bis dato... abwarten und dann kaufen R600 oder doch g81 im februar...

mfg
 
Ohje, wenn sie ursprünglich ein noch längeres Layout als das der 8800GTX hatten und es trotzdem zu heiß war, dann mach ich mir echt meine Gedanken. Das heißt entweder, wir kriegen Riesenkarten oder verdammt laute Lüfter. Oder eine dicke Überraschung. :)
 
muss ja sein....
wäre ja bescheuert wenn man da was aus den 4pol Laufwerkskabeln a 4mal der ganze mist zusammenfrickeln müsste.....
ne ne ne
immer positiev bleiben so bescheuert wird AMD/ATI nicht sein.....
die wollen ja auch Kunden haben die das ganze "Ding" benutzen können.

man wenn man nur wüßte ob sich das warten auf den R600 lohnt.
oder ob es doch klüger wäre zu weihnachten sich lieber ne 8800GTS zu kaufen? allerdings kommt der g81 auch schon im Februar....
entscheidungsschwierigkeiten über entscheidungsschwierigkeiten.....
und Gothic3 ruckelt wie sau.....

mfg
 
was sich ATI wieder einfallen lassen muss :rolleyes:
die derzeitigen PCBs sollen ja gut 30cm lang sein, sollen aber später auf 28cm gekürzt werden. die lächerlichste begründung die ich jemals gesehen habe war "dadurch soll eine effizendere kühlung möglich sein" :haha:

wenn man bedenkt das der R600 80nm ist und die anzahl von transistoren ungefähr dem G80 gleich kommen wird, fragt man sich echt wie ATI es jedes mal nicht schafft die fertigungsprozesse in den griff zu bekommen.

wenn ATI nicht eine karte launcht die durch und durch überzeugen kann, siehts düster aus. nVidia wird wohl schon an den 65nm GPU arbeiten, der wohl weniger verlustleistung haben wird als der R600 mit 80nm und fertigungsproblemen. ein grund wieso viele bei ATI geblieben sind, ist die BQ.
da hat der G80 ja ordentlich aufgeholt, erste gerüchte sagen max 8xAA.
 
Dass die Karte durch die Verkleinerung des PCBs besser gekuehlt werden soll ist humbug. Es wurde gesagt, dass man versucht, sie kuehler zu bekommen und sie gleichzeitig zu kuerzen.
 
Finde ich am besten:

Since R600 SIMD Shader can calculate the result of four scalar units, it yields with scalar performance of 256 units - while Nvidia comes with 128 "real" scalar units. We are heading for very interesting results in DX10 performance, since game developers expect that NV stuff will be faster in simple instrucions and R600 will excel in complex shader arena. In a way, you could compare R600 and G80 as Athlon XP versus Pentium 4 - one was doing more work in a single clock, while the other was using higher clock speed to achieve equal performance.
 
Zuletzt bearbeitet:
Nicht ironisch gemeint.
 
Finde ich am besten:

Inwiefern? Weil du davon ausgehst, dass somit der "Rückgewinn der Krone" für ATI/AMD besiegelt ist?

Ich habe ja ehrlich gesagt Angst, dass sich NV- und ATI/AMD in Zukunft immer weniger vergleichen lassen, bzw. immer differenziertere Anwendungsgebiete und Königsdisziplinen haben.

So nach dem Motto:
Hier meine AMD-Kiste für F.E.A.R. 2, CoD4...
Da meine Intel/NV-Kiste für Quake 5, RtCW:3...
 
Das wäre echt doof. Glaube aber nicht, dass sie sich sowas leisten können. Mit dem G80 läuft ja alles wie Butter, da zeichnet sich die Entwicklung mMn nicht ab. Aber ein Schreckensszenario ist es durchaus ;)
 
Das wäre echt doof. Glaube aber nicht, dass sie sich sowas leisten können. Mit dem G80 läuft ja alles wie Butter, da zeichnet sich die Entwicklung mMn nicht ab. Aber ein Schreckensszenario ist es durchaus ;)

Hast' schon recht.
Trotzdem deutet der Satz
We are heading for very interesting results in DX10 performance, since game developers expect that NV stuff will be faster in simple instrucions and R600 will excel in complex shader arena.
ja einen gewissen Trend an.

Letztlich wird unter'm Strich derjenige gewinnen, dessen Leistung sich für die Entwickler am einfachsten abrufen lässt.
 
Zuletzt bearbeitet:
Inwiefern? Weil du davon ausgehst, dass somit der "Rückgewinn der Krone" für ATI/AMD besiegelt ist?

Ich habe ja ehrlich gesagt Angst, dass sich NV- und ATI/AMD in Zukunft immer weniger vergleichen lassen, bzw. immer differenziertere Anwendungsgebiete und Königsdisziplinen haben.

So nach dem Motto:
Hier meine AMD-Kiste für F.E.A.R. 2, CoD4...
Da meine Intel/NV-Kiste für Quake 5, RtCW:3...
Twenty-four ROPs at 575MHz equals 13.8 billion pixels per clock, while 16 ROPs at 750MHz will end up at 12.0 billion pixels. At the same time, expect ATI to far better in more complex Shader-intensive applications.

Wie du sehen kannst ist die 8800GTX nur ein wenig schneller (GTX: 13,8/R600: 12,0) wärend der R600 aber theoretisch die doppelte Shaderleistung hat. Dazu noch eine höhere Bandbreite (GDRR4 + 512Bit) und selbst eine 8900GTX kann einstecken.

WICHTIG: Das ist alles natürlich nur Spekulation und niemand soll sich davon angegriffen fühlen.
 
Neues zu AMDs ATI R600

NVIDIA hat mit dem G80 vorgelegt, nun muss AMD kontern, um bei den Highend-Grafikkarten mithalten zu können. Doch der R600 wurde wohl aufgrund mehrerer Fehler immer wieder verschoben und wird wohl mit der Revision A2 in die Massenfertigung gehen. Weitere Einzelheiten des Grafikchips hat der Inquirer nun zusammengefasst.

Demnach wird der R600 mit einem bidirektionen 512-Bit Ringbus-Controller aufwarten. Ziel für den Takt der GPU soll 700 bis 800 MHz sein.

Die 64 Shader-Einheiten (4-way SIMD) sollen den 128 der G80, da diese lediglich "einfache" skalare Einheiten sind. Das soll dazu führen, dass die G80 der R600 in komplexen Shader-Szenarien unterlegen und in einfachen besser abschneidet.

Laut diversen Roadmaps ist mit R600-Karten im ersten Quartal 2007 zu rechnen
 
Sieht ein bisschen so aus als ob ATI etwas unter Zugzwang geraten ist. Ich vermute die sind mit dem Ziel den G80 zu überflügeln an die Grenzen ihres Chipdesigns gestoßen weil sie den Takt höher als ursprünglich geplant anheben müssen, mit der Folge, dass man Spiegeleier drauf braten kann und Löcher ins Gehäuse dremeln muss, damit sie rein passt. :asthanos:
Also zurück ans Reißbrett und nochmal überarbeiten. :d

Ich bin ja echt mal gespannt wie dieses Monsterteil letztendlich aussieht und was es wirklich bringt. Dank der nochmals gesteigerten Spezifikationen in Sachen Stromversorgung wird das Flaggschiff wohl noch mehr verbraten können als die 8800GTX jetzt. ATI-Typisch wird wohl mal wieder so richtig geklotzt hauptsache NVidia wird auf den 2. Platz verwiesen, also stark, groß, laut und schwer -> stellt sich nur die Frage ob's am Ende wirklich reicht und mit welchen Unannehmlichkeiten man sich die mögliche Performancekrone erkauft.
 
Und weiter gehts: http://uk.theinquirer.net/?article=35708

The PCB will be shorter than 8800GTX's in every variant, and you can compare it to X1950XT and 7900GTX.

[...]

1,1GHz GDRR4 + 512Bit = 140GB/s (8800GTX: 86GB/s)
64 Shader x 4 = 256 Shader (8800GTX: 128 Shader)
16 ROPs @ 750MHz = 12bp (8800GTX: 13,8bp)

[...]

For starters, the rumour about this 80nm chip eating around 300W is far from truth. The thermal budget is around 200-220 Watts and the board should not consume more power than a Geforce 8800GTX. Our own Fudo was right in a detail - the R600 cooler is designed to dissipate 250 Watts. This was necessary to have an cooling headroom of at least 15 per cent. You can expect the R680 to use the same cooler as well and still be able to work at over 1GHz. This PCB is also the base for R700, but from what we are hearing, R700 will be a monster of a different kind.
 
Zuletzt bearbeitet:
@DrDos, diesen Post hättest Du auch ersparen können, einfach mal den zweiten Teil der News lesen;
http://uk.theinquirer.net/?article=35708
Die R600 wird nicht länger als sie x19x0XTX Karten und auch nicht mehr Strom brauchen als die 8800GTX.
Letztendlich werden wir die finallen Werte noch abwarten müssen.
Ach zu spät...
 
Zuletzt bearbeitet:
Aha...die Infos passen gar nicht zu meinen Infos. Naja mal schauen...

mfg Nakai
 
Deine Infos? Lass mal hören! (+ Quelle versteht sich)

Lol, wenn er wirklich eine Quelle hat darf er die bestimmt nicht preisgeben. Das wird einem eindrücklich gesagt - kenn ich aus eigener Erfahrung.
 
Nun, erstmal weiß ich nicht ob die Infos, die ich bekommen habe, überhaupt richtig sind.
Ich kann sagen, das es mehr als 64 ALUs waren, aber jede ALU war schwächer.
Auch soll ein kleineres Interface benutzt werden und 1GB Speicher.
Der R600 wird schneller als der R580, aber nicht soviel schneller(nur von der effektiviät des Chips aus).
Mehr Leistung werden durch den Takt und durch Optimierungen am Treiber ermöglicht.

mfg Nakai
 
Ok, bloß keinen Streit mehr hihi....

Kein Thema, aber letztendlich lag ich mit meinen Vermutungen gar nicht so daneben. Ich darf mal aus den News zitieren:
The PCB will be shorter than 8800GTX's in every variant, and you can compare it to X1950XT and 7900GTX. The huge thing is the cooler. It is a monstrous, longer-than-the-PCB quad-heat pipe, Artic-Cooling style-fan on steroids looking beast, built from a lot of copper. Did we say that it also weighs half a ton?

Das PCB ist zwar kürzer aber der Kühler ist länger, leider steht nicht dabei um wieviel und schwer ist er auch... ;) Also doch: stark, groß, (laut?), schwer.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh