ATI R600 [Spekulations Thread] (Part 2)

Status
Für weitere Antworten geschlossen.
Ich denk mal den part vonwegen laut kann man weglassen - inzwischen müsste auch ATI gemerkt haben das ne High-End GraKa leise sein muss ...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nun, erstmal weiß ich nicht ob die Infos, die ich bekommen habe, überhaupt richtig sind.
Ich kann sagen, das es mehr als 64 ALUs waren, aber jede ALU war schwächer.
Auch soll ein kleineres Interface benutzt werden und 1GB Speicher.
Der R600 wird schneller als der R580, aber nicht soviel schneller(nur von der effektiviät des Chips aus).
Mehr Leistung werden durch den Takt und durch Optimierungen am Treiber ermöglicht.

mfg Nakai

Deine Infos waren dann wohl falsch.Ich glaube die news schon allein weil Fuad nicht die news rausgebracht hat.Der typ der die News rausgebracht hat hat denn R600 schon gesehen.
 
Ich denk mal den part vonwegen laut kann man weglassen - inzwischen müsste auch ATI gemerkt haben das ne High-End GraKa leise sein muss ...

Das denke ich auch - drum auch das ganze Kupfer und das Höllengewicht. Das wiederum lässt den Schluss zu, dass da mehr Abwärme entsteht, die abzuführen ist dank des höheren Chiptaktes und des größeren Speichers 1-2 GB. Also lag' ich da auch nicht daneben (ich weiß ich wiederhol' mich :d).

Nachtrag:
Interessant finde ich die Aussage, dass das PCB und die Kühllösung auch die Grundlage für den kommenden R700 ist. Aber 220Watt TDP? :eek: Holla, die Waldfee. Der Kühler kann bis zu 250 Watt abführen und die schreiben das Teil soll nicht mehr verbrauchen als ein 8800GTX der sich ja bekanntlich maximal 145 Watt genehmigt (ca. 116 Watt bei Spielen)? Also die Rechnung kann nicht stimmen.

Schön ist aber, dass es keine Crossfire Mastercards mehr geben wird sonder nur noch eine Variante wie bei NVidia auch.
 
Zuletzt bearbeitet:
Deine Infos waren dann wohl falsch.Ich glaube die news schon allein weil Fuad nicht die news rausgebracht hat.Der typ der die News rausgebracht hat hat denn R600 schon gesehen.

Dann aber kein 512Bit Interface, dafür reichen die vermeintlichen 12 Layer nicht aus...
Vll kristallisiert sich demnächst nochetwas raus.
Gesehen heißt auch nicht, das er alles über den R600 weiß.
16 Speicherchips müssen kein 512Bit SI sein, es kann auch ein normales 256Bit SI sein.
Falls das PCB etwa 23cm lang sein soll, passen keine 16 Speicherchips + externen Speichercontroller auf die Vorderseite.
Außerdem müssen auf das PCB noch die Spawas, die beim G80 auch schon ziemlich viel Platz einnehmen.

Da ist viel Mist beim Inqu.

mfg Nakai
 
2Gb Vram soll ja nur die Fire-GL bekommen laut theIn. Wäre für einen Desktop GPU noch etwas viel des guten. Ich hatte vorhin einen Link in den Händen, wo es um Samsungs neue Chips geht, evt verbirgt sich darin die Lösung der Speicherkapazität pro Chip.
Ich meine irgendwo gelesen zu haben, dass pro Chip 32bit am Ringcontroller hängen sollen. macht bei 512bit Speichercontroller 16Chips, pro 64Mb macht 1024 Mb V-Ram. Wird wohl wieder oben und unten verbaut sein, gabs ja schon mal, x850pro/xt.

*EDIT*
Es ging bei besagtem Link nur um die Ausbeute an brauchbaren GDDR4 Chips.
 
Zuletzt bearbeitet:
2Gb Vram soll ja nur die Fire-GL bekommen laut theIn. Wäre für einen Desktop GPU noch etwas viel des guten. Ich hatte vorhin einen Link in den Händen, wo es um Samsungs neue Chips geht, evt verbirgt sich darin die Lösung der Speicherkapazität pro Chip.
Ich meine irgendwo gelesen zu haben, dass pro Chip 32bit am Ringcontroller hängen sollen. macht bei 512bit Speichercontroller 16Chips, pro 64Mb macht 1024 Mb V-Ram. Wird wohl wieder oben und unten verbaut sein, gabs ja schon mal, x850pro/xt.

*EDIT*
Es ging bei besagtem Link nur um die Ausbeute an brauchbaren GDDR4 Chips.

Falls es oben und unten sein könnte, dann wäre das ein 24 Lagen Pcb...also nein!

mfg Nakai
 
Wie jetzt....also nein?! Konkret heißt das was? Sämtliche 16Chips auf einer Seite, glaube ich eher weniger.

Also kann es kein 512 Bit SI sein, ich glaube kaum das man alle Speicherchips auf einer Seite unterbringt und dann ein sehr kurzes PCB hat.
Der InQ hat da etwas verwechselt und alte News verwertet....

mfg Nakai
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Gibt es eigentlich schon irgendwelche Infos zu der verbauten Kühllösung @stock die den R600 zieren soll??? :confused:


Hoffe mal ATI hat was aus dem 19*0er Kühldisaster gelernt und verbaut jetzt mal ne Kühlung die der 7900er GTX und GTO in Punkto Leistung, aber vor allem Lautstärke das Wasser reichen kann!!! ;)




:banana: :banana: :banana: :banana: Hurra ich werd befördert! :banana: :banana: :banana: :banana: :banana:
 
Mehr Sold gibts jetzt aber nicht. ^^

@topic, soll ein etwas größerer Küpferkühler sein, länger als die Karte und ähnlich dem jetztigen stockkühler oder auch silencer ähneln vermutlich auch Heatpipes.
Auf jeden Fall soll er sehr schwer sein, holy shit. Angeblich die schwerste Komplett-Karte aller Zeiten :eek:.
 
Gibt es eigentlich schon irgendwelche Infos zu der verbauten Kühllösung @stock die den R600 zieren soll??? :confused:

Warum liest Du nicht einfach die oben im Thread angegebenen Quellen?

Theo Valich schrieb:
The huge thing is the cooler. It is a monstrous, longer-than-the-PCB quad-heat pipe, Artic-Cooling style-fan on steroids looking beast, built from a lot of copper. Did we say that it also weighs half a ton?

This is the heaviest board that will hit the market and you will want to install the board while holding it with both hands. The cooler actually enhances the structural integrity of the PCB, [...].

If you ask yourself why in the world AMD would design such a thing, the answer is actually right in front of you. Why is it important that a cooler is so big? Well, it needs to dissipate heat from practically every element of the board: GPU chip, memory chips and the power regulation unit.

Kurzübersetzung:

- ähnelt dem Arctic Cooling-Design
- aus Kupfer und ziemlich massiv / schwer
- 4 Heatpipes
- ein einziger großer Kühlkörper für GPU, Ram und Spannungsversorgung
- Kühler als tragendes Element, daß der Karte Stabilität verleiht

For starters, the rumour about this 80nm chip eating around 300W is far from truth. The thermal budget is around 200-220 Watts and the board should not consume more power than a Geforce 8800GTX. Our own Fudo was right in a detail - the R600 cooler is designed to dissipate 250 Watts. This was necessary to have an cooling headroom of at least 15 per cent. You can expect the R680 to use the same cooler as well and still be able to work at over 1GHz. This PCB is also the base for R700, but from what we are hearing, R700 will be a monster of a different kind.

Kurzübersetzung:

- "Thermal budget" (d.h. maximal vorgesehene Verlustleistung für alle Karten der R600-Familie) 200-220 Watt
- Kühlerdesign ausgelegt auf 250 Watt
- Im normalen Gebrauch nicht mehr Stromverbrauch als die 8800 GTX (~140 Watt, theoretisch bis 180 Watt)
- Kühlerdesign weiterverwendbar für spätere R600-Abkömmlinge.

Quelle: http://uk.theinquirer.net/?article=35708
 
Zuletzt bearbeitet:
Ja, wir alle kennen deinen Schmetterling. Aber dass der dir jetzt die 8900er-Spezifikationen flüstert, ist einfach unglaubwürdig. ;)

Über Lüftergeschick seitens ATi würde ich nach R580 und R580+ nicht mehr reden... ;) Im Moment hat NV da die Nase oben und nach den hier eben geposteten News wird der R600 auch kein Leisetreter, und falls doch, nur auf Kosten einer suboptimalen Konstruktion. Holy Moly, länger als das PCB -.-
 
Lautstärke ist für den Highend egal. Wenn dann kommt eine Wasserkühlung druff.

mfg Nakai
 
die lautstärke ist mir sowas von egal, ich will einfach nur pure leistung. und wenn mich der geräuschpegel doch mal nerven sollte dann drehe ich einfach meine boxen auf
 
Ja, wir alle kennen deinen Schmetterling. Aber dass der dir jetzt die 8900er-Spezifikationen flüstert, ist einfach unglaubwürdig. ;)
[..]

Hat er mir auch nicht :) aber man kann sich ja eine 8900GTX gut vorstellen (jedenfalls das maximal möglich erscheinende), also statt 12 GDRR3-Vramchips (G80) 16 GDDR4-Vramchips was 512Bit wären. Dazu RAM@1,2GHz und Core@800MHz und ein paar kleine Optimierungen.

Dann stände es wie folgen:

R600:
1GB GDDR4 @ 1,2GHz @ 512Bit
16 ROPs @ 850MHz
64 - 96 Vec4 Shader @ 850MHz

G81:
1GB GDDR4 @ 1,2GHz @ 512Bit
24 ROPs @ 650MHz
128 Shader @ 1350MHz

G80:
768MB GDDR3 @ 0.9GHz @ 384Bit
24 ROPs @ 575MHz
128 Shader @ 1350MHz

Der G81 würde von der Pixelfüllrate her gewinnen, der R600 bei den Shadern. Die Bandbreite wäre die gleiche. Also würde erst der G81 auf R600 Niveau sein, der G80 hätte keine Chance. Ist aber alles natürlich nur Spekulation :xmas:
 
Zuletzt bearbeitet:
Hat er mir auch nicht :) aber man kann sich ja eine 8900GTX gut vorstellen (jedenfalls das maximal möglich erscheinende), also statt 12 GDRR3-Vramchips (G80) 16 GDDR4-Vramchips was 512Bit wären. Dazu RAM@1,2GHz und Core@800MHz und ein paar kleine Optimierungen.

Dann stände es wie folgen:

R600:
1GB GDDR4 @ 1,2GHz @ 512Bit
16 ROPs @ 850MHz
64 - 96 Vec4 Shader @ 850MHz

G81:
1GB GDDR4 @ 1,2GHz @ 512Bit
24 ROPs @ 800MHz
128 Shader @ 1350MHz

G80:
768MB GDDR3 @ 0.9GHz @ 384Bit
16 ROPs @ 775MHz
128 Shader @ 1350MHz

Der G81 würde von der Pixelfüllrate her gewinnen, der R600 bei den Shadern. Die Bandbreite wäre die gleiche. Also würde erst der G81 auf R600 Niveau sein, der G80 hätte keine Chance. Ist aber alles natürlich nur Spekulation :xmas:



Der G80 ist doch Modular aufgebaut oder???

Dachte was geleesen zu haben das, dass sich der G80 einfach erweitern lässt da die Streamprozessoren in Gruppen aufgeaut sind.
Bitte tötet mich nich wenn ich jetzt was falschs gesagt haben solllte ^^
 
Sieht ein bisschen so aus als ob ATI etwas unter Zugzwang geraten ist. Ich vermute die sind mit dem Ziel den G80 zu überflügeln an die Grenzen ihres Chipdesigns gestoßen weil sie den Takt höher als ursprünglich geplant anheben müssen, mit der Folge, dass man Spiegeleier drauf braten kann und Löcher ins Gehäuse dremeln muss, damit sie rein passt. :asthanos:
Also zurück ans Reißbrett und nochmal überarbeiten. :d

Ich bin ja echt mal gespannt wie dieses Monsterteil letztendlich aussieht und was es wirklich bringt. Dank der nochmals gesteigerten Spezifikationen in Sachen Stromversorgung wird das Flaggschiff wohl noch mehr verbraten können als die 8800GTX jetzt. ATI-Typisch wird wohl mal wieder so richtig geklotzt hauptsache NVidia wird auf den 2. Platz verwiesen, also stark, groß, laut und schwer -> stellt sich nur die Frage ob's am Ende wirklich reicht und mit welchen Unannehmlichkeiten man sich die mögliche Performancekrone erkauft.

Na ja wudner dich nicht wenn
3d marks bald nur noch kinderspiel für die R600 wird....;)

Also wenn 512 bit speicherbus und ander detaisl stimmen
wette ich fast auf default 15+++ biis 20 k übertaktet punkte bei 3d murks 2006 MIT NUR 1 MAL R600 *g:xmas:

wo bleibt 3d murks 2007 :lol: :haha:
 
beschimpft mich als unwissend aber wieso hat die ati karte denn nur die hälfte an shadern?
müsste die denn nicht komplett versagen? erst recht wo diese noch weniger mhz haben?
oder sidn die shader der marke 4.0 sowas von unnormal schenlelr als die 3.0er versionen?


R600:
1GB GDDR4 @ 1,2GHz @ 512Bit
16 ROPs @ 850MHz
64 - 96 Vec4 Shader @ 850MHz

G80:
768MB GDDR3 @ 0.9GHz @ 384Bit
16 ROPs @ 775MHz
128 Shader @ 1350MHz


mfg
 
beschimpft mich als unwissend aber wieso hat die ati karte denn nur die hälfte an shadern?
müsste die denn nicht komplett versagen? erst recht wo diese noch weniger mhz haben?
oder sidn die shader der marke 4.0 sowas von unnormal schenlelr als die 3.0er versionen?


R600:
1GB GDDR4 @ 1,2GHz @ 512Bit
16 ROPs @ 850MHz
64 - 96 Vec4 Shader @ 850MHz

G80:
768MB GDDR3 @ 0.9GHz @ 384Bit
16 ROPs @ 775MHz
128 Shader @ 1350MHz


mfg

Was hier gemeint war ist nicht Shader Model 4, dieses ist Teil von DX10 und wird somit sowohl vom G80 als auch R600 beherrscht. Zwar gibt es tatsächlich beim SM4.0 einige neue Befehle, die bestimmte Berechnungen stark vereinfachen/beschleunigen, so daß tatsächlich bei Szenen, die im SM3.0 nur aufwendig zu programmieren waren, mit SM4.0 Leistungszuwächse erkennbar sind. Da das aber beide Karten haben/können, spielt es für den Vergleich keine Rolle.

Laut dem Inquirer handelt es sich beim R600 um 4-fach SIMD (Single Input, Multiple Data) Shader. Im Idealfall (und dieser dürfte aufgrund der Struktur von 3D-Daten noch viel eher gegeben sein als bei den prinzipiell ähnlichen SSE-Erweiterungen bei der CPU) heißt das, daß die Leistung 256 Shadern entspricht.

Nachzulesen hier:

Theo Valich schrieb:
Regarding the number of shaders, expect only marketing wars here. Nvidia has 128 Shader units, while the R600 on paper features "only" 64. However, don't expect ATI's own 64 Shaders to offer half of the performance. In fact, you might end up wildly surprised.

ATI's R600 features 64 Shader 4-way SIMD units. This is a very different and complex approach compared to Nvidia's relatively simple scalar Shader units.

Since R600 SIMD Shader can calculate the result of four scalar units, it yields with scalar performance of 256 units - while Nvidia comes with 128 "real" scalar units. We are heading for very interesting results in DX10 performance, since game developers expect that NV stuff will be faster in simple instrucions and R600 will excel in complex shader arena. In a way, you could compare R600 and G80 as Athlon XP versus Pentium 4 - one was doing more work in a single clock, while the other was using higher clock speed to achieve equal performance.

Quelle: http://uk.theinquirer.net/?article=35707
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh