Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Ich denk mal den part vonwegen laut kann man weglassen - inzwischen müsste auch ATI gemerkt haben das ne High-End GraKa leise sein muss ...
Nun, erstmal weiß ich nicht ob die Infos, die ich bekommen habe, überhaupt richtig sind.
Ich kann sagen, das es mehr als 64 ALUs waren, aber jede ALU war schwächer.
Auch soll ein kleineres Interface benutzt werden und 1GB Speicher.
Der R600 wird schneller als der R580, aber nicht soviel schneller(nur von der effektiviät des Chips aus).
Mehr Leistung werden durch den Takt und durch Optimierungen am Treiber ermöglicht.
mfg Nakai
Ich denk mal den part vonwegen laut kann man weglassen - inzwischen müsste auch ATI gemerkt haben das ne High-End GraKa leise sein muss ...
Deine Infos waren dann wohl falsch.Ich glaube die news schon allein weil Fuad nicht die news rausgebracht hat.Der typ der die News rausgebracht hat hat denn R600 schon gesehen.
mal schauen ob der R600 nicht so einer wie der R350 damals wird.
2Gb Vram soll ja nur die Fire-GL bekommen laut theIn. Wäre für einen Desktop GPU noch etwas viel des guten. Ich hatte vorhin einen Link in den Händen, wo es um Samsungs neue Chips geht, evt verbirgt sich darin die Lösung der Speicherkapazität pro Chip.
Ich meine irgendwo gelesen zu haben, dass pro Chip 32bit am Ringcontroller hängen sollen. macht bei 512bit Speichercontroller 16Chips, pro 64Mb macht 1024 Mb V-Ram. Wird wohl wieder oben und unten verbaut sein, gabs ja schon mal, x850pro/xt.
*EDIT*
Es ging bei besagtem Link nur um die Ausbeute an brauchbaren GDDR4 Chips.
Wie jetzt....also nein?! Konkret heißt das was? Sämtliche 16Chips auf einer Seite, glaube ich eher weniger.Falls es oben und unten sein könnte, dann wäre das ein 24 Lagen Pcb...also nein!
mfg Nakai
Wie jetzt....also nein?! Konkret heißt das was? Sämtliche 16Chips auf einer Seite, glaube ich eher weniger.
Dazu noch eine höhere Bandbreite (GDRR4 + 512Bit) und selbst eine 8900GTX kann einstecken.
Das weiß ATi schon länger als nVidia, sprich 9800 Series, X800 Series
War das imho nicht der Lüfter?Und warum war die R580er Serie so laut ???
War das imho nicht der Lüfter?
Nach den Tests ist eine 8800GTX auch nicht wirklich silent geeignet
Wo hast denn das her? Radiallüfter können nie leiser sein als Axiallüfter.Der 8800 Lüfter ist doch kaum lauter als er von einer 7900 GTX von daher vertretbar.
Gibt es eigentlich schon irgendwelche Infos zu der verbauten Kühllösung @stock die den R600 zieren soll???
Theo Valich schrieb:The huge thing is the cooler. It is a monstrous, longer-than-the-PCB quad-heat pipe, Artic-Cooling style-fan on steroids looking beast, built from a lot of copper. Did we say that it also weighs half a ton?
This is the heaviest board that will hit the market and you will want to install the board while holding it with both hands. The cooler actually enhances the structural integrity of the PCB, [...].
If you ask yourself why in the world AMD would design such a thing, the answer is actually right in front of you. Why is it important that a cooler is so big? Well, it needs to dissipate heat from practically every element of the board: GPU chip, memory chips and the power regulation unit.
For starters, the rumour about this 80nm chip eating around 300W is far from truth. The thermal budget is around 200-220 Watts and the board should not consume more power than a Geforce 8800GTX. Our own Fudo was right in a detail - the R600 cooler is designed to dissipate 250 Watts. This was necessary to have an cooling headroom of at least 15 per cent. You can expect the R680 to use the same cooler as well and still be able to work at over 1GHz. This PCB is also the base for R700, but from what we are hearing, R700 will be a monster of a different kind.
Wo hast denn das her? Radiallüfter können nie leiser sein als Axiallüfter.
Außerdem:
http://www.computerbase.de/artikel/...ia_geforce_8800_gtx/29/#abschnitt_lautstaerke
*EDIT*
Naja, ich revidiere mal etwas meine Aussage. So übertrieben laut ist die 8800GTX sicher nicht und es gibt auch laute Axiallüfter
Schön das du schon die Spezifikation der 8900 GTX 100% kennst
[...]
Ja, wir alle kennen deinen Schmetterling. Aber dass der dir jetzt die 8900er-Spezifikationen flüstert, ist einfach unglaubwürdig.
[..]
die lautstärke ist mir sowas von egal, ich will einfach nur pure leistung. und wenn mich der geräuschpegel doch mal nerven sollte dann drehe ich einfach meine boxen auf
Hat er mir auch nicht aber man kann sich ja eine 8900GTX gut vorstellen (jedenfalls das maximal möglich erscheinende), also statt 12 GDRR3-Vramchips (G80) 16 GDDR4-Vramchips was 512Bit wären. Dazu RAM@1,2GHz und Core@800MHz und ein paar kleine Optimierungen.
Dann stände es wie folgen:
R600:
1GB GDDR4 @ 1,2GHz @ 512Bit
16 ROPs @ 850MHz
64 - 96 Vec4 Shader @ 850MHz
G81:
1GB GDDR4 @ 1,2GHz @ 512Bit
24 ROPs @ 800MHz
128 Shader @ 1350MHz
G80:
768MB GDDR3 @ 0.9GHz @ 384Bit
16 ROPs @ 775MHz
128 Shader @ 1350MHz
Der G81 würde von der Pixelfüllrate her gewinnen, der R600 bei den Shadern. Die Bandbreite wäre die gleiche. Also würde erst der G81 auf R600 Niveau sein, der G80 hätte keine Chance. Ist aber alles natürlich nur Spekulation
Sieht ein bisschen so aus als ob ATI etwas unter Zugzwang geraten ist. Ich vermute die sind mit dem Ziel den G80 zu überflügeln an die Grenzen ihres Chipdesigns gestoßen weil sie den Takt höher als ursprünglich geplant anheben müssen, mit der Folge, dass man Spiegeleier drauf braten kann und Löcher ins Gehäuse dremeln muss, damit sie rein passt.
Also zurück ans Reißbrett und nochmal überarbeiten.
Ich bin ja echt mal gespannt wie dieses Monsterteil letztendlich aussieht und was es wirklich bringt. Dank der nochmals gesteigerten Spezifikationen in Sachen Stromversorgung wird das Flaggschiff wohl noch mehr verbraten können als die 8800GTX jetzt. ATI-Typisch wird wohl mal wieder so richtig geklotzt hauptsache NVidia wird auf den 2. Platz verwiesen, also stark, groß, laut und schwer -> stellt sich nur die Frage ob's am Ende wirklich reicht und mit welchen Unannehmlichkeiten man sich die mögliche Performancekrone erkauft.
beschimpft mich als unwissend aber wieso hat die ati karte denn nur die hälfte an shadern?
müsste die denn nicht komplett versagen? erst recht wo diese noch weniger mhz haben?
oder sidn die shader der marke 4.0 sowas von unnormal schenlelr als die 3.0er versionen?
R600:
1GB GDDR4 @ 1,2GHz @ 512Bit
16 ROPs @ 850MHz
64 - 96 Vec4 Shader @ 850MHz
G80:
768MB GDDR3 @ 0.9GHz @ 384Bit
16 ROPs @ 775MHz
128 Shader @ 1350MHz
mfg
Theo Valich schrieb:Regarding the number of shaders, expect only marketing wars here. Nvidia has 128 Shader units, while the R600 on paper features "only" 64. However, don't expect ATI's own 64 Shaders to offer half of the performance. In fact, you might end up wildly surprised.
ATI's R600 features 64 Shader 4-way SIMD units. This is a very different and complex approach compared to Nvidia's relatively simple scalar Shader units.
Since R600 SIMD Shader can calculate the result of four scalar units, it yields with scalar performance of 256 units - while Nvidia comes with 128 "real" scalar units. We are heading for very interesting results in DX10 performance, since game developers expect that NV stuff will be faster in simple instrucions and R600 will excel in complex shader arena. In a way, you could compare R600 and G80 as Athlon XP versus Pentium 4 - one was doing more work in a single clock, while the other was using higher clock speed to achieve equal performance.