ATI R600 [Spekulations Thread] (Part 3)

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@SenSej
ich würd nich zu vorschnell sein denn ati/amd hatten genug zeit irgendwas geiles zu zaubern und da nakai und wombat schon was andeuten würd ich den r600 abwarten!
 
Es steht noch nichtmal fest, ob es 225 Watt werden. Was der Inq da wieder verzapft hat...^^

mfg Nakai
Das wurde eigentlich mehr gesagt um andere utopische Zahlen wie 250Watt aus der Welt zu schaffen. Es wurde nur gesagt dass der R600 sich maximal 225Watt genehmigen könne, unabhängig davon wieviel er sich nun wirklich genehmigt.
 
Wird er aber nicht haben, denn dann würde man einen großen Fehler begehen.

mfg Nakai
 
Die Version von der ich etwas weiß, war etwas mit 180 Watt bei einer relativ frühen Version.
Achtung! Diese Info steht nicht NDA, wenn das jetzt wieder einige denken.

mfg Nakai
 
Das heisst bei der finalen Version wirds sicherlich etwas weniger sein - denke mal die xt wird das sein und das topmodell so um die 200W schlucken :)
 
also wenn man die 145W der G80 als absoluten spitzenverbrauch ansetzt und die 180W der R600 auch, dann geht das schon in ordnung, da ja auch mehr leistung da ist

außerdem finde ich den idle-verbrauch viel wichtiger, da ich länger im forum hänge äääähhh am rechner arbeiten muss
die idle-verbräuche sollten also so niedrig wie möglich liegen, ich denke ein ausgeklügeltes management würde hier auch bei aktuellen karten noch viel mehr bringen

gruß klasse
 
Man ich bin ja so gespannt ob NV es dann wieder schafft da dran vorbei zu kommen!
Wenn der R600 wirklich so stark ist wie hier spekuliert dann könnte nur eine GX2 sich dagegen stemmen. Alllerdings wäre das dann lächerlich wenn NV dafür 2GPU's bräuchte!

So wie 2006 ;)
 
Schreib bitte "Meine Auffassung:" davor, sonst geht die Diskussion wieder los.
 
wie sicher ist eigentlich das im märz alle versionen des R600 das licht der welt erblicken pro - xl - xt - xtx?

gibts dazu schon etwas genaueres?
 
schau mal die letzten 20 seiten des threads durch, da müsste das drin stehen :d
 
Ich finde gesammelte Fakten sowie auch erste Bilder des Lüfters sollten vom treadersteller Sortiert auf der ersten Seite zusammengefasst werden um schon druchgesprochene Fragen von Leute, die verständlicher weise keine 207 Seiten durchlesen wollen, zu vermeiden.

mfg
 
Was hier als Fakt abgetan wird, finde ich beschämend, aber ich lass mich auch überraschen. Mittlerweile gibt es nur noch 2 Möglichkeiten wie der R600 aussehen könnte.
Man könnte es so sehen, man hat einen schweren Traktor mit viel PS(naja son Bulldog hat wenig PS) oder einen schnellen Ferrari mit sehr wenig PS.

Schon witzig. Wenn man schreibt daß die A12er 1GHz macht ist man erst skeptisch. Jetzt ist es anscheinend normal.

Jo das ist das gleiche wie ein C2D der fast 4Ghz schafft, aber nur mit 2,4Ghz verkauft wird.^^

von der 2800xtx bis zur 8900gtx.und das klang sehtr realistisch. keine ahnung ob was dran ist.

Realistisch? Inwiefern?
R600 Shader mit G80 Shader zu vergleichen ist grober Unfug.

Wenn der R600 schon mit 750Mhz auf GTX Niveau locker liegen soll .....
sind selbt 1000 Mhz für einen Refresh Gigantisch.

G70 auf G71 war eine Taktsteigerung von etwa 51%.
Eine Taktsteigerung von 33% wäre da ziemlich klein.
Wieso sollte der Refresh eine Taktsteigerung mit sich bringen?
(Die Frage ist ernst gemeint...)


2 GPUs wären nach meiner Ansicht dumm, siehe Verlustleistung.

mfg Nakai
 
Zuletzt bearbeitet:
G70 auf G71 war eine Taktsteigerung von etwa 51%.
Eine Taktsteigerung von 33% wäre da ziemlich klein.
Wieso sollte der Refresh eine Taktsteigerung mit sich bringen?
(Die Frage ist ernst gemeint...)

Weil es nach der Wirtschaftlichkeit geht.
Eine Verbreiterung der Archtitektur kostet Transistoren. Dadurch können auf einen Wafer weniger Chips produziert werden. Eine Taktsteigerung dagegen macht die Chips nicht größer. Und jene, welche den Takt nicht schaffen, können immer noch auf dem markt gebracht werden.
 
Wenn der Refresh im 65Nm ist und der Chip sonst gleich bleibt, kann aber schwerlich ein 512Bit SI verwendet werden.
:hmm: :kotz:

mfg Nakai
 
Wenn der Refresh im 65Nm ist und der Chip sonst gleich bleibt, kann aber schwerlich ein 512Bit SI verwendet werden.
:hmm: :kotz:
mfg Nakai

Die Crossbar besteht zwischen Memory - Controller und ROP - Partition. Die Cluster müssen für ein 512-Bit Speicherinterface nicht angerührt werden.
Beim 80nm Refresh wird man wohl nur eine höhere Taktung beim G80 zu sehen bekommen. Frühsten beim 65nm Chip, welcher meiner Meinung erst nächstes Jahr kommt, werden wohl auch mehr Cluster und ROP-Partitionen verwendet werden.
 
Die Crossbar besteht zwischen Memory - Controller und ROP - Partition. Die Cluster müssen für ein 512-Bit Speicherinterface nicht angerührt werden.

Nein das meine ich nicht.
Der Chip braucht eine bestimmte Die-Fläche um mit der Außenwelt kommunizieren zu können, da der Chip nur eine bestimmte Anzahl an Kontaktstellen bei einer bestimmten Die-Fläche haben kann. Wäre der Die zu klein, hätte man nicht genug Platz für Kontaktstellen. Diese Kontaktstellen sind Überträger vom PCI Express bus, Speicherinterface undvideo-in/out. Umso kleiner der Die ist, umso weniger solcher Kontakte können am Chipuntergrund installiert werden. Deswegen wäre der R600 bei 65Nm wohl zu klein, für einen 512Bit SI und das ganze andere.
(Kontaktstellen sind nicht Anzahl der Pins am Pcb.)

mfg Nakai
 
Dann lässt man die DIE eben größer und hat somit noch ne bessere Wärmeverteilung ;)

Wieso sollte man das tun?
Wenn man doch mehr Platz haben muss, sollte man diesen Platz auch ausfüllen.
Vll Strained Silicon oder ein paar Verbesserungen, die eben Transistoren kosten.^^
(Am Cache, Register oder einfach ein paar Einheiten verbessern)

Aber nun :btt: :

Also ich will mehr von euren Theorien über den R600 hören, lang dauerst ja nemmer.^^

mfg Nakai
 
schade das keine infos in den ersten post eingepflegt werden so muss man sich alles mühsam zusammen klauben.... über unterschiedliche modele beim release hab ich bis jetzt noch nichts gefunden (vieleicht ist auch noch nichts bekannt)...
 
* 64 4-Way SIMD Unified Shaders, 128 Shader Operations/Cycle
* 32 TMUs, 16 ROPs
* 512 bit Memory Controller, full 32 bit per chip connection
* GDDR3 at 900 MHz clock speed (January)
* GDDR4 at 1.1 GHz clock speed (March, revised edition)
* Total bandwidth 115 GB/s on GDDR3
* Total bandwidth 140 GB/s on GDDR4
* Consumer memory support 1024 MB
* DX10 full compatibility with draft DX10.1 vendor-specific cap removal (unified programming)
* 32FP internal processing
* Hardware support for GPU clustering (any x^2 number, not limited to Dual or Quad-GPU)
* Hardware DVI-HDCP support (High Definition Copy Protocol)
* Hardware Quad-DVI output support (Limited to workstation editions)
* 230W TDP PCI-SIG compliant

Es ist schon interessant, was man sich alles unter diesen Specs vorstellen könnte.:rolleyes:

mfg Nakai
 
Die Produktion der Karten läuft glaube ich schon an, bzw. müsste sie schon.

Weiß jemand wie lange man braucht um eine GraKa fertigzustellen?
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh