Geforce GTX 280 mit GT200B aufgetaucht

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Spannung macht schon verdammt viel aus... meine hat @ default 1,12v und da der Shadertakt limitiert, ging nichtmal mit 1,18v mehr OC... also hab ich jetzt 1,03v und genau die gleichen OC Werte und der Stromverbrauch ist um gute 60W gesunken (260er 192 Shader)
 
Ok, der Stromverbrauch ist auch bei mir durch den Flash auf 1,03V um ca. 60W gesunken. Aber die andere Sache ist, ob nvidia mit der Spannung so weit runtergeht. Oder die Chips für die GX2 werden selektiert, schließlich ist ja eher ein Prestigeobjekt, denn Massenprodukt.
 
Selektiert werden die GPUs für die GX2 ganz bestimmt sein ;)

Ich gehe derzeit davon aus das zwei G200 mit allen 240SP verbaut werden, einfach mit weniger Takt und Low Spannung.

Ich frage mich einfach nach wie vor wie sie das genau mit dem SI machen werden, das dürfte die Interessanteste Frage dieser Karte sein. Ich Tippe ja fast auf 384Bit...

und eine wirkliche Massen Karte wird das eh nicht, par Sampels im Dezember und eine Hand voll Karten im Januar, wetten?
 
Selektiert werden die GPUs für die GX2 ganz bestimmt sein ;)

Ich gehe derzeit davon aus das zwei G200 mit allen 240SP verbaut werden, einfach mit weniger Takt und Low Spannung.

Ich frage mich einfach nach wie vor wie sie das genau mit dem SI machen werden, das dürfte die Interessanteste Frage dieser Karte sein. Ich Tippe ja fast auf 384Bit...

und eine wirkliche Massen Karte wird das eh nicht, par Sampels im Dezember und eine Hand voll Karten im Januar, wetten?

Du meinst, die reduzieren für die GX2 das SI?
 
Glaube kaum das die auf der GX2 2x512Bit verbauen, schon 448Bit wie bei der 260 wäre ja krass :hmm:

Wie werden es ja sehen, aber eine Überkarte würde ich definitv nicht erwarten, etwas oberhalb 4870X2 mehr wird NV sicher nicht bringen (nicht nötig, jedes % mehr senkt Automatisch den Gewinn, falls es den überhaupt gibt...)
 
Das denke ich auch, die werden die X2 mit 10-20% schlagen. Aber dafür sind keine 240 Shader nötig, da reichen sicherlich auch schon die 216 von der GTX260. Aber warum sollte nvidia das SI verkleinern, das senkt doch nur die Bandbreite!
 
Zuletzt bearbeitet:
Das hatten wir doch alle schon mal... Wenn die aus 2 260er chips entsteht, wird das ne 2x448bit karte und wenn mit 280er, ne 2x512bit. Überlegt doch mal, wie die letzten gx2 alle entstanden sind. Meint ihr etwa, nv hat die zeit gehabt, ihr konzept komplett umzustellen?
 
Selektiert werden die GPUs für die GX2 ganz bestimmt sein ;)

Ich gehe derzeit davon aus das zwei G200 mit allen 240SP verbaut werden, einfach mit weniger Takt und Low Spannung.

Ich frage mich einfach nach wie vor wie sie das genau mit dem SI machen werden, das dürfte die Interessanteste Frage dieser Karte sein. Ich Tippe ja fast auf 384Bit...

und eine wirkliche Massen Karte wird das eh nicht, par Sampels im Dezember und eine Hand voll Karten im Januar, wetten?

Am SI werden wie wohl nix ändern, warum auch, geht doch ohne große Probleme mit ner Dual PCB Karte auch 2x512Bit SI zu realisieren, also vom Platz her mein ich für die Speicherbausteine...

Wobei ich aber immernoch denke, das nur 216er GPUs verbaut werden, also nur 448Bit SI zu sehen sein wird.

Da es ja bei den NV Karten so ist, das das SI direkt an den Teilen der GPU hängt (also an den von NV genannten Clustern), sprich mit dem Deaktivieren von Teilen des Chips (so wie bei der 260er GTX) auch das SI kleiner wird, denke ich, wird es so ohne weiteres nicht möglich sein, das SI zu kastrieren... Zumindest nicht auf so ungerade Bandbreiten wie 384Bit...

Wobei es auch realistisch sein könnte, das von den 8x64Bit Controllern mit je 2 Speicherchips vllt auch nur 1 Speicherchip verbaut wird, und man somit ein 8x32Bit sprich 256Bit SI hätte, wobei man beim Einsatz von GDDR5 Speicher auch auf fast gleiche Bandbreite kommen würde... Spart erstens Platz, durch das halbe SI wären die beiden PCBs nicht so komplex und man könnte dank weniger Speicherchips die Hitzeentwicklung auch eindämmen.

Bei AMD hingegen arbeitet das SI zwar auch aus 64Bit Controllern, (8 beim R600 und 4 beim RV670 und RV770) aber diese sind wohl weitgehendst unabhängig von den Shadern oder anderen Einheiten, sprich man kann wohl dort einfacher das SI kastrieren. Aber ein erhöhen von Teilen der GPU inkl. dem SI wäre dann so halt nicht möglich.
 
Zuletzt bearbeitet:
Das SI hängt doch an den ROP-Partitionen, d.h. wenn man hier eine weitere deaktivieren würde, dann käme man auf das 384-bittige Speicherinterface. Aber in meinen Augen würde das keinen Sinn machen, zumal sich dann ja auch die Speichermenge weiter reduzieren würde.

Aber eigentlich kann ich mir auch nicht vorstellen, dass nvidia eine GX2 mit "nur" 896 MB ausliefert, also doch wieder 512-bittiges Speicherinterface?
 
Jo, NV nennt das ganze dann Cluster, also in nem Cluster ist ne vorgegebene Anzahl von ROPs, vom SI usw.
Diese Cluster lassen sich beliebig erhöhen oder deaktivieren ohne da groß was am Chiplayout zu ändern...

Wobei bei 2x896MB man mit der Markedingmenge von 1,8GB Speicher leben könnte ;)

384er SI glaub ich auch nicht, da müssten einen weiteren Cluster deaktivieren und somit wird wieder Leistung verschenkt... Aber dann wäre 2x1,5GB Speicher drin ;) oder 2x768MB
 
Ob Partition oder Cluster spielt doch keine Rolle, wobei ich den Begriff Cluster bei den Shader im Kopf habe und bei den ROPs Partitionen.

Die 1,8GB wären aber (logischerweise) weniger als die 2 GB von der X2.
 
Jo, NV nennt das ganze dann Cluster, also in nem Cluster ist ne vorgegebene Anzahl von ROPs, vom SI usw.
Diese Cluster lassen sich beliebig erhöhen oder deaktivieren ohne da groß was am Chiplayout zu ändern...

Wobei bei 2x896MB man mit der Markedingmenge von 1,8GB Speicher leben könnte ;)

384er SI glaub ich auch nicht, da müssten einen weiteren Cluster deaktivieren und somit wird wieder Leistung verschenkt... Aber dann wäre 2x1,5GB Speicher drin ;) oder 2x768MB

die cluster sind unabhängig von den rop's. sprich mit einem 384bit breiten SI könnte man trotzdem die vollen 240sp's/80tmu's nutzen.

UHJJ36 schrieb:
Es reichen die 2x 216 Shader um an einer HD4870X2 vorbei zu kommen.

je nach sli-skalierung schätzungsweise 0-30% mehrleistung.
 
Zuletzt bearbeitet:
Huio

Oh man bei mir ist Kirmes in meiner Birne es dreht sich und dreht sich man weiss gar nicht mehr was Sache ist ??

Glaube wenn die neue Karte mit den neuen Sachen kommen sofort Link rein
opfere extra mein Sparbuch :eek::xmas::eek:

Hoffe diese ganzne Grafikarten haben mal einen Punkt erreicht das nicht´s mehr vorwärts geht.

Aber nun ja das Liebe liebe Geld wollen die ja doch noch verdienen ;)
 
die cluster sind unabhängig von den rop's. sprich mit einem 384bit breiten SI könnte man trotzdem die vollen 240sp's/80tmu's nutzen.

Ohhh, dann hats CB wohl falsch erklärt, denn die schrieben dort was von den Clustern in verbindung mit den ROPs und dem SI, wenn ich mich da recht dran erinner...

Aber das ändert wohl nix an der Tatsache, das das SI irgendwie an die Anzahl der ROPs gekoppelt ist, richtig?
 
Wenn man mal so überlegt wie lange Thermalright gebraucht hat für einen neuen Kühler....und denn kein Referenzdesign mehr.....uuhhh
 
Ohhh, dann hats CB wohl falsch erklärt, denn die schrieben dort was von den Clustern in verbindung mit den ROPs und dem SI, wenn ich mich da recht dran erinner...

Aber das ändert wohl nix an der Tatsache, das das SI irgendwie an die Anzahl der ROPs gekoppelt ist, richtig?

die rop's sind selbstverständlich mit den clustern verbunden. allerdings ist architektur so modular aufgebaut das es egal ist in welchem verhältnis die cluster und die rop partitionen zu einander stehen.

 
Zuletzt bearbeitet:
Ohhh, dann hats CB wohl falsch erklärt, denn die schrieben dort was von den Clustern in verbindung mit den ROPs und dem SI, wenn ich mich da recht dran erinner...

Aber das ändert wohl nix an der Tatsache, das das SI irgendwie an die Anzahl der ROPs gekoppelt ist, richtig?

Genau so ist es, verändert man die Anzahl der ROP Paritionen, verändert man auch das SI. Bei der GTX260-216 hat nvidia ja auch ohne die ROPs und das SI anzufassen einen weiteren Shadercluster aktiviert.

EDIT: Für alle die es interessiert. Bei Gamestar gibts jetzt den Test zu GTA IV online. Wir hatte ja gestern darüber gesprochen:

http://www.gamestar.de/test/action/3rdpersonshooter/1951568/grand_theft_auto_4.html
 
Zuletzt bearbeitet:
Die ROPs habe nichts mit den ALUs oder TMUs zu tun, NV könnte wenn sie möchten auch ein 16ROP / 256Bit / 240SP / 80TMU G200 verkaufen.
 
Der neue Name der Dual-GPU Karte lässt aber erahnen, dass doch noch irgendwas mit GTX290 kommen wird.
 
Bin mal gespannt was die da zusammenschustern...
Aber im Namen nicht explizit auf ne Dualkarte hinweisen ist auch iwi bissl den ahnungslosen Kunden verarscht...
 
Ich denke eher, dass GTX 295 besser nach der schnellsten Karte aussieht, als GTX260 X2.
 
Dem Namen der GTX 295 nach, könnte man fast meinen, dass dann eine GTX 265 und 285 erscheinen werden. +5 für 55nm Fertigung.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh