nVidia GK100/Geforce 6xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
scully, das war aber nicht die Ursprungsspeku. Ende 2011 geisterte mal was von ~768 ALUs für GK104 rum. Und 1536 für den GK100 ;)
 
scully, das war aber nicht die Ursprungsspeku. Ende 2011 geisterte mal was von ~768 ALUs für GK104 rum. Und 1536 für den GK100 ;)

Unter der Vorraussetzung das der Hotclock nicht fällt


Das dieser nicht existent ist,gilt unter den vielen Spekus um Kepler,aber nun so ziemlich als gesichert.Denn das war ein "Feature" was bisher alle bestätigt hatten


Unter 1500 Units ohne Hotclock machts auch keinen Sinn mit~ 900 Coretakt an einen Konter der 7970 festzuhalten
 
Zuletzt bearbeitet:
Nein, unter der Vorraussetzung das der Hotclock fällt!

Bei 40nm auf 28nm bei gleicher Archi ist mehr als eine Verdopplung nicht drin bei gleicher Size. Deswegen auch 1536 für GK100 damals, weil die ALUs auch nicht wesentlich kleiner werden ohne Hotclocks, das wären immerhin schon 50% mehr.
 
Neuro schau einfach bei der Radeon ohne Hotclock und dessen Units,dann hast du ~nen Anhaltspunkt,was Nvidia bei der und der DIE Size auf den Chip packen könnte(architekturbedingte Abweichungen jetzt mal außen vor),und muss um konkurenzfähig zu sein zur 7970

Mit 786 ALUS auf selben Kerntakt ~900??? wirds unmöglich die 7er Reihe einzufangen bzw zu überholen

786 wäre vielleicht machbar wenn der Top Dog der GK104 Reihe nen 660/660Ti wäre aber als 680 no way:)


Bin immer noch gespannt was für einen Namen sie wohl dem GK110 Geforce Ableger geben werden???

Geforce 685 GTR klingt schonmal schön nach nem fetten Muscle Car,mit viel Hubraum und Durst bis zum Abwinken:asthanos:
 
Zuletzt bearbeitet:
Vllt ändert NV auch wieder das Namensschema?
Weil HighEnd bis dato irgendwie ne GTX x8x war, heist das ja nicht, das es so bleiben muss ;)
Vllt fährt man kurzer Hand wieder ein Spezialzusatz für ne Dual GPU ein. Oder man verkauft die GK100/110 GPU eben als neue Generation ala Fermi 480/580.

Übrigens, die Radeons in Sachen Größe zu vergleichen ist nach wie vor unsinn. Es sind nach wie vor Vector ALUs. ;) Es macht aber den Eindruck als hält NV an der üblichen Aufteilung fest.
Sollte im ersten Schritt wirklich nur GK104 kommen, wäre das für mich leicht entäuschend irgendwie. Leistungstechnisch je nach dem, welche Spekulation näher dran liegt, wäre damit wohl nur unwesentlich mehr Leistung als Tahiti XT drin, bzw. teils auch weniger. Würde mir so nicht unbedingt schmecken.

Oder NV führt schön alle an der Nase rum und bringt doch zeitnah den "Dampfhammer"?
 
Übrigens, die Radeons in Sachen Größe zu vergleichen ist nach wie vor unsinn. Es sind nach wie vor Vector ALUs. ;) r"?

Ich sagte ja architekturbedingte Abweichungen jetzt mal außen vor

Ist es aber immer noch sinnvoller eine 1D Architektur ohne Hotclock mit einer ebenso 1D Architektur zu vergleichen,wenn man Näherungswerte haben möchte

Mag sein??? das die Vector ALUS vielleicht kompakter unterzubringen sind für AMD,nur beurteilen kann das z.Zt niemand da 1D ohne Hotcklock bei Nvidia absolutes Neuland ist,und es somit keine Referenzwerte gibt
 
Das stimmt allerdings.
Wobei ich persönlich davon ausgehe, das man nichtmal ansatzweise 50% Fläche pro ALU sparen kann, wenn man die Hotclocks weglässt. Mit 28nm schafft man wohl ca. 512 1D ALUs inkl. Hotclocks auf die halbe fläche zu bringen. Man baut aber drei mal so viele ALUs, wie es derzeit ausschaut. Ich denke nicht, das man diese Mehrfläche durch den geringeren Takt 1:1 ausgleichen kann. Das heist denke ich, das das NV Teil so oder so wieder "riesig" sein wird. Trotz der Zahlenmäßigen unterlegenheit gegen AMD (sofern es stimmt)
 
Namensschemaänderungen höchstens in Form von dieser ominösen GTR, wobei ich eher glaube dass das R für Refresh stehen wird.
 
Warum lässt man überhaupt die Hotclocks wegfallen, wofür soll das gut sein oder skaliert der Chip nicht gut wenn die Einheiten verdoppelt werden?
Früher ist man von 1024-1D Shader mit Hotclock in 28nm ausgegangen, das hätte vollkommen gereicht.
 
Warum lässt man überhaupt die Hotclocks wegfallen, wofür soll das gut sein.

Je höher der Takt je höher der Verbrauch(exponentiell gesehen)

Eine Architektur die auf Gedeih und Verderb auf hohe Taktraten angewießen ist,führte früher oder später in ne Sackgasse

Beispiele gibts ja von jeder Seite eins,Netburst,Bulldozer,Fermi

Die Katze sagte ja schon das der gewählte Ansatz mit Fermi in die falsche Richtung ging,und wenn der Shadertakt nun die signifikanteste Änderung in der Architektur ist,scheint das wohl mit die Wurzel allen Übels zu sein
 
Zuletzt bearbeitet:
Aber die Architektur hat doch keine hohen Taktraten...
Bei GT200 (240 Shader) > GF100 (480 Shader) hats auch geklapt

Edit:
Durch 28nm sollte man doch die Leistungsaufnahme bei der Shader verdopplung gut im griff haben, 32nm wird übersprungen, der umstieg von 40 > 28nm wird groß ausfallen.
 
Zuletzt bearbeitet:
Das stimmt allerdings.
Wobei ich persönlich davon ausgehe, das man nichtmal ansatzweise 50% Fläche pro ALU sparen kann, wenn man die Hotclocks weglässt. Mit 28nm schafft man wohl ca. 512 1D ALUs inkl. Hotclocks auf die halbe fläche zu bringen. Man baut aber drei mal so viele ALUs, wie es derzeit ausschaut. Ich denke nicht, das man diese Mehrfläche durch den geringeren Takt 1:1 ausgleichen kann. Das heist denke ich, das das NV Teil so oder so wieder "riesig" sein wird. Trotz der Zahlenmäßigen unterlegenheit gegen AMD (sofern es stimmt)

TSMC gab mal 70% an für 40nm auf 28nm. Ist also etwas größer als die Hälfte, deshalb hab ich auch schonmal vorgerechnet das der GK110 in 28nm ca 330mm² groß wäre (irgendwo nen paar Seiten vorher.

Warum lässt man überhaupt die Hotclocks wegfallen, wofür soll das gut sein oder skaliert der Chip nicht gut wenn die Einheiten verdoppelt werden?
Früher ist man von 1024-1D Shader mit Hotclock in 28nm ausgegangen, das hätte vollkommen gereicht.

Die Probleme werden größer wie Scully schon schrieb. Mehr Einheiten scheinen auch effektiver zu sein.

Aber die Architektur hat doch keine hohen Taktraten...
Bei GT200 (240 Shader) > GF100 (480 Shader) hats auch geklapt

Edit:
Durch 28nm sollte man doch die Leistungsaufnahme bei der Shader verdopplung gut im griff haben, 32nm wird übersprungen, der umstieg von 40 > 28nm wird groß ausfallen.

Ist ein Trugschluss, leider. Problem ist bisher das die Leckströme mit jedem Shrink steigen, also die die Effizienz nicht proportional steigt.
 
Aber die Architektur hat doch keine hohen Taktraten...
Bei GT200 (240 Shader) > GF100 (480 Shader) hats auch geklapt

Netburst war am Anfang mit geringerem Takt auch kein großes Thema,bis man Grenzen erreichte an der der Verbrauch regelrecht explodierte

Wie war das damals Intel wollte innerhalb kürzester Zeit die 10GHZ Marke knacken,nun Giga hätte wohl gepasst nur war die zweite Maßeinheit eher Watt:asthanos:
 
Zuletzt bearbeitet:
Je höher der Takt je höher der Verbrauch(exponentiell gesehen)

Die Leistungsaufnahme steigt linear mit dem Takt und exponentiell mit der Spannung.

Allerdings muss für wesentlich mehr Takt die Spannung angehoben werden und dies könnte letztendlich dass Problem darstellen.
Immerhin komme ich bei meiner alten GTX285 schon auf 1640MHz Shadertakt (GPU Takt * ~2,27)
 
Charlie mit neuen News


Zwei GK104 Derivate:hmm:

The -400 is said to be an “8 group” device, the -335 described as “7 group’

Instead of being forced to fuse off large blocks of shaders as a minimum, it looks like they can now do much smaller chunks.


This should greatly improve yields, allow for endless SKU variations, and generally make things better. Of course, it comes at a die size penalty, but after the last learning experience, it would be foolish to do otherwise

There are two GK104/Kepler variants | SemiAccurate
 
Zuletzt bearbeitet:
ich raff nur nicht was dann eine 8er und eine 7er Gruppe sein soll :hmm:

der Text hört sich schon recht interessant an. Mal sehen ob da mal wirklich interessantes durchgesickert ist, oder ob morgen sich wieder einer schlapp lacht^^
This should greatly improve yields, allow for endless SKU variations, and generally make things better.

sry, was sind SKU ?
 
Na ... 780 und 880 :fresse:

Ja genau:d

Ich weiß nicht wo das jetzt einzuordnen ist,was er da vom Stapel lässt unter Märchen oder Wahrheit

Nachdem hat Nvidia einen Weg gefunden die Units weiter zu shrinken:hmm:

Oder hat der Shrink und die bessere Packdichte erst die 670/680 auf GK104 Basis ermöglicht?
 
Zuletzt bearbeitet:
Hier geht es darum, dass man die Teildeaktivierung bestimmter Einheiten in der neuen Generation wohl feiner durchführen kann, spricht nur ein Haus abreissen, nicht den ganzen Block.
 
Ohne genaueres zu wissen kann man auch hier nur raten. Letztenendes interessiert das uns Endkunden auch nicht wirklich. Wir werden es "bestenfalls" am Preis merken. Nämlich dann wenn Nvidia deswegen tatsächlich eine bessere Ausbeute hinbekommt.
 
Die 8er Anordnung macht Sinn ausgehend von 1536 Shaderunits im Vollausbau.Denn deaktiviert man die Hälfte der Cluster bei Teildefekt kommt man auf genau 786 Units und macht daraus nen GK106

Deaktiviert man 5Cluster wirds ein GK107 und bei 6 deaktivierten Clustern ein GK108. Man könnte defakto das gesamte Silicon verwerten

Das würde aber bedeuten der Chip wird wie Charlie sagte größer ausfallen nämlich 400mm um diesen Vorteil zu Nutzen

Of course, it comes at a die size penalty
 

Anhänge

  • 0718538639yabz3w3mak8igc5d.png
    0718538639yabz3w3mak8igc5d.png
    13,8 KB · Aufrufe: 75
Zuletzt bearbeitet:
Am ehesten würd ich vermuten das man eben die -400 aus Vollausbau bezeichnet, bei dem alle Shader funktionieren, und die -335 mit teildeaktivierten/teilfunktionsunfähigen.
Also praktisch so wie die 460 und 560ti, nur eben gleich beim Launch, und nicht erst die eine, und später die zweife als "Refresh".

Wenn besonderns zum Launch Chips mit Vollausbau etwas Mangelware sein sollten, wird dieser eben 299$ kosten und der kleinere vllt 229-249$ weil davon viel mehr vorhanden sind.
Der große Preisunterschied soll dann vllt mehr Leute dazu bewegen sich "nur" den Kleinen zu kaufen.
Und im Laufe der Zeit verbessert sich die Ausbeute des Vollausbaus...
 
Am ehesten würd ich vermuten das man eben die -400 aus Vollausbau bezeichnet, bei dem alle Shader funktionieren, und die -335 mit teildeaktivierten/teilfunktionsunfähigen.
...

Ich würde eher davon ausgehen,das sie nur noch den 400er nutzen,und alles verwerten was der Prozess ausspuckt.Miit mal vollen 8 Clustern (GK104) oder im schlimmsten Fall nur noch 2 aktiven Clustern(GK108),je nach einzelner Chipgüte

Das könnte tatsächlich die Ausbeute enorm erhöhen
 
Zuletzt bearbeitet:
Dann hätte man aber immer noch vergleichsweise große Chips für kleine Karten, oder nicht?
Wäre GK104 360mm², ein GK108 braucht aber vllt 120mm², wären das auf die gleiche Fläche ein Chip zu 3...
Wenn man das Verfahren vllt auf 104-106 und 107-108 aufspaltet könnte es zumindest eher hinkommen.
 
Zuletzt bearbeitet:
warum würde es keinen sinn machen wenn der GK100 der GK104-400 ist? Das würde erklären warum GK104 die TahitiXT so böse schlagen soll.

Und im Laufe der Zeit verbessert sich die Ausbeute des Vollausbaus...

und müssen entsprechend warten bis die genügend selektierte Karten gefunden haben bis August ...
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh