nVidia GK100/Geforce 6xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Vielleicht hat man ja zwei Optionen beim GK104 bewerkstelligt,den handzahmen Low Voltage ohne Hotclock,und den Highend bei dem man alle Register gezogen hat,damit er den Namen GTX 680 zu recht trägt
 
Mit Hotclock und der Anzahl an Shadern machst du Witze:fresse:

Das Ding würde alles bisher dagewesene regelrecht vom Erdboden wegfegen

Die 1536 Shader takten mit 1,4GHZ

Wie soll das möglich sein. Wenn man die Hotclocks lässt bleibt es aus die ALUs kleiner zu gestalten. Bei der Größe von Spekulierten ~340mm² ist es ganz einfach nicht drin soviele Einheiten unterzubringen. Selbst bei 500mm² in 28nm müsste man die Einheiten dafür radikal überarbeitet haben oder es sind keine 1D Shader mehr.
 
"Nur" ist ja egal, wenn man damit schon die HD 7950/7970 schlagen kann/könnte. Weniger Takt bedeutet sogleich auch weniger Spannung und auch weniger Verbrauch, was auch dem Kühlen (leiser) entgegenwirkt.
 
es wird langsam spannend,aber irgendwer schmeisst falsche infos in den raum und man weiss nicht was jetzt davon wahr ist. -.-
 
jo stimmt wenn man es so sieht warum sich überanstrengen wenn man es mti weniger auch schaft :)
 
Nö sage ich ja auch nicht. Meine Erklärung sollte dir eigtl. versinnbildlichen, dass die DIE auch deutlich über 400mm^2 werden kann.

Du hast das Bild doch selbst gesehen, wo kommen deine 400mm2 her? Es wird um die 300mm2 liegen, vielleicht nen Tick mehr, vielleicht einen Tick weniger.
 
Wenn sich das so darstellt wie VR Zone verbreitet,dann gibts da gar keine Zweifel


Allerdings wird der Verbrauch,dann auch nicht mehr so handzahm sein wie ohne Hotclock

Immerhin entspräche das ~ 580GTX x 3 in der theoretischen Rechenleistung

egal !

wer sich nen Porsche holt sollte eigendlich auch nicht wegen den Verbrauch Jammern
 
egal !

wer sich nen Porsche holt sollte eigendlich auch nicht wegen den Verbrauch Jammern

Muss man immer in Relation sehen.
Bei einem Porsche wären mir 20l Superplus bei normaler Landstraßenfahrt auch viel zu viel, egal wie teuer das Auto ist.

Ebenso sollte eine Karte für 500€ auch nicht zu sehr über die Stränge schlagen.
 
Zuletzt bearbeitet:
Warum sollte GK104 eigentlich "nur" in DX11 Spielen, bei anderen Titeln nur manchmal, schneller sein? Welchen Sinn ergibt das?
 
Shader Modell 5 usw.

In der Vergangenheit hat es schon öfter Fälle gegeben in denen neue Generationen sich nur durch die neue API wirklich absetzen konnten (vgl. Geforce 3).
 
Tja toll wenn en GK104 etwas schneller als ne 7970 ist. Dann kommt die 7980 und ist wieder etwas schneller, dann muss GK110 kommen. Wehe das dauert noch :mad:
 
Hmm würde ja bedeuten, dass GK104 sich ohne Tesselation und SM5 bzw. bei moderatem Gebrauch davon "nur" auf Niveau der HD 7970 bewegt. Dann kommts natürlich auch stark auf Verbrauch und Preis an.
 
Hmm würde ja bedeuten, dass GK104 sich ohne Tesselation und SM5 bzw. bei moderatem Gebrauch davon "nur" auf Niveau der HD 7970 bewegt. Dann kommts natürlich auch stark auf Verbrauch und Preis an.

So extrem verkehrt wäre das ja nun nicht ;)
Ich denke, gerade in Bezug auf die kleineren Karten würde man damit auch ziemlich zum Vorteil für den Endkunden agieren. Womöglich muss man dann nicht unbedingt auf DX11 verzichten bzw. nicht die Details stark reduzieren, wenn da mehr Luft nach oben wäre ;)
 
Zumal nun auch die Konsolen sich laaaaangsaaaaam anschicken aus dem DX9 Babyzeitalter herauszufliegen,wird die API mehr und mehr an Bedeutung gewinnen

Edit: wo ist die Pointe zu Supermax Beitrag hin verschwunden:fresse:
 
Zuletzt bearbeitet:
Wenn Nvidia die Shaderarchitektur nicht komplett über den Haufen geworfen hat, wo ich ja schon seit längerem sage, dass das Nvidias einzige Chance ist, technologisch wieder Anschluss zu finden, halte ich 1536 CUDA Kerne für unwahrscheinlich. Die dreifache Anzahl auf etwa 40% weniger Fläche? Das ist selbst mit Full-Node Shrink unrealistisch. Auch in Verbindung mit den Hotclocks klingt das wenig plausibel. Entweder wenig Shader und hoher Takt oder viele Shader und niedriger Takt. Was soll denn so ein Chip mit dieser "Breite" und Hotclocks an Energie brauchen? 500 W?
 
Zuletzt bearbeitet:
Hmm würde ja bedeuten, dass GK104 sich ohne Tesselation und SM5 bzw. bei moderatem Gebrauch davon "nur" auf Niveau der HD 7970 bewegt. Dann kommts natürlich auch stark auf Verbrauch und Preis an.

Viel mehr ist bei gleicher Diesize auch ganz einfach nicht drin.

Wenn Nvidia die Shaderarchitektur nicht komplett über den Haufen geworfen hat, wo ich ja schon seit längerem sage, dass das Nvidias einzige Chance ist, technologisch wieder Anschluss zu finden, halte ich 1536 CUDA Kerne für unwahrscheinlich. Die dreifache Anzahl auf etwa 40% weniger Fläche? Das ist selbst mit Full-Node Shrink unrealistisch. Auch in Verbindung mit den Hotclocks klingt das wenig plausibel. Entweder wenig Shader und hoher Takt oder viele Shader und niedriger Takt. Was soll denn so ein Chip mit dieser "Breite" und Hotclocks an Energie brauchen? 500 W?

Wie ich oben schrieb sehe ich das genauso.

Ich glaube solche Dinge kommen durch pures stochern zutage. Keiner weiß ob er richtig liegt, aber nacher wird man sagen man habe alles gewusst.
Eigentlich ist die Abkehr von den Hot Clocks schon ziemlich in Stein gemeißelt wenn man Ailuros mal glauben schenkt.
 
@mr dude
Guten morgen der Herr die Cuda Cores von 1536 sind bestätigt

Hier dreht sich also die ganze Geschichte nur noch um den Hotclock von 1400 ob wahr oder unwahr

---------- Post added at 15:28 ---------- Previous post was at 15:26 ----------

Eigentlich ist die Abkehr von den Hot Clocks schon ziemlich in Stein gemeißelt wenn man Ailuros mal glauben schenkt.


Vielleicht ist da nochmal einer auf die GPU Z Deklarierung des Ganzen hereingefallen,der Kepler immer noch versucht den Hotclock "anzudichten"
 
Zuletzt bearbeitet:
ist es denn nun schon bestätigt das GK104 eine GTX680 darstellt? Was wird dann der GK110? Wird das dann gleiche eine GTX780?
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh