Hinter verschlossenen Türen: NVIDIAs Kepler auf der CES?

OBR..............naja wir werden es ja eh sehen.

Wäre nett wenn sich die Shader vom Core getrennt übertaktenlassen.

Kann ja gut sein dass beim OC eine der beiden Sachen die Puste aus geht, obwohl die andere noch Luft hätte.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Der CUDA-Core kann aber auch mehr Ausführungseinheiten haben, wäre dann auch doppelt so schnell. Nur mal so als Einwurf.
 
Dann währe er aber auch grösser und würde mehr Transistoren brauchen oder?
 
Eigentlich schon. Aber vielleicht waren die Hotclock-ALUs überproportional groß, um den Zieltakt zu erreichen. Möglicherweise konnte man Platz und Transistoren einsparen und diese jetzt so investieren? Fragen über Fragen.
 
Der CUDA-Core kann aber auch mehr Ausführungseinheiten haben, wäre dann auch doppelt so schnell. Nur mal so als Einwurf.

CUDA-Core = Shader. Wie groß schätzt Du die Chance ein, daß ein Shader doppelt so schnell wird? Das dürfte es noch nie auch nur ansatzweise in der bisherigen Entwicklung gegeben haben. Daß die Shader effizienter werden, sofern Kepler keine Hotclock und somit überarbeitete Shader hat, dürfte außer Frage stehen. Das wird sich aber sicherlich nicht im 100%-Bereich bewegen.

Ein Hotclock-Shader ist natürlich komplexer und deutlich größer als ein "normaler" Shader. Dabei dürfte es sich aber kaum um den Faktor 2 handeln.
 
Zuletzt bearbeitet:
Ich weiß nicht genau, wie so ein CUDA-Core genau aufgebaut ist. Das wird wohl kaum nur eine einzige ALU (+Register etc.) sein, oder? Nehmt einen CPU-Kern als Beispiel. Der besteht ja auch nochmal selbst aus Ausführungseinheiten.

Edit:
http://www.anandtech.com/show/2116/6

Ist zwar schon älter, aber der einzelne Streamprozessor hat nochmal Untereinheiten. Verdoppelt man die, ist er auch annähernd doppelt so flott bei gutem Datenmanagement.
 
Zuletzt bearbeitet:
CUDA-Core = Shader. Wie groß schätzt Du die Chance ein, daß ein Shader doppelt so schnell wird? Das dürfte es noch nie auch nur ansatzweise in der bisherigen Entwicklung gegeben haben. Daß die Shader effizienter werden, sofern Kepler keine Hotclock und somit überarbeitete Shader hat, dürfte außer Frage stehen. Das wird sich aber sicherlich nicht im 100%-Bereich bewegen.

Ein Hotclock-Shader ist natürlich komplexer und deutlich größer als ein "normaler" Shader. Dabei dürfte es sich aber kaum um den Faktor 2 handeln.


Da muss ich teilweise widersprechen. Schau dir mal die ARM GPUs an. Da gibt es Dual oder Quad Core GPUs welche schneller sind als 6 oder 8 oder gar 12 Kerne...(also Shader).
Vertex/Pixel-Shader zu Unified war ja auch ein ordentlicher Sprung vlt. gibts ja etwas komplett anderes.
 
Okay, interessanter Punkt. Bringt mich aber zu der Frage: Warum den Shader in den Ausführungseinheiten und damit in der Fläche vergrößern, wenn man einfach zwei Shader nehmen könnte? Ist aber leider müßig, darüber zu diskutieren. :(

Whatever, GK104 in dieser Form und damit auf dem Niveau etwa der GTX570 wäre grob analog zu GTX560 Ti vs. GTX470. Könnte also durchaus passen, widerspräche aber den vorausgegangenen Gerüchten von GTX580 +10%. Sogar von +30% war ja schon die Rede...


@Nimrais: Erst jetzt gesehen die Antwort. Etwas ganz neues wäre natürlich eine weitere Möglichkeit. Wobei sich fragt, ob nV die gerade neue Fermi-Architektur tatsächlich schon nach einer Generation komplett ins Nirvana verabschiedet.
 
Zuletzt bearbeitet:
Man wäre deutlich flotter als die GTX570. Die 2TF passen ja sonst nicht dazu. Deutlich mehr Bandbreite, deutlich höhere Füllraten.
 
Zuletzt bearbeitet:
Vlt. hat NV einfach das Verhältnis etwas geändert wie es boxleitnerb meint.
Oder aber sie machen aus dem GK104 einen absoluten Consumer Chip und lassen allen Serverbalast weg und machen dafür den GK100 Serverlastiger. In den Cuda-cores sind bestimmt Dinge drin, welche der Consumer nicht braucht und dafür was anderes rein kann.
Gehört eigentlich mehr in den speku-Thread...
 
Ja wunderbar, die sollen schön den Tegra Müll vorstellen und Kepler völlig vergessen. Im März können sie das Billigteil dann ja anpreisen...
 
SOLLTE - und ich schreibe bewusst sollte - diese Tabelle von OBR richtig sein, haben wir eben keine Hotclock mehr, denn dort steht ein N/A .

N/A muss nicht zwangsläufig bedeuten das der Hotclock nicht vorhanden ist,das kann auch nur bedeuten das die Info darüber noch nicht freigegeben ist

In der Konstellation wie in der Folie macht der Chip eigentlich nur mit doppelten Shadertakt Sinn

Und das wäre dann wohl auch kein Kepler sondern ein Fermi dem man 2 Cuda Clusterpakete (2x32) drangehängt hat

Damit wäre man was die Leistung betrifft auf 7970 Niveau

Ob sich das OBR nur ausgedacht hat glaube ich eher nicht

Vielleicht sind das auch die Pläne für einen Fermi Shrink gewesen
 
Zuletzt bearbeitet:
Die CES geht doch noch en bissl, man hofft noch! Aber ich wette Kepler wird am Ende nur erwähnt. Mit so Sprüchen wie: es geht voran, wir werden die Karte bald vorstellen, es wird unsere schnellste Graka usw....
 
Ich weiß nicht wie das so abläuft, aber soweit ich in blogs gelesen habe, hatte nvidia heute Nacht ja schon ihre Vorstellung. Oder wird da jeden Tag tröpfchenweise etwas verkündet?
 
Ich halte da ein erweitertes GF114 Design (rechnerisch genau das 1,5fache) als wahrscheinlicher als nen überarbeiteten GF110. Dieser enthält ja viele GPGPU Anteile welche ja auch beim letzten Performance Chip weggelassen wurden. Laut Bezeichnung GK104 ist er ja auch nichts anderes. Der GF114 ging ja auch effizienter zu Werke als der GF110. Vielleicht wird beim GK104 noch der hohe Shadertakt verwendet, beim GK100 setzt nVidia dafür auf hohe Shaderanzahl ohne dessen um die TDP diesmal besser in den Griff zu bekommen bei dem sicherlich ebenfalls riesig werdenden Chip wie GF100.
 
Zuletzt bearbeitet:

Wenn ich NVIDIA höre, denke ich an Grafikkarten… -und jetzt:
Schwerpunkt auf Wischi/Waschi-Tabletten?
Wenn ich wischen will, nehme ich mir den Schrubber und gehe ins Badezimmer.
Was in den 60ern bei Kapitän Kurt auf seinem Traumschiff noch recht cool aussah,
nervt mich heute gewaltig. Mit nem Smartphone kann man nicht mal ne Pulle
Bier aufmachen –und das soll nützlich sein?
Ich will ne pissgeile Grafikkarte, für nen arschvoll Kohle, die abgeht wie Schmitds Katze
und alles wegbretzelt –nichts anderes!!!
Ansonsten hole ich mir eben die saugeile für nen Haufen Knete…

 
Zuletzt bearbeitet:
Das ist das absolute Hardware - Nerdvideo ich schmeiß mich weg:haha:

Ich will die Pissgeile
 
Zuletzt bearbeitet:
N/A muss nicht zwangsläufig bedeuten das der Hotclock nicht vorhanden ist,das kann auch nur bedeuten das die Info darüber noch nicht freigegeben ist

In der Konstellation wie in der Folie macht der Chip eigentlich nur mit doppelten Shadertakt Sinn

Ich dachte, dass sei schon klar, dass es keinen "Hotclock" mehr gibt...angesichts der Taktziele auch irgendwo logisch, denn 2000+ per default auf dem Shader ist wohl kaum machbar. Ich persönlich gehe davon aus, dass die Gerüchte um den "Hotclock" stimmen...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh