Hinter verschlossenen Türen: NVIDIAs Kepler auf der CES?

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Was ist an dem Bild so lustig? Scheint über meinen Horizont zu reichen.
 
400$ wäre etwas viel für den Nachfolger der 560ti. Ok, wird schneller als die 580 aber so ist die eigentlich etwas zu teuer für den Nachfolger der 560er.
Da hätte ich doch an Preise bis 250€ bzw 300$ gedacht und Verbrauch wäre ebenfalls ziemlich heftig für die Mittelklasse/Performance...
 
150$ günstiger bei möglichereise 10% weniger Leistung als die 7970 ist aber besser als 150$ mehr zahlen, dafür bekommste 2x Wasserkühler...
 
Oh nein nicht schon wieder OBR. Ich weiß ja nicht wie man diesen Kasper noch ernst nehmen kann, nicht nur wegen seinem kindischen Gezanke mit AMD.
 
Oh nein nicht schon wieder OBR. Ich weiß ja nicht wie man diesen Kasper noch ernst nehmen kann, nicht nur wegen seinem kindischen Gezanke mit AMD.

Und deshalb müssen die Daten falsch sein? Deshalb muss man immer einen auf moralisch machen und sich so künstlich aufregen? Sorry, aber das geht mir langsam auf den Sack. Nachher wird das von einer anderen Seite wiedergekäut und ihr lest es auch interessiert. So eine blöde Heuchelei...
 
Und deshalb müssen die Daten falsch sein? Deshalb muss man immer einen auf moralisch machen und sich so künstlich aufregen? Sorry, aber das geht mir langsam auf den Sack. Nachher wird das von einer anderen Seite wiedergekäut und ihr lest es auch interessiert. So eine blöde Heuchelei...

Es geht darum, dass man einen Typen der bewußt gefälschte Daten in Umlauf gebracht hat nicht auch noch auf die Bühne helfen muss. Der ist einfach komplett unseriös u. ein ertappter Lügner ganz gleich ob sich seine Daten am Ende sogar bestätigen. Sowas gehört abgestraft u. nicht noch m. Klicks belohnt.
 
Es geht darum, dass man einen Typen der bewußt gefälschte Daten in Umlauf gebracht hat nicht auch noch auf die Bühne helfen muss. Der ist einfach komplett unseriös u. ein ertappter Lügner ganz gleich ob sich seine Daten am Ende sogar bestätigen. Sowas gehört abgestraft u. nicht noch m. Klicks belohnt.

Ist mir komplett egal. Ich hab kein Interesse, irgendjemanden abzustrafen, was soll das, ist doch kindisch. Tut niemandem weh, wenn man Infos postet. Du kannst dich ja dran halten und ihn nicht beachten, mir ist das wie gesagt völlig wurscht ;)
 
Zuletzt bearbeitet:
Sieht ja aus wie ein 1,5facher GF114 in 28nm und bisl höherem Takt laut den GK104 Daten?!

...müßter der dann nicht immernoch den doppelten Shadertakt haben bei der geringen Mehrzahl an Cores um ne GTX 580 um 10-15% zu schlagen?
 
Zuletzt bearbeitet:
Oder die Shader selbst müssten fetter sein. Das Fragezeichen beim Shadertakt hab ich beim ersten Drüberlesen glatt übersehen. Das ist scheinbar noch nicht klar.
 
Das würde eventuell auch die 220W Angabe erklären?!

10% weniger TDP bei 10-15% Mehrleistung als ne GTX580?! Hmm...

...die DIE Size müßte ja im Vergleich zum Tahiti mit 4,3 Milliarden Transistoren ein Stück weit kleiner sein?!
 
ich kauf mir doch keine Grafikkarte zum Stromsparen wie die AMDfreaks, sondern wegen flimmerfreiem sehr guten Bild, besten Treibern , Physx und Cuda. Kepler wirds schon richten und ich freu mich auf Preissenkung bei NV, Lg
 
Nachdem das mit dem Wegfall der Hotclocks alles so plausibel klang kann ich mir garnicht vorstellen das sie nun wirklich dabei bleiben sollen.
 
TDP ist schon wichtig, weil im Endeffekt ist TDP=Leistung, ganz grob jedenfalls. Die 590 z.B. könnte schneller sein, würde sie nicht soviel nuckeln.
 
Auf der NVIDIA-Pressekonferenz bislang kein Wort zu Kepler - Tablets bzw. Tegra 3 sind der Schwerpunkt.
 
Das wärs doch...eine art "Bombe" die alle Themen zufuhr aus dem Gedächtnis löscht und alle Zuhörer wie sabbernde Hunde da sitzen lässt:fresse:
Keine Angst...ich schlafe nur leicht:fresse2:
 
Dürftest du denn überhaupt was sagen wenn es soweit wäre Don?

Ich mag dich übrigens deine News sind immer Super, weiter so!


Die GK104 Tabelle kommt mir komisch vor.

Kann es mir wer erklären?
Fermi hat 3.2 Milliarden transen (Der alte, Die GTX580er hat nur mehr 3 Milliarden)
Kepler soll auch nur 3 Milliarden haben aber mehr Shader und mehr Rops?
Anscheinend wurde die SI-Rops-Shaderkonstellation geändert ist aber immernoch sinnfrei laut der Tabelle.

Etweder ist die Tabelle "Handgemacht" oder nVidia hat selbst noch keinen Plan (Ich bezweifle die 2. Möglichkeit sehr)
 
Oder die Shader selbst müssten fetter sein. Das Fragezeichen beim Shadertakt hab ich beim ersten Drüberlesen glatt übersehen. Das ist scheinbar noch nicht klar.

Die Folie von OBR sieht eher aus wie ein aufgebohrter und geshrinkter 580 dem man 2 zusätzliche 32er Shadercluster verpasst hat mit weiterhin bestehenden Hotclock
 
Zuletzt bearbeitet:
Kann es mir wer erklären?
Fermi hat 3.2 Milliarden transen (Der alte, Die GTX580er hat nur mehr 3 Milliarden)
Kepler soll auch nur 3 Milliarden haben aber mehr Shader und mehr Rops?
Anscheinend wurde die SI-Rops-Shaderkonstellation geändert ist aber immernoch sinnfrei laut der Tabelle.

Etweder ist die Tabelle "Handgemacht" oder nVidia hat selbst noch keinen Plan (Ich bezweifle die 2. Möglichkeit sehr)

Nvidia weiß schon seit über einem Jahr wie Kepler aussehen wird, davon kann man ausgehen. Mit dem gleichen Transistorbudget müsste man schon alles Handdesignen damit auch ja kein Transistor zuviel gesetzt wird um auf die Werte der Tabelle zu kommen, da haste recht, sofern es dann keine Änderungen zu Fermi gab. Wobei ja eben letzteres die Tabelle sugerieren wil. Ich denke mal OBR wollte einfach mal was in den Raum werfen.
 
SOLLTE - und ich schreibe bewusst sollte - diese Tabelle von OBR richtig sein, haben wir eben keine Hotclock mehr, denn dort steht ein N/A für not available. Im Umkehrschluss glaube ich dann kaum, daß 576 Shader ohne Hotclock an die GTX580 mit 512 Hotclock-Shadern heranreichen können. Grob braucht man zwei Non-Hotclock-Shader, um einen Hotclock-Shader zu ersetzen; bei gesteigerter Shadereffizienz etwas weniger. 576 Shader würden aber mit an Sicherheit grenzender Wahrscheinlichkeit nicht ausreichen, um GTX580 zu erreichen.

Entweder ist diese Tabelle Grütze, oder GK104 ist ein gutes Stück langsamer als GTX580; allenfalls GTX570-Niveau.
 
Wobei ich bei deiner Argumentation darauf hinweisen möchte, dass du den TAKT aus der Rechnung gelassen hast.

Sollte bei gleichem Verbrauch das Doppelte an Takt bei gleicher Takt-Performance Verhältnissmaßigkeit herrschen, wäre dass dann wiederrum sehr gut.
 
Entweder ist diese Tabelle Grütze, oder GK104 ist ein gutes Stück langsamer als GTX580; allenfalls GTX570-Niveau.

Das wäre aber Mist, denn dann würde das preislich mit der alten Gen5 ja garnicht mehr passen.. Ich hoffe mal die OBR Folie ist einfach nur Mist. Das mitn Takt wäre natürlich zu berücksichtigen, aber nunja die CES geht ja nochn bissl, also vllt gibts ja gegen ende im verborgenen etwas
 
Doppelter Takt? Ich sehe in dieser ominösen OBR-Tabelle 770MHz (GTX580) vs. 905MHz (GK104) als Taktangabe. Was ich in meiner Argumentation außenvor gelassen habe ist tatsächlich, daß dafür der gleiche Takt zugrunde gelegt wäre - aber ich bin davon ausgegangen, daß das soweit logisch und klar ist.

Kurz: Legen wir zugrunde, daß GK104 die Hotclocks wirklich fehlen (N/A), dann ist ein Chip mit den von OBR genannten Werten nichtmal so schnell wie GTX580 (was er als Performance-Chip IMHO auch nicht sein muss).
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh