nVidia GK100/Geforce 6xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Merkt denn eigentlich einer wie ruhig es geworden ist?

Char Lie = nix,keine Infos,keine Spekus

OBR= hat laut Aussage NDA unterschrieben (und beteuert trotz alle dem nochmals seine getätigten Performanceaussagen von Januar)

Hard OCP= hat laut Aussage NDA unterschrieben
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
klar, weswegen ja immer wieder neue Spekus kommen die uns im Kreise drehen lassen^^

da ist Stichtag ... sicherlich

 
Wie sieht es eigentlich mit Luxx aus?


Auch vor Ort oder fällt das schon unter NDA Knebelei:fresse:

Ob Charlie diesmal auch ne Einladung bekommen hat,so nach Art "komm vertragen wir uns wieder"?:haha:
 
Zuletzt bearbeitet:
scully1234 schrieb:
Wenn du mal mit vernünftigen Sachen,die auf dem basieren was verlässliche Quellen so nach außen dringen lassen,hier mitreden würdest,als alles Schaltjahr mal mit der immer wiederkehrenden negativen Schallplatte,würde es gar nicht soweit kommen

Quote doch mal meinen letzten Kommentar und zeige wo ich mich negativ äußere.:hmm:
Dir scheint das Warten echt etwas zu Kopf zu steigen.

Grinsemann schrieb:
Q2 2012 kommt Ivy...

Ja und im ähnlichen Zeitraum wohl GK104.

Und dass NDA´s unterschrieben werden muss noch nicht mal auf einen sehr baldigen Launch hindeuten.
Das kann sich auch noch etwas ziehen.

Für mich sieht es so aus, als ob es erstmal nur einen Chip mit GK110 geben wird, vor allem wegen der Kapazitäten und Yields und dafür nen Dual Chip mit GK104.

scully1234 schrieb:
Merkt denn eigentlich einer wie ruhig es geworden ist?

Es war eigentlich schon immer mehr oder weniger relativ ruhig.
Wenn jetzt wirklich langsam fertige Retailkarten bei den Partnern fertiggestellt wurden, dürfte es zumindest bald erste vertrauenswürdigere Leaks geben müssen, wie immer zu Launches einer neuen Gen.
 
Zuletzt bearbeitet:
....Setzt man mal ein ähnliches Verhältnis an, so ergibt sich, das ein GK110 im Schnitt seine 36-40% schneller sein muss wie ne 580er, dabei aber nur gleich viel verbrauchen darf. Das heist ca. 15-20% schneller als Tahiti XT bei ~245W Gaminglastverbrauch als direkt Kartenmessung. -> das klingt für mich definitiv schaffbar für den GK110. ...

Durch die Optimierung der Cuda-cores (no hotclock)halte ich auch für möglich
dass 60% zu GTX 580
bzw 40% zu Tahiti XT bei ~250W für den GK104 (GTX 680) passen.
Die 20 % über Tahiti XT macht dan ein kastrierter GK 104 bei ~200W.

Hier meine Hoffentlich sinnvolle Erklärung:

6970-->384(4d) =1536 Shader--->Leisung 100%
7970 -->2048 Shader----->Leistung 133.3%
5% durch Taktanhebung =138%

GTX 580=512 Cuda---->Leistung 100%
GTX 680=1536 Cuda--->Leistung 300%
durch 2 (no hotclock)--->Leistung 150%
10% durchTaktanhebung = 160% bei ~250W

Bitte teilt mir mit in wie Weit das logisch klingt.

Wenn wir weiter denken über den GK 110 (hier wirds spekulativ):

GTX 580=512 Cuda---->Leistung 100%
GTX 780=2048 Cuda--->Leistung 400% (glaube die 2304 shader nicht)
durch 2 (no hotclock)--->Leistung 200%
Takt bleibt wie bei gtx 580 bei~290W (+25% cudas zu GTX 680)
wenn sie dann wie gesponnen erst 2013kommt fallen da bestimmt
noch 30W weg weil Die 28 nm dann besser laufen.

Sehe also entweder GTX 780 mit +100% zur gtx 580 bei 260W
in 2013.

Oder aber ne GTX 6x5 Extreme Wakü only mit 100% zur GTX 580 bei 290W.


Ich weiss das ist ein wenig viel spekulatius aber ich will nochmal zusammentragen

was ich für wahrscheinlich halte:
2012
GTX 670(cutted GK104)--->20% über Tahiti XT @200W
GTX 680(GK104)--->40% über Tahiti XT @250W
Tesla xxxx(GK110)->80% über Tahiti XT @290W(optional)

unwahrscheinlich aber möglich :
GTX 685ti (GK110)->80% über Tahiti XT @290W(water only)

wahrscheinlicher:
2013
GTX 780(GK110)--->80% über Tahiti XT @260W

So genug davon. Da es KEINE!!! verlässlichen Quellen gibt
war das hier Post 3516 ohne auch nur einen wirklichen Fakt.

gruss Digger

Ps: und scully wehe du holst nach diesem meinem Post nochmal das Spray raus *SFG*
Pps: Wenn ich jemals Fanboy von was war/bin dann von 3dfx
und Borrussia Mgl ;)
 
Keine Angst bei Leuten die vernünftig/logisch argumentieren ist das gar nett weiter schlimm:d

Deine Rechnung zum Kleinen "könnte" passen aber nur im idealsten/theoretischten Fall aller Fälle wenn die Leistung 1:1 auf den Boden gebracht wird,und das war bisher nie der Fall.
Bei dem GK104 scheitert es wohl alleine schon bei der Bandbreite,dem schmalen SI

Was mit GK110 wird,schwer zu sagen,da dazu noch niemand konkreter geworden ist
 
Zuletzt bearbeitet:
Erm Sekunde mal, wo steht das "hotclock" wegfällt? Dadurch würden die cuda-cores ja wie bei amd "nur" noch mit referenztakt mittackern o_O

Wo liegt der Sinn des ganzen wenn es wirklich so sein sollte?

getippt auf meinem Defy (@1,2Ghz + CM7.1) mit der HardwareLuxx-App :hail:
 
2012
GTX 670(cutted GK104)--->20% über Tahiti XT @200W
GTX 680(GK104)--->40% über Tahiti XT @250W

Tesla xxxx(GK110)->80% über Tahiti XT @290W(optional)

unwahrscheinlich aber möglich :
GTX 685ti (GK110)->80% über Tahiti XT @290W(water only)

wahrscheinlicher:
2013
GTX 780(GK110)--->80% über Tahiti XT @260W

So genug davon. Da es KEINE!!! verlässlichen Quellen gibt
war das hier Post 3516 ohne auch nur einen wirklichen Fakt.

No Way!
Bei gleicher Die Size und gleicher TDP ist es so gut wie unmöglich das ein Chip 40% schneller ist als der andere. Im moment geht es noch darum das GK104 überhaupt den Speed von Tahiti XT erreicht!

Schraubt eure Erwartungen nicht richtung Fiktion, da kann man nur entäuscht werden.

Erm Sekunde mal, wo steht das "hotclock" wegfällt? Dadurch würden die cuda-cores ja wie bei amd "nur" noch mit referenztakt mittackern o_O

Wo liegt der Sinn des ganzen wenn es wirklich so sein sollte?

getippt auf meinem Defy (@1,2Ghz + CM7.1) mit der HardwareLuxx-App :hail:

Ich glaub du musst mal die letzten 140 Seiten lesen :d
 
Erm Sekunde mal, wo steht das "hotclock" wegfällt? Dadurch würden die cuda-cores ja wie bei amd "nur" noch mit referenztakt mittackern o_O

Wo liegt der Sinn des ganzen wenn es wirklich so sein sollte?

So wie ich das mitgekriegt hab wollen die das tun um die Taktraten von Chip und Speicher mehr erhöhen zu können... ! Oder ??
 
So die Retour meiner 2 7970 Karten ist durch wo bleiben die echten Infos für die Neuen Karten.
 
Meine Vermutung ist, dass der GK104 als GTX670Ti über der 7950 landet und in Form einer höhergetakteten Version (GTX680) die 7970 schlägt. GTX670Ti weil durch das Ti gekennzeichnet werden soll das diese das bessere P/L-V zur gebotenen Performance hat.

Es würde auch zu dieser News passen. Für die GTX670Ti wären 8+6Pin zwar nicht erforderlich, jedoch bei der GTX680 mit deutlich höherem Takt.
http://www.hardwareluxx.de/index.php?option=com_content&view=article&id=21587 &catid=38&Itemid=101

Der GK110 wird dann als GTX690 kommen mit einem deutlichen Abstand zur GTX680. Eine DualVersion gibt es nicht.

Beim Refresh hätte man so die Möglichkeit mit einem neuen "G92b" die P/W-Leistung deutlich zu verbessern und könnte mit einem kleineren SI eine Karte anbieten welche der alten GTX690 sehr nahe kommt. zu einem deutlich niedrigeren Preis. Außerdem könnte man mit diesem sparsamen Chip eine Dual-Karte bauen.

Also alles sehr ähnlich wie damals zur 8800GTX. Der Vorteil ist das man zwar jetzt einen großen Sprung macht, aber auf lange Sicht mit dem Refresh den Performanceanstieg klein hält. Außerdem könnte man wieder allen Zeigen wie toll man doch ist. Durch die fehlende DualKarte könnte man die Preise auch sehr hochhalten.
 
Zuletzt bearbeitet:
Erm Sekunde mal, wo steht das "hotclock" wegfällt? Dadurch würden die cuda-cores ja wie bei amd "nur" noch mit referenztakt mittackern o_O

Wo liegt der Sinn des ganzen wenn es wirklich so sein sollte?

getippt auf meinem Defy (@1,2Ghz + CM7.1) mit der HardwareLuxx-App :hail:

liest man auch im 3DC das "hotclock" weg fällt und sich die Cudacores stark erhöhen und wie Christoph0815 schon schrieb kann der Rest besser hoch getaktet werden ohne die Cudacores zu überreizten wenn ich das richtig verstanden habe.

Gruß herm
 
Erm Sekunde mal, wo steht das "hotclock" wegfällt? Dadurch würden die cuda-cores ja wie bei amd "nur" noch mit referenztakt mittackern o_O

Wo liegt der Sinn des ganzen wenn es wirklich so sein sollte?

Na weil die Cuda-cores mit hotclock einfach viel grösser ausfallen und wegen dem hotclock
zum einen der gpu-takt limitiert ist, und zum anderen der Verbrauch explodiert.

Ohne hotclock und mit 28 nm vorteil kann man nun die Anzahl der Cudas verdreifachen
und den GPU-Takt gut anheben, da er ja nicht mehr vom doppelten Shadertakt eingebremst wird.

Zitat Neurosphere:
No Way!
Bei gleicher Die Size und gleicher TDP ist es so gut wie unmöglich das ein Chip 40% schneller ist als der andere.

entweder hast du dich verlesen oder aber ich kann dir nicht folgen:

Ich habe in meinen Berechnungen weder irgendwas mit gleicher die-size noch mit gleicher TDP.
Da musste mir nochmal sagen wie du das genau meinst damit ich das zumindest rechnerich
wiederlegen kann ;)

Denn eins darf man bei all dem nicht übersehen:
Je nachdem wie NV die SM`s Rops u.s.w ins Verhältniss stellt und verkoppelt
kann es gut sein das Kepler ein GPGPU Monster wird aber für den spieler die Rohleistung nicht richtig nutzbar ist.

Man darf ja nicht vergessen das NV mit den Hardcoregamern (euch) kaum noch was verdient
sondern die Zukunft der dedizierten Grafikkarten ganz klar auf Server ausgelegt ist.
Dem Bulli hat dieses Vorgehen fast den Hals gebrochen
Aber auch der wird im serverbereich gut genommen

gruss digger

p.s.: ausnahmsweise mal nicht gegengelesen/korrigiert sry
 
Zuletzt bearbeitet:
Ein Dritter wie 3dfx wäre z.Z. tatsächlich gut. Ich erinnere mich gerne an die "Gründerzeit" um Voodoo Graphics, da war noch richtig Energie im System. Hach *schwelg*

</ot>
 
Damals war auch noch Matrox dabei, nciht nur 3Dfx.

So wie ich das mitgekriegt hab wollen die das tun um die Taktraten von Chip und Speicher mehr erhöhen zu können... ! Oder ??

Das hätte man aber auch mit Hotclock hinbekommen, einfach den Multiplikator etwas runtersetzen.
Das wird sicher noch andere Gründe haben.
 
Durch die Optimierung der Cuda-cores (no hotclock)halte ich auch für möglich
dass 60% zu GTX 580
bzw 40% zu Tahiti XT bei ~250W für den GK104 (GTX 680) passen.
Die 20 % über Tahiti XT macht dan ein kastrierter GK 104 bei ~200W.

Hier meine Hoffentlich sinnvolle Erklärung:

6970-->384(4d) =1536 Shader--->Leisung 100%
7970 -->2048 Shader----->Leistung 133.3%
5% durch Taktanhebung =138%

GTX 580=512 Cuda---->Leistung 100%
GTX 680=1536 Cuda--->Leistung 300%
durch 2 (no hotclock)--->Leistung 150%
10% durchTaktanhebung = 160% bei ~250W

Bitte teilt mir mit in wie Weit das logisch klingt.

Logisch schon, nur wirst du wie angesprochen keine 1:1 Skalierung mit der ALU Anzahl sehen... Das klappt nur dann, wenn auch explizit die Restlichen Einheiten sauber mit in der Leistung steigen.
Schaut man beispielsweise mal auf die HD7970, so macht es massiv den Eindruck, als würde die Karte ihre ALUs trotz der nun mehr oder weniger vergleichbaren Skalareinheiten lange nicht voll ausfahren können. Zieht man mal einen Furmark Vergleich ran, so steigt der Verbrauch zwischen normaler Gaminglast und Furmark Volllast extrem an. Weit mehr als es noch bei ner HD6970 der Fall war im Verhältnis. Es liegt also ziemlich der Schluss nahe, das die Karte sich weiter in Richtung GPGPU entwickelt und dort mehr Shaderpower bereit stellt. Der reine Gamingspeed aber nicht direkt an den ALUs hängt.
Bei Kepler könnte das ähnlich werden. Auch NV hat hier die Ambitionen, mehr GPGPU Power bereit zu stellen.
GK104 wird von seinen drei mal so vielen ALUs nichtmal im Ansatz 1:1 dessen Leistung in Games bereit stellen können...
Dazu noch, soll eben GK104 als GTX560TI Erbe antreten. Die von dir spekulierte Leistung klingt zwar aus Endkundensicht wunderhübsch, ist aber reichlich unrealistisch. Das wäre HighEnd, aber nicht Performanceklasse :fresse:

Ein Dritter wie 3dfx wäre z.Z. tatsächlich gut. Ich erinnere mich gerne an die "Gründerzeit" um Voodoo Graphics, da war noch richtig Energie im System. Hach *schwelg*

</ot>

Ein dritter kann aber auch nicht dem aktuel einzigem Fertiger Feuer unterm A. machen ;)
Rein zeitlich würde ein Dritter nicht viel mehr bringen... Da brauchs eher nem zweiten Fertiger. Den gibt es ja zumindest allen Gerüchten zur Folge für AMD in Form von GloFo. Aber im Moment scheinbar fertigt AMD ihre 28nm Karten ausschließlich bei TSMC. Vllt kommt da noch was.
 
Das nicht, aber ein 3 Hersteller wäre nur vorteilhaft. Vielleicht würde man dann nicht nur auf einen neuen Prozess warten/hoffen, oder GPGPU in den Vordergrund rücken, sondern die reine Gamingleistung durch bessere Designs auf die Straße bringen.
 
entweder hast du dich verlesen oder aber ich kann dir nicht folgen:

Ich habe in meinen Berechnungen weder irgendwas mit gleicher die-size noch mit gleicher TDP.
Da musste mir nochmal sagen wie du das genau meinst damit ich das zumindest rechnerich
wiederlegen kann ;)

Du schreibst das GK104 40% schneller als Tahiti XT werden soll. Das ist bei wohl ähnlicher Diesize und TDP ganz einfach nicht drin.

Denn eins darf man bei all dem nicht übersehen:
Je nachdem wie NV die SM`s Rops u.s.w ins Verhältniss stellt und verkoppelt
kann es gut sein das Kepler ein GPGPU Monster wird aber für den spieler die Rohleistung nicht richtig nutzbar ist.

Man darf ja nicht vergessen das NV mit den Hardcoregamern (euch) kaum noch was verdient
sondern die Zukunft der dedizierten Grafikkarten ganz klar auf Server ausgelegt ist.

Das ist leider falsch. Den Großteil der Einnahmen bringen ganz normale dedizierte GPUs bei Nvidia. Wenn ich mich recht entsinne lag der Anteil für Tesla und Quadro im einstelligen Prozentbereich. Da möchte man natürlich weg, aber bis man zu deiner Aussage kommt ist es noch ein langer weg.

Dem Bulli hat dieses Vorgehen fast den Hals gebrochen
Aber auch der wird im serverbereich gut genommen

Ist zwar OT, aber im Serverbereich mit x86 hat man es deutlich einfacher als auf dem Desktop in diesem Fall. Um das nicht gleich in ne OT Diskussion zu verwandeln, kann wer will mir dazu ne PN schreiben.
 
digger66a und Neurosphere

Es stimmt zwar, dass Nvidia den meisten Umsatz mit dem herkömmlichen GPU-Geschäft macht, aber nicht im Highend Bereich. Da sollte wie digger66a schon sagt nur ein ganz kleiner Bruchteil des Umsatzes herkommen.
 
Ich frage mich die ganze Zeit, warum man Grafikkarten die scheinbar für GPGPU ausgelegt sind, weiterhin als Gamingkarten anbietet. Es sieht doch so aus, als würde man Technik kaufen, die eigentlich garnicht für den eigenen Verwendungszweck gebaut ist. Wäre es nicht auch für die Hersteller wesentlich Ressourcensparender, wenn man nur so viele Shader in eine Geforce-Architektur einbaut, wie auch wirklich genutzt werden können?

Noch ne kleine Glaskugelfrage. Wie hoch ist die Wahrscheinlichkeit, dass nVidia bei Kepler der Lochabstand beibehält? Ich möchte mir jetzt einen "Peter" für meine GTX280 zulegen und den dann auch auf einer möglichen, GK104 GPU verbauen.
 
Ich frage mich die ganze Zeit, warum man Grafikkarten die scheinbar für GPGPU ausgelegt sind, weiterhin als Gamingkarten anbietet. Es sieht doch so aus, als würde man Technik kaufen, die eigentlich garnicht für den eigenen Verwendungszweck gebaut ist. Wäre es nicht auch für die Hersteller wesentlich Ressourcensparender, wenn man nur so viele Shader in eine Geforce-Architektur einbaut, wie auch wirklich genutzt werden können?

Das Problem ist, dass die Leute immer noch denken, dass GPGPU != Graphics ist. Es gibt jedoch keine richtige Trennung. Für Spiele sowie GPGPU-Kram wird Rechenleistung benötigt. Je mehr Recheneinheiten, umso mehr FLOPs/s, desto schneller ist eine Karte in Spielen.

Das Problem an heutigen Chips ist, dass das Front-End massiv limitiert, wenn man die Rechen- und Texturleistung massiv erhöht. Wird dieses Problem behoben - was nVidia mit Fermi schon zum Großteil schaffte - wirkt sich eine GPGPU-Architektur auch positiv für Spiele aus.
 
Genau so schauts aus... Dazu kommt, das eben die Profikarten die selben Chips verwenden, wie die Desktop Karten. Profibereich heist nicht nur Shaderpower allein (das trifft vllt auf den recht jungen Tesla und somit GPGPU Markt zu), aber Profikarten heist in erster Linie wohl auch Quadro FX Karten. Und da zählt ebenso die Filterleistung, wie die Texelleistung und natürlich auch die Shaderpower.
Auch aus dem Grund fährt man sowohl bei AMD als auch bei NV die Schiene, das eben alle GPUs vom gleichen Band kommen und erst danach auf die jeweiligen Karten zugeschnitten werden. Wobei zugeschnitten eben bisschen das flasche Wort ist, im Grunde können die alle das gleiche. Sofern man da Bios/Softwareseitig nix deaktiviert.

Eine gänzlich eigene Fertigungsstraße allein für den Homebereich würde mit größter Warscheinlichkeit deutlich teurer für den Hersteller kommen...
 
digger66a und Neurosphere

Es stimmt zwar, dass Nvidia den meisten Umsatz mit dem herkömmlichen GPU-Geschäft macht, aber nicht im Highend Bereich. Da sollte wie digger66a schon sagt nur ein ganz kleiner Bruchteil des Umsatzes herkommen.

Zwar etwas Offtopic, aber evtl nicht ganz unpassend zu der Diskussion.
Nvidia baut Führung im Markt für diskrete Grafiklösungen aus.
Nvidia baut Führung im Markt für diskrete Grafiklösungen aus - 27.02.2012 - ComputerBase
Rund 63,5% der diskreten Grafiklösungen kommen von Nvidia.
 
Das Problem ist, dass die Leute immer noch denken, dass GPGPU != Graphics ist. Es gibt jedoch keine richtige Trennung. Für Spiele sowie GPGPU-Kram wird Rechenleistung benötigt. Je mehr Recheneinheiten, umso mehr FLOPs/s, desto schneller ist eine Karte in Spielen.

Das ist übrigens auch einer der Gründe warum ich glaube das es irgendwann keine TMUs mehr geben wird sondern es möglich wird das die ALUs (oder was auch immer danach kommt) diese Funktion übernehmen. So hätte ich immer die Leistung auch dort wo ich sie gerade benötige. Das käme sowohl Grafikanwendungen als auch Number-Crunching zugute.
 
Zuletzt bearbeitet:
Das ist übrigens auch einer der Gründe warum ich glaube das es irgendwann keine TMUs mehr geben wird sondern es möglich wird das die ALUs (oder was auch immer danach kommt) diese Funktion übernehmen. So hätte ich immer die Leistung auch dort wo ich sie gerade benötige. Das käme sowohl Grafikanwendungen als auch Number-Crunching zugute.

Einen Ähnlichen Ansatz wollte ja Intel bringen... Und die haben es nicht gepackt.
Ich glaube das einzige was wirklich in Hardware realisiert war, waren die TMUs, der Rest ging über eine "Softwareemulation" direkt auf den Recheneinheiten. Das Problem ist aber, der Spaß wird leicht ineffizient. Und das war wohl der Hauptgrund, warum Intel in der Richtung so nicht weiter entwickelt hatte...
 
Einen Ähnlichen Ansatz wollte ja Intel bringen... Und die haben es nicht gepackt.
Ich glaube das einzige was wirklich in Hardware realisiert war, waren die TMUs, der Rest ging über eine "Softwareemulation" direkt auf den Recheneinheiten. Das Problem ist aber, der Spaß wird leicht ineffizient. Und das war wohl der Hauptgrund, warum Intel in der Richtung so nicht weiter entwickelt hatte...

Hast du dazu nen paar Infos?
Würde mich eigentlich wundern (sofern ich es nicht missverstehe) wenn TMUs quasi die Aufgaben der ALUs übernehmen und nicht umgekehrt.
 
Ne, so war das nciht gemeint ;)
Es gab diesen x86 Verschnitt als reine Ausführungseinheiten für quasi alles. Und dazu dediziert ein paar TMUs, weil man dessen Aufgaben wohl nur mit unzureichend Leistung emuliert über Software auf den ALUs laufen hätte lassen können. Der Rest lief auf den ALUs.
Aber das ist arg OT. Dafür gibts hier nen LRB Thread ;)
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh