nVidia GK100/Geforce 6xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Epic Games Shows Off Unreal Engine 3 in Flash and Kepler - Bright Side Of News*

Ob Rein wirklich nur 30% mehr Leistung gegenüber einer Karte als ausreichend ansehen würde?

Schau dir meine Erklärungen dazu an:
1. Letztes Jahr: 2xGTX580 SLI + 1xGTX580 für GPU-PhysX. Da liegt nicht unbedingt ein Faktor 3 zur 580, es kann irgendwo zwischen 2 und 3 liegen.
2. Dieses Jahr wahrscheinlich FXAA statt MSAA (siehe Artikel auf geforce.com)
3. Weitere Optimierungen, sie hatten ein Jahr lang Zeit
4. GK104 hat um die 3TF, also fast doppelt soviel Rechenpower wie eine GTX580.
5. fps nicht angegeben, weder damals noch heute

Das muss mitnichten 3x GF110 Performance bedeuten, nichtmal 2x. Es ist zuviel unklar. Wer mehr als GTX580+30% im Schnitt erwartet (evtl. mit Turbo), wird enttäuscht werden. Das Ding wäre damit 70% flotter als GF114, was doch exzellent ist bei gleichem Verbrauch. Der GK110 ist dann das, was wir uns alle wünschen, aber das dauert noch ein bissl.
 
Er sagt aber es würde ihn verwundern, wie schnell das gehen würde! Da wurde jetzt nicht nur optimiert, Details runtergeschraubt usw. das wäre ja völlig daneben!

Die Kepler Karte, sei damit jetzt 104 oder 110 gemeint, scheint recht dick zu werden. Wenn nicht, dann ist das halt alles lächerliches Marketing, was soll man machen.
 
Zuletzt bearbeitet:
Glaubst du er würde zugeben, dass das vielleicht recht unoptimiert war vor einem Jahr? Epic arbeitet gut mit Nvidia zusammen, da wäscht eine Hand die andere.
 
Ich weiß ganz einfach gar nicht, was ich glauben soll. Redet man von GK104 oder 110, ist es alles nur Show oder kommt was wirklich verdammt gutes...woher soll man das auch wissen?
Jeder Entwickler optimiert ohne Ende, schon klar...die Kernaussage ist aber, dass man von Kepler beeindruckt ist, grob. Kann man jetzt deuten wie man will....die dreifache Leistung einer 580 ist NATÜRLICH viel zu hoch gegriffen. Aber en GK110 darf gerne die doppelte Leistung raushauen! Davon gehe ich mal aus:)
 
Okay, geh mal davon aus, dass GK110 sein Tapeout im Januar gehabt hat, von mir aus sogar erste Januarwoche. Glaubst du wirklich, Nvidia hätte überhaupt schon eine Karte auf dieser Basis oder gar Mark Rein, ein Externer? Und das wohl auch nicht erst seit gestern.
Es ist völlig unmöglich, dass die jetzt schon GK110-Karten haben, es wird wahrscheinlich noch nichtmal welche geben, auch nicht bei den Partnern.
 
Okay, geh mal davon aus, dass GK110 sein Tapeout im Januar gehabt hat, von mir aus sogar erste Januarwoche. Glaubst du wirklich, Nvidia hätte überhaupt schon eine Karte auf dieser Basis oder gar Mark Rein, ein Externer? Und das wohl auch nicht erst seit gestern.
Es ist völlig unmöglich, dass die jetzt schon GK110-Karten haben, es wird wahrscheinlich noch nichtmal welche geben, auch nicht bei den Partnern.

Wieso denkst du das? Nur weil irgendwelche Typen behaupten, die dies auch nur behaupten, weil ihre Quellen es behaupten? (xD:d) Ich glaube uns steht eine Überraschung bevor, denn die Zweifel sind wie zu Zeiten vor dem G80-Launch sehr groß und das könnte ein gutes Zeichen sein. Außerdem hat doch DigiTimes berichtet, dass der GK110 im April zusammen mit anderen Kepler-Karten erscheinen soll (also GK107, GK106 usw.)?!?!?



MfG
 
hmm wenn die teile wirklich so viel leisten dann sind jetzige 580er karten ja nur noch mittelfeld und mann kann sie für 150 EUR verscherbeln weil sich dann ja gleich jeder ne 6er kauft.
 
Zwar sieht man bei der BSN-News die Karte nur in Folie verpackt, aber wenn ich mich nicht täusche ist der Lüfter schon ziemlich groß und die Karte schaut auch groß aus.
 
Mhh da scheint ja an dem Gerücht zu Anfang mit GK110 erst Ende des Jahres doch was dran gewesen zu sein ;)

Irgendwie bin ich aktuell leicht unschlüssig. 2xGK104 und sofort Karten haben (wohl dann nächste/übernächste Woche) und eben den langsamen Kepler nehmen. Oder auf GK110 warten, wo dann zwei womöglich 1000€+ kosten werden, dafür aber mit großer Warscheinlichkeit auch gut schneller werden.
So recht schmeckt mir die aktuelle Entwicklung nicht... :heul:

GK104 wird zwar sicher 50-100% auf meine 470er drauf packen im Schnitt. Aber mit 2GB VRAM steh ich mit größter Warscheinlichkeit vor dem selben Problem wie aktuell. Nämlich das für die gehobenen Spielereien der VRAM ausgeht. Die 4GB Version, sofern die kommen wird, wird sicher gut teurer.
Der womöglich weniger große Zuwachs in Sachen TMU, ROP usw. Leistung rundet die Sache nach unten hin nochmals ab... Für ne Mittelklasse/Performance GPU sicher nicht verkehrt. Aber als HighEnd User ist das irgendwie ein Kompromiss, den ich vermeiden will, wenn ich kann :(

Wenn nvidia das Kunststück geschafft hätte so wie vermutet wurde mit der GTX680 bei 700MHz nen Hotcklock zu fahren,sollte AMD lieber schnell wieder ans Werk gehen.

Allerdings stehen die Chancen dazu wohl eher bei nahe Null mit den schon als sicher geltenden 1536 Shaderunits


Ein geshrinkter Fermi mit den Units wäre ein Monster

Neja so genau ist das nicht gesagt...
Fermi als 28nm mit aktuellen ALU Ausbau für GK104 würde zwar brachial in Sachen Shaderpower klingen. Speicherinterface, ROP Power, TMU Power usw. würden aber irgendwie leicht auf der Stelle stehen. Sicher kann man hier die Effizienz leicht steigern, Wunder erwarte ich da aber nicht.
GF100/110 hatte ja schon im Vergleich gezeigt, das man gerade in Sachen TMU Leistung etwas gespart hatte. Was bei Filterlastigen Games mehr Einbruch bedeutete als erwartet.
Bis Games kommen würden, welche wirklich massiv die Mehr ALU Power ausnutzen könnten, würden einige Monate ins Land ziehen... Bis dato ist Kepler dann schon wieder Alteisen.

Zwar hatten wir so eine Situation damals bei G71/R580(+) schon, aber dort waren die Titel auch leicht anspruchsvoller im Vergleich zu Heute... Und krankten nicht an mangelnder Optimierung durch schlechte Konsolenportierung.
 
Fermi als 28nm mit aktuellen ALU Ausbau für GK104 würde zwar brachial in Sachen Shaderpower klingen. Speicherinterface, ROP Power, TMU Power usw. würden aber irgendwie leicht auf der Stelle stehen. Sicher kann man hier die Effizienz leicht steigern, Wunder erwarte ich da aber nicht.
GF100/110 hatte ja schon im Vergleich gezeigt, das man gerade in Sachen TMU Leistung etwas gespart hatte.

Sehe ich auch so. Auf lange sicht gehören die Hotclocks zum alten Eisen und bringen nur Nachteile. Auch wenn man bedenkt das in den nächsten Jahren die 4k Auflösung bei Monitoren anstehen wird muss NV hier was tun.
 
Der EPIC Vize hat gemeint, dass sie mit Kepler (und Code optimierung ihrer Engine) von 1200W auf 200W runter gekommen sind für die selbe Szene. Er nennt in diesem Zeichen auch gleich Kepler und hält eine verpackte "recht kleine" Karte hoch.
Zu sehen auf Golem.de: IT-News für Profis
 
Zuletzt bearbeitet:
Ja, weil 70% dann GTX580+30% sind...wie ich sagte ;)
In Ausnahmefällen wo speziell optimiert wurde vielleicht mehr, aber Ausnahmen findest du ja überall.

Edit:
Welche Übersetzung? Der Thread ist nur eine Seite lang und da steht nix von 70%.
 
Zuletzt bearbeitet:
Der EPIC Vize hat gemeint, dass sie mit Kepler (und Code optimierung ihrer Engine) von 1200W auf 200W runter gekommen sind für die selbe Szene. Er nennt in diesem Zeichen auch gleich Kepler und hält eine verpackte "recht kleine" Karte hoch.
Zu sehen auf Golem.de: IT-News für Profis

Die 200 Watt dürften ziemlicher Quack sein! Evtl Übersetzungsfehler etc., ich finde allerdings nur wenige News wo die 200 Angesprochen werden und hab keine Ahnung wer der Ursprungsverfasser ist.
 
Ja, weil 70% dann GTX580+30% sind...wie ich sagte ;)
In Ausnahmefällen wo speziell optimiert wurde vielleicht mehr, aber Ausnahmen findest du ja überall.

Perf/Watt ist nicht gleich Performance

Man kann eine Karte auf Leistungsniveau der HD3000 bauen mit PErf/Watt auf GTX580+100% Niveau bauen ;)
 
Perf/Watt ist nicht gleich Performance

Man kann eine Karte auf Leistungsniveau der HD3000 bauen mit PErf/Watt auf GTX580+100% Niveau bauen ;)

In dem Fall doch, weil die TDP kaum großartig von der GTX560Ti abweichen wird. Der Turbo hebts vielleicht 10-30W drüber bei Bedarf, das wars aber auch schon. Das ist immer noch eine Midrangekarte ;)

@scully:
Selbst wenn das stimmt, ist es immer noch unwahrscheinlich, dass es so früh Karten gibt. Und ganz ehrlich: Bei den ganzen Vereinfachungen/Optimierungen wäre das für GK110 etwas mager. Die haben ja offenbar nichtmal MSAA verwendet, das allein bedeutet doch ein ordentliches Performanceplus von mehreren 10%.
 
Zuletzt bearbeitet:
Ein Turbo der die TDP anhebt ergibt doch irgendwie keinen Sinn. Ich kann mir eher sowas vorstellen wie bei den CPUs, also wenn ein paar Einheiten brach liegen bekommen die anderen den Saft. Das klingt zwar etwas komplizierter als bei CPUs, aber Sinn würde das schon machen. Dann wären die Unterschiede real (=Spiele) zu worst case (=Furmark) auch nicht mehr so krass.
 
Ja, weil 70% dann GTX580+30% sind...wie ich sagte ;)
In Ausnahmefällen wo speziell optimiert wurde vielleicht mehr, aber Ausnahmen findest du ja überall.

Es wird bestimmt Fälle geben, wo der deutliche Rechenleistungüberschuss seine Vorteile ausspielen wird. 30% höher bei GTX560TI Stromverbrauch sind sogar
eine Verbesserung des Perf/Watt-Verhältnisses zur GTX580 um den Faktor 2.

Wenn man dann überlegt, dass BigK ca. 50% auf GK104 drauflegt, befinden wir uns fast schon in einer Stegerung der Leistung um Faktor 2 gegenüber der GTX580...

Und GK104 steht damit sogar im selben Verhältnis wie GF114 <> GTX285.

Edit:
Welche Übersetzung? Der Thread ist nur eine Seite lang und da steht nix von 70%.

“Kepler” Nvidia GeForce GTX 780 - Page 39
 
Ich würde GK104 nur mit GF114 vergleichen. Da kann man nicht zwangsläufig auf GK110 schließen. Ailuros hat angedeutet, dass die Vorteile zur bis zu einem bestimmten Punkt gehen, sprich GK110 muss für die beibehaltene Computeorientierung ein bisschen bei der Effizienz bezahlen.
 
Ich würde GK104 nur mit GF114 vergleichen. Da kann man nicht zwangsläufig auf GK110 schließen. Ailuros hat angedeutet, dass die Vorteile zur bis zu einem bestimmten Punkt gehen, sprich GK110 muss für die beibehaltene Computeorientierung ein bisschen bei der Effizienz bezahlen.

GK104 ist genauso computeorientiert. Begreift leider niemand...
Es gibt keine Unterschiede in diesem Bereich zwischen GF110 und GF114. Einzig die DP-Unterstützung wurde verschlechtert und ECC rausgekickt. Die grundlegende Architektur ist identisch. Da wird sich auch BigK nicht unterscheiden.
 
Ich weiß aus sicherer Quelle, dass GK110 diesbezüglich mehr kann. Es würde mich verwundern, wenn GK110 dieselbe Perf/W erreichen würde wie GK104.
 
GF110 ist 40% schneller bei ca. 66% mehr Verbrauch. BigK wird diesen Abstand verringern. Immerhin verspricht nVidia eine Verdreifachung der Rechenleistung bei gleichem Verbrauch zu Fermi. Entweder ist GF104 = Kepler oder BigK wird bei ca. 250 Watt nochmal ca. 50% mehr Rechenleistung aufbieten als GK104. Egal wie man es dreht, das Perf/Watt Verhältnis zu GF110 wird mindesten im ähnlichen Bereich ansteigen wie es GK104 gegenüber GF114 macht.
 
DP...nicht Spieleperformance. Ich erwarte keine großartige Verschlechterung, aber GK104 wird die Nase immer noch vorne haben was Effizienz betrifft. So jedenfalls meine Einschätzung.
 
VR_zone hat vor ein paar ja gesagt, dass angeblich die Hotclocks noch vorhanden wären. Geht man davon aus, dass Wizzard in seinem Tool den normalen Clock*2 nimmt, dann könnten die 700MHz stimmen. Die Verbesserung der Leistung um ca. 70% gegenüber GF114 läge dann entsprechend genau dort, wo man sie bei 700MHz einschätzen würde.

DP...nicht Spieleperformance. Ich erwarte keine großartige Verschlechterung, aber GK104 wird die Nase immer noch vorne haben was Effizienz betrifft. So jedenfalls meine Einschätzung.

Das wird wohl alleine aufgrund des Speicherinterfaces passieren. Aber vom Chip her muss dies nicht sein, wenn nVidia diesmal durch die komplette Familie den selben Aufbau führt. Das war nämlich der Hauptgrund, warum GF114 soviel besser war im Perf/Watt Bereich.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh