NVIDIAs "Kepler" GK104 soll im März kommen

Wobei der Leistungssprung mit Fermi und Cypress deutlich höher war und der Aufpreis zum UVP fast 1:1 war.
Die GTX480 ist 75% schneller als die GTX285 und kostete 85% mehr beim Start.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nein. Der langsame Grafikkarten Markt kommt von den immer kleiner werdenden Leistungssprüngen und nicht von den immer größer werdenden Anforderungen. Welche Anforderungen überhaupt? Konsolenport sei Dank. Und wenn du dir 2009 eine 5870 gekauft hättest, dann hättest du bis heute und in absehbarer Zeit (bis zur nächsten Konsole) Ruhe gehabt.

Ich denke er meint eher die Tatsache, das es vor 10 Jahren noch so war, das du wirklich den Optikzuwachs massiv gesehen hast und somit die Mehrleistung von ner neuen Karte auch direkt in mehr Optik geendet hat, die man benötigte um diese Optik zu erreichen. Und damit hat er nicht ganz unrecht. Wenn es heute Leistungsprünge gibt, sind diese zwar womöglich kleiner, dem Endkunden fält der Optikzuwachs aber weit weniger auf, als es eben noch vor 10 Jahren mit nem ähnlichen Leistungssprung zu sehen war.

Das es auch ordentlich Leistungssteigerung geben kann, sah man beispielsweise an ner HD5870 zum Vorgänger. Oder eben ner 480GTX. Nur sind wir gerade eben bei NV mittlerweile an dem Punkt, das man die aktuelle Steigerung der Mehrleistung nicht mehr durch mehr Verbrauch erkaufen kann, weil die Grenze von 300W immernoch in Stein gemeiselt steht. Die Sprünge werden also zwangsweise etwas kleiner. Oder die Hersteller zaubern was wirklich gutes auf den Markt. Was sich aber leicht schwer gestaltet, wenn der Vorgänger ebenso schon sehr gut war ;)
Dazu kommt, das sich die Fertigungsverfahren immer mehr Zeit lassen, bis es nen neuen/kleineren gibt. Das kommt dem auch noch zu ungunsten. Ich behaupte, vor 2014 wird es nix geben, was signifikant schneller als kommender Kepler in Big ist... Mit dem nächsten Prozess wird diese Steigerung von nunmehr fast zwei Jahren wohl sogar noch länger werden.
 
Man muss sich auch vor Augen führen, dass jedes mal der Stromverbrauch gesteigert wurde. Wem das egal ist, dann ist ok, aber jemand muss damit einfach anfangen, sonst hat man nie einen Fortschritt in dem Gebiet.
 
Man muss sich auch vor Augen führen, dass jedes mal der Stromverbrauch gesteigert wurde. Wem das egal ist, dann ist ok, aber jemand muss damit einfach anfangen, sonst hat man nie einen Fortschritt in dem Gebiet.

Bis zu nem gewissen Grad ist das ja nicht unbedingt so tragisch. Gerade weil im HighEnd Gaming Bereich der Volllast Stromverbrauch nicht unbedingt so extrem wichtig ist... Solange der idle Stromverbrauch im Rahmen bleibt. Viel problematischer ist da eher, das durch zu hohen Volllastverbrauch die Karten nicht mehr mit Luft kühlbar sind oder eben der Aufwand für die Kühlung enorm wird.
Gerechnet aufs Jahr bei normaler Spielzeit sind beispielsweise 50 oder 100W mehr Verbrauch unter Volllast eigentlich nur ein Tropfen auf den heißen Stein, was man an Mehrstromkosten haben würde... Wer natürlich mit den Karten irgendwelchen "Müll" 24/7 berechnen lässt und somit den Stromversorger das Geld in den Hals schmeißt, dem ist irgendwie sowieso nicth zu helfen :fresse:
 
7970 mit 10fps mehr Leistung in Crysis, also bei 150+ fps 10fps mehr ist schwach. Ist ja kein Leistungszuwachs, aber wenn die Konsolen den Pc Markt so aufmischen, macht man nicht viel mit.

Ich würd nur gern wissen welcher Preis jetzt stimmen mag, laut pcgh war ja eine 660ti um die 300€ angesiedelt, vl. heisst das die 670ti kommt auf 400€. Das wär nix.
 
Das es auch ordentlich Leistungssteigerung geben kann, sah man beispielsweise an ner HD5870 zum Vorgänger. Oder eben ner 480GTX. Nur sind wir gerade eben bei NV mittlerweile an dem Punkt, das man die aktuelle Steigerung der Mehrleistung nicht mehr durch mehr Verbrauch erkaufen kann, weil die Grenze von 300W immernoch in Stein gemeiselt steht. Die Sprünge werden also zwangsweise etwas kleiner.

Das ist ein Irrglaube. Die Sprünge können sogar in Zukunft zunehmen, da die Firmen erkennen, dass Leistung nun nicht mehr nur durch einem Shrink und mehr Stromverbrauch zu realisieren ist.

Deswegen redet doch nVidia die ganze Zeit von "Power constraint". Und trotzdem streben sie an, dass die Leistung sich mit Kepler in Bereich der Rechenleistung verdoppelt bis fast verdreifacht.
 
Die GTX480 und die 5870 waren ja auch noch ok. Die sind aber mittlerweile auch über 2 Jahre alt, das darf man auch nicht vergessen.

Ich glaube man behält absichtlich Leistung in der Hinterhand um sie bei den neuen Konsolen an den Mann zu bringen. Mehr Leistung braucht man zur Zeit auch nicht. Warum dem Kunden auch mehr verkaufen? Das Problem ist nur das der Kunde dann auch nicht von selbst ankommt und neues kauft. Wegen dem Verbrauch wird sicherlich kaum jemand wechseln.

Auch sieht man an den Konsolen, dass durch Optimierung viel mehr rauszuholen wäre. Will man aber nicht.
 
Neja, so viel optimieren wie bei den Konsolen geht ja gar nicht bei der Vielzahl an verschiedenen möglichen HW Kombinationen beim PC. Das ärgert mich am PC eigentlich am meisten... :(

Denke jedenfalls nicht dass das mangelndes "wollen" ist !
 
Ich glaube ich habe dich missverstanden. Meinst du "optimieren" im Sinne von BQ oder im Sinne von Performance ??
 
Das ist ein Irrglaube. Die Sprünge können sogar in Zukunft zunehmen, da die Firmen erkennen, dass Leistung nun nicht mehr nur durch einem Shrink und mehr Stromverbrauch zu realisieren ist.

Deswegen redet doch nVidia die ganze Zeit von "Power constraint". Und trotzdem streben sie an, dass die Leistung sich mit Kepler in Bereich der Rechenleistung verdoppelt bis fast verdreifacht.

Dann lies mal richtig...
Dort geht es keinesfalls um absolute Rechenleistung, noch dazu im Bereich double precision, und das bringt den Gamer kein einziges Stück vorran ;) Für Kepler prognostiziert man wohl aktuell das 2,5 fache der DP Leistung von Fermi pro Watt. Das sagt aber lange nix drüber aus, wie die Karten in Summe überhaupt abgehen. Fermi Tesla zieht ca. 500GFlops/s DP aus knappen 225W. Das könnte also bedeuten, das es Kepler mit 1,5TFlops/s bei 225W gibt, oder aber genau so könnte es beispielsweise bedeuten, das man aus 100W dann 555GFlops/s rausholt und die Karten drüber ganz weg lässt.

Die GTX480 und die 5870 waren ja auch noch ok. Die sind aber mittlerweile auch über 2 Jahre alt, das darf man auch nicht vergessen.

Es sind halt jeweils die ersten neuen Karten in 40nm... Genau so wird zumindest Kepler in 28nm wohl auch nach oben Punkten, dann wird bis 20/22nm (2014) wieder für ne lange Zeit die Luft raus sein und man hält sich bestenfalls mit nem kleinen Minirefresh auf dem laufenden. Signifikant mehr Leistung ist da aber nicht zu erwarten.

Bestenfalls sowas, wie du mit dem DX10 zu 10.1 Vergleich gezeigt hast. Aber das wäre mit nahezu jeder neuen DX Version möglich gewesen (gerade der Schritt DX9 auf 10)
Das Problem ist aber einfach, bis das ganze mal zum tragen kommt, vergehen oft Monate, wenn nicht gar Jahre, weil einfach erstmal die Marktdurchdringung der Hardware von nöten ist... Die Spieleentwickler gehen somit Kompromisse ein, welche eben weniger Leistung für die gleiche Optik bedeutet. Eigentlich ist das ein Teufelskreislauf... Ohne Hardware, keine neuen DX Versionen bei den Games, ohne neues DX aber auch keine Leistungssteigernden Features. Und ohne das, bleibt die Optik liegen ;)
Optimierungspotential ist wie du schon sagtest genug da... Nur setzt sich eben niemand hin und macht das für lau ;) Ich denke, der Aufwand den Programmcode wirklich massiv auf Performance zu trimmen ist viel extremer als einfach etwas Optik wegzulassen oder eben Sachen so zu drehen, das sie eben nur mit HighEnd Hardware laufen. Dafür kann der Programmierer seine Games verkaufen und bekommt auch Kohle... Für die Optimierungen bekommt er nix, außer das es Zeit kost ;)

Ich glaube ich habe dich missverstanden. Meinst du "optimieren" im Sinne von BQ oder im Sinne von Performance ??

Das eine schließt das andere ja nciht aus... Mehr Performance bei gleicher Optik bietet mehr Luft für mehr Optik und umgekehrt...
 
Zuletzt bearbeitet:
Dann lies mal richtig...
Dort geht es keinesfalls um absolute Rechenleistung, noch dazu im Bereich double precision, und das bringt den Gamer kein einziges Stück vorran ;) Für Kepler prognostiziert man wohl aktuell das 2,5 fache der DP Leistung von Fermi pro Watt. Das sagt aber lange nix drüber aus, wie die Karten in Summe überhaupt abgehen. Fermi Tesla zieht ca. 500GFlops/s DP aus knappen 225W. Das könnte also bedeuten, das es Kepler mit 1,5TFlops/s bei 225W gibt, oder aber genau so könnte es beispielsweise bedeuten, das man aus 100W dann 555GFlops/s rausholt und die Karten drüber ganz weg lässt.

225 Watt ist die Maximalgrenze für Tesla und Quadro. Weniger wird es nicht werden, weil es kein Sinn macht. Platz- und Kostengründe sprechen dagegen. 1,5TFlops/s DP entsprechend 3 TFLOPs/s SP und das ist mehr als doppelt soviel zur GTX570 mit einer TDP von 225 Watt.
 
Das mag ja in der Theorie auch stimmen... Nur was leistet die GPU in Games?
G200b hat fast genau so viel SP Leistung wie ne 470GTX... letztere ist aber weit mehr schneller ;) Noch sinnfreier wird der Vergleich zu AMD, da ist die reine Shaderpower im Vergleich noch brachialer...

Nimmt man sich jetzt mal ein Furmark, zeigt sich recht gut, welche GPU mit seinen ALUs mehr oder weniger Arbeitet. Die Tahiti XT GPU legt enorm viel in Sachen Verbrauch zu, im Vergleich zu normaler Gaminglast. Es liegt offensichtlich auf der Hand, das die ALU Power in Games weit weniger ausgefahren wird. Offensichtlich, weil es an anderen Stellen schneller zu Flaschenhälsen kommt. Schaut man nun zu NV, Fermi legt auch ziemlich zu im Verbrauch, aber im Verhältnis weniger als Tahiti zum Beispiel.
Unterm Strich muss sich hier Kepler beweisen. Die ALU Power nutzt nix, wenn der Rest "zu kurz" kommt... Zumindest GK104 könnte schnell an seine Grenzen kommen und gerade dort, wo es interessant wird, mehr Rohleistung zu haben, beispielsweise an TMU oder Speicherbandbreitenpower kranken...
GK110 wird es womöglich dort deutlich besser machen, nur zu welchem Preis? Womöglich wieder ~300W ;) Was die ganze Effizienzgeschichten wieder unsinniger macht. Und es ist nicht klar, wie viel ALUs nun GK110 in Summe haben wird. Aktuellen Gerüchten zur Folge steigt aber womölicht die Speicherbandbreite um bis zum doppelten, die ALUs aber nur um 50% wenn das stimmt.
 
Wer natürlich mit den Karten irgendwelchen "Müll" 24/7 berechnen lässt und somit den Stromversorger das Geld in den Hals schmeißt, dem ist irgendwie sowieso nicth zu helfen :fresse:

Von einem Moderator hätte ich eine gewähltere Ausdrucksweise erwartet. :hmm:

Keiner rechnet auf seinen Grafikkarten "Müll", sondern das wissenschaftliche Projekt, das er für sich am sinnvollsten hält. Provokant könnte es man doch so betrachten: Spielen verbrennt Energie und liefert, außer ein wenig Freude für den Spieler, nichts. Distributed Computing kann bei richtiger Auswahl des Projekts einen Fortschritt und einen Wissenszuwachs für die Menschheit bedeuten. Aber wir können hier auch eine Grundsatzdiskussion über den Sinn von Grundlagenforschung führen. Ist nur leider off-topic...

@topic: Es bleibt doch wie immer abzuwarten, was die einzelnen Spieler im Business bringen. Es ist NVIDIA zu wünschen, dass ihr Produkt konkurrenzfähig ist, denn nur Konkurrenz belebt das Geschäft...
 
Richtig das ist ne Grundsatzdiskusion, dennoch halte ich das für absoluten quatsch, da nichtmal im Ansatz klar ist, ob die gerechnete Leistung überhaupt irgendwo für irgendwas zu nutze ist... Was der Moderationsposten damit zu tun haben soll, ist mir schlicht schleierhaft. Nur weil man Mod ist, muss man alles gut finden!? Übrigens steht "Müll" in Anführungsstrichen, was das ganze dazu noch leicht ironisch erscheinen lassen soll... Das :fresse: Smiley dahinter verdeutlicht es nur noch einmal... :rolleyes:
 
Das mag ja in der Theorie auch stimmen... Nur was leistet die GPU in Games?
G200b hat fast genau so viel SP Leistung wie ne 470GTX... letztere ist aber weit mehr schneller ;) Noch sinnfreier wird der Vergleich zu AMD, da ist die reine Shaderpower im Vergleich noch brachialer...

Das liegt daran, dass die GTX470 weitaus mehr MAD-Rechenleistung besitzt. Zwar konnten G80-GT200b GPUs 3 FLOPs per Takt pro Core berechnen, aber es ist sehr schwierig überhaupt nur unabhängige MUL-Operationen in den Warp zu packen. Die realistischere Anzeige wäre also Rechenleistung * 2/3 bei GT200b.

Nimmt man sich jetzt mal ein Furmark, zeigt sich recht gut, welche GPU mit seinen ALUs mehr oder weniger Arbeitet. Die Tahiti XT GPU legt enorm viel in Sachen Verbrauch zu, im Vergleich zu normaler Gaminglast. Es liegt offensichtlich auf der Hand, das die ALU Power in Games weit weniger ausgefahren wird. Offensichtlich, weil es an anderen Stellen schneller zu Flaschenhälsen kommt. Schaut man nun zu NV, Fermi legt auch ziemlich zu im Verbrauch, aber im Verhältnis weniger als Tahiti zum Beispiel.
Unterm Strich muss sich hier Kepler beweisen. Die ALU Power nutzt nix, wenn der Rest "zu kurz" kommt... Zumindest GK104 könnte schnell an seine Grenzen kommen und gerade dort, wo es interessant wird, mehr Rohleistung zu haben, beispielsweise an TMU oder Speicherbandbreitenpower kranken...
GK110 wird es womöglich dort deutlich besser machen, nur zu welchem Preis? Womöglich wieder ~300W ;) Was die ganze Effizienzgeschichten wieder unsinniger macht. Und es ist nicht klar, wie viel ALUs nun GK110 in Summe haben wird. Aktuellen Gerüchten zur Folge steigt aber womölicht die Speicherbandbreite um bis zum doppelten, die ALUs aber nur um 50% wenn das stimmt.

Fermi wird einzig durch Rechenleistung limitiert. Wenn nVidia mehr Rechenleistung in den Chip "packt", gibt es auch gleich deutlich mehr Leistung. Siehe auch GF100 zu GT200b.
 
Das gleiche gilt aber auch für jede andere Karte ;) du musst nur die richtigen Berechnungen auf die Einheiten packen, dann skaliert das extremst...
Und zum ersten, mir ist durchaus bewusst, warum G200 so und so viel GFlops/s erreicht, es ändert aber nix an der Tatsache, das dies eben "werfen" mit nakten theorie Zahlen ist... Da kann Kepler noch so gut dastehen, unterm Strich zählt das, was hinten raus kommt. Und hier steht im Moment alles noch in den Sternen. Vor allem aufgrund der Tatsache, das niemand so recht einschätzen kann, wie gut die Kepler ALUs agieren werden, wenn ihnen der HotClock fehlt. Vielleicht sehen wir schlicht und einfach "nur" ähnliche Ergebnise wie AMD? Aktuell weis das niemand so genau von uns... ;)
 
Das gleiche gilt aber auch für jede andere Karte ;) du musst nur die richtigen Berechnungen auf die Einheiten packen, dann skaliert das extremst...
Und zum ersten, mir ist durchaus bewusst, warum G200 so und so viel GFlops/s erreicht, es ändert aber nix an der Tatsache, das dies eben "werfen" mit nakten theorie Zahlen ist...

Und das ist eben ein Problem: Eine unabhängige MUL zu finden, die im selben Abarbeitungszeitraum stattfindet, ist einfach sehr schwierig. Deswegen sind Fermi-Karten auch deutlich schneller, trotzdem die theoretische Rechenleistung nicht viel höher liegt.

Da kann Kepler noch so gut dastehen, unterm Strich zählt das, was hinten raus kommt. Und hier steht im Moment alles noch in den Sternen. Vor allem aufgrund der Tatsache, das niemand so recht einschätzen kann, wie gut die Kepler ALUs agieren werden, wenn ihnen der HotClock fehlt. Vielleicht sehen wir schlicht und einfach "nur" ähnliche Ergebnise wie AMD? Aktuell weis das niemand so genau von uns... ;)

Die Kepler-ALUs werden genauso agieren, wie die von Fermi. Grafik-Aufgaben und Compute-Berechnungen sind hoch parallelisiert.
Und dank dem Front-End Umbau bei Fermi gibt es nun auch keine Limitierung vor dem Rasterizing, was dazu führt, dass nirgendwo ein Flaschenhals mehr entsteht.

Oder anders gesagt: Mehr Rechenleistung, mehr Spieleleistung. ;)
 
Ist das so? Ich sehe Fermi im Vergleicih zu den AMD Karten in dicken Settings (genau dafür sind HighEnd Karten in meinen Augen da) teils ziemlich heftig einbrechen im Vergleich ;)
Im Moment spekuliert man ja mit GK104... Welcher eben über massiv mehr ALU Power verfügen soll, in Sachen ROPs, TMUs, SI usw. könnte der Schritt aber weit weniger ausgefallen werden. Wenn das Teil Bandbreitenlimitiert ist, nutzt die ALU Power genau gar nix :fresse:

Wie gesagt, in der Theorie sollte vieles so sein, in der Praxis zeigt sich oft ein anderes Bild.
 
Experience The DirectX 10.1 Difference - YouTube

Mann was ist das komisches, schau mal Battlefield 3 an, was man mit Tesselation machen kann wie in Caspian Border oder Golf of Oman, wo die Welten nach hinten gehen mit Lavaberge oder Häusersiedlungen, das ist Tesselation.

Dieses Dx10.1 Murks Video da ist ja mit 480p gar nichts zu erkennen. Manche Leute sind irgendwie komisch.
 
Ich glaube in dem Video ging es nicht darum, ob DX10 oder DX10.1 besser aussieht, sondern dass man bei gleicher o. besser Optik in DX10.1 mehr FPS hat.
 
Mann was ist das komisches, schau mal Battlefield 3 an, was man mit Tesselation machen kann wie in Caspian Border oder Golf of Oman, wo die Welten nach hinten gehen mit Lavaberge oder Häusersiedlungen, das ist Tesselation.

Dieses Dx10.1 Murks Video da ist ja mit 480p gar nichts zu erkennen. Manche Leute sind irgendwie komisch.

Es ging viel eher darum, das man den Unterschied in Sachen FPS Zahlen (die man zweifelsfrei erkennen kann) zwischen DX10.0 und DX10.1 erkennt ;) Und das bei gleicher Optik durch optimierten Code mit DX10.1 ganz paar mehr FPS auf gleicher Hardware zu sehen sind. Such mal nach dem Video, da gibts auch welche mit höherer Auflösung ;)
 
Aso, ja ok, habs nicht verstanden weil er was von tesselation dazugefasselt hat.

Btw. La Noire hat ja durch dx11 patch auch mehr fps bei gleicher Optik.
 
20-25% nicht gerade wenig. Da ist der Sprung GTX480 -> GTX580 viel kleiner. ;)
Bringt dx11.1 etwas in diese Richtung?

Jedes DX bringt sowas in der Richtung. Man bekommt gleichwertige Optik bei teilweise enorm weniger Rechenaufwand. Das Problem ist nur, du brauchst eben Hardware dazu ;) Ohne Hardware nutzt dir das nix. Und einen Patch im Nachhinein zu bringen ist auch denke ich die Ausnahme, einfach weil die Leute dort Aufwand reinstecken ohne was für zu bekommen... Das kann sich nicht jeder leisten.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh