nVidia GK100/Geforce 6xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
ein großer Sprung soll ja auch erst 2013 mit Maxwell kommen.
Ich rechne etwa mit 15-20% mehr Leistung durch den Shrink und ab März mit komplett neuer Architektur mit weiteren 20% mehr Leistung. Meine Einschätzung.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Sicher waren sie was besonderes, überleg mal, wie lange die 8800 GTX/Ultra Nummer eins geblieben ist. Die anderen genannten Karten habe ich auch alle besessen. Die 29% zur 7950 GX2 stimmen auch nur unter Idealbedingungen und die hatte man früher noch deutlich weniger, als heute.

Was allein darin geschuldet ist, das sich ATI (damals noch allein) ein wenig verzettelt hat mit dem R600 und dieser nicht so wie wohl ursprünglich geplant geworden ist, auf den Markt kam. Mit AMD im Boot hat man kurzerhand die Produktpolitik verändert und anstatt Leistungskrone um jeden Preis einen Gang zurück geschalten und kontert durch besseres P/L und bessere Leistung/Watt.
Dennoch ist der Sprung von Karten der Altgeneration vor DX10 zur 8800GTX nichts besonders. Das kann jeder nachlesen.

Nur mal ein Beispiel. Von HD3870 512MB zur HD4870 512MB sind es bei gleichen Bedingungen (Auflösung/Qualisettings) weit mehr wie 62%... Denn das schafft schon die kleinere und wohl im Schnitt ca. 10-15% langsamere HD4850 512MB. Da war im Groben fast 90-100% Mehrleistung ohne CPU Limitierung drin. (Vorgänger -> Nachfolger)
Und selbst die 480GTX legte zur 285GTX schon 64% (also 2% mehr zu)

Man könnte gar meinen die HD5870 wäre auch so ein Kanditat. Ewig lange ganz oben an der Spitze, ähnlich lange oben mit dabei (und es heute noch)...

natürlich war der g80 was besonderes - Thema unified shader ;)

Und das spielt welche Rolle?
Als nette dreingabe interessiert das den Spieler nahezu gar nicht... Vor allem sind auch heute noch die wenigsten Spiele überhaupt DX10. Nach wie vor gibt DX9 den Wind an. ;)
Nur weil die Spezifikationen es vorschreiben ists noch nix besonderes...

ein großer Sprung soll ja auch erst 2013 mit Maxwell kommen.
Ich rechne etwa mit 15-20% mehr Leistung durch den Shrink und ab März mit komplett neuer Architektur mit weiteren 20% mehr Leistung. Meine Einschätzung.

Welchen Shrink?
Es soll doch nur ein was geben... Also Karten in 28nm. Neue Architektur gibts doch ebenso nicht. Es ist nach wie vor das gleiche in Bund nur etwas aufgebohrt, was wir seit dem G80 sehen...
Ähnlich AMD, die seit dem R600 auf die selben Sachen setzen. Aber mit der HD6970 den Spaß etwas umgemodelt haben. Mit der 7000er Reihe (zumindest was die Top Karten angeht) nun aber nen Architekturwechsel durchführen. Der NV noch bevorsteht...
Wohl dann mit Maxwell... -> und das denke ich nicht vor Mitte/Ende 2013.
 
Zuletzt bearbeitet:
Wie "bevorsteht"? Nvidia trimmt ihre Chips schon seit G80 auf Compute, die haben das alles mehr oder weniger schon hinter sich. Klar, weitere Verbesserungen sind immer drin, aber Nvidia steht da nichts bevor ;)
 
aha, also seit G80 sind wir auf einem Level, aber jetzt nur kleiner in 28nm.
was nennst du dann einen Shrink?
Du glaubst also die Änderung auf 28nm bringt keinen Leistungsschub?
 
.... oder die popligen 29% zur 7950GX2?

Naja, 30% zur Dualversion des Vorgängers sind schon ziemlich übel :coolblue:


Über Kepler und seiner Architektur ist ja bisher noch garnichts bekannt. Keiner weiß ob sie den Weg der Fermi-Architektur weiterhin gehen oder ob sie das ganze schon komplett umkrempeln.

Machen sie das Gleiche weiterhin kann man wohl mit ca. 50%+/- rechnen.
 
aha, also seit G80 sind wir auf einem Level, aber jetzt nur kleiner in 28nm.
was nennst du dann einen Shrink?
Du glaubst also die Änderung auf 28nm bringt keinen Leistungsschub?

Natürlch bringt der Shrink nen Leistungsplus der mitunter in jedem Fall größer ausfallen sollte wie der "Sprung" zwischen 4er und 5er "Generation".


Aber da es eben "nur" ein Shrink ist u zumindestens bei den SIMD Einheiten kein signifikanter Umbau statt findet sollte das relativ überschaubar bleiben.

Fraglich ist dahingehend nur was??? Nvidia für die Tesla und Quadroprodukte bringt denn da hat der Cheffe mehr versprochen in DP Performance wie es ein "simpler" Shrink vermuten lassen würde
 
Zuletzt bearbeitet:
Wie "bevorsteht"? Nvidia trimmt ihre Chips schon seit G80 auf Compute, die haben das alles mehr oder weniger schon hinter sich. Klar, weitere Verbesserungen sind immer drin, aber Nvidia steht da nichts bevor ;)

Neja wenn man so will hast du recht...
Dennoch halte ich den Weg aktuell für früher oder später für eine Sackgasse ;)
Die Effizienz schwindet irgendwie mit jeder weiteren ALU die man dran packt. Und das führt früher oder später zu einer Grenze.
Die PCIe 300W Grenze sprengt man aktuell schon mit den Single GPUs, da hat auch der GF110 nichts dran geändert.
Man erkauft sich seit dem G80 (ausgenommen der G92) die Mehrleistung durch mehr Verbrauch. Wohingegen die Konkurenz das zwar ähnlich macht, aber in deutlich kleineren Schritten.
Von G80 (Verbrauch wohl um die 130W) bis zum G200 gab es ne knappe Verdopplung von Leistung und auch Verbrauch. Und das trotz 90nm G80 zu schlussendlich 55nm G200b. GF1x0 erzielt seine 60-70% mehr, sprengt die 300W Marke.
Bei der Konkurenz schauts anders aus, wo R600 sehr ineffizient war, trotz 80nm schaffte man mit dem RV770 bei weniger Leistungsaufnahme doppelte Leistung. Mit dem RV870 legte man wieder ~60-70% Mehrleistung drauf, bliebt aber unter 200W. Auch wenn hier die letzten VLIW4 GPUs zwar den Verbrauch weiter hoch treiben gibts immernoch ne gehörige Steigerung. Mittlerweile bekommt man gerade in HighEnd Settings mit ner VLIW4 GPU annähernd so viel Leistung wie mit nem GF110, welcher dabei aber an der oberen Grenze zur Leistungsaufnahme arbeitet.
AMD geht nun den nächsten Schritt in Sachen Architektur mit diesen GCN Einheiten. Wo wohl noch nicht 100% klar ist, was überhaupt hinter steckt. Aber ich denke, effizienztechnisch wird das weiter steigen. Wohingegen NV immernoch auf den 1D Einheiten "fest" sitzt.
DIE Größen bestätigen dies ebenso...

Hier wird früher oder später (ich denke mit Maxwell) wohl was getan werden (müssen) in Richtung Vector ALUs.

Naja, 30% zur Dualversion des Vorgängers sind schon ziemlich übel :coolblue:


Über Kepler und seiner Architektur ist ja bisher noch garnichts bekannt. Keiner weiß ob sie den Weg der Fermi-Architektur weiterhin gehen oder ob sie das ganze schon komplett umkrempeln.

Neja gemessen daran, das die R580 GPU schon den G71 als Single GPU mit teilweise fast 50% so schon in den Boden rechnet, wenn Shaderlastiger Code zum Einsatz kommt (beispielsweise Oblivion) ist das nun nicht verwunderlich :fresse:

Zur Architektur, neja es gab ja mal ne Folie über DP Leistung von NV. Da war zumindest Kepler nicht der Ausreißer nach oben. Sondern eher Maxwell. Was in meinen Augen darauf schließen lässt, das sich rein an der Architektur eher wenig ändert.
Auch gibt es aktuell so gar keine Infos, die derartiges als Gerücht streuen, was ebenso darauf schließen lässt, es bleibt beim alten...
Bei AMD gabs ja schon vor ganz paar Monaten die Infos, das sich an der Architektur was ändert. Irgendwo sickert immer irgendwas durch. Aber im Moment ist davon nix zu sehen.
 
Was allein darin geschuldet ist, das sich ATI (damals noch allein) ein wenig verzettelt hat mit dem R600 und dieser nicht so wie wohl ursprünglich geplant geworden ist, auf den Markt kam. Mit AMD im Boot hat man kurzerhand die Produktpolitik verändert und anstatt Leistungskrone um jeden Preis einen Gang zurück geschalten und kontert durch besseres P/L und bessere Leistung/Watt.
Dennoch ist der Sprung von Karten der Altgeneration vor DX10 zur 8800GTX nichts besonders. Das kann jeder nachlesen.

Nur mal ein Beispiel. Von HD3870 512MB zur HD4870 512MB sind es bei gleichen Bedingungen (Auflösung/Qualisettings) weit mehr wie 62%... Denn das schafft schon die kleinere und wohl im Schnitt ca. 10-15% langsamere HD4850 512MB. Da war im Groben fast 90-100% Mehrleistung ohne CPU Limitierung drin. (Vorgänger -> Nachfolger)
Und selbst die 480GTX legte zur 285GTX schon 64% (also 2% mehr zu)

Man könnte gar meinen die HD5870 wäre auch so ein Kanditat. Ewig lange ganz oben an der Spitze, ähnlich lange oben mit dabei (und es heute noch)...



Und das spielt welche Rolle?
Als nette dreingabe interessiert das den Spieler nahezu gar nicht... Vor allem sind auch heute noch die wenigsten Spiele überhaupt DX10. Nach wie vor gibt DX9 den Wind an. ;)
Nur weil die Spezifikationen es vorschreiben ists noch nix besonderes...



Welchen Shrink?
Es soll doch nur ein was geben... Also Karten in 28nm. Neue Architektur gibts doch ebenso nicht. Es ist nach wie vor das gleiche in Bund nur etwas aufgebohrt, was wir seit dem G80 sehen...
Ähnlich AMD, die seit dem R600 auf die selben Sachen setzen. Aber mit der HD6970 den Spaß etwas umgemodelt haben. Mit der 7000er Reihe (zumindest was die Top Karten angeht) nun aber nen Architekturwechsel durchführen. Der NV noch bevorsteht...
Wohl dann mit Maxwell... -> und das denke ich nicht vor Mitte/Ende 2013.

Aha, die GTX 480 legte zur GTX 285 schon 64% zu? Wieso vergleichst du nicht die GTX 295 mit der GTX 480 wie du es mit der 7950GX2 und der 8800GTX gemacht hast? :rolleyes:

Sorry aber manchmal muss ich da auch mal einharken... Der G80 war in vielerlei Hinsicht besonders - 1. wegen der Umstrukturierung der Shader die von jetzt an unabhängig jede Shaderaufgabe bewältigen konnten ohne Vertex/PixelShader Trennung...

2. Das Design - egal ob verzettelt oder nicht gab der G80 mehrere Jahre den Ton an und das hat bisher kein anderes Design erreicht. :wink:

Genauso wie du eine 3870 mit einer 4870 vergleichst - ist zwar ein und dasselbe Design, dennoch wurde bei den 485* so einiges umgekrempelt u.a. die Steigerung von 320 5D Shadern auf 800 5D Shader - alleine das sind ~50% Steigerung, dazu mehr Takt + GDDR5 bei der 70er und mehr Takt bei der 50er... damit ist das ganze schon durch ;)
 
Natürlch bringt der Shrink nen Leistungsplus der mitunter in jedem Fall größer ausfallen sollte wie der "Sprung" zwischen 4er und 5er "Generation".


Aber da es eben "nur" ein Shrink ist u zumindestens bei den SIMD Einheiten kein signifikanter Umbau statt findet sollte das relativ überschaubar bleiben.

Fraglich ist dahingehend nur was??? Nvidia für die Tesla und Quadroprodukte bringt denn da hat der Cheffe mehr versprochen in DP Performance wie es ein "simpler" Shrink vermuten lassen würde

naja, "Sprung" von 4 auf 5er Reihe ist eher gewagt zu sagen. Ich würde es als Finalversion bezeichnen wie er schon von Anfang an hätte sein sollen. Quasi die richtige Fermi GPU.
Die kleinen Kepler-Versionen die zu Anfang released werden stand bis vor kurzem ja noch garnicht fest, dass diese sich schon als Kepler bezeichenen dürfen. Allein der Shrink auf 28nm gibt anscheinend diesem schon das Anrecht darauf, während bis zum Relase des Flaggschiffs keinerlei sonstige Änderungen gemacht werden was Anzahl an Shadern usw und sofort angeht. Der für mich "echte" Kepler hingegen soll dann mit mehr von Allem aufwarten und die Anzahl der GFlops vs Fermi ums 3-fache ansteigen lassen. Für mich der technisch nicht soo bewand ist, klingt das schon nach deutlicher Performancesteigerung.
Nimmt mir das nicht übel das so einfach gestrickt zu sehen. Wichtig ist doch das was letztendlich dabei raus kommt.
 
Aha, die GTX 480 legte zur GTX 285 schon 64% zu? Wieso vergleichst du nicht die GTX 295 mit der GTX 480 wie du es mit der 7950GX2 und der 8800GTX gemacht hast? :rolleyes:
Ich habe top Single GPU und die eine Dual GPU zusammen mit dem G80 verglichen. Nicht mehr und nicht weniger.
Ändert aber nichts an der Tatsache, das Top Single GPU von damals zu G80 eben weniger Leistungsplus brachte, wie es teilweise in anderen Konstellationen zu sehen war. Was ist daran schwer zu verstehen?

Sorry aber manchmal muss ich da auch mal einharken... Der G80 war in vielerlei Hinsicht besonders - 1. wegen der Umstrukturierung der Shader die von jetzt an unabhängig jede Shaderaufgabe bewältigen konnten ohne Vertex/PixelShader Trennung...

2. Das Design - egal ob verzettelt oder nicht gab der G80 mehrere Jahre den Ton an und das hat bisher kein anderes Design erreicht. :wink:
Ganz ehrlich, was kannst du dir davon als Endkunde kaufen, wenn du weist, das man mit DX10 eben Unified Shader eingeführt hat? -> richtig absolut nichts. Man hat vorher mit den Karten gespielt, man tut es heute immernoch. Wie dabei die Arbeit gemacht wird, ist bestenfalls am Rande interessant und trägt absolut nichts zum Endergebnis bei, selbst wenn das Teil nebenbei noch Kaffee kochen würde, wäre es für die Leistungsbetrachtung völlig irrelevant...

Zum zweiten Punkt, wie schon angesprochen, allein durch den Rückzieher von ATI ist diese unerwartet lange Lebenszeit zustande gekommen.
Sollte sich das jemals bei einer anderen Karte wiederholen, das knappe 2 Jahre nach dessen Release immernoch nix signifikant schnelleres auf dem Markt ist, sind wir entweder am Ende der Technik angelangt, oder aber, einer der beiden Konkurenten hat wiederum Bockmist (absichtlich oder nicht) gebaut. Das macht den G80 aber immernoch nicht zu was besonderem...

Genauso wie du eine 3870 mit einer 4870 vergleichst - ist zwar ein und dasselbe Design, dennoch wurde bei den 485* so einiges umgekrempelt u.a. die Steigerung von 320 5D Shadern auf 800 5D Shader - alleine das sind ~50% Steigerung, dazu mehr Takt + GDDR5 bei der 70er und mehr Takt bei der 50er... damit ist das ganze schon durch ;)

Und was sagt uns das?
Richtig, das der reine Performancesprung von G80 zur Vorgänger Top GPU eben doch nicht so besonders war. Wenn das selbst andere Karten, die hier nicht gelobt werden schafften :rolleyes:

naja, "Sprung" von 4 auf 5er Reihe ist eher gewagt zu sagen. Ich würde es als Finalversion bezeichnen wie er schon von Anfang an hätte sein sollen. Quasi die richtige Fermi GPU.
Die kleinen Kepler-Versionen die zu Anfang released werden stand bis vor kurzem ja noch garnicht fest, dass diese sich schon als Kepler bezeichenen dürfen. Allein der Shrink auf 28nm gibt anscheinend diesem schon das Anrecht darauf, während bis zum Relase des Flaggschiffs keinerlei sonstige Änderungen gemacht werden was Anzahl an Shadern usw und sofort angeht. Der für mich "echte" Kepler hingegen soll dann mit mehr von Allem aufwarten und die Anzahl der GFlops vs Fermi ums 3-fache ansteigen lassen. Für mich der technisch nicht soo bewand ist, klingt das schon nach deutlicher Performancesteigerung.
Nimmt mir das nicht übel das so einfach gestrickt zu sehen. Wichtig ist doch das was letztendlich dabei raus kommt.

Das klingt nach verwirrender NV Namenspolitik :fresse:
Etablierte GPUs vllt auch als Shrink unter neuem Namen verkaufen (wie man es mit dem G92 gemacht hat) und die Top Karten mit was neuem ausstatten (wie G200)

Woher stammt die Info mit dreifacher GFlop Ansteigung?
Wenn dem der Warheit entsprechen sollte, dann werden es keine 1D ALUs wie die GF1x0 GPUs haben. Das passt nicht ins Bild. Sondern viel eher Vector ALUs ala AMD. -> für die Praxis sagt das aber leider recht wenig aus...
 
Zuletzt bearbeitet:
@fdsonne:

Also in dem Bereich, der mich interessiert (Highend) ist die Effizienz von AMD schlechter geworden, die von Nvidia besser (ggü. GF100). Hier liegt man fast gleichauf (GTX570 vs. HD6970). Je nach Szenario liegt mal NV (Tessellation) bzw. AMD (hohe Auflösungen) vorne. Im mittleren und unteren Segment sieht es anders aus, aber das große Drama, weshalb Nvidia jetzt dringend handeln muss, sehe ich nicht. Die sitzen beide in einem Boot.

Ich weiß, du spielst gerne Furmark, aber selbst in den forderndsten Spielen sehe ich keine 300W, nichtmal annähernd.
 
@fdsonne:

Also in dem Bereich, der mich interessiert (Highend) ist die Effizienz von AMD schlechter geworden, die von Nvidia besser (ggü. GF100). Hier liegt man fast gleichauf (GTX570 vs. HD6970). Je nach Szenario liegt mal NV (Tessellation) bzw. AMD (hohe Auflösungen) vorne. Im mittleren und unteren Segment sieht es anders aus, aber das große Drama, weshalb Nvidia jetzt dringend handeln muss, sehe ich nicht. Die sitzen beide in einem Boot.

Ich weiß, du spielst gerne Furmark, aber selbst in den forderndsten Spielen sehe ich keine 300W, nichtmal annähernd.

Furmark hin oder her... Es gibt andere Bereiche, wo die GPUs voll ausgefahren werden. Und bekanntermaßen verwenden sowohl AMD als auch NV quasi das gleiche Stück Silizium für die ganze Palette. Ob da nun Tesla/FireStream, Quadro/FirePro/FireGL oder Geforce/Radeon drauf steht, ist doch völlig Banane. Wenn im GPGPU Bereich das Silizium die Topmarke sprengt, muss sich auch der Desktop Bereich unterordnen. Es macht nicht den Anschein, als baue mal in nen nächsten Generationen wieder verschiedene dedizierte GPUs für die einzelnen Bereiche ;)
Und wenn du nun nicht Furmark testest, so stehts immernoch ~245W 580GTX vs. ~205W für die HD6970 und ~150W für die HD6950. Wohingegen sich 570GTX mit knappen 200W einreiht.

Und Fakt ist, unter Volllast sprengt die NV GPU die 300W, und rechnet dabei noch deutlich langsamer als die AMD unter Volllast, welche wohl um die 250W braucht.

Ich würde auch die VLIW4 noch nicht ganz abschreiben, AMD geht den nächsten Schritt, es macht also nicht den Anschein, als wöllte man nun VLIW4 bis ans äußerste Ausquetschen, bzw. hat vllt gar erkannt, das es nicht sonderlich viel besser ist als VLIW5... Vllt gar schlechter.
Vergiss aber auch bei deinem Vergleich nicht, das zwischen HD6870 und HD6950 grobe 15% Leistungsunterschied bei 5% mehr Leistungsaufnahme liegen. Effizienztechnisch gehts also immernoch vorran. Beim Top Modell hat AMD scheinbar auch die VGPU Spannung um ~0,1V nochgetreten um die letzten 80MHz aus dem Cayman zu prügeln :fresse: Was die schlechtere Effizienz auch erklärt zum kleinen Bruder.


Unterm Strich ändert das aber alles nix... Für absolute Volllast Szenarien ist NV aktuell am Maximum mit dem GF1x0 angekommen, wohingegen AMD noch etwas Luft hat.
Der Spielraum indem Kepler agieren kann, ist also ne ganze Ecke kleiner...
Ich hoffe NV tut sich den Gefallen und bringt diesmal nicht nen Beta Fermi um überhaupt was zu bringen sondern gleich den richtigen... 580GTX Leistung + ~40% im Schnitt halte ich für realistisch. Dazu das Speicherinterface aufbohren und 2GB pro GPU bringen. Und ich würd mir zwei von den kleinen HighEnd Keplers reinpacken ;)
 
Zuletzt bearbeitet:
Ich hab da eben einen anderen Standpunkt. Mit einer Geforce spiele ich hauptsächlich, und so beurteile ich sie auch. Was 5% mit ihrer Karte noch so berechnen, interessiert mich dabei nicht wirklich.

Die GTX 580 leistet auch 10-20% mehr als die 6970, da ist der Mehrverbrauch im Grunde gerechtfertigt. Ich sehe nach wie vor kein größeres Problem bei der Effizienz im Highend (Gaming).
 
@fd: Du darfst nicht vergessen, dass die 97er FW zu Release, mit denen er gegen den R580 angetreten ist, die reinste Katastrophe war. Selbst die darauf gefolgten Treiber (100/101) brachten kaum Besserungen hinsichtlich der Leistung und Spiele Kompatibilität. Den richtigen Bums gabs erst mit dem 150er Release und das ist dem R600 nicht gerade entgegen gekommen.

Aber kein Plan was das Ganze mit Kepler zu tun hat. Grundarchitektur hin oder her, es gibt eben noch keine Infos welche Veränderungen es geben wird.
 
Zuletzt bearbeitet:
Zur Architektur, neja es gab ja mal ne Folie über DP Leistung von NV. Da war zumindest Kepler nicht der Ausreißer nach oben. Sondern eher Maxwell. Was in meinen Augen darauf schließen lässt, das sich rein an der Architektur eher wenig ändert.

DP-Leistung ist ein zweischneidiges Schwert. Änderungen an den TMUs zB haben darauf überhauptkeinen Einfluss, können aber in Spielen einige Prozent Performance bringen.

Auch gibt es aktuell so gar keine Infos, die derartiges als Gerücht streuen, was ebenso darauf schließen lässt, es bleibt beim alten...
Bei AMD gabs ja schon vor ganz paar Monaten die Infos, das sich an der Architektur was ändert. Irgendwo sickert immer irgendwas durch. Aber im Moment ist davon nix zu sehen.

Es hat mich eigentlich mehr gewundert das AMD so früh so offenherzig war. Das könnte allerdings auch zur Beschlichtigung der Aktionäre gemacht worden sein weil Bulldozer nicht das geworden ist was AMD sich wohl erhofft hatte.

Das bei NV so wenig nach außen dringt kann mehrere Gründe haben, entweder man hat Lecks gestopft, macht keine großen Änderungen oder Kepler ist einfach noch zu weit entfernt, so das wenige Wissen was da wirklich kommt.
 
Zur Architektur, neja es gab ja mal ne Folie über DP Leistung von NV. Da war zumindest Kepler nicht der Ausreißer nach oben. Sondern eher Maxwell. Was in meinen Augen darauf schließen lässt, das sich rein an der Architektur eher wenig ändert.
Auch gibt es aktuell so gar keine Infos, die derartiges als Gerücht streuen, was ebenso darauf schließen lässt, es bleibt beim alten...
.

Na ganz so beim alten sollte es nicht bleiben während sich Cray bei Fermi noch unentschlossen zeigte beim Aufbau entsprechender Systeme scheint man den Fokus mit Kepler wohl deutlicher auf die Grünen zu legen

http://www.hardwareluxx.de/community/f14/neue-kepler-gpus-nun-auch-cray-supercomputern-851491.html

Das könnte durchaus ein Indiz auf zumindestens adäquate Steigerungen der DP Leistung sein
 
Zuletzt bearbeitet:
Ich hab da eben einen anderen Standpunkt. Mit einer Geforce spiele ich hauptsächlich, und so beurteile ich sie auch. Was 5% mit ihrer Karte noch so berechnen, interessiert mich dabei nicht wirklich.

Die GTX 580 leistet auch 10-20% mehr als die 6970, da ist der Mehrverbrauch im Grunde gerechtfertigt. Ich sehe nach wie vor kein größeres Problem bei der Effizienz im Highend (Gaming).

Was ich oder du mit der Karte machen ist doch auch völlig nebensächlich. Fakt ist, die Karten rollen alle vom selben Band. Und somit entscheiden nicht die in Situation A oder B erzeugten Verbrauchswerte, wie groß man ein Produkt dimensionieren kann. Sondern das absolute Maximum was unabhängig der Situation und unabhängig des Einsatzgebietes erzielt wird deckeln den Spaß.

Und wenn nunmal ein GF1x0 unter Volllast oder im GPGPU Bereich die 300W Marke sprengen. Dann werden wir keine dedizierte Gamerkarte sehen, die noch deutlich mehr ALUs und vllt auch mehr Takt bekommt, weil man im Gamingbereich diese Verbräuche ja nicht erreicht... Das ist doch logisches Denken!?

Wie gesagt, ich würde voll mitgehen, wenn es eine dedizierte Gamerkarte gibt, die auch nur für den Gamermarkt bestimmt ist. Gibts aber nicht, es gibt nur ein einheitliches GPU Konstrukt, welches für zwei bzw. drei Bereiche herhalten muss. Und das wären eben GPGPU, Profi 3D und der Gamermarkt.
Die Vergangenen Generationen bestätigen genau diese Theorie ;)

Wobei NV auch bisschen clever ist, man baut ne Sperre für den Gamermarkt ein um gewisse Anwendungen künstlich zu limitieren um im Schnitt der Gesamtheit mehr Leistung rauszupressen. Aber auch das zeigt eigentlich nur, das man jetzt schon am Maximum arbeitet. Da ist keine Luft mehr nach oben, außer man steigert die Effizienz.

@fd: Du darfst nicht vergessen, dass die 97er FW zu Release, mit denen er gegen den R580 angetreten ist, die reinste Katastrophe war. Selbst die darauf gefolgten Treiber (100/101) brachten kaum Besserungen hinsichtlich der Leistung und Spiele Kompatibilität. Den richtigen Bums gabs erst mit dem 150er Release und das ist dem R600 nicht gerade entgegen gekommen.

Treiber die ca. 6 Monate nach Release der Karten kommen können freilich schneller sein ;) Aber das kann bei jeder Generation passieren. Wie man ja mit jedem neuen Treiber sieht, gibts hier und da ein paar Verbesserungen. Und über nen gewissen Zeitraum steigt auch die Performance. Für den Vergleich (den ich im übrigen nicht losgetreten habe) aber völlig irrelevant...

DP-Leistung ist ein zweischneidiges Schwert. Änderungen an den TMUs zB haben darauf überhauptkeinen Einfluss, können aber in Spielen einige Prozent Performance bringen.

Durchaus, aber dennoch zählt zu einem riesigen Anteil auch die Shaderpower... Zumindest bei halbwegs klarheit über die Architektur kann man einschätzen, wie gut die Teile gehen werden.
So war zum Beispiel von vorne hereich klar, das ein GF100 nicht doppelte Leistung im Schnitt zur 285GTX erziehlen wird, weil ihm einfach der Takt dazu fehlt. Trotz 240 vs. 480 ALUs.
DP sagt zwar noch weniger aus, zeigt aber auch, das bei nicht signifikanter Steigerung die SP Leistung ebenso nicht signifikant steigen wird.

Es hat mich eigentlich mehr gewundert das AMD so früh so offenherzig war. Das könnte allerdings auch zur Beschlichtigung der Aktionäre gemacht worden sein weil Bulldozer nicht das geworden ist was AMD sich wohl erhofft hatte.

Das bei NV so wenig nach außen dringt kann mehrere Gründe haben, entweder man hat Lecks gestopft, macht keine großen Änderungen oder Kepler ist einfach noch zu weit entfernt, so das wenige Wissen was da wirklich kommt.

Was heist früh... Auch in Vorgängergenerationen war Monate vorher zumindest im Ansatz was im Netz unterwegs... Man wusste schon ein knappes halbes Jahr vorher, das der R600 5D ALUs bekommen wird. Konnte damals aber nicht einschätzen, wie gut der Spaß läuft.
Und auch bei den NVs war in der Vergangenheit zumindest Ansatzweise was im Netz zu finden. Da man aber heute aktuell so gar nix hört, scheint es noch nicht fix zu sein, in welchen Regionen man sich bewegt. Ob es architektonische Änderungen geben wird, weis ja auch noch niemand. (beim Cayman war zumindest die Tatsache von VLIW4 eher bekannt als die mögliche Anzahl der ALUs schlussendlich)
 
Durchaus, aber dennoch zählt zu einem riesigen Anteil auch die Shaderpower... Zumindest bei halbwegs klarheit über die Architektur kann man einschätzen, wie gut die Teile gehen werden.
So war zum Beispiel von vorne hereich klar, das ein GF100 nicht doppelte Leistung im Schnitt zur 285GTX erziehlen wird, weil ihm einfach der Takt dazu fehlt. Trotz 240 vs. 480 ALUs.
DP sagt zwar noch weniger aus, zeigt aber auch, das bei nicht signifikanter Steigerung die SP Leistung ebenso nicht signifikant steigen wird.

Dann wirds etwas schwierig.

NV taktet die Tesla Karten immer niedriger als die Desktop Versionen, die dafür halt bei der DP-Leistung beschnitten sind. Die größte Tesla Version Leistet in DP 665 GFlop/s, wenn man davon ausgeht das die Architektur mit 2:1 bei SP:dP skaliert wären das 1330 GFlop/s in SP.

Die GTX 580 kommt auf rund 1581 GFlop/s in SP, um mal nen Verhältnis zu haben.

Jetzt gibt es ja die Angabe für den Superrechner wo man auf ca 1,4 TFlop/s mit Kepler landet wenn mans mal auf einen Chip runterrechnet. Das wäre schon das doppelte von dem derzeitig schnellsten Tesla und das Ding wird wohl aus Teslas bestehen.

Für SP wären wir dann bei 2,8 TFlop/s. Rechnet man das Verhältniss von Tesla zu Geforce wie bisher mit ein, also 1581/1330*2,8, kommen wir auf 3,328 TFlop/s.

Das wäre schon ne verdammte Hausnummer. Dazu kommen noch Performancesteigerungen durch Verbesserungen der Architektur etc und wir wären bei einem unglaublichen Faktor von über 2 bei der Leistung!



ABER:

-Wer weiß ob beim GK nicht das DP:SP Verhältnis geändert wird.
-Wer weiß wieviel Spielraum NV beim Takt und Spannung hat durch Leckströme etc.
-Wer weiß ob die 1,4 TFlop/s stimmen, bei Supercomputern wurde schon immer viel gemauschelt...
-Wer weiß ob NV dort mehr Spielraum beim Stromverbrauch bekommen hat als man es für den Desktop bringen kann (alles über 300 Watt wäre eh außerhalb jeder Spezifikation)
-Wer weiß usw usw usw


Performanceplus von über 100% wären grundsetzlich bestimmt drin. Bisher sind die Hersteller aber nie unter einem solchen Druck beim Verbrauch gewesen und eben dort scheint jeder Fertigungsschritt größere Probleme zu bringen.

Ich denke mal wenn AMD die Radeon raushaut wird man beurteilen können was von Kepler zu erwarten ist. Wird AMD Probleme bekommen, bekommt sie NV sicherlich auch.
 
Woher stammt denn die 1,4TFlop Zahl?
Denn zum einen werden soweit mir bekannt in SuperComputern nicht nur GPUs, sondern auch CPUs in die Leistungsermittlung mit einberechnet, es bliebe also die Unbekannte nach der Anzahl und dem Typ der CPUs.

Zum anderen glaube ich nicht, das NV was am SP:dP Verhältnis ändert, sofern die Architektur nicht umgebaut wurde.
Es liegt also sehr nahe zu vermuten, das weiterhin 2:1 gilt.
Bei den Geforces liegt das Verhältnis glaube ich bei 8:1 wenn ich mich recht entsinne aktuell, aber das ist primär auch ziemlich unwichtig, denn das Verhältnis bestimmt NV selbst um eben den Profikarten keine Konkurenz zu machen. 2:1 SP:dP hingegen limitiert ja aktuell die Fähigkeiten der Ausführungseinheiten selbst. Sprich da muss was anderes ran um auf 1:1 zu kommen (zum Beispiel)

Die damalige Folie zeigte dazu ja auch noch Performance (DP) pro Watt. Und es sieht so aus wie Fermi = 1,75GLops/Watt vs. Keppler = 5,25GFlops/Watt. (wenn man von Symbolmitte grob ausgeht)
Gerechnet auf aktuelle Zahlen macht da sogar ein wenig Sinn. Ich gehe davon aus, Basis für die Folie ist eine GF100 Tesla Karte. Die kommt wohl auf 448ALUs und 515GFlops/s im DP. Unterm Strich stehen dafür rechnerische 294W im Raum.
Bleibt nun die Leistungsaufnahme gleich müssten für Kepler also grob 1545GFlops/s rauskommen im DP. Macht 3090 im SP, bei von mir spekulierten 1,5GHz Shadertakt macht das 1030 1D ALUs ähnlich der von Fermi. (könnten also 1024 in Summe werden)
Andererseits könnte aber auch der Takt höher steigen, auf sagen wir 1,8-1,9GHz, dann wären was um die 820 ALUs nötig...

Ganz unrealistisch ist das denke ich alles nicht... Und ich glaube auch, man geht eher den Weg zu höherem Takt als mehr ALUs.
Der G92 hat ja damals gezeigt, das man auch mit mehr Takt GPUs mit deutlich mehr ALUs nicht so viel unterlegen ist. Und das vor allem die Effizienz in Leistung pro Watt sehr gut ist.
Will man den ca. Faktor 3 Plan mit DP/Watt einhalten, darfs wohl nicht die Brechstangenmethode sein, wie beim Fermi V1 :fresse:
 
Mhh OK, 1,4TFlops pro Kepler Karte wären ja fast das dreifache der Tesla auf GF100 Basis... Das könnte schon passen. Nur ist halt nicht geklärt, wie das beim Verbrauch machbar sein soll.
Die schreiben ja dort von ner kurzzeitig aufgetauchten Meldung, woman meint, das Kepler auf 2012 verschoben sei, wegen zu wenig Leistung... Vllt klapts doch nicht so mit der Effizienz ;)
 
Die Seite (ka wo es her kam) hat das aber später aus den News rausgenommen. Das weiß ich weil mehrere Seiten das aufgegriffen hatten und als Quelle jene News nannten, auf der das aber eben nicht mehr zu lesen war :fresse:
 
wobei aus dem Bericht ja letztendlich nicht hervor geht ob die Zahlen von 20 oder letztendlich doch 30 PFLOPS stimmen.
Bei 20 PFLOPS wäre es immernoch eine Steigerung um das Doppelte und bei 30 PFLOPS verdreifacht sich die Leistung. Das ist auch das was ich aus dem Netz entnommen hatte bei meinem letzten Post als ich von Verdreifachung sprach.

Wenn ich jetzt mal spekuliere die 20PFLOPS als min.und 30 als max. nehmen und NV mit Leistungsproblemchen zu kämpfen hat wird sich letztendlich die Leistung im unteren Drittel davon befinden. Eine Keplerkarte mit 1,05-1,12 TFLOPS wäre immernoch grandios.
 
Eine Frage mal nebenbei, habe nicht den ganzen Thread gelesen ;), weiß jemand was über die Quadros/Teslas, nur so neben bei.

Allg: Wenn man die Leistungsdaten einer GTX 590 vs Quadro 6000 anguckt, kackt die Quadro ja ab oder..??.. Sorry für den OT, klar das die Quadros auf den 400er Chip basieren .... ich frage mich echt:

Warum rüstet nvidia die Karten im Consumerbereich schneller auf als im Pro-Bereich, das gleiche gilt auch für die Tesla, weil:

Wenn jemand Leistung brauch würde ich statt einer "teueren" Quadro eine GTX 590 in die Workstation stecken....oder wie seht ihr das.


EDIT/OT bischen aber evlt interessant:

Nach div. belesen zum Thema: NVIDIA Multi-OS, ist mir echt der Gedanke gekommen das umzusetzen, wozu hat ne Graka soviel power. Das wäre doch eine feine Sache ->> Die OS via GPU zu virtualisieren, z.b VMWare.....
 
Zuletzt bearbeitet:
Ich glaube du solltest dich erstmal nen bisschen über die Quadros und Teslas informieren und herrausfinden wo deren stärken liegen bevor du sowas schreibst ;)
 
Wenn dir das bewusst ist, dann weist du sicher auch, das in Anwendungen die ordentlichen Support der Profikarten haben, diese auch trotz deutlich weniger Leistung auf dem Papier die Desktop Modelle um längen abziehen.
Mal ganz davon ab, ne 590GTX ist ne Dual GPU Karte, die genannte Quadro 6000 aber nicht ;)
Wenn du Power willst, kauf Tesla im Quadpack.
 
würde mich mal interessieren wie die beim Gaming abgehen.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh