nVidia GK100/Geforce 6xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
1536 ist aber 3x soviel wie ne GTX580 hat, nicht nur doppelt. Zusätzlich wäre der Takt höher. Da kommt man auf gut doppelte Rechenleistung.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Eine Theorie bzgl. des PhysX-Krams:

PhysX 3 mit vollem Multicore-Support, perfekt optimiert auf aktuelle CPUs.
All diese Optimierungen aktiv, wenn eine Kepler/Nvidia-GPU im System steckt, sonst aus?

Denkbar? Ich würde es Nvidia zutrauen.

Braucht man dafür ne neue PhysX Version?
Das ist doch alles nur marketing schöngequatsche.

PhysX läuft seit der ersten Version nahezu perfekt Multithreaded, wenn man will.
Was im Grunde in der Natur der Physikberechnung liegt, weil man einfach nahezu alles auf einzelne Threads verteilen kann.
Nur wenn der Hersteller der Engine künstlich die Handbremse rein haut, nutzt mir das als Endkunde absolut gar nix.
NV fährt nahezu 1:1 den Weg von Ageia weiter. Die wollten damals ihre Engine zusammen mit der Hardware am Markt etablieren. Was mehr oder weniger misslang, einfach weil ohne Games niemand die Hardware kauft und ohne Hardware niemand per Programmierer sich hinsetzt um die Engine derart zu implementieren.
NV hat hier aber den riesigen Vorteil, das per se schon einmal grob 50% aller diskreten Spielerkarten PhysX GPU tauglich sind. Nur wer ne kleine Mittelklasse GPU vllt noch aus der Vorgängergeneration sein eigen nennt, braucht heute schon alle GPU Power um überhaupt die Games mit ordentlichen Details auf den Schirm zu bringen. Zusätzliche Belastung passt da nicht mit rein. Das Konzept geht bestenfalls im HighEnd Bereich auf.

Ich denke hier muss sich NV etwas lösen, sonst wird PhysX weiter ein Nieschendasein fristen.

Denkbar wäre so ein Schritt natürlich dennoch. Das hat NV durchaus in der Vergangenheit schon gezeigt.
Ob der Markt das annimmt, ist allerdings fraglich. Man sieht ja nicht erst seit heute, das die PhysX GPU Games quasi NV sponsored sind. ;) Von allein kommen scheinbar die Programmierer nicht drauf, PhysX via GPU einzubauen.
Und wie man schön am ersten Batman sieht, aktives GPU PhysX bringt mindestens zwei Cores einer CPU zu ordentlich Auslastung, ohne GPU PhysX läuft auf wundersame Weise nur ein einziger. Selbst wenn ne Hexacore CPU + SMT drin schlummert. Und die CPU selbst hätte spielend genug Reserven um die PhysX Berechnungen abzuwickeln. PhysX Benches zeigen, das schnelle Quadcore CPUs selbst mit Performance Klasse NV Karten rein in Sachen PhysX Performance durchaus mithalten können. Was wiederum auch für die Effizienz der GPU Implentierung spricht.

GK104 und GK110 ;) Abgesehen davon, könnte es genauso gut 384 Bit bei 3 GiB sein beim GK110. Die riesige Bandbreite wird ja sowieso nicht ausgereizt ;)

Oh, mein Fehler :fresse:
Ja könnten auch 384Bit sein, denke ich aber nicht, ich glaube NV dreht wieder richtig auf. Vorteil auch im Bezug auf den Profibereich. Mit 384Bit SI wären wieder "nur" 6GB VRAM drin. Mit 512Bit könnte man auf 8GB erhöhen ;)
Da es all in one Karten werden. Sprich alle Marktbereiche mit einem Design erschlagen werden, und der Profibereich bzw. GPGPU Bereich immer wichtiger wird, wäre es in meinen Augen ein logischer Schritt.

Wie kommst du darauf? Wenn der Hotclock wegfällt, könnten sie die Cuda-Cores selbst evtl. stark verändert haben.
Wenn das Ding so wie Fermi performen würde, wäre schon GK104 ohne Bandbreitenlimitierung mindestens 50% vor der GTX580. Das wäre...schnell :d

Klar könnte sie das. Es bleibt aber wohl bei einem MADD pro Takt pro ALU. Da bleibt so viel Spielraum zum Optimieren selbst nicht.
Was natürlich sein kann, das die Effizienz der Einheiten selbst anders ausfällt. Die Vergangenheit zeigte aber, das NV hier seit dem G80 nicht sonderlich viel schritte nach vorn machte. Mal abgesehen vom Streichen des MUL beim Fermi.
Ansonsten, ja, die Shaderperformance wäre brachial. Aber die bei AMD ist spätestens seit RV770 im Vergleich zu NV auch brachial. Nur kommt die in Games nur auf dem Papier brachial rüber. Mit 32 ROPs und womöglich besagten 64+TMUs müsste das Teil mit dem Takt und dem ALU Ausbau extrem gut performen. Sonst wäre es im Vergleich zur 580er ineffizient sondersgleichen. ;)

1536 ist aber 3x soviel wie ne GTX580 hat, nicht nur doppelt. Zusätzlich wäre der Takt höher. Da kommt man auf gut doppelte Rechenleistung.

Rein auf die ALUs bezogen ja. Aber auch Fermi hatte ja ALU technisch ordentlich was zu bieten. In riesigen Auflösungen, mit viel AA usw. brach man aber im Vergleich zu AMD ordentlich weg. TMU Leistung zum Beispiel war eher mau und zeigte auch in Filterbenches dort leichte defizite. Vllt drosselt hier NV auch künstlich um solide Gamingperformance zu bringen und die ALUs in Sachen GPGPU/Profibereich weit auszufahren.
Übrigens, schaut man sich die Folie von damals an. Steht nach wie vor eine Steigerung von grob dreifach in Sachen DP/Watt im Raum. Aktuelle Tesla GPUs mit vollen 512 ALUs schaffen wohl was im Bereich 700GFops/s bei 250W+. Das würde bedeuten. Wir bräuchten ne Karte, welche hier ~2TFlops/s in DP schafft. GK110 würde sowas denke ich schaffen können. Mit dem GK104 würde es aber nicht langen. Das wäre wohl ca. ne Verdopplung der DP Performance. Da fehlt also noch einiges, was in Sachen Leistungsaufnahme runter müsste.
 
1536 ist aber 3x soviel wie ne GTX580 hat, nicht nur doppelt. Zusätzlich wäre der Takt höher. Da kommt man auf gut doppelte Rechenleistung.


wo werden den 1536 Cores beworben, wenn der GK110 aka 680 nur 1024 haben soll
 
Wobei wenn man sich das richtig überlegt. Vllt ists ein Mix aus beiden.

Ich mein, ohne Hotclocks könnten 1536 ALUs im GK110 mit ordentlich Takt (1,1GHz+), 384-512Bit SI und 3-4GB VRAM, 48-64 ROPs sowie 96 TMUs schon besagte ~50+% vor ner 580er liegen.
Der kleine GK104 mit 768 ALUs, ähnlichem Taktraten, 256Bit SI mit 2GB und 32 ROPs sowie 48 TMUs wäre ähnlich 580er Niveau. 50% mehr ALUs, ~50% mehr Basis GPU Takt, dafür keine Hotclocks. Weniger Bandbreite und ähnliche TMU/ROP Leistung könnten eine starke Mittelklasse Karte zeigen.

Was meint ihr?
Wenn man noch weiter denkt. AMDs Tahiti XT kommt auf 20-30% vor der 580er je nach Settings. Die GK110 GPU im Vollausbau könnte hier per default nochmal mindestens ~20% drauflegen. Und somit wäre NV wiedermal in der Möglichkeit die Taktraten und Spannungen in ein gesundes Maß zu drücken, damit es immernoch solide ausreicht, was schlussendlich der Effizienz zugute kommt.

Vllt sehen wir auch nur einen GK110 mit 1440 oder 1488 ALUs. Und NV hebt sich die letzte Ausbaustufe Fermi like für einen möglichen Refresh und für einen Möglichen Konter von AMD über ein Modell mit sehr hohen Taktraten auf? Was anfangs dazu noch der Yieldrate zugute kommen sollte und somit die Ausbeute der HighEnd GPUs verbessert.
 
Zuletzt bearbeitet:
ich bleibe dabei

GTX 680 hat gemäß der Vergangenheit ne Shaderverdopplung, also 1024, ohne große Umbauten im Bezug auf 1D/Variable Arithmetik

wenn der Hotclock wegkommt, dann sind die 1024 soviel wie ne 580 512 @ 1500, dann hat sie vielleicht 10-20% gegenüber der 580
bleibt der Hotclock klassisch, wie bisher auch, wird die 680 eine 590/Mars2 wegpacken und hat dann zirka 70-80% gegenüber der 580. Gegenüber der 7970 wärens dann die gedachten 30-40%
 
Bedenke aber die Ansage, das sich die DP Performance pro Watt verdreifachen soll. Das heist, bleibt es bei 1024 ALUs ohne HotClocks, müsste man die Stromaufnahme dritteln um diese Aussage zu erreichen ;)
Sprich da wären wir bei was um die 100W für das Topmodell. Das halte ich für ausgeschlossen ;)
Mit Hotclocks wäre schon eher was möglich. Aber hier zeigt die Vergangenheit, das eben mit jeder verdopplung der ALUs auch der Verbrauch drastisch gestiegen ist.
Behält man die Skalierung wie gehabt weiter, müsste Kepler in Big was um die 400-450W verbraten. Grundsätzlich ja nicht so tragisch, aber Kühlbar unter Luft ist das nicht ;)
 
ich bleibe dabei

GTX 680 hat gemäß der Vergangenheit ne Shaderverdopplung, also 1024, ohne große Umbauten im Bezug auf 1D/Variable Arithmetik

wenn der Hotclock wegkommt, dann sind die 1024 soviel wie ne 580 512 @ 1500, dann hat sie vielleicht 10-20% gegenüber der 580
bleibt der Hotclock klassisch, wie bisher auch, wird die 680 eine 590/Mars2 wegpacken und hat dann zirka 70-80% gegenüber der 580. Gegenüber der 7970 wärens dann die gedachten 30-40%

und warum sollte man den hotclock dann weglassen, und einfach leistung verschenken?
 
und warum sollte man den hotclock dann weglassen, und einfach leistung verschenken?

Aus Effizienzgründen.
Gerüchten zur Folge spart man etwas Platz auf dem DIE wenn man den Hotclock weglässt. Sprich man kann die ALU kompakter gestalten. Dazu kommt, das um so höher der Takt, desto anfälliger wohl das ganze in Summe. Mit womöglich 1,8GHz+ Shadertakt wäre man schon ziemlich hoch...
Hier weis aber nur NV, wie da aktuell der Stand der Dinge ist und was man wie und wo einsparen kann, wenn man was so und so macht ;)
 
interessante Unterhaltungen :)
 
Bedenke aber die Ansage, das sich die DP Performance pro Watt verdreifachen soll. Das heist, bleibt es bei 1024 ALUs ohne HotClocks, müsste man die Stromaufnahme dritteln um diese Aussage zu erreichen ;)
Oder die ALUs so erweitern dass SP FLOPS == DP FLOPS. Ob das Sinn macht, ist eine andere Frage. Würde aber für einen 512Bit Interface sprechen ;)
 
Ist das verbauen eines 512Bit SI + 16 Speicherchips nicht mit deutlichem Mehraufwand / Kosten zu realisieren als nen 384Bit + 12 Chips mit deutlich höherem Speichertakt?! In meinen Augen macht es wenig Sinn auf 512 SI zu setzten, wenn man das 384 SI noch nicht ausgefahren hat. Dies wurde bei der GTX 580 noch nicht ansatzweise getan wie es ja bereits die HD7970 zeigt. Das breitere SI nimmt sicherlich auch einwenig DIE Fläche in Anspruch, welche dann für Cuda Kerne fehlt?!
 
Oder die ALUs so erweitern dass SP FLOPS == DP FLOPS. Ob das Sinn macht, ist eine andere Frage. Würde aber für einen 512Bit Interface sprechen ;)

Das wären dann aber keine 1D ALUs mehr... Oder man baut dedizierte "DP Einheiten" auf das Teil. Würde aber schnittige 50% Performace im Gamingsektor liegen lassen...
Alternativ eben Vector ALUs wie sie AMD verbaut. Scheint aber aktuell nichts für zu sprechen.

Ist das verbauen eines 512Bit SI + 16 Speicherchips nicht mit deutlichem Mehraufwand / Kosten zu realisieren als nen 384Bit + 12 Chips mit deutlich höherem Speichertakt?! In meinen Augen macht es wenig Sinn auf 512 SI zu setzten, wenn man das 384 SI noch nicht ausgefahren hat. Dies wurde bei der GTX 580 noch nicht ansatzweise getan wie es ja bereits die HD7970 zeigt. Das breitere SI nimmt sicherlich auch einwenig DIE Fläche in Anspruch, welche dann für Cuda Kerne fehlt?!

Rein auf die Bandbreite bezogen sicher richtig. Bedenkt man aber den RAM Ausbau, gerade im Bezug auf den Profi/GPGPU Markt, wären mir aktuell keine 1GB Module auf GDDR5 Standard bekannt. Sprich mit 384Bit SI wäre man wieder bei "nur" maximalen 6GB VRAM der dicksten Quadro/Tesla Karten. Ich denke schon, das NV hier nachlegen will, schließlich gibts Tesla/Quadro GPUs mit 6GB schon seit knappen 1,5-2 Jahren.
Bleibt also die Frage, kommen mal 1GB Chips? Oder geht man den einfacheren Weg zu 512Bit SI und baut 8GB auf die Karte ;)
 
have increased due to higher final core clocks. So if you ask whether the mainstream Kepler powerful than HD 7970, so you should know that ... be surprised :) However, I already told you several times ...

also pushen die den Takt noch ein wenig um so nah wie möglich an der 7970 ran zu kommen. Heißt dann aber nicht unbedingt das die dickeren Chips deutlich performanter werden.
Allerdings hat der Mainstreamchip ja nur 2x6pin. Ich denke die GTX680 wird zumindest 1x6pin und 1x8pin haben.

"small and efficient core" wird wohl bedeuten das die Hotclock tatsächlich wegfallen.

wäre ja ne dolle Sache wenn die sich auch mal zur Ramgröße äußern würden :)
 
Da ich mich mit den Anwendungsbereichen von Quadros und Teslas nicht auskenne, frage ich einfach mal dumm: Würden die zusätzlichen 2GB Speicher zu einer deutlichen Leistungsteigerung führen gegenüber bisherigen 6GB Modellen bei gleicher GPU Leistung?
 
Zuletzt bearbeitet:
Das wären dann aber keine 1D ALUs mehr... Oder man baut dedizierte "DP Einheiten" auf das Teil. Würde aber schnittige 50% Performace im Gamingsektor liegen lassen...
Ich dachte schon an dedizierte DP Einheiten. Sicher ist das für den Gaming-Markt albern. Vielleicht wird das der große Unterschied zwischen den Performance- und den High-End-Karten? Also GK104 mit SP-Units und GK110 mit DP-Units. Da würde dann auch die Gerüchte der Speicherinterfaces passen, also GK104 = 256Bit und GK110 = 512Bit. Würde aber auch irgendwie bedeuten, dass sich der Große vom Kleinen in Spieleperformance nur schwer absetzen können wird.

---------- Post added at 17:40 ---------- Previous post was at 17:37 ----------

Da ich mich mit den Anwendungsbereichen von Quadros und Teslas nicht auskenne, frage ich einfach mal dumm: Würden die zusätzlichen 2GB Speicher zu einer deutlichen Leistungsteigerung führen gegenüber bisherigen 6GB Modellen bei gleicher GPU Leistung?
Das hängt sehr vom jeweiligen "Problem" ab. Manche Berechnungen werden wenig Speicher brauchen, andere viel. Und wenn man weniger Speicher hat als man braucht muss man entweder Einschnitte an z.B. Genauigkeit machen (z.B. Ablegen von Zwischenergebnissen in single precision statt double precision), oder halt im normalen RAM "auslagern" und dann über den vergleichsweise langsamen PICe-Bus hin-und herschicken.
 
Ich dachte schon an dedizierte DP Einheiten. Sicher ist das für den Gaming-Markt albern. Vielleicht wird das der große Unterschied zwischen den Performance- und den High-End-Karten? Also GK104 mit SP-Units und GK110 mit DP-Units. Da würde dann auch die Gerüchte der Speicherinterfaces passen, also GK104 = 256Bit und GK110 = 512Bit. Würde aber auch irgendwie bedeuten, dass sich der Große vom Kleinen in Spieleperformance nur schwer absetzen können wird

Glaube ich nicht, das wären zwei gänzlich verschiedene Ansätze in ein und der selben Kartengeneration, das macht weniger Sinn.
Es wird wohl eher wieder so laufen, das NV die Gamerkarten DP seitig etwas beschneidet, damit diese nicht ihre volle DP Performance ausspielen können.

Wobei ich noch nicht so ganz sicher bin, ob das mit den 2x6Pin für die GK104 passt, bzw. Sinn ergibt. Ich mein, das ist Mittelklasse... Wer steckt sich ne Mittelklasse GPU in den PC, welche bis 225W verballern kann? So viel braucht für gewöhnlich das ganze Restsystem eines Mittelklasse PCs nicht unter Volllast.
 
Das hängt sehr vom jeweiligen "Problem" ab. Manche Berechnungen werden wenig Speicher brauchen, andere viel. Und wenn man weniger Speicher hat als man braucht muss man entweder Einschnitte an z.B. Genauigkeit machen (z.B. Ablegen von Zwischenergebnissen in single precision statt double precision), oder halt im normalen RAM "auslagern" und dann über den vergleichsweise langsamen PICe-Bus hin-und herschicken.

Okay dann abgesehen von dem stillstehenden Grafikspeicher Ausbau im Profikartenbereich, würden die 6Gbps Chips @ 1500 bzw 3000MHz von Samsung / Hynix noch mal nen gewaltigen Sprung bedeuten am 384Bit SI. Von der GTX 580 ausgehend in Sachen SI Bandbreite und gleichzeitig ne vernünftige Speichergröße von 3GB Standard werden. Beide Hersteller preisen gar ihre 7Gbps @ 1750MHz Chips an, obwohl scheinbar noch nicht in der Massenproduktion.

Bei nem 512Bit SI würde nV niemals nur 2GB verbauen, weil die Karte ja dann deutlich weniger als die AMD Karte hätte. Dann wohl eher 4GB und das denke ich wird den Kartenpreis der GTX 680 wohl nicht gerade günstig ausfallen lassen ... allein die vier zusätzlichen 2Gb Speicherchips, vom aufwendigerem PCB ganz zu schweigen. Ne Dual-GPU Karte mit zwei vollen 512Bit SI wäre wohl unbezahlbar ^^
 
Zuletzt bearbeitet:
Also ich sag mal so: ich wär jetzt bereit für die 680. Aber man wird wohl erst in Richtung Sommer diverse 680 Gerüche vernehmen. Vorher lässt sich Nvidia übelst hängen.
 
Ich habe da mal einen weiteren "Hinweis" auf das 512Bit SI von Kepler gefunden :fresse: Obwohl es dann eher "from 1 Gb to 4 Gb" heißen sollte?!

Samsung Green Memory - Products - Key Features of Green GDDR5
... Samsung's advance process technologies provide memory densities ranging from 1 Gb to 2 Gb which help build a wide spectrum of buffer solutions ranging from 256 MB to 8 GB on the Graphics card. ...

...oder gibts bereits 8GB (Profi-)Grafikkarten?!
 
Zuletzt bearbeitet:
dann wären es 256bit SI mit max 2GB Ram bei Entrance/Midrange und 512Bit SI bei ProfiKarten mit 8GB Ram. Die GTX680 dann mit 2GB und als Ausbaustufe 4GB.
Würde bedeuten, dass Enthusiasten fürs SLI wieder länger warten müssen :(
Wie lange dauerte es beim letzten mal? 3 Monate ?! :kotz:
 
Zuletzt bearbeitet:
3 Monate von ner 2gb zu ner 4gb Variante? Das wäre der Hammer...Gott steh uns bei!
 
Ich habe da mal einen weiteren "Hinweis" auf das 512Bit SI von Kepler gefunden :fresse: Obwohl es dann eher "from 1 Gb to 4 Gb" heißen sollte?!

Samsung Green Memory - Products - Key Features of Green GDDR5


...oder gibts bereits 8GB (Profi-)Grafikkarten?!

kleines "b" ungleich großes "B" ;)
Aber ne, ich glaube aktuell gibt es keine 8GB Karten. Wobei ich mir nicht ganz sicher bin ob es nicht eine Dual GPU Tesla/Quadro bzw. FirePro/FireStream gibt. ;) Müsste man mal nachschauen.

dann wären es 256bit SI mit max 2GB Ram bei Entrance/Midrange und 512Bit SI bei ProfiKarten mit 8GB Ram. Die GTX680 dann mit 2GB und als Ausbaustufe 4GB.
Würde bedeuten, dass Enthusiasten fürs SLI wieder länger warten müssen :(
Wie lange dauerte es beim letzten mal? 3 Monate ?! :kotz:

Der Vergleich hinkt aber etwas. Wie lange etwas dauert, hängt wohl davon ab, wann NV das Design frei gibt ;)
Und ehrlich gesagt will ich keine überteuerten Sondermodelle kaufen. Da kann NV schön selbst Hand anlegen. Sollte es bei 512Bit SI enden. So glaube ich nicht das man hier unter AMD einsteigt. Man ließt ja hier und da davon, das NV quasi mehr von Tahiti erwartet hätte. Da werden die wohl kaum beim fast Werbewirksamsten Element einer Grafikkarte unter der Konkurenz einsteigen. ;) Marketingtechnisch wäre das leicht fail :fresse:
 
Ein weiterer Vorteil von einem 512Bit SI wäre das man langsameren Speicher verbauen könnte und so mit trotz dem mehr Bandbreite bekommt bei günstigeren Chips .
Sprich nur 2200 MHZ Ram bei einer Bandbreite von 281GB/s was dann 4 GB auch bezahlbar machen würde.
 
Zuletzt bearbeitet:
kleines "b" ungleich großes "B" ;)
Aber ne, ich glaube aktuell gibt es keine 8GB Karten. Wobei ich mir nicht ganz sicher bin ob es nicht eine Dual GPU Tesla/Quadro bzw. FirePro/FireStream gibt. ;) Müsste man mal nachschauen.
Ich weiß das “b“ nicht gleich “B“ ist. Aber für eine 8GB bestückte Grafikkarte bräuchte man wohl 16x 4Gb Chips und nicht 2Gb, oder liege ich da etwa falsch?! Deswegen schrieb ich das es wohl eher “from 1Gb to 4Gb“ (Speicherchips) heißen sollte auf der Samsung Homepage.


Gesendet von meinem LG-P990 mit der Hardwareluxx App
 
Die Frage ist, was heist klein "b"?
Sind es Bit oder Byte? Oder gar noch was anderes?

Denn theoretisch müsste da wirklich 4Gb stehen, wenn man es genau nimmt. Aber weder bei Samsung noch bei Hynix findet man 4Gb GDDR5 Chips auf der Page...
Mich würde mal interessieren, wie die Spricherchipbezeichnung der Bausteiner ner Quadro 6000 ist ;)
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh