nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Auch bei Highend wird immer über Kosten/Nutzen gedacht. Da den meisten Nutzern 2GB reichen und die Karte von der Leistung her eher weniger "High End" ist, find ich die 2GB schon verständlich. Natürlich ist es ein Kostenfaktor. Würdest du einem Mittelklassewagen 250PS verpassen, nur weil ein paar mal gerne damit rasen würden, aber die meisten auch mit 175PS zufrieden sind? Dann würde das PLV eben noch schlechter und das kann ja auch nicht der Sinn der Sache sein. Wenn es jetzt gar keine Karten mit 4GB geben würde, würde ich die Aufregung verstehen - aber die gibt es, also sehe ich da nicht wirklich ein Problem. Wer meint, mehr als 2GB zu brauchen kauft sich die 4GB Variante und der Rest eben die 2GB Variante. Alle sind happy. :)

Nicht wirklich, einerseits kamen die 4GB Karten deutlich später... Andererseits sind diese wiederum mit Aufpreis verbunden.
Und der dritte Punkt ist, es ist nunmal schlicht HighEnd zum aktuellen Zeitpunkt. Nenn mir eine einzige Karte, welche schneller ist und welche eine GPU dazu benötigt. -> bestenfalls kommt da die 1GHz 7970 ran, aber dann war es das schon.
Wir sprechen hier über ~500€!!!
Das ist HighEnd... P/L hin oder her.

Und zum Autovergleich. Du sprichst Mittelklassewagen an. Kostet ein Mittelklassewagen seine 100.000€+?
Unter der Decke (GK104) ist die 680er vllt Mittelklasse, vom Preis her aber nunmal nicht ;)
Das Beispiel wäre eher passend, wenn der Mittelklassewagen seine 100.000€ kosten würde. Wer würde sich dann nicht aufregen, wenn das Teil nur 170 PS hätte? Du aber für nochmal 10%+ Aufpreis deine 250PS bekommen würdest?

Wie gesagt, ich seh das etwas differenzierter. Ab einem bestimmten Preisniveau geht die Kompromissbereitschaft einfach nach unten. Und für 1000€ bekommt die Mittelklasse beinahe heutzutage zwei ganze vollwertige PCs, welche sogar fürs Spielen taugen. Und genau der Punkt macht den Spaß etwas kontraproduktiv. Wie gesagt, ich versuche im Moment noch die Argumentation zu verstehen. Warum man unbedingt die 2GB als ausreichend betrachtet... Das will mir bei den Preisen absolut nicht in den Kopf.
Gehst du dann nochmal etwas in die Zukunft. Was ist in einem Jahr? Oder in zwei Jahren? Es zeichnete sich bei so einigen Karten ab, das der VRAM Ausbau gerade so reicht, wo das Teil released wurde, mit steigendem Alter aber immer nachteiliger wurde. Beispiel 8800/9800GTX 512MB, Beispiel HD4870 512MB, Beispiel 9800GX2 512MB, Beispiel 470/570GTX (wobei das gerade noch so geht, im SLI aber schon oft zu wenig ist) Ja selbst mit zwei 1,5GB 580GTXen muss man massiv aufpassen. Du hattest/hast? doch selbst zwei 3GB 580er. Und das doch auch nicht ohne Grund... ;)

Ich bin immer nich der meinung: für alles über 4xSGSSAA in aktuellen Titeln müssen der Hersteller erst mal passende Hardware bauen ;)
Da hängt es nicht immer am V-Ram sondern mehr an der mangelnden GPU performance.

Grundsätzlich ja, gehe ich total konform. Nur wenn es doch läuft? Um so ärgerlicher ist es, wenn es dann am VRAM hängen bliebt... -> Meine Meinung. Sinnvollerweise kann man VRAM auch nicht nachkaufen. Sondern muss gänzlich wechseln. Wäre eine Art Upgradepack für VRAM machbar, wäre das ja auch alles noch OK. Sprich man kauft die Basis und kauft "Riegel" zu, um seinen gewünschten VRAM Ausbau zu erhalten, aber das ist aktuell nicht möglich.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also auf den GK110 bin ich heiß. Aber nicht auf diesen Tesla Müll. Und bis März 2013 muss eh die 680GTX weiterhin dauerglühen, bevor die 780 erscheint. Aber was solls, das Teil wird kommen :)
 
@Supermax, fang bitte nicht wieder damit an, das du bereit/heiß oder was auch immer bist...
 
Nicht wirklich, einerseits kamen die 4GB Karten deutlich später... Andererseits sind diese wiederum mit Aufpreis verbunden.
Und der dritte Punkt ist, es ist nunmal schlicht HighEnd zum aktuellen Zeitpunkt. Nenn mir eine einzige Karte, welche schneller ist und welche eine GPU dazu benötigt. -> bestenfalls kommt da die 1GHz 7970 ran, aber dann war es das schon.
Wir sprechen hier über ~500€!!!
Das ist HighEnd... P/L hin oder her.

Und zum Autovergleich. Du sprichst Mittelklassewagen an. Kostet ein Mittelklassewagen seine 100.000€+?
Unter der Decke (GK104) ist die 680er vllt Mittelklasse, vom Preis her aber nunmal nicht ;)
Das Beispiel wäre eher passend, wenn der Mittelklassewagen seine 100.000€ kosten würde. Wer würde sich dann nicht aufregen, wenn das Teil nur 170 PS hätte? Du aber für nochmal 10%+ Aufpreis deine 250PS bekommen würdest?

Wie gesagt, ich seh das etwas differenzierter. Ab einem bestimmten Preisniveau geht die Kompromissbereitschaft einfach nach unten. Und für 1000€ bekommt die Mittelklasse beinahe heutzutage zwei ganze vollwertige PCs, welche sogar fürs Spielen taugen. Und genau der Punkt macht den Spaß etwas kontraproduktiv. Wie gesagt, ich versuche im Moment noch die Argumentation zu verstehen. Warum man unbedingt die 2GB als ausreichend betrachtet... Das will mir bei den Preisen absolut nicht in den Kopf.
Gehst du dann nochmal etwas in die Zukunft. Was ist in einem Jahr? Oder in zwei Jahren? Es zeichnete sich bei so einigen Karten ab, das der VRAM Ausbau gerade so reicht, wo das Teil released wurde, mit steigendem Alter aber immer nachteiliger wurde. Beispiel 8800/9800GTX 512MB, Beispiel HD4870 512MB, Beispiel 9800GX2 512MB, Beispiel 470/570GTX (wobei das gerade noch so geht, im SLI aber schon oft zu wenig ist) Ja selbst mit zwei 1,5GB 580GTXen muss man massiv aufpassen. Du hattest/hast? doch selbst zwei 3GB 580er. Und das doch auch nicht ohne Grund... ;)

Ich bin nach wie vor der Meinung, dass die GTX680 nicht Highend ist. So schaut es jedenfalls hardwareseitig aus. Was das Marketing draus macht, interessiert mich nicht die Bohne. Bei 1.5GB vs 3GB wäre die Sache klar gewesen. Aber 4GB sind für eine Karte mit der Performance einer 680 dann doch etwas zuviel.

Ich sehe das so:
Für Settings, bei denen man für komfortable fps-Raten die 2GB wirklich überschreitet, reicht eine 680 oft sowieso nicht aus. Und sag jetzt nicht, 30-40fps sind komfortabel, sind ja meist eh nur Mittelwerte mit klaren Ausreißern nach unten und oben :d
Und die, die sich zwei Karten leisten können, die können auch einen Aufpreis für die zusätzlichen 2GB zahlen. So hab ich das damals mit meinen 580ern gemacht. Vorrangig auch, weil ich schon da wusste, dass AA erzwingen und Bits VRAM intensiv sein können. Das sind aber Dinge, die 99% der 680-Käufer nicht interessieren, von denen sie nichtmal wissen. Es gibt Marktforschung, und ein Produkt orientiert sich am Markt - und der spielt eben nicht mit DS, SGSSAA, Bits und schlagmichtot. Der stört sich auch nicht an gelegentlichen Nachladerucklern. Das will ich nicht bewerten, es ist halt so. Nvidia ist diesmal halt volle Kanne die Vernunftschiene gefahren.

Was man aber gleich hätte machen können:
Zwei Referenzdesigns mit 2GB und 4GB und die gleichzeitig launchen. Das hätte ich gut gefunden.
 
Zuletzt bearbeitet:
Aber was das NV Marketing aus der Karte macht, interessiert doch nicht die Bohne... Der Käufer muss entscheiden, wie weit sein Geldbeutel reicht. Und wenn er ~500€ bereit ist zu zahlen, dann kauft er ne 680er. Wenn er nur ~300€ zahlen kann, weil er mehr nicht hat, dann muss er sich mit ner 660TI zufrieden geben aktuell. Nur wird er dann auch nicht meckern, das dies und jenes nicht sauber läuft. Da ihm bewusst ist, das er in der Produktpalette nicht ganz oben steht. Der 680er Käufer steht aber nunmal ganz oben, der zahlt den höchsten Preis, geht also dahingehend keine Kompromisse ein, wird aber vom Hersteller gezwungen, am VRAM zu sparen, oder mittlerweile nochmal ne Schippe draufzulegen...

Übrigens würde ich es nicht an absoluten Werten sprich 2GB oder 4GB festmachen. Das gleiche Verhalten wäre gewesen, wenn es 1,5 vs. 3GB oder 1 vs. 2GB gehießen hätte.
Geht man mal weiter in der Theorie, die 680er mit 2Gb ist rund 34% (meint CB bei FullHD, 4xAA/16xAF) über der 580er mit 1,5GB. Legt dazu aber auch ~33% VRAM zu. Sprich Verhältnis Leistung pro VRAM bleibt ziemlich identisch. Wieso wäre dann wiederum aus deiner Sicht die 3GB für die 580er gerechtfertigt, bei der 680er aber nicht die 4GB?

Und ich sag ja nicht, das 4GB sein müssen, ich sage eher, das 2GB teilweise zu Engpässen führen und man damit Kompromisse eingehen muss. Der nächste logische Schritt sind dann nunmal 4GB, oder nach aktuellem Plan (660TI) auch 3GB mit der krummen Anbindung.

Zum Thema Marktforschung usw... Das mag alles richtig sein. Und trifft denke ich auch voll und ganz in der nahezu ganzen Produktpalette zu. Aber im HighEnd Bereich weht der Wind in meinen Augen anders... Einerseits schmücken sich die Hersteller mit den Features, und andererseits sparen sie an der Ausstattung. Das passt für mich nicht unter einen Hut.
 
Zuletzt bearbeitet:
Die 1,5GB bei der 580 fand ich nicht verkehrt. Ich habe ja die Gründe genannt, warum ich mir die 3GB Variante geholt habe. Du musst das schon aus der Warte der Mehrheit sehen. Die ist sicher nicht bereit, nochmal 50-75 Euro mehr draufzulegen (wenn es keine 2GB Karten gäbe) nur damit einige wenige was davon haben. Und wenn Nvidia hier keinen Aufpreis verlangt hätte, hätten sie weniger Profit. Das ist es nur logisch, was man macht.

Ich glaube, die allermeisten Käufer sind mit ihrer 680 zufrieden, also ist das Ziel erreicht und die Diskussion irgendwie müßig. Wer mehr will, muss mehr zahlen. War doch immer so.
 
Die meisten Käufer wären auch mit ihrer 680er zufrieden, wenn das Teil 3 oder 4GB hätte. Der springende Punkt bleibt aber, das NV hier die Kastrationsschiene fährt. Um eben den HighEnd Bereich noch weiter zu melken... Und das finde ich persönlich ziemlich daneben. Einmal, weil die Preise so schon jenseits von gut und böse sind und andererseits, weil man dann nichtmal das kompromislose Produkt bekommt.
Wie gesagt, Sicht der Mehrheit stimmt vllt im Mainstream Bereich, die Mehrheit kauft aber auch kein HighEnd.

Warum dir die 3GB der 580er im Vergleich zu den 1,5GB mehr zusagen, versteh ich auch nicht so ganz :fresse: Denn wie ich vorhin nachrechnete, 1,5GB 580er vs. 2GB 680er hat das gleiche Performance / VRAM Größen-Verhältnis. Vllt reden wir ja auch an einander vorbei ;)
Für mich definiert der Preis die Einstufung, und hier legte NV mit Kepler wieder eine Schippe nach obenhin drauf. Um so ärgerlicher ist es, das es dann nur das kleine Modell ist.


Aber OK, warten wir mal ab was GK110 bringt. Wenn es wiederum 2 vs. 4GB geben wird, ist die Argumentation warscheinlich genau andersrum. -> jede Wette.
 
50,- bis 75,-€ für doppelten Ram war mal... jetzt 80,-€ bis 110,-€.

Ob GK110 auch nur 2-3GB haben wird, spekulierten wir schon vor nem Jahr hier :fresse:
KLare Kiste 2GB für den HighEnd Chip zu wenig und 3GB wären wieder interessant. Ich denke eher das sie gleiche Schiene weiter fahren und mit 4GB bestücken. Performance dann mit 2GB (ala GTX 670 Refresh :fresse:)
 
Die meisten Käufer wären auch mit ihrer 680er zufrieden, wenn das Teil 3 oder 4GB hätte. Der springende Punkt bleibt aber, das NV hier die Kastrationsschiene fährt. Um eben den HighEnd Bereich noch weiter zu melken... Und das finde ich persönlich ziemlich daneben. Einmal, weil die Preise so schon jenseits von gut und böse sind und andererseits, weil man dann nichtmal das kompromislose Produkt bekommt.
Wie gesagt, Sicht der Mehrheit stimmt vllt im Mainstream Bereich, die Mehrheit kauft aber auch kein HighEnd.

Warum dir die 3GB der 580er im Vergleich zu den 1,5GB mehr zusagen, versteh ich auch nicht so ganz :fresse: Denn wie ich vorhin nachrechnete, 1,5GB 580er vs. 2GB 680er hat das gleiche Performance / VRAM Größen-Verhältnis. Vllt reden wir ja auch an einander vorbei ;)
Für mich definiert der Preis die Einstufung, und hier legte NV mit Kepler wieder eine Schippe nach obenhin drauf. Um so ärgerlicher ist es, das es dann nur das kleine Modell ist.


Aber OK, warten wir mal ab was GK110 bringt. Wenn es wiederum 2 vs. 4GB geben wird, ist die Argumentation warscheinlich genau andersrum. -> jede Wette.

Wegen AA-Bits und AA-Override, hab ich doch gesagt.
Das Zufriedenheitsargument kannst du nicht so umdrehen. Es wird immer nur das gemacht, was nötig ist -> maximaler Profit. Wenn das für die Masse ausreicht, fein. Ob dir das persönlich nicht zusagt, ist leider nicht von Belang.

GK110 wird 3GB und 384bit haben - wenn nicht, schenke ich dir einen :d
 
Ob es mir persönlich zusagt, war doch gar nicht Thema. ;)
Ich habe zwei 2GB 680er im SLI und ja, es läuft aktuell noch... Mir hätte zwar mehr VRAM besser gefallen, gabs aber damals nunmal nicht.
Es ändert doch aber alles nix an der Tatsache, das die Argumentationsweise hier zum Teil absolut unverstänlich ist, denn ich kann nicht mit P/L Argumentieren, wenn das Kärtchen so schon jenseits von Gut und Böse schlecht darin liegt. (HighEnd typisch eben) Und ebenso kann ich nicht mit massentauglichen Settings argumentieren, wenn es um ein Produkt geht, was nichtmal 1% der Käufer überhaupt für einen Kauf in Betracht ziehen.
Der Spieler mit massentauglichen Settings kauft genau so wenig wie der Spieler, der auf P/L achtet HighEnd Produkte zu HighEnd Preisen. Wie passt die Argumentation also unter einen Hut?S
Stell dir vor, das Teil würde es auch mit 1GB VRAM geben... Wie wäre die Argumentation dann? Sicher nicht, das 1GB ebenso ausreicht -> es ist scheinbar ein Bauchgefühl. Vllt auch um seine Produkte, welche man selbst gekauft hat, zu rechtfertigen. Und das sit alles andere als objektiv.

Ich kann es einfach nicht nachvollziehen, wieso man sich zum Teil hier massiv auf die Seite von NV stellt, anstatt dem Verhalten entgegen zu wirken. Ich persönlich habe nix davon, ob ich nun das 2GB Modell lobpreise oder nicht. Warum sollte ich es also aufs Messer verteidigen? Die Diskusion ist leicht kontrovers ;)

PS: um die Sache abzuschließen, vllt gucken wir in 1,5 Jahren mal, was die 2GB Variante noch zu leisten im Stande ist ;) Dann zeigt sich, ob die Politik seitens NV sinnvoll war oder nicht...
Bei einigen Modellen sowohl bei NV als auch bei AMD ging es schlussendlich nicht mehr auf...
 
Zuletzt bearbeitet:
2 GB gehen doch jetzt schon nicht mehr auf, sobald wir über Auflösungen jenseits von FullHD und Qualitätssettings sprechen oder versteh ich was falsch?
 
Ob es mir persönlich zusagt, war doch gar nicht Thema. ;)
Ich habe zwei 2GB 680er im SLI und ja, es läuft aktuell noch... Mir hätte zwar mehr VRAM besser gefallen, gabs aber damals nunmal nicht.
Es ändert doch aber alles nix an der Tatsache, das die Argumentationsweise hier zum Teil absolut unverstänlich ist, denn ich kann nicht mit P/L Argumentieren, wenn das Kärtchen so schon jenseits von Gut und Böse schlecht darin liegt. (HighEnd typisch eben) Und ebenso kann ich nicht mit massentauglichen Settings argumentieren, wenn es um ein Produkt geht, was nichtmal 1% der Käufer überhaupt für einen Kauf in Betracht ziehen.
Der Spieler mit massentauglichen Settings kauft genau so wenig wie der Spieler, der auf P/L achtet HighEnd Produkte zu HighEnd Preisen. Wie passt die Argumentation also unter einen Hut?S
Stell dir vor, das Teil würde es auch mit 1GB VRAM geben... Wie wäre die Argumentation dann? Sicher nicht, das 1GB ebenso ausreicht -> es ist scheinbar ein Bauchgefühl. Vllt auch um seine Produkte, welche man selbst gekauft hat, zu rechtfertigen. Und das sit alles andere als objektiv.

Ich kann es einfach nicht nachvollziehen, wieso man sich zum Teil hier massiv auf die Seite von NV stellt, anstatt dem Verhalten entgegen zu wirken. Ich persönlich habe nix davon, ob ich nun das 2GB Modell lobpreise oder nicht. Warum sollte ich es also aufs Messer verteidigen? Die Diskusion ist leicht kontrovers ;)

PS: um die Sache abzuschließen, vllt gucken wir in 1,5 Jahren mal, was die 2GB Variante noch zu leisten im Stande ist ;) Dann zeigt sich, ob die Politik seitens NV sinnvoll war oder nicht...
Bei einigen Modellen sowohl bei NV als auch bei AMD ging es schlussendlich nicht mehr auf...

Dann sag doch mal, wieviele von diesem 1% GTX680-Käufer eine Ahnung von AA-Bits, Downsampling, SGSSAA etc. haben? Gehe nicht nur von Deutschland mit einer überproportional hohen Freakdichte aus! Ich stelle mich nicht massiv auf irgendwelche Seiten, ich versuche dir zu erklären, warum die Karte nur 2GB und nicht 4GB hat. Ich denke, das ist auch bei dir angekommen und ich verstehe nicht, was es da jetzt noch ewig rumzudiskutieren gibt.

2 GB gehen doch jetzt schon nicht mehr auf, sobald wir über Auflösungen jenseits von FullHD und Qualitätssettings sprechen oder versteh ich was falsch?

Da reicht die Leistung einer Karte eh nicht. Abgesehen davon zeigen die meisten Benchmarks, dass 5760x1080 mit 4xAA die Karte was den VRAM angeht im Schnitt noch nicht killt. HardOCP und Computerbase haben das anfangs getestet, wenn ich mich recht erinnere. Die Leute, die SLI haben, sind nicht völlige 08/15 Zocker (hoffentlich), sondern beschäftigen sich wenigstens ein bisschen mit der Materie. Da kann dann auch die 2GB/4GB-Frage gerne aufkommen.
 
Zuletzt bearbeitet:
box, kennst du ein Review, welches die VRAM Problematik im Ansatz objektiv beleuchtet?
Ich sehe im Moment nur Reviews, welche die Karten 1:1 durch den normalen Testablauf schicken... Und das sind kürzeste Szenen mit wenigen Sekunden. Was wiederum äußerst ungeeignet ist, um VRAM Nachteile aufzudecken.
Fälschlicherweise wird so ein Review dann rangezogen um zu sagen, ja 2GB reichen doch... ;)

PS: warum darf man nicht an einer Tatsache rumdiskutieren? Es gibt keine belegbaren Statistiken, über die Spieler, die sich mit Qualitätssteigernden Maßnahmen auskennen... Ich behaupte aber, der prozentuale Anteil derer, die sich damit auskennen, wird im HighEnd Bereich weit höher liegen, als im Mainstream Bereich. Einfach aus dem Grund, weil im Mainstreambereich die Möglichkeit (Leistungstechnisch) oft gar nicht gegeben ist...
Aber ich würde es auch nicht nur auf AA (Bits) bzw. DS runterbrechen... Es gibt doch noch weit mehr Möglichkeiten. Und das Thema Modding ist doch dazu auch weit in Mode aktuell ;)

Lass uns das einfach an der Stelle so stehen lassen und wir schauen nach Ablauf der zwei Jahre Lebenszeit der 680er noch, ob 2GB für die wohl durchschnittliche Lebenszeit so einer Karte ausreichend waren oder nicht ;)
 
Mir reichen die 2GB VRAM meiner 690.
Wenn ich es darauf anlege, kann ich die Karte mit Skyrim und gefühlten 1000 Mods zum kapitulieren bringen, das ging aber auch mit der 7970.
Ich finde es immer lächerlich, dass von MR zu Verbrauch zu vorhandenen VRAM übergegangen wird. Die Perfekte Hardware wird es nie geben, bei jeden Stück Hardware geht man Kompromisse ein.

Mit den HD Texturen Mods die ich drauf habe, kann ich Skyrim mit 2880 x 1620 ohne Probleme über Stunden zocken. Bei der 7970 waren 2,5GB im VRAM, jetzt ist er halt voll. Solange es läuft, Wayne.
 
pfff, jetzt wird´s langsam anstrengend und lästig^^ .. ich schaue dann später mal rein wenn´s die ersten echten NEWS gibt.
 
Zuletzt bearbeitet:
..wieder ein Osterei :asthanos:
 
Die meisten Käufer wären auch mit ihrer 680er zufrieden, wenn das Teil 3 oder 4GB hätte. Der springende Punkt bleibt aber, das NV hier die Kastrationsschiene fährt. Um eben den HighEnd Bereich noch weiter zu melken... Und das finde ich .

Ja was denn bitte für ne "Kastrationsschiene"

Ums mal deutlich zu machen das du schwer daneben liegst mit der Behauptung

Auflistung der "Highendkarten" der letzten Jahre nebst Speicherbestückung

G80 alias 8800GTX 768 MB

G200 alias 280 GTX 1GB

GF100 alias 480GTX 1,5GB

GK104 alias 680GTX 2GB dabei ist das nichtmal der "Big Boy"

Das ist eine ganz normale Vortführung des üblichen Prozedere bei Referenzkarten,wo ist da bitteschön ne Beschneidung?

Oder nimmst du hier AMD als Maßstab?

Was ein Schaf macht,muss das andere doch noch lang nicht ebenso aufgreifen.

Der Markt verlangt nach keinen Vram Monstern und wer es trotzdem"braucht" wird ohne weiteres bei den Custom Modellen fündig

Und zu dem "wir sehen mal was in 1,5-2Jahren ist",geb ich dir Brief und Siegel drauf,das das Higendklientel schon längst wieder neue Hardware verbaut hat

Aber ganz davon ab tritt das ganze Spielegedöns schon seit geraumer Zeit auf der Stelle und Besserung ist nicht in Sicht.Selbst Carmacks ID Schmiede betont das der Fokus nicht mehr auf aufgeblähten Bling Bling Texturen liegt

Wo nimmst du also die Zuversicht her das in 1,5-2Jahren das ganze sich aufbläht wie ne Seifenblase und 3 bzw 4GB unabdingbar werden"kopfschüttel"

Ps: und fast hätte ichs wieder vergessen den Rattenschwanz von Konsole mit in das ganze leidige Thema mit einzubeziehen.

Lachhaft was da in 1,5-2Jahren auf uns zu kommt,und entscheidend mit dazu beitragen wird,das alles schön gedeckelt bleibt
 
Zuletzt bearbeitet:
Ähnliches gab es schon auf CB, aber hier noch mal die 3dcenter Glaskugel-Version: klick mich (aber bitte sanft)

März 2013... Mist. Klingt aber realistisch und wäre etwa der Zyklus, der sonst bis zum Refresh vergangen ist. So kann NV die 680er noch munter ausschlachten und selbst bei Release des GK110 wäre der Chip noch gut dabei. Marketingtechnisch durchaus realistisch. Also bleibt zu hoffen, dass AMD mit dem Sea Island einen Chip erste Güte hinlegt. Wäre doch schön, wenn NV sich dann anstrengen würde, um ihn überall (Leistung / Verbrauch) schlagen zu können. Kann für uns nur gut sein.

Also, Nvidianer: ich wünsche mir eine Graka mit 6Gig Ram, 150W Maximalverbrauch im SLI und der Power zwischen 680 und 690 pro Karte. Ach ja, die darf ruhig laut sein, ich hab ne Wakü :d ;)
 
Zuletzt bearbeitet:
Würde mich nicht wundern wen es sich bis Anfang Mai mit der Verfügbarkeit hin zieht bei solch einem komplexen Monster in der Fertigungs Grösse..
Solte AMDs Sea Islands wo Weinachten alls Zeitraum spekuliert wird wirklich an die 30-40% in Spielen zu legen können wird auch die jetzige GTX680 Preismässig in die Performance Klasse abrutschen und es ist automatisch Platz für die Preise der GK110 Chips.
Könnte mir gut vorstellen das wir den GK110 dann auch für rund 550-600 Euro erwerben können.
 
Zuletzt bearbeitet:
Würde mich aber auch nicht wundern, wenn der Chip schon fertig wäre, NV jetzt "nur" noch Feintuning betreibt, div. Möglichkeiten testet und auf den Sea Island wartet, um dann angemessen reagieren zu können. Das ist aber Wunschdenken. Ich denke auch eher, dass das noch einiges zu tun ist.
Argh, die Spannung ist schlimm.... nicht dass da wieder ein Termi rauskommt ;)

Der Preis wird sich wohl wirklich nach dem Abstand zur Sea Island-Generation richten. Ist der GK110 wirklich DIE Überkarte, wird er bei 650-700 liegen. Ist er nur leicht vorne, stimme ich dir zu.
 
Zuletzt bearbeitet:
Es wird halt ein gewaltiger Chip man wird ja auch sehen wie man die Termine für den Server Markt einhalten kann.
 
Da der Servermarkt die Hauptsparte ist, wird der Termin gehalten werden, denke ich. Der Vorteil da ist ja, dass selbst der "abgespekte" K20 dort sehnlichst erwartet wird. NV kann also munter immer langsam eine Schippe nachlegen.
Im Augenblick scheinen sie in einer sehr günstigen Position zu sein, wenn der K20 pünktlich und in ausreichender Zahl zur Verfügung steht. Das sollte dann auch dem GK110 zu Gute kommen
 
Zuletzt bearbeitet:
Nvidias Problem wird imo eher sein genügend Chips zu bekommen für alle Abnehmer

Der riesen Deal mit Oak Ridge wird da wohl erstmal oberste Priorität haben bis Titan in voller Ausbaustufe steht

Dann Tesla und Quadro Plex Systeme

Und am untersten Ende dann letztendlich der Geforce
 
Zuletzt bearbeitet:
Genau das denke ich auch scully1234... Mit uns macht man halt nicht mehr genug Kohle. Erst raubkopieren wir 93% aller Spiele und dann geizen wir bei unserer Hardware :d
 
Ja was denn bitte für ne "Kastrationsschiene"

Ums mal deutlich zu machen das du schwer daneben liegst mit der Behauptung

Auflistung der "Highendkarten" der letzten Jahre nebst Speicherbestückung

G80 alias 8800GTX 768 MB

G200 alias 280 GTX 1GB

GF100 alias 480GTX 1,5GB

GK104 alias 680GTX 2GB dabei ist das nichtmal der "Big Boy"

Das ist eine ganz normale Vortführung des üblichen Prozedere bei Referenzkarten,wo ist da bitteschön ne Beschneidung?

Oder nimmst du hier AMD als Maßstab?

Erstens bitte ich dich, mir nicht zu unterstellen, ich würde Behauptungen aufstellen. Es ist letzendlich meine persönliche Meinung und keine Behauptung. ;)
Und zum anderen, es geht keineswegs um AMD bzw. dessen Ausstattung bei dem Thema. Es geht viel eher um die Schritte, wie sich die Speichermenge erhöht.
Aber weil du die Laufbahn gerade so schön ansprichst...
Nur mal kurz angeschnitten. ~2003 gab es Karten mit 128MB, ~2006 waren 512MB Standard, bzw. sogar 768MB, wenn man die G80 GTX nimmt. Also in drei Jahren eine Vervier- bis Versechsfachung.
Heute 2012, also sechs Jahre danach, hat sich der VRAM gerade mal um 2,6-4 mal so viel gesteigert. Und das in der doppelten Zeit... Geht die Tendenz so weiter, sind wir in 3 Jahren gerade mal bei ~3GB, wenn überhaupt (bei Faktor 4) und in 6 Jahren bei ~4GB.

Eigentlich sollte es genau andersrum sein... da doch gerade die Texturqualität heute immernoch etwas leidet. Aber was solls... Mir solls schlussendlich wurscht sein ;) Im Moment bin ich mit meinen 2GB 680ern noch zufrieden. Und Gk110 wird es schon richten :fresse: Ich hoffe ja noch drauf, das man dort nicht so sehr geizt, auch wenn der Spaß schlussendlich wohl richtig teuer werden dürfte :fresse:

Genau das denke ich auch scully1234... Mit uns macht man halt nicht mehr genug Kohle. Erst raubkopieren wir 93% aller Spiele und dann geizen wir bei unserer Hardware :d

Wären die Preise etwas weiter am Bezahlbarkeitsrahmen für den Otto Normalo, würden wohl auch mehr Leute HighEnd Karten kaufen ;)
Ich erinnere da noch an RV770/G200(b), wo man die Performance Klasse für ~130€ erstehen konnte. Das Zeug ging weg wie warme Semmeln. Der Gewinn pro Einheit war zwar verschwindend gering, dafür hat es die Masse rausgerissen. Zumindest wenn die Produktionskosten im Rahmen bleiben.
Bei 500€+ für die Karten brauch sich aber niemand wundern, das der Absatz zurück geht :fresse: und bei stagnierender Leistung pro Geldeinheit brauch sich dazu niemand wundern, das die Kauflust so auch nicht weiter steigt.

Aber mal abwarten, vllt gibts beim GK110 respektive seinem dann vllt gar überarbeiteten kleinen Bruder GK104 einen ordentlichen Preisrutsch. Denn allzulange kann man mit den steigenden Preisen wohl nicht mehr weiter machen...
 
Zuletzt bearbeitet:
Lass doch mal die endlosen Diskussionen über VRAM. Es nerft einfach nur noch.
@fdsonne
Kannst du deiner Pflicht nachkommen und den fred endlich dicht machen oder die 2 Leute abmahnen. Das ganze hat nix mehr mit GK110 zu tun.

MfG Jaimewolf3060

Gesendet mit DHD
 
Das einzige was mich interessiert ist, wie viel GK110 Karten ich brauche um eine deutliche Mehrleistung gegenüber meinem jetzigen System zu haben.
 


Was soll man dazu noch sagen?
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh