nVidia GK100/Geforce 6xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Anhänge

  • Jen-Hsun-Huang-tattoo-GTC-2010-e1307040064397.jpg
    Jen-Hsun-Huang-tattoo-GTC-2010-e1307040064397.jpg
    10 KB · Aufrufe: 151
Zuletzt bearbeitet:
Und die letzte mit dem muskulösen Panterarm:haha:


"This Puppy is Kepler" sagte er und verwies auf seine Muckis

Omg, mach mir keine Angst. Den Arm hat er wohl beim Mausschupsen am Computer mit Fitnesssimulator trainiert oder?
 
ne, beim Bürosessel rauf runter pumpen :fresse2: ... dafür geht´s aber schon^^

@Schaffe, wie kommst du auf 1,75GB Speicher?
 
Etwas mehr als 1,75GB könnten es schon sein.

Wenn man aber bedenkt das die Monitorauflösung wohl noch etwas länger bei Full HD stagnieren wird und auch die Konsolen weiterhin die grafischen Möglichkeiten bei Texturen usw begrenzen sind alles über 3 GB auch bei SLI oder Crossfire reiner Overkill. Ich hoffe ja das 2560er Auflösungen sich nochmal richtig durchsetzen, das dürfte nochmal was bringen bevor es richtung 4k geht. Leider sind die Monitore der breiten Masse einfach zu teuer.
 
4k (7680x4320) muß aber erstmal anlaufen und bis sich das durchsetzt vergehen noch ein paar Jahre, ganz geschweige vom Monitorbereich. Fängt 4k an wirklich gut zu laufen, dann haben wir wieder das Problem, das die HW Rohleistungstechnisch zu schwach sein wird. Die VRAM Bestückung wird dann aber explodieren. Dann werden wir auf jetzige Zeit zurück blicken wie wir jetzt auf 256/500MB zurück blicken.
Dann tauchen so Fragen auf..soll ich die 16GB oder doch lieber die 24GB Variante nehmen^^...
 
Diese Grenze wird sich wohl mit PCIe 3.0 Bandbreite/Motherboards noch ein Stück weiter verschieben

Wäre mal ein interessanter Test wievel Bandbreite für wieviel Vram bei Spiel X:d

Das wird sich, so behaupte ich, nicht wirlich viel nehmen. Man bedenke, die Bandbreite zwischen GPU und VRAM steigt ebenso. Des weiteren steigt die reine GPU Leistung.
Rechnet man das mal hoch, bleibt die PCIe Bandbreite im Vergleich zur VRAM Bandbreite immernoch sehr mau. Zumindest im HighEnd Bereich sind das teilweise nichtmal 10%... Der Einbruch wird im Fall von Nachladeereignissen immernoch extrem sein.

Das GTA4 sich das an VRAM nimmt was da ist ist dir klar, oder? Ich kann es nur wiederholen GTA4 ist das schlechteste Beispiel für VRAM Verbrauch in Spielen. Das fett markierte ist genau das auf was ich hinaus will.

Das ist quatsch... GTA IV nimmt sich genau so wie alle anderen Games auch, so viel wie es braucht. Deswegen fängt es auch an zu Ruckeln wenn zu wenig VRAM da ist...

Leider hast du die Hauptnachricht meines Posts nicht gelesen.
Also nochmal:
Damals hieß es, 1GB reicht aus. Es dauerte nicht lange und 1GB waren am Ende.
Heute heißt es, 2GB reichen aus. Es ... Setze den Satz im logischen Schluss fort.

Genau so sehe ich das auch...
Und NV hat in der Vergangenheit bei mancher Karte am VRAM gespart, was sie teilweise selbst nach kurzer Zeit zum VRAM "Krüppel" deklasierte. Vor allem bei den Dual GPU Karten 9800GX2 und 295GTX.

Damals gab es auch noch einen tendenziellen Aufwärtstrend bei den Konsolenderivaten bzw der Grafikqualität deren Games,der ist zu heutigen Zeiten einfach nicht mehr vorhanden

Auch wenn man mit Texturmods,noch den einen oder andere Speicherbaustein vollpumpt bei der PC Gamerkarte,zeichnet sich hier ebenso eine Stagnation ab.

Wir PC Gamer hängen ob uns das gefällt oder nicht,an der Zitze der Konsolenperformance,und solange sich da nix mehr bewegt,passiert da auch beim PC recht wenig

Auch wenn ich dir da durchaus recht gebe, zeichnet sich eher ab, das gerade heute, wo die Konsolen sehr betagt sind, der PC durch bessere Qualität mehr absetzt als Vorher. Es gibt zig Konsolen Portierungen. Und schaut man sich den Speicherausbau von Konsolen an, so zeigt sich deutlich, das mehr VRAM auch teilweise mehr bringt.
Wenn es rein nach den Konsolen gehen würde, wären 512MB heute lange noch ausreichend... Und selbst das haben die Konsolen als reinen Texturspeicher teilweise nicht zur Verfügung.
Und denkt man mal weiter, aus PC Gamer Sicht kann es mir nur recht sein, das man in Sachen bessere Texturen immer weiter vorran schreitet. ;)

ja, leider ist das so. Wenn ich dann den Mist mit der neuen Xbox lese wird mir schlecht. Dennoch ist es nicht verkehrt auf die 4GB zu setzen. Da wird dann sicherlich auch erstmal Pause sein.

Richtig, besser man hat, als man hätte...
Die Zeit bis zum echten Nachfolger mit signifikannt mehr Performance wird mindestens 1,5-2 Jahre sein... Da darf es heute ruhig was mehr sein.

Gilt das 512er SI als gesichert? Oder ist das bisher nichts als Gerüchte / Wunschdenken? Und selbst 2GB wären meiner Meinung nach okay, zugegeben etwas wenig im vergleich zu AMD, aber für die "Masse" an High-End Nutzer - für welche die Grafikkarte entwickelt wird - sicherlich völlig ausreichend ist. Für die ganzen Multimonitor bzw DS und SSAA Nutzer gibts dann halt sicher entsprechende 4GB Modelle.

Auserdem war meine Aussage eher an diesen Text angelehnt. Sorry das ich nicht automatisch immer alles zitiere...

Jacke wie Hose hat einfach keinen Durchblick beim Thema VRAM, die Diskusion gab es schon zur Genüge.
Sicher reichen 2GB heute aus, aber was ist mit morgen? Wie gesagt, denkt man mal rein wirtschaftlich aus Gamersicht, kommt man zu dem Punkt, das es wohl in allen Fällen besser ist, lieber mehr als weniger VRAM zu verbauen. Unterm Strich kostet das heute vllt 50€ mehr... Macht aber, wenn es in 1-2 Jahren mal so weit ist, das 2GB zu klein sind, eben einen Neukauf unnötig. Wer ernsthaft da mal drüber nachdenkt, wird zum gleichen Entschluss kommen. Oder hat einfach zu viel Geld um das unnötigerweise rauszuschmeißen :fresse:
 
ja, da schneidest du ein Thema an was ich absolut nicht verstehen kann^^
VRAM Krüppel...gerade die Dualkarten sollten i.d.R doch besser mit doppeltem Ram bestückt werden. Siehe GTX590. Die werden lediglich mit 2x1,5GB ausgeliefert, während Einzelkarten fast nur noch in 3GB Versionen erscheinen. Das ist schonmal ein Grund die Karte nicht zu kaufen. Warum das bei den Dualkarten nicht angehoben/angeboten wird entzieht sich meiner Vorstellungskraft :hmm:
 
ja, da schneidest du ein Thema an was ich absolut nicht verstehen kann^^
VRAM Krüppel...gerade die Dualkarten sollten i.d.R doch besser mit doppeltem Ram bestückt werden. Siehe GTX590. Die werden lediglich mit 2x1,5GB ausgeliefert, während Einzelkarten fast nur noch in 3GB Versionen erscheinen. Das ist schonmal ein Grund die Karte nicht zu kaufen. Warum das bei den Dualkarten nicht angehoben/angeboten wird entzieht sich meiner Vorstellungskraft :hmm:

Wobei natürlich Dual GPU Karten etwas mit Bedacht zu betrachten sind. Da zählt, gerade bei HD6990/295GTX jedes bisschen Einsparpotential um den Verbrauch "klein" zu halten... Doppelter VRAM könnte da unter Last teils mit 20W+ zu Buche schlagen, gerade bei hochgetakteten GDDR5 Speichern... Eventuell auch ein Grund, warum man sowas macht.
Nur heist das in meinen Augen lange nicht, das man auch bei Single GPU Karten sparen sollte ;)
 
auf 20W kommt es bei so nem Boliden nicht wirklich an. Da gilt eher der Nutzfaktor der ausbleibt weil die 20W sparen wollen...hmm...
Ja, ich weiß das muß auch gekühlt werden, aber selbst unter Wasser findet man keine Karten die entsprechend mehr Ram haben. Mal schauen wie das bei Kepler wird. So ne 690Classified-Hydro würde mich reizen, aber nicht mit zuwenig Ram.
 
4k (7680x4320) muß aber erstmal anlaufen und bis sich das durchsetzt vergehen noch ein paar Jahre, ganz geschweige vom Monitorbereich. Fängt 4k an wirklich gut zu laufen, dann haben wir wieder das Problem, das die HW Rohleistungstechnisch zu schwach sein wird. Die VRAM Bestückung wird dann aber explodieren. Dann werden wir auf jetzige Zeit zurück blicken wie wir jetzt auf 256/500MB zurück blicken.
Dann tauchen so Fragen auf..soll ich die 16GB oder doch lieber die 24GB Variante nehmen^^...
Wird bei 4K Auflösung nicht die doppelte Full-HD Auflösung auf beiden Seiten, sprich 3840x2160 oder max 4096x3112 Pixel angegeben?!


Jacke wie Hose hat einfach keinen Durchblick beim Thema VRAM, die Diskusion gab es schon zur Genüge.
Sicher reichen 2GB heute aus, aber was ist mit morgen? Wie gesagt, denkt man mal rein wirtschaftlich aus Gamersicht, kommt man zu dem Punkt, das es wohl in allen Fällen besser ist, lieber mehr als weniger VRAM zu verbauen. Unterm Strich kostet das heute vllt 50€ mehr... Macht aber, wenn es in 1-2 Jahren mal so weit ist, das 2GB zu klein sind, eben einen Neukauf unnötig. Wer ernsthaft da mal drüber nachdenkt, wird zum gleichen Entschluss kommen. Oder hat einfach zu viel Geld um das unnötigerweise rauszuschmeißen :fresse:
Es ist sicher im Sinne des Herstellers das man nicht das Ultimative Produkt auf den Markt bringt, man nur etwas besser sein will als der Mitwettbewerber. Sonst würde ja kaum einer mehr den Nachfolger kaufen. Und mal ehrlich wieviele von denen die sich hier die GTX 680 wünschen, haben gerade erst ihre GTX 580 verscherbelt? ...weit entfernt von der 2 Jahres Nutzung?!
 
4k (7680x4320) muß aber erstmal anlaufen und bis sich das durchsetzt vergehen noch ein paar Jahre, ganz geschweige vom Monitorbereich. Fängt 4k an wirklich gut zu laufen, dann haben wir wieder das Problem, das die HW Rohleistungstechnisch zu schwach sein wird. Die VRAM Bestückung wird dann aber explodieren. Dann werden wir auf jetzige Zeit zurück blicken wie wir jetzt auf 256/500MB zurück blicken.
Dann tauchen so Fragen auf..soll ich die 16GB oder doch lieber die 24GB Variante nehmen^^...

Die 4K Auflösung ist doch 3840*2160, also eigentlich 2160P.
So zumindest bei den ganzen Neuvorstellungen im TV Bereich, siehe Toshiba 4K Fernseher.
 
stimmt^^ sry....weiß auch nicht warum ich jetzt auf das 4 Fache gekommen bin. Habe meine Birne immo zuviel bei DS glaube ich :fresse:
 
...SemiAccurate...und morgen isses wieder ein 512er SI und GK104 ein 256er SI ... und übermorgen hat GK104 auch ein 384 bit SI :stupid:
 
Zumindest bei GK104 sollten die 256Bit absolut realistisch sein mit 2GB.
Dazu (später) eine kleinere Version mit 192Bit und 1,5GB, ähnlich GF104 mit der 1GB/768MB 460er, nur eben verdoppelt.

Das gleiche nochmal ohne Vollausbau mit reduzierten Shadern und man hätte ohne große Probleme eigentlich 4 Karten für die Mittelklasse von ~150-300$ :d
 
Zuletzt bearbeitet:
ich hab kein bock mehr auf dieses hin u. her gehabt. hab mir ne 7970 gekauft....

ob gut o. schlecht war werd ich wohl "when its done" sehen.
 
Wäre nicht schlecht direkt ne 384bit 3gb 680GTX kriegen zu können. Ich glaube das wäre optimal :)
Hoffentlich stimmts...oder halt doch direkt 512er mit 4gb.
 
Wenn die Dicke ein 512Bit Interface bekommt, dann wären 448Bit für eine teildeaktivierte Variante durchaus realistisch.
 
Oder 384/320 wie bei G80 :d
Da ist noch so viel möglich...
 
warum freut ihr euch jetzt so über ein 384 bit SI ? Das 512bit SI soll doch deutlich performanter sein :hmm:
 
3 GB wären locker ausreichend, es würde die Kosten etwas drücken und vorallem verhindern, dass man mit 2 GB auskommen muss.
1,5 GB würde man keinesfalls verbauen.
 
Ob man nun 512Bit mit "normal schnellem" Speicher nutzt oder 384Bit mit dem neuen pissgeilen Speicher, dürfte sich weder kosten- noch leistungsmäßig groß unterscheiden.
 
Wann kommen den endlich mal ein paar richtige Infos zur neuen Karte?
Kommt im April das Highend Modell?
Oder können wir vielleicht schon im Februar mit einer neuen Karte rechnen?
 
Wann kommen den endlich mal ein paar richtige Infos zur neuen Karte?
Kommt im April das Highend Modell?
Oder können wir vielleicht schon im Februar mit einer neuen Karte rechnen?

Das weiß niemand...

Zuerst kommt der GK104 im März/April und dann im Mai soll Der HighEnd Chip GK100 kommen.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh