Nvidia: Kepler kommt doch erst 2012

Ist jetzt von den Effekten und Texturen her eine ziemlich anspruchslose Stelle.
Zudem wirkt das Bild Downsampling in dem Bild mit FXAA an manchen Stellen etwas ungeglättet, man nehme zum Belistift die Kante der schwarzen Kiste.

jo schwätz dich gesund :d 1. kein DS 2. Metro und 3. sieht das zu 99% immer so aus :-) schonmal gespielt das Spiel?

---------- Beitrag hinzugefügt um 09:55 ---------- Vorheriger Beitrag war um 09:54 ----------

hmm ja, ist ziemlich finster auf dem Screenshot ^^

im Dunkeln läßt sich gut munkeln :-) ich latsch mal weiter event ist irgendwo ne Lampe an :-)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hm das riecht bei NVIDIA so alls wenn die Karten erst zu Ostern aufschlagen Anfang januar wäre zwar schön denkt man an die 40Nm Fertigung zurück so hatte das ganze bei NV aber ganz schön auf sich warten lassen.
AMD war damals glaube ich auch fast 6 Monate vor NV am Drücker.
Ich werde meine 2 Karten bevor AMD ihre bringt verkaufen und dann erstmal 1zu1 auf AMD umsteigen anders habe ich einen enormen Verlust und wohl möglich plötzlich ca. 50% weniger Leistung pro Karte als mit AMD ihren neuen.
Mal schauen wie sich das entwickelt.
 
Zuletzt bearbeitet:
Ich glaube die ersten Kepler Karten werden so im April in den Läden sein vieleicht schon früher ...aber dann ziemlich rar.
Ich werd meine 590 bis zum Erscheinen von dual Kepler GPU Karten nutzen vorher rüste ich nicht um (vieleicht eine zweite 590)...und dann Pinn ich mir das Teil an die Wand ..einfach weils so geil aussieht ^^
 
Woher habt ihr die Infos zur möglichen Leistung!?

Wie schon gesagt, der Schritt zu weiteren 80-90% Mehrleistung unter Anbetracht der Skallierung beim Thema Leistungsaufnahme zu Mehrleistung der letzten Generationen würde in über 400W Leistungsaufnahme resultieren... Für die Single GPU.

Im Moment gibt es immernoch die 300W PCIe Spezifikation und man wird sich in meinen Augen dort zumindest für die Single GPU dran orientieren ;)

*Zaun aufstell und mit dem 28nm Schild Wink*

Oder hat nVidia vor, Kepler in 40nm zu bringen.
Ich glaube eher nicht.
 
@Chezzard
Auf jeden fall hatten wir vom wechsel 55nm GT206 zum 40NM Fermi auch keine 80-90 %
Mehrleistung.
Und das sind immerhin auch 15nm weniger gewessen jetzt nur 12 nm weniger.

Von daher ist der Unmut von fdsonne nicht unbegründet.

Es sei den NV hat Architektur Technisch komplett umgestellt und die Zündende Idee am Start.
70% wären schon ziemlich Spitze aber es wird sich halt noch zeigen .
 
Zuletzt bearbeitet:
Das ist für uns nicht nachvollziehbar, aber wenn man gtx 280 und gtx 580 vergleich, sieht man was in den 15nm drinnen ist.

Mit guter Architektur und den 12 nm kann sich sicher was machen lassen.

Die Frage ist vielmehr, ob es nVidia immer noch auf "Diese" 10% Mehrleistung anlegt oder lieber mal nachgibt...
 
@Chezzard
Auf jeden fall hatten wir vom wechsel 55nm GT206 zum 40NM Fermi auch keine 80-90 %
Mehrleistung.
Und das sind immerhin auch 15nm weniger gewessen jetzt nur 12 nm weniger.
Von daher ist der Unmut von fdsonne nicht unbegründet.
Es sei den NV hat Architektur Technisch komplett umgestellt und die Zündende Idee am Start.

So kannst du nicht rechnen, denn die Gatelänge geht Quadratisch in den Flächenbedarf ein. Und es sind Verhältnisse, keine Differenzen.

Ich hab mir nochmal die vergangenen Werte angeschaut und muss fdsonne Recht geben: In der Vergangenheit gab es bei Nvidia eigentlich höchstselten die Situation, dass man die Leistung/Watt verdoppelt hat. Und wenn da mal ein Faktor 2 bei der Leistung greifbar war, stieg auch die Leistungsaufnahme ein gutes Stück.
 
wer ist uns :d
Kommt drauf an wo sie mehr Leistung haben wollen inGame oder der andere Krams...
 
@boxleitnerb
Ich sehe das nicht anders Doppelte Leistung ist sehr hoch gegriffen.
Bei 50% rum herum sind wir denke ich im richtigen Rahmen.
Früher hatten die Karten auch nur DX10 Heute DX 11 kommt auch auf die Scenarien und Anwendungen an.

Bei Games denke ich sind 50% drumherum möglich bei anderem Krams wie mayer2 es Formuliert hat sicher auch weit aus mehr.
MFG
 
Zuletzt bearbeitet:
Ein richtiger Sprung (Verdopplung der Einheiten zu GTX 480) und evtl. noch mehr Takt wären mal etwas. Solange man bei 250W Maximum bleibt ok. Aber 300 wäre mir dann doch sehr unangenehm. 50% mehr finde ich nicht so berauschend dafür, dass man ca. doppelt so viele Transistoren unterbringen kann.
 
Man sollte auch nüchtern betrachten.
Nüchtern haben wir den Schritt 280GTX bei 65nm mit groben 235W Leistungsaufnahme vs. 480GTX bei 40nm mit 320W Leistungsaufnahme (jeweils Volllast)
Und wir haben 285GTX in 55nm bei groben 190W Leistungsaufnahme vs. 580GTX bei 40nm mit immernoch 320W Leistungsaufnahme.

Also ein Vergleich erste Version vs. erste Version der folgenden Generation.
Und da zeigt sich, das eben vllt 70%, 80% oder auch 90% Mehrleistung zu stande kommt im Schnitt. Aber eben die Leistungsaufnahme auch stark angestiegen ist.

Geht man weiter zurück, haben wir 8800GTX/9800GTX(+) vs. 280/285GTX. Das spiel kommt auf exakt das gleiche drauf raus. Die Leistungssteigerung der Folgekarten beträgt ähnliche Werte. Die 8800GTX kommt mit ihren 130W aber auch auf deutlich weniger Stromaufnahme. Das gleiche gilt für die G92 9800GTX(+) Karten.


Da kann man noch so viel mit 28nm winken ;) NV kann nicht zaubern... Also sollte man realistisch bleiben.
AMD ist damals als erster den Schritt gegangen die HD4870 X2 mit deutlcih über 300W Leistungsaufnahme zu bringen. Und mittlerweile sind wir bei Single GPU Karten auf ähnlichem Niveau. Die Leistungsaufnahme in 400W+ Regionen zu prügeln nur um die Leistungssteigerung zum Vorgänger einzuhalten halte ich für sehr gewagt... ;)
 
Ich wahr mals so frei kurz was zusamen zu suchen.

8800GTX
Chiptakt: 575MHz, Speichertakt: 900MHz • Unified Shader/Pixel-Pipelines: 128@1350MHz, ROPs: 24, Speicherbus: 384-bit • maximaler Verbrauch: 155W • unterstützt HDCP
9800GTX
Chiptakt: ca 738, Speichertakt: 400MHz • Chip: G92b (D9E) • Speicherinterface: 256-bit • Stream-Prozessoren: 128 • Textureinheiten: 64 • Fertigung: 55nm • Maximaler Verbrauch: ca.160 • DirectX: 10.0 • Shader Modell: 4.0 •
GTX280
Chiptakt: 670MHz, Speichertakt: 1215MHz, Shadertakt: 1458MHz • Chip: GT200 (D10U-30) • Speicherinterface: 512-bit • Stream-Prozessoren: 240 • Textureinheiten: 80 • Fertigung: 65nm • Maximaler Verbrauch: 236W • DirectX: 10.0 • Shader Modell: 4.0 •
GTX285
Chiptakt: 648MHz, Speichertakt: 1242MHz, Shadertakt: 1476MHz • Chip: GT206 (GT200b) • Speicherinterface: 512-bit • Stream-Prozessoren: 240 • Textureinheiten: 80 • Fertigung: 55nm • Maximaler Verbrauch: 183W • DirectX: 10.0 • Shader Modell: 4.0
GTX480
Chiptakt: 700MHz, Speichertakt: 924MHz, Shadertakt: 1401MHz • Chip: GF100 • Speicherinterface: 384-bit • Stream-Prozessoren: 480 • Textureinheiten: 60 • Fertigung: 40nm • Maximaler Verbrauch: 320W • DirectX: 11 • Shader Modell: 5.0 •
GTX580
Chiptakt: 782MHz, Speichertakt: 1002MHz, Shadertakt: 1564MHz • Chip: GF110 • Speicherinterface: 384-bit • Stream-Prozessoren: 512 • Textureinheiten: 64 • Fertigung: 40nm • Maximaler Verbrauch: 244W/320
http://www.computerbase.de/artikel/...force-gtx-480/21/#abschnitt_performancerating
Performancerating - 1920x1200

Nvidia GeForce GTX 480
100,0
Nvidia GeForce GTX 285
59,6
Heute wird es sicher durch Treiber verbesserung noch besser aus sehen für die 480 aber sonst waren es früher Ca 40%.
 
Zuletzt bearbeitet:
TDP != Verbrauch

Eine GTX 580 braucht zB ähnlich viel Energie wie eine GTX 480.
 
Ja danke das stimmt Geizhals Daten.mr.dude.
Im grobben und ganzen wenn man die Geschichte so verfolgt hat kann man bei Games (Spiele Anwendungen) ab Ca.40% -60% spekulieren ohne es erstmal zu übertreiben.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh