nVidia GK100/Geforce 6xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Direkt an der Karte abgegriffen ~ 270Watt im Full Load

AMD Radeon HD 7970 3 GB Review - Page 26/32 | techPowerUp

Aber Furmark ;) Nix Gaminglast...

EDIT:
Our results are based on the following tests:

Idle: Windows 7 Aero sitting at the desktop (1280x1024 32-bit) all windows closed, drivers installed. Card left to warm up in idle until power draw is stable.
Multi-Monitor: Two monitors connected to the tested card, which use different display timings. Windows 7 Aero sitting at the desktop (1280x1024 32-bit) all windows closed, drivers installed. Card left to warm up in idle until power draw is stable.
Average: Crysis 2 at 1920x1200, Extreme profile, representing a typical gaming power draw. Average of all readings (12 per second) while the benchmark was rendering (no title/loading screen).
Peak: Crysis 2 at 1920x1200, Extreme profile, representing a typical gaming power draw. Highest single reading during the test.
Maximum: Furmark Stability Test at 1280x1024, 0xAA. This results in a very high non-game power consumption that can typically be reached only with stress testing applications. Card left running stress test until power draw converged to a stable value. On cards with power limiting systems we will disable the power limiting system or configure it to the highest available setting - if possible. We will also use the highest single reading from a Furmark run which is obtained by measuring faster than when the power limit can kick in.
Blu-ray Playback: Power DVD 9 Ultra is used at a resolution of 1920x1200 to play back the Batman: The Dark Knight disc with GPU acceleration turned on. Playback starts around timecode 1:19 which has the highest data rates on the BD with up to 40 Mb/s. Playback left running until power draw converged to a stable value.
 
Zuletzt bearbeitet:
Na da kann man ja nur hoffen, dass GK104 bei "highest single reading from a Furmark run" nicht auch etwas über die Stränge schlägt. Die 163W Durchschnittsverbruach der HD7970 bei Crysis 2 sind schon ne Ansage ;)
 
Bezogen auf die TDP spielt die Gaminglast doch keine Rolle

Richtig, aber die TDP ist mit 210W angegeben...

Du kannst aber wie üblich davon ausgehen, das auch Kepler in Furmark seine TDP deutlich überschreitet, wie bis dato in nahezu jeder Performance/HighEnd Grafikkarte der letzten Jahre ;)
 
Richtig, aber die TDP ist mit 210W angegeben...

Du kannst aber wie üblich davon ausgehen, das auch Kepler in Furmark seine TDP deutlich überschreitet, wie bis dato in nahezu jeder Performance/HighEnd Grafikkarte der letzten Jahre ;)

Mit ner max Boardpower von 225Watt kanns aber nicht viel werden mit Werten von 270 oder gar mehr und das die TDP wohl deutlich unter diesem Wert liegen soll sagte Charlie ja bereits:)
 
Zuletzt bearbeitet:
Mit ner max Boardpower von 225Watt kanns aber nicht viel werden mit Werten von 270 oder gar mehr und das die TDP wohl deutlich unter diesem Wert liegen soll sagte Charlie ja bereits:)

In deiner verlinkten Seite steht ne 570er mit über 300W Volllast Furmark verbrauch drin ;) Nur so zur Info, was von dem theoretisch möglichem zu halten ist. Das gleiche gilt für (noch) aktuelle Dual GPU Karten in Furmark ;)
 
Was wenn diese 2GB vollends genügen,falls??? da wirklich noch ein L3Cache als Puffer fungiert

Wie willst du mit L3 Cache dicke womöglich HD Texturen zwischenbunkern?
So langsam wirst du kleinlich :fresse:
Ich hoffe, das NV nicht den VRAM zu klein macht, einfach weil es auf die mögliche Laufzeit von 1,5-2 Jahren, bis signifikannt schnellere Karten in 20/22nm kommen, ne sehr lange Zeit ist.
 
was würde der L3 Cache denn auffangen? Mir fehlt da ein wenig der Überblick was das anbelangt, wenn ich ehrlich bin.
 
Ich denke das wird primär im GPGPU Bereich interessant. Wo es darum geht, Sachen noch schneller kurzzeitig verfügbar zu machen/zu halten. Heutige GPUs haben ja schon Caches eingebaut...
 
Wie willst du mit L3 Cache dicke womöglich HD Texturen zwischenbunkern?
So langsam wirst du kleinlich :fresse:
.

Du weißt doch noch gar nicht wie das Speichermanagement arbeitet,was es wie auslagert und wann in den möglichen??? L3 verlagert


Bisher ist Nvidia mit 1,5GB gut gefahren selbst ohne Zwischenpuffer und die jetzt spekulierten 2GB sollten dem Ganzen nun nicht den Gar aus machen
 
Zuletzt bearbeitet:
jagut, aber das hat doch nichts mit der eigendlichen Ramgröße zu tun im Fall von DS und großen HD Texturen. Dann verstehe ich die Aussage von Scully nicht so recht^^
 
jagut, aber das hat doch nichts mit der eigendlichen Ramgröße zu tun im Fall von DS und großen HD Texturen. Dann verstehe ich die Aussage von Scully nicht so recht^^

Schau dir mal die Tests mit 3GB Versionen der 580GTX an und wie oft da von 3GB Ram profitiert wird mit DS

2GB ist vielleicht genau der goldenen Mittelweg,da sich wohl in der Spielebranche so schnell nichts rührt,aufgrund von fehlenden Next Gen Konsolen
 
Zuletzt bearbeitet:
im SLI ? Als Single GPU keine Frage, da will ich aber nicht hin :d ... auch wenn ich das Geld für SLI noch nicht zusammen habe. Es wird bis zum Launch ja noch was Zeit verstreichen.

Was kann der L3Cache dann auffangen im Fall von Ram-overflow? Bestenfalls doch keinen Gameshutdown, aber dafür einen Einbruch in einstellige fps Bereiche. Das bringt mich dann auch nicht wirklich weiter *G*

€dit:
aber ich glaube im Fall von Ram - Overflow trotz Cache gibts nen Shutdown.
Wenn ich das richtig verstanden habe ist der Cache eher gut um Sachen schneller wiedergeben zu können.
 
Zuletzt bearbeitet:
Scully hat offensichtlich den Sinn eines Caches nicht verstanden ;)

Ich denke schon aber kläre uns auf anstatt solch einen Einzeiler zu verfassen


Ich sagte bereits keine weiß wie das Speichermanagement arbeitet,falls dort ein Zwischenpuffer verbaut sein sollte

Oder hast du da schon tiefere Einblicke?

Vielleicht genügen die 2GB Vram aber auch vollends in 99% der Fälle auch mit DS
 
Zuletzt bearbeitet:
Schau dir mal die Tests mit 3GB Versionen der 580GTX an und wie oft da von 3GB Ram profitiert wird mit DS

Fahr die richtigen Settings, dann merkst du die Unterschiede deutlich. Mit deinen 4x480ern hast du GPU Leistung ohne Ende für sodde Spielereien ;)

Wie gesagt, im Beispiel, ich fahre hier Skyrim mit 2xSGSSAA, ein paar Mods + erweiterte Sichtweite. Was ist? 1280MB brechvoll. Hier und da störende Nachladeruckler. 4xSGSSAA absolut nicht machbar in den Settings. Stell ich mir nun Kepler mit spekulierten ~50%+ über ner 580GTX vor. Wären das ggf. sogar inkl. OC über 100% Mehrleistung zu meinen 470 GTXen je im SLI. Da könnte man bedenkenlos 4xSGSSAA oder gar 8xSGSSAA rein hauen. Bzw. 4xSGSSAA + leichtes Downsampling fahren und hätte immernoch ordentlich flüssige FPS Raten...
Wenn damit aber direkt nach Kauf die VRAM Grenze schon erreicht ist, wie soll das in zwei Jahren werden?

OK mit besserer Kompression oder ähnlichem holt man ein paar MB raus. Damit kompensierst du aber definitiv keine 50% VRAM, welche eine AMD Karte hätte. Und welche sie eben in der Zukunft auspielen könnte.

Und der 3GB 580GTX vergleich hinkt gewaltig... Mit ner Single 580er fährst du bei extrem Settings wohl eher im GPU Limit. Mit SLI wirds da schon interessanter.
Und 1,5GB sind spielend voll zu bekommen ;) das denke ich weist du auch...

Sollte es wirklich ne Standard 2GB Version geben, würde es mich arg wundern. Erstens, weil man hier und dort ließt, das NV womöglich AMD überschätzt hat, und zweitens, weil NV in der Vergangenheit eher vorreiter als Nachzügler war, was VRAM anging. Zumindest im HighEnd Bereich.
Man hat mit G80 50% mehr VRAM gebracht als AMD, man hat mit G200 100% mehr VRAM gebraucht, als AMD zu Anfang mit den ersten 4870ern. Und man hat mit den Fermi Karten 50% mehr VRAM gebracht, als AMD mit den RV870ern. Heute soll das auf einmal andersrum laufen!? Da glaube ich nicht wirklich dran...

Ich sagte bereits keine weiß wie das Speichermanagement arbeitet,falls dort ein Zwischenpuffer verbaut sein sollte

Oder hast du da schon tiefere Einblicke?

Ich kann dir sagen, wie das funktioniert. Texturen, die benötigt werden, kommen in den VRAM. Um so höher aufgelöst und um so größer die Texturen, sowie um so mehr dieser hochaufgelösten, größeren Texturen gleichzeitig im VRAM behalten werden müssen, desto größer muss der VRAM sein.
Werden mehr Texturen innerhalb kürzester Zeit benötigt, als in den VRAM passen, kommt es zu Nachladerucklern... Das fängt von kurzem Stottern und dann gehts flüssig weiter an, geht über dauerhaft niedrigere FPS Rate bis in Unspielbarkeitsregionen von unter 10 FPS.
 
Zuletzt bearbeitet:
Und der 3GB 580GTX vergleich hinkt gewaltig... Mit ner Single 580er fährst du bei extrem Settings wohl eher im GPU Limit. Mit SLI wirds da schon interessanter.
Und 1,5GB sind spielend voll zu bekommen ;) das denke ich weist du auch...

...

Ich redete in dem Fall auch von potenten SLI Systemen und DS

Und ja 1,5GB bekomme ich spielend voll,nur wo ist die Grenze bei heutigen Konsolenports?

Das kannst weder du mit der 1,28GB Karte ergründen noch ich mit den 1,5GB

PCGHW hat dahingehend glaub ich einen Test gefahren mit den 3GB Modellen im SLI Setup,mit dem Fazit das diese 3GB nur in seltenen Fällen wirklich greifen

Also muss das gute Mittelmaß irgendwo zwischen 1,5 und 3GB liegen
 
Zuletzt bearbeitet:
Ich kann dir sagen, wie das funktioniert. Texturen, die benötigt werden, kommen in den VRAM. Um so höher aufgelöst und um so größer die Texturen, sowie um so mehr dieser hochaufgelösten, größeren Texturen gleichzeitig im VRAM behalten werden müssen, desto größer muss der VRAM sein.
Werden mehr Texturen innerhalb kürzester Zeit benötigt, als in den VRAM passen, kommt es zu Nachladerucklern... Das fängt von kurzem Stottern und dann gehts flüssig weiter an, geht über dauerhaft niedrigere FPS Rate bis in Unspielbarkeitsregionen von unter 10 FPS.

und dann kommt der L3Cache ins spiel und alles ist passe´ , aber nur solange die Ramgröße noch ausreichend ist.
Das klingt doch prima :)
 
Ein Cache beschleunigt nur mehrfache Zugriffe auf dem VRAM, er kann ihn nicht ersetzen. Und wenn der VRAM nicht mehr groß genug für die Texturen ist, dann hilft kein Cache dagegen.
 
und dann kommt der L3Cache ins spiel und alles ist passe´ , aber nur solange die Ramgröße noch ausreichend ist.
Das klingt doch prima :)

Der L3 Cache wird ein paar MB groß werden. Schau dir an, wie viel Fläche der Cache auf Intels S2011 CPUs braucht ;) Auch wenn 28nm flächentechnisch gut was sparen wird, sieht man die Rellationen. Demgegenüber stehen teilweise hunderte MB von Texturen, bis zu GB weise Texturen. Der L3 Cache, sollte er für das Texturmanagement in Extremsettings da sein, wird da bestenfalls ein Tropfen auf den heißen Stein.

PCGHW hat dahingehend glaub ich einen Test gefahren mit den 3GB Modellen im SLI Setup,mit dem Fazit das diese 3GB nur in seltenen Fällen wirklich greifen

Also muss das gute Mittelmaß irgendwo zwischen 1,5 und 3GB liegen

Da würde ich sogar mitgehen...
Aber mit dem Hinweis, das es bezogen auf die GF110 gilt. Ein 50%+ schnellerer Kepler bzw. in Extremsettings womöglich gar weit mehr schnellerer Kepler mischt die Karten für die Zukunft also nochmal durch. Und warum sollte man, wenn man mal das rechnerische Mittelmaß zwischen 1,5 und 3GB nimmt, mit dem deutlich fixeren Kepler da drunter bleiben?

OK, aus Marketingsicht könnte das für NV durchaus Sinn machen :fresse: Aus Endkundensicht will ich da lieber mehr als zu wenig...
 
fdsonne glaubt ja anscheinend fest an die 4GB Ram bei der GTX680
 
fdsonne glaubt ja anscheinend fest an die 4GB Ram bei der GTX680

Ich glaube nicht, ich wünsch es mir... ;)
Da ich im Falle, es kommt nicht so, durchaus überlegen muss, was ich sonst kauf...
Ne 2GB Kepler GK110 kauf ich denke ich nicht. Weil ich das Teil vor hab, bis zum 20/22nm Nachfolger zu behalten. Und von Anfang an auf SLI setzen will.
Das heist, das Teil muss insich stimmig sein für meine Ansprüche, die da währen, 4xSGSSAA, gerne auch mehr, wenn möglich. Und da muss der VRAM definitiv mitmachen. Sonst wird das nix mit dem Nachbarn :fresse:
 
OK, aus Marketingsicht könnte das für NV durchaus Sinn machen :fresse: Aus Endkundensicht will ich da lieber mehr als zu wenig...

Der Energiehunger der Referenzkarte steigt mit 4GB auch an;)

Ich würde wirklich darauf tippen das nvidia 2gb fährt um in den Reviews gut abzuschneiden und den Boardpartner vielleicht sogar schon von Anfang an 4gb genemigt bei ihren Eigenkreationen
 
so ich bin einer der 5 die nächsten Freitag in München bei NVidia sind

mal sehen was die so wissen oder nicht wissen und was sie sagen dürfen ;)

ich geb mein bestes :d
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh