(Angebliches) Problem Mit GTX 970 Und 4GB Grafikspeicher Allozierung

Status
Für weitere Antworten geschlossen.

GeorgR.

Neuling
Thread Starter
Mitglied seit
06.04.2007
Beiträge
760
Zurzeit gibt es mehrere Threads auf Foren with OCN, Anandtech, WCFTech, Guru3d, Nvidia.com über ein ANGEBLICHES Problem der GTX 970 mit der Allozierung der gesamten 4GB Grafikspeicher. (Google: "gtx 970 4gb allocation problem")

Die Behauptung der Threadersteller ist dass die GTX 970 Probleme beim Allozieren von mehr als +/- 3.5GB Grafikspeicher hat, wenn ein Game unter extrem Bedingungen mehr als diese 3,5GB anfordert, die Performance der GTX 970 extrem einbrechen soll. (Bspws. dass der PC dann aufs Systemmemory/pagefile zugreift anstatt auf die restlichen 512MB im Grafikspeicher zuzugreifen). Die 980 soll dieses Problem nicht haben.

Eine Gruppe von Leuten hat um dieses zu unterlegen screenshots, videos usw. gemacht wo die Auslastung der 970 und die der 980 verglichen wird. Oft wird gezeigt (MSI Afterburner usw.) wie bei bestimmten Spielen die 980 die vollen 4GB alloziert, eine GTX 970 aber nur 3.6.

Die Gerüchte gehen noch weiter, bis hin zu abstrusen Behauptungen dass die GTX 970 in Wahrheit evtl. keinen 256 Bit Bus habe, also die vollen 4GB gar nicht ansprechen kann..bzw von der beschnittenen Archtektur (im Vergleich zur 980) da Probleme hat.

Ich gebe zu dass diese Threads nicht notwendigerwise überzeugend sind, trotzdem sehe ich das Thema als interessant an da hoher Grafikspeicherverbrauch ja bei Spielen wo man von 4K mit DRS runtersampelt durchaus vorkommen kann.

Laut "rep" von Nvidia, ManuelG vom Guru3d Forum ist die Sache momentan "under investigation", heisst dass Nvidia untersucht ob an den Behauptungen was dran ist.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hmm.. In FC4 hatte ich eine auslastung von 3.8gb ohne Probleme
 
GTX970vs980.jpg

Scheint wohl ein Problem aller 970er zu sein, soll sich auch nicht via Treiber fixen lassen, da es an der Hardware liegt.

So wird man als Kunde heutzutage verarscht, danke Nvidia!
 
war das nicht schon zu GTX660ti zeiten so? *grübel* Wenn das wirklich auch so sein sollte, sollte nVidia sich da aber mal gedanken machen wie man diesen "bug" beheben könnte
 
noch liest man davon nur von usern. NV checkt das ja erst noch.

ich würds ja gern mal gegentesten, aber hab keine Ahnung wie und womit ich die 4GB voll bekommen kann ...
 
Schöne Resteverwertung der GTX980 die Nvidia am Start hat. Sieht aus als wären von den 256 Bit nur 208 Bit voll angebunden. Probleme mit Spulenfiepen, Speicherallozierung, irgendwo muss gespart werden. Wird den Leuten demnächst als Feature verkauft. :xmas:
 
Zuletzt bearbeitet:
Schöne Resteverwertung der GTX980 die Nvidia am Start hat. Sieht aus als wären von den 256 Bit nur 208 Bit voll angebunden.

Demnach müsste dann auch eine GeForce GTX670 mit GK104 von diesen Problem betroffen sein. Im Gegensatz zum Vollausbau wird hier 1 Shadercluster (SMX) deaktiviert. Somit stehen statt 8 nur 7 zur Verfügung. Damit würde die Speicherbandbreite auch nicht 256bit, sondern effektiv nur 224bit breit sein und auch nur 1792MB statt 2048MB belegt werden können bzw. beginnt dann die Leistung einzubrechen. Vielleicht könnte das hier jemand gegentesten?

Hier ein Bild der Kepler-Architektur:

9.jpg
 
Zuletzt bearbeitet:
Freund von mir heult sich seit gut ner Woche bei mir aus... aufgefallen ist es bei ihm, bei evolve... bis 3,5Gb kein Thema 60fps... und sobald Action beginnt, und der Speicher rund 3700mb gefüllt ist knallt es bis runter auf 40fps...

Kann ihn aber nicht helfen, hab nur ne 290x und da bleibt es bei 55-60fps auch wenn 3900mb auf 1600p gefüllt sind. ich müsste da ne 980 haben um ein wenig vergleichen zu können.
 
Zuletzt bearbeitet:
Mir kommt schon das Kotzen, jetzt da es ja quasi offiziell ist mit diesem Test. Ich hoffe wirklich das BIOS Updates das beheben können, habe da aber so eine Ahnung das wird nicht so leicht sein. NATÜRLICH gerade dann wenn ich mir ne 970 holen wollte....

- - - Updated - - -

noch liest man davon nur von usern. NV checkt das ja erst noch.

ich würds ja gern mal gegentesten, aber hab keine Ahnung wie und womit ich die 4GB voll bekommen kann ...

Ich finde die Idee das es schwer wäre die 4GB vollzubekommen.....abstrus.

Warum? Ein Hauptgrund WARUM ich eine 970 oder 980 haben will ist downsampling. Ich habe keine Zweifel dass downsampling von 4K Auflösungen sogar auf meinen Popelmonitor 1680x1050 und dann eben ULTRA settings usw. durchaus leicht 4GB allozieren könnten.

- - - Updated - - -

Wird den Leuten demnächst als Feature verkauft. :xmas:

Yup..genau wie diese Abomination "GPU Boost", ganz speziell bevor GPU Boost 2.0. Wo's ja auch Marketingtricks braucht um so einen ##*%$! den Leuten zu verkaufen....
Wussteste beispielsweise dass die normale MSI GTX 970, ehe sie nen BIOS Update erhielt UNTER den gelisteted Base takt "boostet"? :) Da haben Leute gerade mal 900Mhz bei Furmark etc. gesehen weil das Board so mickrig dimensioniert ist dass die Karte bei jeglicher Belastung dann "boosted"...ach wart' mal..RUNTERTAKTET :)
 
noch liest man davon nur von usern. NV checkt das ja erst noch.

ich würds ja gern mal gegentesten, aber hab keine Ahnung wie und womit ich die 4GB voll bekommen kann ...

BF4 @ Ultra @ 4xAA/16xAF @ 140% Auflösungsskala. Da habe ich durchgehend 3800-4200Mb im Ram (R9 290)
 
Link? find nix dazu

3DCenter berichtet über angeblichen VRAM Fehler der 970 - Seite 2 - ComputerBase Forum
:wink:

Mir kommt schon das Kotzen, jetzt da es ja quasi offiziell ist mit diesem Test.

Also offiziell ist dabei noch gar nix...
Der Benchmark misst dabei auch nicht wirklich das Problem, sondern nur die "Schreibleistung" der VRAM Chips. Er erkundet aber faktisch nicht, warum das so ausschaut, wie es ausschaut.

Das der hintere Bereich einbricht, scheint dabei völlig logisch zu sein, da sich Windows selbst etwas VRAM für den Desktop Betrieb reserviert und der Benchmark knallhart mehr Platz belegt, als frei ist -> und somit über den PCIe Slot im RAM weiter geschrieben wird!

Das die 970er eher wegbricht ist aktuell genau das "Problem". Bis jetzt scheint es aber keine richtigen Schlüsse zu geben, warum das so sein sollte... Aktuell munkelt man, das beim lasercut der GPU zu viel weggelasert wurde. Sprich das Teile der SMX maßgeblich für den Bandbreite verantwortlich sind.
Auf der einen Seite nicht ganz ausgeschlossen, auf der anderen Seite hingegen steht das im Grunde aber in keinem Zusammenhang, warum die Karte den VRAM nicht belegen sollte... Denn das scheint eher rein "Software" zu sein. Sprich Treiber.

Vor allem kann das auch nicht direkt was mit der VRAM Größe zu tun haben, denn die Größe ist ja quasi unabhängig der Bandbreite. Würde man nicht alle VRAM Chips ansprechen, müsste die Bandbreite komplett runter gehen. Auffallend ist allerdings, das die 970er nicht so viel Schreibleistung auf den VRAM Chips hat wie die 980er. Da stehen ca. 150GB/sec vs. 175GB/sec. Das sind aber gerade mal ca. 16,5% mehr. Und 16,5% lässt sich irgendwie nicht so ganz in Einklang mit mangelnder Anbindung bringen.
Die 256Bit Karten haben ja acht Speicherchips. Es existieren vier 64Bit Speichercontroller. Heist also, wenn da einer davon nicht richtig laufen würde, müsste die Bandbreite um 25% einknicken. Sie knickt aber nur um knapp 14% ein. Auf der anderen Seite, die Werte brechen bei ca. 3,5GB runter. Also ab ca. 3,5GB schaufelt der den Spaß in den RAM über den PCIe Slot... Was wohl aus meiner Sicht klar vom Treiber getriggert wird!! 3,5GB wären aber nur ein VRAM Chip (da diese 512MB groß sind). Die VRAM Chips hängen aber immer im Pärchen pro 64Bit Controller. Das passt ebenso nicht zusammen.


Für mich persönlich klingt das alles aktuell noch nicht so 100% nach einem Hardware Problem. Warum? Weil die Werte nicht ganz konsistent zur Hardware sind. Für mich riecht das eher danach, das NV hier ne Art "Limit" in den Treiber gepackt hat. Womöglich um die Unterschiede unter absoluter Last zwischen den beiden Modellen (künstlich) zu erzeugen... Aus Kundensicht ist das faktisch absolut keine schöne Sache!! Aus Sicht von NV kann man das aber wohl sogar nachvollziehen :fresse:

Warum? Ein Hauptgrund WARUM ich eine 970 oder 980 haben will ist downsampling. Ich habe keine Zweifel dass downsampling von 4K Auflösungen sogar auf meinen Popelmonitor 1680x1050 und dann eben ULTRA settings usw. durchaus leicht 4GB allozieren könnten.
Speicher belegen und Speicher benötigen, sind zwei völlig verschiedene paar Schuhe!
Auch wirst du wohl kein DS von "4k" (16:10 -> 3840x2400) auf einem 1680x1050er Monitor so ohne weiteres hinbekommen... Ggf. mit Umwegen ja, aber über DSR wird das nix. Da ist bei 2x2 aktuell schluss. Das wären 3360*2100 bei dir.
Immerhin wäre "echtes 4k" damit größer 30% Anspruchsvoller!
Ebenso hat die Auflösung nach wie vor keinen nennenswerten Einfluss auf den reinen VRAM Verbrauch... Das war mal so. Und ja es gibt auch heute noch Titel, da ist das anders. -> BF3 zum Beispiel. In vielen Titeln hingegen steigt der VRAM Verbrauch bei vierfacher Auflösung vielleicht um 20-30%, wenn überhaupt. Das ist im Grunde lächerlich wenig Zuwachs.
Eher hast du das Problem, das dich 4x mehr Bildpunkte ca. 50-70% Performance auf der GPU kosten. 50-70% ist andersrum ausgedrückt, für gleiche FPS ca. 2-3x mehr GPU Power notwending! Mit ner Single 970er schaffst du das sowieso nicht im Schnitt. Bei älteren Titeln ggf., aber da ist der VRAM wiederum idR auch kein Problem... Wie man es dreht und wendet, es kommt im Endeffekt auf das gleiche raus. Auch bei höherer Auflösung wird dich der VRAM nicht zu unspielbaren FPS bringen. Und wenn es der Fall sein sollte, das der VRAM maßgeblich überläuft und die FPS einknicken, wirst du wohl so oder so keine spielbaren FPS mehr haben!

Wussteste beispielsweise dass die normale MSI GTX 970, ehe sie nen BIOS Update erhielt UNTER den gelisteted Base takt "boostet"? :) Da haben Leute gerade mal 900Mhz bei Furmark etc. gesehen weil das Board so mickrig dimensioniert ist dass die Karte bei jeglicher Belastung dann "boosted"...ach wart' mal..RUNTERTAKTET :)

Auch das hat im Grunde nix mit dem Boost zu tun. Man kann ihn mögen oder auch nicht. Ich mag ihn bspw. nicht unbedingt... Aber man muss ihn nicht schlechter machen als er ist.
Fakt ist, seit der Fermi v2 Generation, respektive seit dem Cayman bei AMD haben AMD und auch NV aktiv Mechanismen im Treiber implementiert, die "Überlast" auf der Hardware verhindern sollen. Da zählt auch Furmark mit rein... Kannst ja mal google anschmeißen. Stichwort furmark.exe umbenennen bei AMD zum Beispiel. Oder via Inspector bei NV das Furmark Profil bearbeiten...

Das ist mal ein ganz alter Hut ;)

BF4 @ Ultra @ 4xAA/16xAF @ 140% Auflösungsskala. Da habe ich durchgehend 3800-4200Mb im Ram (R9 290)

Das ist übrigens ein relativ gutes Beispiel, dass du damit nicht wirklich VRAM limitiert bist.
Wenn die Hardware nichtmal dauerhaft das maximal mögliche belegt, dann ist dort der "Puffer", der sowieso idR mehr Daten vorhällt als notwendig schon inbegriffen... Um so mehr VRAM vorhanden, desto mehr Daten werden vorgehalten.
Wie viel effektiv aber wirklich notwendig sind, steht auf einem völlig anderen Blatt.


Ein Indiz für VRAM limitation ist bspw., wenn man das Level startet und sofort binnen weniger Augenblicke der VRAM Verbrauch oben andeckelt und vor allem auch dauerhaft oben bleibt! Dann hast du idR so viele gleichzeitig benötigte Daten, das das reorganisieren der Datenmenge (Auslagern, Umschaufeln usw.) dir spürbare Nachteile bringt -> Nachladeruckler.
Wenn der Titel hingegen wärend der Spielzeit nur hin und wieder mal in die Region von vollen 4GB vorstößt, dann ist dieser Puffer, der einfach Daten vorhält, die vielleicht mal benötigt wurden, vielleicht mal benötigt werden, schon inkludiert. Der effektive Größenanteil der real benötigten Speichermenge ist idR deutlich unter dem der VRAM Anzeige gängiger Tools!
Der einzige Fakt, der dir da passieren kann, wenn es im Spiel Szenen gibt, die mit einem Rutsch eine große Menge anderer Daten aus dem VRAM abrufen. -> hier kommt es dann idR zu einem Nachladeruckler. Woher die Daten kommen, ist dabei völlig irrelevant, da der PCIe Slot idR der Limiter ist. Gegen solche Szenen kann man sich aber mit VRAM Menge nicht schützen... Denn diese Szenen zu vermeiden obliegt eher dem Programmierer der Software, der heute eben im Vorfeld schon die Daten langsam und stätig im VRAM reorganisieren sollte, anstatt in einem Rutsch hunderte MB gleichzeitig zu übertragen, was eben lange dauert.

PS. letzteres ist ein klassisches Gothic 3 Problem, wenn man einen Teleport in eine andere Klimazone macht. Da wird fast der komplette VRAM Inhalt auf einen Schlag ausgetauscht! Was bei höheren Settings und vor allem mit AA-Bits bei NV mal auch mehrere GB sein können. Entsprechend lange dauert das rumschaufeln über den PCIe Slot. Kommt das Zeug dann noch von der lahmen HDD, steht das Bild für mehrere Sekunden!
 
Zuletzt bearbeitet:
Ich habe SLI mit zwei GTX970 und diesen Phänomen habe ich nicht Wahrgenommen bis jetzt Ruckelt nichts wenn 3.9GB Ram belegt sind.
Sind es nur Bestimmte Marke diesen Phänomen betroffen oder alle???
 
Angeblich alle...

Das Problem ist, dass es nicht wirklich messbar ist.
Wenn du 3,9GB VRAM Belegung hattest, heist das ja lange nicht, dass diese Menge auch wirklich benutzt wurde... Wenn die Karte bzw. der Treiber intelligent die Daten hin und her schubst, dann merkst du das als Anwender gar nicht...

Das was die Leute dazu heute testen ist halt etwas ungünstig. Denn sie versuchen auf biegen und brechen den VRAM voll zu rammeln und dann wundern sie sich, dass die Karte Nachladeruckler erzeugt um es mal etwas überspitzt auszudrücken. Das diese Nachladeruckler nicht ganz ausgeschlossen sind, interessiert dabei aber irgendwie gar keinen.
 
BF4, ultra, 4xMSAA + MLAA, 1080p
knapp 2,5GB voll, fps kleben am Limit von 64.
1260p, das gleiche, marginal mehr VRAM
1260p, 140scale, knapp über 3GB, fps ca. bei 50-40fps.
1440p, 140scale, knapp über 3,3GB, ~35fps.
1440p, 200scale, knapp 3,5GB, ~18fps.

ich steck da jetz nich tief in der Materie wie fdsonne zB, aber von 1080p 100scale zu 1440p 200 scale, sind doch auch deutlich mehr als doppelt so viele Pixel (sehr viel mehr?) die berechnet werden wollen; das kann ja auch die reine GPU-Leistung sein, die nicht langt, oder nicht?

sowie ich diesen (Danke für den link, fdsonne!) Test-benches nicht vertraue, dass die 100% aussagekräftig sind.

allerdings mut ichs Herstellern auch zu mal großzügig zu lasern, um den Abstand zur 80er zu wahren.
 
Zuletzt bearbeitet:
Das der hintere Bereich einbricht, scheint dabei völlig logisch zu sein, da sich Windows selbst etwas VRAM für den Desktop Betrieb reserviert und der Benchmark knallhart mehr Platz belegt, als frei ist -> und somit über den PCIe Slot im RAM weiter geschrieben wird!

Du vergisst hier aber den Vergleich zur GTX980, wo das eben nicht der Fall ist. Erklärung?

http://i.imgur.com/v7EVufN.png

Das die 970er eher wegbricht ist aktuell genau das "Problem". Bis jetzt scheint es aber keine richtigen Schlüsse zu geben, warum das so sein sollte... Aktuell munkelt man, das beim lasercut der GPU zu viel weggelasert wurde. Sprich das Teile der SMX maßgeblich für den Bandbreite verantwortlich sind.
Auf der einen Seite nicht ganz ausgeschlossen, auf der anderen Seite hingegen steht das im Grunde aber in keinem Zusammenhang, warum die Karte den VRAM nicht belegen sollte... Denn das scheint eher rein "Software" zu sein. Sprich Treiber.

Kepler=SMX
Maxwell=SMM

Die GTX980 besitzt 16SMM-Cluster, davon werden 3 für die GTX970 abgeschnitten. Somit besitzt eine GTX970 insgesamt 13SMM-Cluster. Den VRAM zu belegen ist auch nicht das eigl. Problem, sondern diesen durchgehend mit Full-Speed, wie bei einer GTX980.

Vor allem kann das auch nicht direkt was mit der VRAM Größe zu tun haben, denn die Größe ist ja quasi unabhängig der Bandbreite. Würde man nicht alle VRAM Chips ansprechen, müsste die Bandbreite komplett runter gehen. Auffallend ist allerdings, das die 970er nicht so viel Schreibleistung auf den VRAM Chips hat wie die 980er. Da stehen ca. 150GB/sec vs. 175GB/sec. Das sind aber gerade mal ca. 16,5% mehr. Und 16,5% lässt sich irgendwie nicht so ganz in Einklang mit mangelnder Anbindung bringen.
Die 256Bit Karten haben ja acht Speicherchips. Es existieren vier 64Bit Speichercontroller. Heist also, wenn da einer davon nicht richtig laufen würde, müsste die Bandbreite um 25% einknicken. Sie knickt aber nur um knapp 14% ein. Auf der anderen Seite, die Werte brechen bei ca. 3,5GB runter. Also ab ca. 3,5GB schaufelt der den Spaß in den RAM über den PCIe Slot... Was wohl aus meiner Sicht klar vom Treiber getriggert wird!! 3,5GB wären aber nur ein VRAM Chip (da diese 512MB groß sind). Die VRAM Chips hängen aber immer im Pärchen pro 64Bit Controller. Das passt ebenso nicht zusammen.

http://images.bit-tech.net/content_images/2014/09/nvidia-geforce-gtx-980-review/gtx980-17b.jpg

4x 64bit Speichercontroller = 256bit Speicherinterface bei 16SMM-Cluster. Bei der GTX970 werden nun aber 3SMM-Cluster weggeschnitten. Daraus ergibt sich...

4096MB=256bit=16SMM
3328MB=208bit=13SMM

16SMM zu 13SMM ergeben auch etwa 17% weniger. Die Karten können natürlich alle 4096MB belegen, jedoch nur bis 3328MB mit Full-Speed. Deshalb auch mein Vergleich mit der Kepler-Architektur. ;)

Für mich persönlich klingt das alles aktuell noch nicht so 100% nach einem Hardware Problem. Warum? Weil die Werte nicht ganz konsistent zur Hardware sind. Für mich riecht das eher danach, das NV hier ne Art "Limit" in den Treiber gepackt hat. Womöglich um die Unterschiede unter absoluter Last zwischen den beiden Modellen (künstlich) zu erzeugen... Aus Kundensicht ist das faktisch absolut keine schöne Sache!! Aus Sicht von NV kann man das aber wohl sogar nachvollziehen :fresse:

Für mich auch alles Theorie, bis nVidia dazu Stellung bezieht. Bisher finde es aber durchaus plausibel...

Das nVidia durch diese Beschneidung per Treiber nachregeln muss, dürfte sich dann auch von selbst erklären.
 
Zuletzt bearbeitet:
Ich weis nicht genau, was dieser scale Faktor da bei BF4 schlussendlich macht... Auch hab ich kein BF4 um mir das selbst anzuschauen ;)
Heist dort 200%, dass die doppelte Pixelanzahl pro Achse berechnet wird? Oder einfach nur die doppelte gesamt Anzahl? Denn doppelte Pixel pro Achse wären vierfache gesamt Pixel -> ergo FHD zu UHD bspw.

Allerdings sprechen die Zahlen nicht gerade von extrem viel mehr VRAM zuwachs. Das sind eben diese besagten 10-30% mehr, die man da im Schnitt so sieht bei 4x mehr Bildpunkten. Aber eben alles andere als 1:1 mit der Auflösung, wie man es gern hinstellt.

Wie gesagt, bei BF3 -> ich spiele da hin und wieder mal die SP Kampagne, schaut das völlig anders aus. Ich komme auf unter 2GB in FHD, schon mit 2880er Auflösung deckelt das bei mir bei 3GB an. UHD geht gar nicht...

Aber ja, es kann natürlich auch von der GPU selbst kommen.
Der Leistungsbedarf bei FHD auf UHD liegt in vielen Reviews und auch bei meinen eigenen Tests bei ca. 50-70% FPS Verlust. Heist andersum, man benötigt ca. 2-3x so viel Rohpower um die FPS gleich zu halten.

Wenn die VRAM Belegung soweit überbucht wird, dass permanent Daten umgeschaufelt werden, dann brechen auch gern mal die FPS deutlich ein... Nur ist man dann idR auch mit dem Überbuchen schon weit über das "normale Nachladeruckler-Verhalten" drüber hinaus...

Wie gesagt, es ist halt schwierig zu messen, da es keine geeignete Messmethode gibt. Man sucht sich aktuell irgendwelche Messplätze und beobachtet den VRAM Bedarf und die FPS.
Warum die Karte womöglich anfängt bei um die 3,5GB ein/umzulagern, ist eigentlich die entscheidende Frage... Das bekommt man damit aber faktisch nicht raus!



PS: was das Tool da angeht, die Werte werden schon stimmen... Es macht im Grunde nix weiteres, als Blöcke von 128MB pro Durchlauf im Speicher zu belegen und diese zu "nullen". Dabei wird unmittelbar vor dem Belegen des jeweiligen Blöcks und unmittelbar danach die benötigte Zeit dafür ermitteln. Anhand der Zeit und dem Wissen, das es 128MB pro Block sind, lässt sich effektiv die Speicherbandbreite errechnen, die die Karte schreibend in den VRAM schafft. -> also das was das Tool dort an Zahlen ausspuckt, entspricht zu 99% auch wirklich der Realität.
Bestenfalls könnte man hier ansetzen und versuchen zu erkunden, ob der Cuda Code mit Games vergleichbar ist. Aber ich gehe davon aus, dass dies der Fall ist...

Leider kommt erschwerend hinzu, dass die Karte bei simpler Belegung des VRAMs scheinbar nicht in der Lage ist, den Speicherbereich, der belegt ist durch Windows, auszulagern... Sprich ab einem gewissen Punkt wird automatisch über den PCIe Slot in den RAM geschrieben, da kein Platz mehr im lokalen VRAM frei ist.

Hier stellt sich mir als erstes primär die Frage, ist dies in Games auch so? Bis jetzt gibts ja keine "Vollbild Direct3D" Version des Benches... Müsste sich sich mal jemand dransetzen ob das dort ähnlich ist.
Warum das bei der 970er schon bei um die 3,5GB anfängt einzuknicken, ist allerdings mit dem Bench auch nicht auslesbar... Denn offenbar bekommt die Anwendung keinen exklusiven Zugriff auf die volle Speichermenge... Und Cuda schreibt dann einfach über den PCIe Slot im RAM weiter. Um Knallharte Speicherüberläufe zu verhindern, die die Programme dann abstürzen lassen würden, ist dies auch ganz gut so, wie es ist. Warum man dort allerdings nur 3,5GB sieht? Das weis wohl nur NV selbst :fresse:

- - - Updated - - -

Du vergisst hier aber den Vergleich zur GTX980, wo das eben nicht der Fall ist. Erklärung?
Ich meinte damit eher, dass es bei so ziemlich allen Karten hinten einbricht, weil eben Windows da zwischen funkt... Mit einem Test auf ner zweit GPU, die nicht Windows reserviert ist, kann das aber immernoch alles und nix sein... Meine Vermutung, Treiber stetzt ein Limit! Ob gewollt oder ungewollt? Keine Ahnung...

Kepler=SMX
Maxwell=SMM

Die GTX980 besitzt 16SMM-Cluster, davon werden 3 für die GTX970 abgeschnitten. Somit besitzt eine GTX970 insgesamt 13SMM-Cluster. Den VRAM zu belegen ist auch nicht das eigl. Problem, sondern diesen durchgehend mit Full-Speed, wie bei einer GTX980.
:wayne: Ob un SMX oder SMM, ich denke es sollte klar sein, das diese "Shadercluster" damit gemeint waren...

4x 64bit Speichercontroller = 256bit Speicherinterface bei 16SMM-Cluster. Bei der GTX970 werden nun aber 3SMM-Cluster weggeschnitten. Daraus ergibt sich...

4096MB=256bit=16SMM
3328MB=208bit=13SMM

16SMM zu 13SMM ergeben auch etwa 17% weniger. Die Karten können natürlich alle 4096MB belegen, jedoch nur bis 3328MB mit Full-Speed. Deshalb auch mein Vergleich mit der Kepler-Architektur. ;)

Nur wir soll das technisch gehen?
Du kannst nicht mal ebenso vom SI ein paar "Bits" anknapsen... Wenn ich das richtig sehe, geht dort nur entweder oder... Also volle Anbindung und läuft oder eben nicht.
Das ist bildlich wie ne Autobahn mit entsprechend vielen Spuren. Der Durchsatz kommt davon, dass entsprechend viele Autos gleichzeitig über alle Spuren mit einer bestimmten Geschwindigkeit fahren (Takt). Würde das SI nun kleiner werden, dann würde nicht auf einmal ein Teil des Durchsatzes nur für eine bestimmte Menge wegbrechen. Weil die Bandbreite sich daraus zusammen setzt, dass eben die Autos gleichzeitig über die Autobahn fahren und nicht unterschiedlich schnell.

Zumal eben die Belegung (also der Bereich größer 3,5GB) ja irgendwo her kommen muss. Die Zellen sind an den Controller angebunden. Jede wenn man es bildlich sieht, 1:1. Heist also, schreibst du nen sagen wir 256MB Block, dann wird jede Zelle die gleiche Menge Daten aufnehmen. Da alle Zellen gleichzeitig beschrieben werden, kommt die Bandbreite zustande. Es werden also Chunks gebildet. Bei acht Speicherchips heist das, pro Speicherchip ein Chunk. Also geht jeder 8. Chunk immer an den selben Speicherchip. -> somit werden die Zellen gleichmäßig gefüllt.

Mir fällt keine logische Erklärung ein, warum hintenraus die letzten 500MB nicht mit vollem Speed angesprochen werden könnten. Bspw. im Vergleich zu dieser 660TI mit 192Bit und 2GB VRAM wurde dort ja getrickst. Nämlich wurden dort zur Hälfte doppelt so große Chips verwendet. Diese doppelt so großen Chips hängen, wenn ich das richtig sehe aber eben nicht an allen Controllern, sondern nur an der Hälfte. Somit kann maximal die Menge von 1,5GB über alle "Fahrspuren" angesprochen werden, wärend der Rest nur über die halbe Bandbreite verfügt.
Beim GM204 sieht das aber nicht so aus... Denn die Chips sind alle gleich groß, es sind die gleichen und die Verbindung ist auch nicht irgendwo eingeschränkt... Im Grunde kann es also nicht am SI liegen.

Was technisch denkbar wäre, es könnte eine Ebene weiter vorn zu einem Flaschenhals kommen. Das könnte erklären, warum die 970er weniger Schreibleistung bietet als die 980er. Nämlich wie du schon sagtest, wenn pro SMM :-)bigok:) in die Crossbar geschrieben wird, wirds natürlich weniger Durchsatz, wenn da weniger SMMs vorhanden sind... Womöglich könnte das SI sogar mehr wegschreiben, aber es kommen gar nicht so viele Daten beim SI an.

Nur erklärt das eben genau nicht, warum der "obere" Bereich eben langsamer sein sollte... Denn das ist doch das entscheidende Problem. Diese von den diversen Usertests angesprochenen Nachladeruckler kommen doch daher, weil die Karte versucht mehr VRAM zu belegen, dies womöglich auch macht aber eben dann auf einmal Bandbreite fehlt und der Spaß über PCIe ausgelagert wird, was bedeutend langsamer ist.
Wobei ich gerade sehe, dass die PCIe Bandbreite bei 16x und 3.0 Ausführung gerade mal bei 16GB/sec liegt... Der Bench misst allerdings 20-22GB/sec... -> klingt ebenso komisch.

So 100% rund ist das nicht muss ich sagen... Denn es sollte nicht möglich sein bei gleicher Speicherchip Ausstattung eben nur einen Teil mit vollem Speed anzusprechen, wärend obenraus ein Teil nicht voll ansprechbar ist/bleibt. Dafür fällt mir wie gesagt keine technische Erklärung ein.

Selbst WENN! (mal angenommen) das SI "nur" 208Bit breit wäre, dann könnte das womöglich den geringeren Durchsatz zur 980er erklären. Aber diese 208Bit bzw. der Durchsatz müssten immernoch voll über den gesamten Bereich anliegen. Denn bei gleichmäßiger Beschreibung der VRAM Chips würden ab ~3,5GB ALLE Chips eben einen Teil dieser fehlenden 500MB aufnehmen müssen. Und da die Chips ja generell über Bandbreite verfügen, müsste also auch folgerichtig der Rest mit "voller" Bandbreite beschreibbar sein.
Die niedrige Bandbreite würde dann zustande kommen, wenn eben ein oder mehr Chips nicht voll angesprochen werden könnten. Nur zeigt eben der Bench, dass es dort unterschiedliche Messungen gibt. Von ~3200-3328MB ist da die Rede. Gabs nicht auch Werte, die höher waren? 3,5GB? Weis nicht mehr genau... Das wäre faktisch eine krumme Zahl und lässt sich somit nicht mit den Hardwaregegebenheiten unter einen Hut bringen. Es sei denn, der Speicher wird nicht über den gesamten Bereich gleich schnell angesprochen. Aber die Speicherchips sind doch mit der 980 und auch den mobile Versionen identisch??
 
:wayne: Ob un SMX oder SMM, ich denke es sollte klar sein, das diese "Shadercluster" damit gemeint waren...

Sorry, falls ich wie ein Klugscheisser rüberkam, wollte mich nur kurz fassen. :)

Nur wir soll das technisch gehen?
Du kannst nicht mal ebenso vom SI ein paar "Bits" anknapsen... Wenn ich das richtig sehe, geht dort nur entweder oder... Also volle Anbindung und läuft oder eben nicht.
Das ist bildlich wie ne Autobahn mit entsprechend vielen Spuren. Der Durchsatz kommt davon, dass entsprechend viele Autos gleichzeitig über alle Spuren mit einer bestimmten Geschwindigkeit fahren (Takt). Würde das SI nun kleiner werden, dann würde nicht auf einmal ein Teil des Durchsatzes nur für eine bestimmte Menge wegbrechen. Weil die Bandbreite sich daraus zusammen setzt, dass eben die Autos gleichzeitig über die Autobahn fahren und nicht unterschiedlich schnell.

Das 256bit Speicherinterface ist physisch ja auch vorhanden. Es ist nur durch die Beschneidung auf 13SMM dann ein "virtuelles" 208bit SI, wenn du es so sehen willst. Die 17% Unterschied beim Durchssatz unterstützden diese These ja auch. Zumindest ist es schon seltsam das es eben genau diese rund 17% sind, die sich halt damit erklären ließen.

Mir fällt keine logische Erklärung ein, warum hintenraus die letzten 500MB nicht mit vollem Speed angesprochen werden könnten. Bspw. im Vergleich zu dieser 660TI mit 192Bit und 2GB VRAM wurde dort ja getrickst. Nämlich wurden dort zur Hälfte doppelt so große Chips verwendet. Diese doppelt so großen Chips hängen, wenn ich das richtig sehe aber eben nicht an allen Controllern, sondern nur an der Hälfte. Somit kann maximal die Menge von 1,5GB über alle "Fahrspuren" angesprochen werden, wärend der Rest nur über die halbe Bandbreite verfügt.
Beim GM204 sieht das aber nicht so aus... Denn die Chips sind alle gleich groß, es sind die gleichen und die Verbindung ist auch nicht irgendwo eingeschränkt... Im Grunde kann es also nicht am SI liegen.

Klar, da geht es auch um was ganz anderes...

Mich würde dennoch ein Vergleich mit einer GTX670 interessieren. Wäre schon ein "auffälliges" Indiz, wenn hier eine ähnliche Problematik zu Tage treten würde.

Was technisch denkbar wäre, es könnte eine Ebene weiter vorn zu einem Flaschenhals kommen. Das könnte erklären, warum die 970er weniger Schreibleistung bietet als die 980er. Nämlich wie du schon sagtest, wenn pro SMM :-)bigok:) in die Crossbar geschrieben wird, wirds natürlich weniger Durchsatz, wenn da weniger SMMs vorhanden sind... Womöglich könnte das SI sogar mehr wegschreiben, aber es kommen gar nicht so viele Daten beim SI an.

Auch gut möglich, aber welche Ebene soll das dann sein?

Selbst WENN! (mal angenommen) das SI "nur" 208Bit breit wäre, dann könnte das womöglich den geringeren Durchsatz zur 980er erklären. Aber diese 208Bit bzw. der Durchsatz müssten immernoch voll über den gesamten Bereich anliegen. Denn bei gleichmäßiger Beschreibung der VRAM Chips würden ab ~3,5GB ALLE Chips eben einen Teil dieser fehlenden 500MB aufnehmen müssen. Und da die Chips ja generell über Bandbreite verfügen, müsste also auch folgerichtig der Rest mit "voller" Bandbreite beschreibbar sein.
Die niedrige Bandbreite würde dann zustande kommen, wenn eben ein oder mehr Chips nicht voll angesprochen werden könnten. Nur zeigt eben der Bench, dass es dort unterschiedliche Messungen gibt. Von ~3200-3328MB ist da die Rede. Gabs nicht auch Werte, die höher waren? 3,5GB? Weis nicht mehr genau... Das wäre faktisch eine krumme Zahl und lässt sich somit nicht mit den Hardwaregegebenheiten unter einen Hut bringen. Es sei denn, der Speicher wird nicht über den gesamten Bereich gleich schnell angesprochen. Aber die Speicherchips sind doch mit der 980 und auch den mobile Versionen identisch??

Die Frage bleibt aber dennoch, wieso eine GTX980 diese Problematik nicht hat. Wenn man dann schaut was an einer GTX970 anders ist, die den gleichen GM204 Chip hat, dann sind das eben die 3 fehlenden SMM-Cluster. Oder sind dir weitere Unterschiede bekannt?
 
Oh schau mal, ich verwende einen komischen Benchmark um mutwillig ein Problem zu erzeugen, welches im normalen Betrieb nie auftritt.

Sorry Leute, aber das ist wieder mal absolut lächerlich.
 
es gibt ja Berichte von usern, denen das wohl ingame, also im normalen Betrieb, aufgefallen sein soll.
 
es gibt ja Berichte von usern, denen das wohl ingame, also im normalen Betrieb, aufgefallen sein soll.

Ich habe Anfangs, als ich meine GTX970 im November letzten Jahres gekauft habe, aus Interesse ab und zu mal GPU-Z beim spielen im Hintergrund mitloggen lassen. Schon damals ist mir die Begrenzung beim VRAM aufgefallen, konnte es aber nicht wirklich zuordnen, dachte es sei vom Spiel abhängig und habe es nicht weiter beachtet. Besonders bei AC Unity war es deutlich zu sehen...
 
COD meldet mir bei meinen 970er schonmal nur 3,8gb vram, ich bekomme als 4K auflösung nur in verbindung mit 1472x828 shader zum laufen, da das spiel sonst abstürzt und meldet es gäbe keine 4gb vram

hier ein run firestrike ultra mit gpu-z log wo nur 3,5X gb genutzt werden max klick


das ich real nur 3,5gb vram habe erschüttert mich etwas, denn gerade bei 4K gibt es doch teils leichte nachladeruckler welche eindeutig am vram liegen vorallen in so spielen wie farcry 4 etc
 
Zuletzt bearbeitet:
Die Leute Berichten es aber auch in FHD Mordersshatten Ultra Texturen so wie Watchdogs und irgend nen anderem Game komme da gerade nicht drauf.
 
Zuletzt bearbeitet:
Ja, ich sehe, daß Leute Probleme bekommen, weil sie versuchen 4k-Ultra auf einer €350 GPU zum laufen zu bekommen. Lächerlich.

der einziegste unterschied zur 980 wäre jetzt die fehlenden 500mb vram, ansonsten ist die 970er durchgehend gleich schnell bzw mit oc sogar schneller als eine 980er, somit fehlt dem kommentar etwas der sinn, zumal es aktuell nichtmal eine 980ti gibt um auf 8gb umsteigen zu können, am geld liegt es sicher nicht ;)
wenn ich sehe das das waterforce gespann für 2900 euro 22.000 punkte bringt im firestrike und mein 970er gespann schon 22.800 punkte und ich 2000 euro gespart habe :bigok:

und ein fps probleme habe ich selbst mit fxaa/txaa bei weiten nicht, nur ein spürbares vram problem im sinne von nachladeruckeln bei map change, was mich bei 4gb vram schon gewundert hatte, das es nur 3,5gb sind erklärt es noch mehr
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh