(Angebliches) Problem Mit GTX 970 Und 4GB Grafikspeicher Allozierung

Status
Für weitere Antworten geschlossen.
Könnt Ihr bitte beim Thema bleiben und eure "Definitionen" für euch behalten.
Jeder entscheidet was für Ihn wichtig ist und was nicht. Jedesmal versucht
Einer (oder Mehrere) den Anderen zu bekehren.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Welcher 970er Besitzer unter Euch kann eigentlich noch ruhig schlafen?
 
Wieso beschränkt ihr euch nur auf euren eigenen Horizont, der EUCH allein definiert, was IHR für richtig und wichtig haltet? Kann ich nicht nachvollziehen...
Ähm... das ist hier eher dein Problem. Was du gerade mit Hdmi 2.0 wunderbar auslebst.

Der Verbrauch ist ein Argument, was in ziemlich vielen Kaufberatungen fällt. Ich kann nix für und bin bestimmt auch nicht dafür verantwortlich... Warum und wieso das so ist, müsstest du die jenigen fragen, die anhand des Verbrauchs ihre Kaufentscheidungen fest machen... Ich weise lediglich darauf hin.
Ja und?! Dann weise auf den REALEN Verbrauch hin und nicht auf den marketing-sweet-spot-Referenzwert.
Der reale Verbrauch der 970er in gängiger Custom-Version von egal welchem Hersteller steht dem von Kepler in nichts nach. Werte hatte ich verlinkt.
 
Ich wage zu behaupten dass die Mehrheit der GTX970 Usern keine 4k bzw. DSR benutzen, somit schlaflose Nächte sind in die Vergangenheit zurückzuführen, denn damals hatte man zu wenig FPS.
Aber selbst wenn DSR oder 4k, es liesse was machen falls über 3,5GB Vram nötig und was ruckeln sollte, denn Settings gibt zuhauf.

Die sache ist also nicht wie es sein sollte, jedoch für die meisten bedeutungslos und für die minderheit die über 3,5GB benutzen wollen, irgendwie doch umgehbar.
Natürlich würd ich mich freuen diesen prinzipiellen Hinderniss beseitigt zu haben, jucken tut aber null koma.
 
Zuletzt bearbeitet:
Ich spiele fast alles mit DSR, aktuell BF4 @ 4k @ 60fps (natürlich ohne AA, aber das brauchts mit DSR nicht mehr :) ). Noch reicht der VRram. Aber ich werde im Prinzip die beiden 970er verkaufen wenn es eine alternative gibt (290x ist für mich keine da das 300W mehr aus der Dose zieht)
 
Ich wage zu behaupten dass die Mehrheit der GTX970 Usern keine 4k bzw. DSR benutzen, somit schlaflose Nächte sind in die Vergangenheit zurückzuführen, denn damals hatte man zu wenig FPS.
Aber selbst wenn DSR oder 4k, es liesse was machen falls über 3,5GB Vram nötig und was ruckeln sollte, denn Settings gibt zuhauf.

Die "Mehrheit" der Leute ist mir eigentlich wurscht. Guck mal, ich kann IM PRINZIP alle derzeitigen Games, und das heisst auch Watch Dogs, FC4, BF4 etc. *zügig* auf meiner alten GTX 660 TI laufen. BF4 hat mich sogar sehr überrascht, ich denke mal mein i7@4.4Ghz macht da ne Menge, TROTZ Uralt GTX 660 TI und den Fakt dass ich nur *einen* Monitor have und der läuft nurmal auf 1680x1050.

Der einzige, und *grosse* Grund warum ich eine 970 will ist DSR und natürlich alle Grafikdetails in Games auszureizen. Leistung der Karte soll direkt in Bildqualität einfliessen.

Hast Du dir überlegt dass vielleicht viele kein DSR benutzen WEIL es eben diese Probleme gibt?

Edit: Wie weiter oben glaube ich schon mal aufgeführt, ich hoffe und glaube dass mein Downsampling NICHT so viel Videospeicher benutzt....aber der Gedanke ich muss jetzt auf der Hut sein und konstant gucken ob ein Spiel die magische Schwelle erreicht NERVT GEWALTIG.

Und..wer sagt denn dass in naher Zukunft nicht ein Game rauskommt mit Mods, Texturen usw. und dann das Problem sehr wohl zum tragen kommt? Ich will nicht ne Karte für fast €350 kaufen die schon mit POTENZIELLEN Problem daherkommt und JETZT schon legitimieren würde dass man ans aufrüsten denkt. Spiele werden ja sicherlich in Zukunft nicht weniger Speicher benötigen, sondern MEHR.
 
Zuletzt bearbeitet:
Die "Mehrheit" der Leute ist mir eigentlich wurscht. Guck mal, ich kann IM PRINZIP alle derzeitigen Games, und das heisst auch Watch Dogs, FC4, BF4 etc. *zügig* auf meiner alten GTX 660 TI laufen. BF4 hat mich sogar sehr überrascht, ich denke mal mein i7@4.4Ghz macht da ne Menge, TROTZ Uralt GTX 660 TI und den Fakt dass ich nur *einen* Monitor have und der läuft nurmal auf 1680x1050.

Der einzige, und *grosse* Grund warum ich eine 970 will ist DSR und natürlich alle Grafikdetails in Games auszureizen. Leistung der Karte soll direkt in Bildqualität einfliessen.

Hast Du dir überlegt dass vielleicht viele kein DSR benutzen WEIL es eben diese Probleme gibt?

Siehe was SirXe grad dadrüber geschrieben hat.
Auserdem, meisten BF4 freaks zb. hatten zu wenige fps bzw. nicht in ultra daddeln konnten, mit die GTX970 kann man unter ultra und höheren fps Zahl daddeln, mehr davon, DSR zb. wär wieder kontraproduktiv was die fps angeht. Und selbst unter DSR reicht anscheinend den Vram so beschnitten wie´s ist. Also die Meisten juckt nicht mal, manche schon bissl und für die wenigsten die wirklich ein Problem damit haben, hoffen wir es wird eine Lösung gefunden.

Seien wir mal ehrlich nun, es wär ja zuviel des Guten mit die GTX970, beinah an die Leistung der GTX980 aber auch beinah an die hälfte der Preis.
 
Zuletzt bearbeitet:
Ich hab grad mal aus Spaß eine GT 630 mit GK107 GPU und 2GB DDR3 am 128Bit SI getestet mit Nais Bench :fresse:
Sogar mit aktivem DWM :banana: mich dünkt die Karte hat ein Bandbreitenproblem...

Um damit zum eigentlichen Thema wieder zurück zu kommen...

Vielleicht ist dir beim Bandbreiten-Vergleich zwischen GTX970 und GTX980 auch schon aufgefallen, das das theoretische Maximum von 224GB/s nicht erreicht wird. Zumindest sollte eine GTX980 diesen Wert schaffen, dachte ich mir jedenfalls zuerst, aber wie man sehen kann ist bereits bei 178GB/s Schluss. Frage ist nun, was hierfür die Ursache sein könnte bzw. ist es überhaupt ein Problem? Ich habe deshalb mal mit Nai's Benchmark ein paar Durchläufe gemacht, parallel dazu GPU-Z laufen lassen um die Sensorenstatistik zu überwachen.

Aufgefallen ist mir...

1. das der maximale Speichertakt von 1752MHz nicht erreicht wurde, er nur bis auf max. 1501MHz beim benchen ging. Nun habe ich versucht die Differenz (1752MHz zu 1501MHz = ca. -14%) hochzurechnen, was aber auch nicht hinkommt. Ausgehend von 178GB/s erhalte ich auch nur ca. 203GB/s (178GB/s x 1,14 = 202,92GB/s). Es fehlen also noch rund 21GB/s...

2. die Auslastung des Memory-Controllers beim benchen konstant bei 100% lag. Ich gehe deshalb mal davon aus, das die Shaderleistung (GPU) das Speicher-Subsystem gar nicht auslasten kann, was eigl. logisch wäre, da die Karten so nicht von der Speicher-Bandbreite limitiert werden.

Deshalb, auch im Falle deiner GT630 wäre es im Prinzip völlig normal, wenn die Bandbreite nicht komplett ausgelastet wird, da wie du auch schon mal angemerkt hast, der Benchmark quasi nur den interne GPU-Durchsatz zum Speicher-Subsystem misst.

Kannst du mir soweit folgen? :)
 
Zuletzt bearbeitet:
Also wenn ich das richtig verstehe hätte Nvidia einfach noch einen SMM weglasern müssen und es hätte keine Probleme gegeben? Den Geschwindigkeitsverlust dann mit etwas mehr Takt ausgleichen und fertig ... wenn ja wundert es mich, dass man diesen Weg nicht gegangen ist. Weder tut sich eine Firma freiwillig so einen Skandal an noch lässt sie sich die Gelegenheit entgehen mehr teildeaktivierte Chips verkaufen zu können. Das wäre ja dann bei nur 12 SMM möglich gewesen.
 
Ich werfe eine Theorie bzw. Vermutung in den Raum, was wär wenn die 500MB unter "nur" 3,5 GB nutzung, an andere Aufgaben alloziert werden, sodass unter der vorgegebenen Szenario die Karte etwa flotter agiert und auch somit etwa näher an die GTX980 rückt..?
 
Zuletzt bearbeitet:
Gibts Neuigkeiten in Bezug auf offizielle Statements?

Seit ihr euch hier im Thread (ich habe die ersten 4 Seiten und diese hier gelesen, sry mehr schaff ich nervlich nicht) einig, dass sich das Problem nicht durch ein Treiber-/BIOS-Update beheben lässt?

Vll. könnte der TE im Startpost handfeste Statements und Messungen, die das Problem offen legen, sammeln.
 
Ich werfe eine Theorie bzw. Vermutung in den Raum, was wär wenn die 500MB unter "nur" 3,5 GB nutzung, an andere Aufgaben alloziert werden, sodass unter der vorgegebenen Szenario die Karte etwa flotter agiert und auch somit etwa näher an die GTX980 rückt..?

Die Idee hatte schon jemand weiter oben (z.B. die Dinge die Windows selbst sowieso braucht, in diese 500Mb auszulagern), allerdings wird der Speicher von der Karte selbst verwaltet. Man kann als User daher nicht einstellen was wo reingeschrieben wird und NV hat zumindest keine Andeutungen gemacht, die Verteilung im Karten-Bios ändern zu wollen.

EDIT:

Gibts Neuigkeiten in Bezug auf offizielle Statements?

Seit ihr euch hier im Thread (ich habe die ersten 4 Seiten und diese hier gelesen, sry mehr schaff ich nervlich nicht) einig, dass sich das Problem nicht durch ein Treiber-/BIOS-Update beheben lässt?

Vll. könnte der TE im Startpost handfeste Statements und Messungen, die das Problem offen legen, sammeln.

NV hat offiziell das Problem zugegeben und auch mit eigenen Benchmarks belegt. Wäre es möglich das Problem von ihrerer Seite aus, aus der Welt zu schaffen, hätten sie das sicher angekündigt, was jedoch nicht geschehen ist...
 
Zuletzt bearbeitet:
Ich hab mal SC auf very high mit der 970 gestestet. Ab 3,5GB ist schluss. Mehr nimmt er sich nicht.
 
Angeblich NVidia ist eifrig am werkeln diese issue zu beseitigen oder zumindest auf den Spur zu kommen, angeblich die Ganze Team hat es auf höhe Priorität angesetzt, wenn also sich was machen liese, das werden die machen, grund zu Besorgniss aber auch grund zu hoffen also.
 
Angeblich NVidia ist eifrig am werkeln diese issue zu beseitigen oder zumindest auf den Spur zu kommen, angeblich die Ganze Team hat es auf höhe Priorität angesetzt, wenn also sich was machen liese, das werden die machen, grund zu Besorgniss aber auch grund zu hoffen also.

wo steht das? Quelle, Link?
 
Also wenn ich das richtig verstehe hätte Nvidia einfach noch einen SMM weglasern müssen und es hätte keine Probleme gegeben? Den Geschwindigkeitsverlust dann mit etwas mehr Takt ausgleichen und fertig ... wenn ja wundert es mich, dass man diesen Weg nicht gegangen ist. Weder tut sich eine Firma freiwillig so einen Skandal an noch lässt sie sich die Gelegenheit entgehen mehr teildeaktivierte Chips verkaufen zu können. Das wäre ja dann bei nur 12 SMM möglich gewesen.

Dann wären wahrscheinlich auch nur 3GB VRAM verbaut worden, diese dann aber auch ohne Einschränkung nutzbar. Man wollte, so scheint es, hier schon 4GB VRAM bieten. Zudem hätte man die Karte dann wohl eher im Bereich 250,- bis 300,- Euro ansiedeln müssen, was den Sprung zur GTX980 wohl zu groß gemacht hätte.

Es ist aber immer noch nicht klar, wie nVidia das Speichersystem im Detail aufgebaut hat und wie das Management dieser Segmente (3,5GB + 0,5GB) genau zusammen funktioniert. Da müsste nVidia mit mehr technischen Hintergrundwissen rausrücken...
 
wo steht das? Quelle, Link?

[10:11:39 PM] NV Chat: We have our entire team working on this issue with a high priority. This will soon be fixed for sure.
[10:11:54 PM] Me: So, what is the issue?
[10:12:07 PM] Me: What needs to be fixed?
[10:12:46 PM] NV Chat: We are not sure on that. We are still yet to find the cause of this issue.
[10:12:50 PM] NV Chat: Our team is working on it.

Does the GeForce GTX 970 have a memory allocation bug ? (updated + NV answer)
 
We weill fix Hardware issues with Software.:stupid:

58456743oru5nkyyrp.jpg


Die GTX 970 hat offenbar schon ab 3,3GB Probleme den V-ram schnell anzubinden.

3DCenter Forum - GTX 970 - nicht alle 4GiB belegbar?/Leistungsprobleme ab ~3,5GiB /NV-Statement in #1 - Seite 65
 
Zuletzt bearbeitet:
Hoffentlich lässt das ganze 970 Desaster das Image von NV so richtig bluten. Für AMD kommt das wie gerufen. Es könnte ihnen helfen aus den Roten Zahlen zu kommen und wieder mehr Marktanteile zu erlangen. Mir ist eine Graka die auch hält was sie verspricht(290) viel lieber als eine VRam Mogelpackung auch wenn die Architektur schon etwas älter ist.

Aber ich hab so das Gefühlt das die meisten Fanboys trotzdem die grüne Brille weiter aufbehalten werden...
 
Ähm... das ist hier eher dein Problem. Was du gerade mit Hdmi 2.0 wunderbar auslebst.

Das war doch nur ein Beispiel unter einer Ansammlung von diesen!? Warum versteift man sich da jetzt drauf?

Was machst du, wenn du ins lokale Möbelhaus gehst, dem Verkäufer dort sagst, ich hätte gern einen Tisch, aber nicht von Firma Grün der Marke 079XTG, da dieser offenbar für vier Personen beworben wird, in real aber nur 3 Personen daran Platz finden.
Nun sagt dir der Verkäufer, alles kein Problem bei uns finden Sie alles, wie wäre es mit einem neuen Fernseher? Ist zwar kein Tisch, aber Hey... Scheiß auf deine Anforderungen, ich sage dir, was du wirklich brauchst und was nicht.

Denk mal drüber nach... Genau darauf zielt eure Argumentation ab. Nicht ob HDMI 2.0 heute genutzt wird oder nicht. Sondern der Kunde definiert, was er will und was nicht. :wink:

Hast Du dir überlegt dass vielleicht viele kein DSR benutzen WEIL es eben diese Probleme gibt?

Unwarscheinlich... Der Karte dürfte viel eher die GPU Power ausgehen. Zumindest wenn man einen Schnitt über viele aktuelle und auch ältere Titel tätigt.
Ob sich daran in Zukunft gravierend was ändern wird, muss sich zeigen.
Man sollte halt auch bedenken, dass 4GB absoluter VRAM auch erst seit nunmehr etwas über einem Jahr per default zu brauchbaren Preisen angeboten wird. Und das auch nur im absoluten HighEnd. Mal von "Sonderlocken" wie einer GTX 680 mit 4GB oder GTX 770 mit 4GB abgesehen.
Die Spiele allerdings richten sich häufig doch zum Release nach der mehr oder weniger gängigen Hardware. Was dann aber sowohl für die GPU als auch für den VRAM gilt. Und DSR geht in erster Linie erstmal voll auf die GPU Power. Skalierungsfaktor 2:1 bis 3:1 ist da angesagt... VRAM Limit und viel Luft in Sachen GPU Power ist heute doch ziemlich selten der Fall. Eher ist GPU Limit mit Luft im VRAM der Fall würde ich meinen.

Aufgefallen ist mir...

1. das der maximale Speichertakt von 1752MHz nicht erreicht wurde, er nur bis auf max. 1501MHz beim benchen ging. Nun habe ich versucht die Differenz (1752MHz zu 1501MHz = ca. -14%) hochzurechnen, was aber auch nicht hinkommt. Ausgehend von 178GB/s erhalte ich auch nur ca. 203GB/s (178GB/s x 1,14 = 202,92GB/s). Es fehlen also noch rund 21GB/s...

2. die Auslastung des Memory-Controllers beim benchen konstant bei 100% lag. Ich gehe deshalb mal davon aus, das die Shaderleistung (GPU) das Speicher-Subsystem gar nicht auslasten kann, was eigl. logisch wäre, da die Karten so nicht von der Speicher-Bandbreite limitiert werden.

Deshalb, auch im Falle deiner GT630 wäre es im Prinzip völlig normal, wenn die Bandbreite nicht komplett ausgelastet wird, da wie du auch schon mal angemerkt hast, der Benchmark quasi nur den interne GPU-Durchsatz zum Speicher-Subsystem misst.

Ich muss zugeben, bei mir gar nicht geguckt zu haben... Im TrippleScreen Setup bei aktivem SLI liegt aber der MemoryClock immer Voll an. -> was zumindest dafür sprechen würde, das meine TI 300GB/sec bringt. Wer weis, wie viel Overhead von der theoretischen Bandbreite da am Ende real noch abgezogen wird... ~10% scheinen mir da aber durchaus realistisch. Es ist nicht nichts... Und es ist nicht übermäßig viel.
Eventuell muss man das bei den 970er Messungen auch mal mit gegenprüfen. Wenn der VRAM Takt gar nicht voll ausfährt, womöglich auch weil die Karte zu lange braucht bis sie diesen hochschaltet? Wären die Werte natürlich niedriger als eigentlich unter Spielelast...

Es ist aber immer noch nicht klar, wie nVidia das Speichersystem im Detail aufgebaut hat und wie das Management dieser Segmente (3,5GB + 0,5GB) genau zusammen funktioniert. Da müsste nVidia mit mehr technischen Hintergrundwissen rausrücken...

Was hälst du eigentlich von der Priorisierungsaussage von NV?
Priorisierung, was auch immer damit bei NV gemeint ist, glaube ich nämlich nicht... Das wäre arg unlogisch, eine Logik zu entwerfen, die das "Problem" versucht mit Priorisierung von Daten zu lösen oder zu umgehen...
Für mich klingt das eher nach einer art Softlimit bei 3,5GB... Und dieses Softlimit macht genau das, was jede andere Karte auch macht, wenn ihr der VRAM ausgeht. Sie versucht möglichst unter dem Limit zu bleiben. Zwingt man allerdings darüber, wird ausgelagert. Bei der 970er offenbar über die letzten paar MB. Nicht ganz so lahm wie PCIe 3.0 16x, aber dennoch viel zu lahm für den Speed der GPU...

Also wenn ich das richtig verstehe hätte Nvidia einfach noch einen SMM weglasern müssen und es hätte keine Probleme gegeben? Den Geschwindigkeitsverlust dann mit etwas mehr Takt ausgleichen und fertig ... wenn ja wundert es mich, dass man diesen Weg nicht gegangen ist. Weder tut sich eine Firma freiwillig so einen Skandal an noch lässt sie sich die Gelegenheit entgehen mehr teildeaktivierte Chips verkaufen zu können. Das wäre ja dann bei nur 12 SMM möglich gewesen.

Nach den bisherigen Erkenntnisen wäre genau das eine Option, die machbar wäre.
Andernfalls, wenn es unbedingt 13 SMMs sein müssen/sollen, wäre die Option denkbar, je einen SMM pro ROP Partition wegzucutten. Anstatt die wohl heute gewählte Methode, einer ROP Partition zwei SMMs zu klauen und einer weiteren eben einen.

Für mich sieht das nämlich arg nach einem Timingproblem aus. Die voll angebundenen ROP Partitionen schaufel die Daten einfach viel schneller weg. Somit bleibt am Ende der Rest hinten über... Und um so weniger aktive "Member" beim "Pumpen" der Daten dabei sind, desto geringer die Bandbreite. Bis zum letzten Part mit 256MB, welcher rechnerisch nur noch mit um die 11,5GB da durchlaufen sollte, weil nur noch 1/4tel einer ROP Partition (also 1/4tel eines 1/4tels des Memorysubsystems) aktiv ist.
 
Zuletzt bearbeitet:
...
Denk mal drüber nach...

mind_blown.gif


Für dieses überaus krude Gleichnis und den passenden Facebooktrollsatz: "Denk mal drüber nach...", gibt es für dich den mind blow-Award 2015 schon heute.
Was redest du für komisches Zeug?

Keiner versteift sich btw. auf das eine "Beispiel". Den Rest hat man jetzt auch schon mehrfach entwertet. Also bitte...
 
Was machst du, wenn du ins lokale Möbelhaus gehst, dem Verkäufer dort sagst, ich hätte gern einen Tisch, aber nicht von Firma Grün der Marke 079XTG, da dieser offenbar für vier Personen beworben wird, in real aber nur 3 Personen daran Platz finden.
Nun sagt dir der Verkäufer, alles kein Problem bei uns finden Sie alles, wie wäre es mit einem neuen Fernseher? Ist zwar kein Tisch, aber Hey... Scheiß auf deine Anforderungen, ich sage dir, was du wirklich brauchst und was nicht.
Also ehrlich, das ist doch ein total bescheuerter Vergleich...
Glaube kaum jemand (weder von den Laien die völlig unberaten, ne Graka kaufen, noch die die sich hier im Forum haben beraten lassen), hat solche Anforderungen dass nur die GTX 970 in Frage kommt. Die Anforderung für die meisten Leute, lautet einfach: "beste Grafikkarte (im angegebenen Budget)". Unter gut/Beste versteht man heutzutage natürlich auch den Stromverbrauch und Lautstärke, etc. weshalb die 970 besser als z.B. die R9 290 abschneidet und daher öfters empfohlen wird. Es sind und bleiben aber beides Grafikkarten!

Kommt nun ein Problem auf, welches eventuell schwerer wiegt als der Verbrauchs-Unterschied, dann kann man ganz klar sagen dass die R9 290 eine gute Alternative ist.

Ich weiss du hast "keine wirkliche Alternative" geschrieben, aber ich muss auch sagen dass deine Argumentation ziemlich wertend und engsichtig rüber kam... ;)
 
Zuletzt bearbeitet:
Was mich sehr Interessiert ob HWL sich mit NV in Verbindung gesetzt hat und uns mal 100% Argumente vorweisen können.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh