Limitierte Speichergeschwindigkeit bei der GeForce GTX 970 (5. Update)

Warum sollten sie den nruntergehen? Der Euro befindet sich derzeit am schliddern und wenn Onkel Draghi ernst macht wirder in den freien Fall übergehen. Das werden die anderen Wirtschaftsblöcke natürlich nicht lustig finden und ihre Währung ebenfalls abwerten.

Unterm Strich haben wir dann einen Währungskrieg mit sprunghaft schwankenden Preisen für Importgüter und eine völlige Entwertung von Sparvermögen. Oder Geldanlagen wie Rentenversicherungen, Bausparverträge etc pp.

Und am ende wartet dann der dicke Knall wenn auch dem letzten Idioten auffällt das die Billiarden an Fiatgeld eigentlich nichts wert sind.

Danke Euro. Danke liebe Politik.

Genug offtopic Rant ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das Video ist GENIAL :d!!!! Das müsste man mal Nvidia schicken :d:d:d:d:d:d:d:d:d:d!!!!
 
Zuletzt bearbeitet von einem Moderator:
Das ist echt gut :d
 
Zum Glück gibts den Euro! Wäre noch viel Schlimmer wenn die Schwankungen zwischen den einzelnen EU-Ländern wären wie früher (und auch das hat man überstanden). Nicht den Teufel an die Wand malen ;)

Btt:
Eigentliche rstaunlich dass e snoch zu keinen Sammelklagen gekommen ist, bei dem ganzen Auffuhr!
Das müssten allerdings wohl die Händler anstrengen, gegenüber NV da man ja als Kunde keinen Vertrag direkt mit NV hat.
 
Zuletzt bearbeitet:
NVIDIA kauft sich in die Spieleschmieden ein. Das ist richtig. Aber wer gekauft ist, muss genau das tun, was der Geldspender sagt und das kann nie ein gutes Verhältnis sein, besonders, wenn das Verlangte moralisch fragwürdig und marktwirtschaftlich unfair abläuft. Ich glaube kaum, das ein Programmierer besonders viel Spaß daran hat, gezielt andere Hardwarehersteller aus zu booten, das macht sicherlich keiner gerne !
Somit leidet schon von Grund her die Qualität des Projekts. Wer keinen Spaß mehr daran hat, der macht es nur noch halbherzig. Sieht man ja an allen Gamesworks Titel.

Also das ist mal echt ziemlicher Unsinn... Wie schaffst du das eigentlich jedes mal?

Es stellt sich viel eher die Frage, warum greift das Entwicklungsstudio zu einem Externen? Warum nicht selber machen?
Wenn du mal unvoreingenommen drüber nachdenken würdest, würde auch dir dabei auffallen, das hier eher die Entwickler des Spieles die Verursacher vom Umstand sind. Offenbar greifen aber mehrere Studios zu diesem Trick und das völlig unabhängig, ob da NV, AMD oder Dritte dahinter stecken. Logische Konsequenz daraus ist, man hat entweder A) das Knowhow nicht selbst, B) es würde zu viel Zeit kosten, es selbst zu machen oder C) es kostet zu viel Geld.

Bleibt unterm Strich, welche Schuld hat NV, wenn sie die Nachfrage von Studios bedienen, die zweifelsfrei vorhanden ist?

Die schöne heile Welt, wo jeder Programmierer und jedes Studio seinen Code selbst schrieb und schlussendlich auch dafür verantwortlich gemacht werden kann, ist seit Minimum 20 Jahren vorbei... Und nein, auch AMD ist nicht die Wohlfahrt.

PS: und Abstriche in der Grafikqualität? Wie kommst du darauf? Dir steht es doch frei die notwendigen Anforderungen für volle BQ zu erfüllen. Kannst/willst du das nicht, hast du halt Pech... so einfach macht es sich die Wirtschaft!
 
Da mir die ganzen Diskussionen von dieser "Beschneidung" sowas von auf den Sack gehen und da überhaupt keinen Bock drauf habe, ziehe ich meinen Schlussstrich und schmeiße meine Karte in den Müll...danke nvidia...:wall:
 
Da mir die ganzen Diskussionen von dieser "Beschneidung" sowas von auf den Sack gehen und da überhaupt keinen Bock drauf habe, ziehe ich meinen Schlussstrich und schmeiße meine Karte in den Müll...danke nvidia...:wall:

quasi 0 GB VRam dann?
 
Ich verkauf jetzt dann 32GB grafikkarten. Aber psst, 28GB sind einfach DDR3 riegel die ich auf die Rückseite klebe :) Technisch alles i.o., nicht? xD
Oder Computer mit 1TB RAM.... (psst, nicht weitersagen, davon sind 1TB als pagefile SSD (300MB/s) und nur 1GB DDR4 (30GB/s)...)
In diesem Sinne: https://i.imgur.com/aq59YQo.png

In diese Richtung geht es doch, was nVidia hier abzieht. Und das dann auch noch 4 Monate verschweigen. Gelungener Plot.
 
Zuletzt bearbeitet:
Bei dem Video hab ich mich gestern auch schon beömmelt, aber das png hat auch was! :bigok:
 
Moin, mit welchem Tool kann man sich die Ramauslastung anzeigen lassen?....wie bei CB in den Videos zu sehen.
 
Naja..jetzt *immer* mit Afterburner beim Spielen schön die Ramauslastung angucken.

Geht's vielleicht mit noch mehr Stress? Das ist genau was ich NICHT will. Ich will ohne Stress spielen und nicht in einer Panik bei jedem Spiel den Videospeicher monitoren wegen der #*&%!! 3.5GB. Nervt wirklich, alleine der Gedanke...
 
Ne, möchte nur gucken obs wirklich an der Ramauslastung liegt. Mein Sys ist auch ein wenig verkorkst, hab das Mobo gewechselt ohne Neuinstallation.
 
Naja..jetzt *immer* mit Afterburner beim Spielen schön die Ramauslastung angucken.

Geht's vielleicht mit noch mehr Stress? Das ist genau was ich NICHT will. Ich will ohne Stress spielen und nicht in einer Panik bei jedem Spiel den Videospeicher monitoren wegen der #*&%!! 3.5GB. Nervt wirklich, alleine der Gedanke...

Stress? Wenn der Vram vollläuft, dann tut er das auch ohne das AB an ist. Wenn du dir um Speicher keine Gedanken machen willst dann leb mit dem Gedanken, dass du bei einer gtx970 nur 3,5gb hast bzw kauf eine r9 290(x) /gtx980
 
Naja..jetzt *immer* mit Afterburner beim Spielen schön die Ramauslastung angucken.

Geht's vielleicht mit noch mehr Stress? Das ist genau was ich NICHT will. Ich will ohne Stress spielen und nicht in einer Panik bei jedem Spiel den Videospeicher monitoren wegen der #*&%!! 3.5GB. Nervt wirklich, alleine der Gedanke...

?

einfach das OSD wieder ausblenden
 
Schaut euch mal die ersten 19 Minuten der aktuellen C't Uplink Diskussionsrunde an. Kann ich nur jedem empfehlen! (Die ersten 2 Minuten und 20 Sekunden kann man überspringen)

 
Schaut euch mal die ersten 19 Minuten der aktuellen C't Uplink Diskussionsrunde an. Kann ich nur jedem empfehlen! (Die ersten 2 Minuten und 20 Sekunden kann man überspringen)

[video=youtube;CCrrZSBKhqI]https://www.youtube.com/watch?x-yt-cl=85114404&v=CCrrZSBKhqI&x-yt-ts=1422579428[/video
Die Speicherproblematik wird aber auch nicht wirklich richtig erklärt von dem Herrn ab der ~8:20 Minute. Das 3,5GB mit 224Bit angebunden und die restlichen 0,5GB 'nur' mit 32Bit ist doch technisch völlig normal, denn das beides zusammen ergibt real vorhandene 4GB Speicher mit realer 256Bit Anbindung. Die Problematik ist doch die, das dieser 0,5GB Speicher nicht über einen eigenen L2-Cache angesprochen an der Crossbar hängt, was die effektive performante Nutzung beinträchtigt?!

http://www.hardwareluxx.de/images/stories/newsbilder/aschilling/2015/GTX970_GM204_crossbar.jpg
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Es sind 8 Speicherchips zu je 512MB mit jeweils 32Bit an die GPU angeschlossen!

8 x 512MB = 4096MB
8 x 32Bit = 256Bit
8 x 7000MHz * 32Bit / 8 = 224.000MB/s

So läuft das bei allen (?!) Grafikkarten mit 256Bit Anbindung, die sich auf 8 Speicherchips stützen.

Die Augenmerk liegt bei der GTX 970 darauf, das dieser 0,5GB Speicher nicht über einen eigenen L2-Cache angesprochen an der Crossbar hängt, was die effektive performante Nutzung beinträchtigt?!

http://www.hardwareluxx.de/images/stories/newsbilder/aschilling/2015/GTX970_GM204_crossbar.jpg
 
Zuletzt bearbeitet:
Die Problematik ist doch die, das dieser 0,5GB Speicher nicht über einen eigenen L2-Cache angesprochen an der Crossbar hängt, was die effektive performante Nutzung beinträchtigt?!

Jein, es ist weniger L2 vorhanden, allerdings müssen die Daten des RAMs offenbar immer durch den L2 Cache hindurch (um zur oder von der Crossbar zu gelangen).
D.h. dadurch dass der L2 fehlt, ist auch der Datendurchsatz direkt gemindert - Und das ist eben nicht üblich!

Dieses erste, spezielle Benchmark Programm das das Problem verdeutlich hat, macht ja z.B. keinen direkten Gebrauch von den Caches (so wie es die Graka selbst tun würde) sondern füllt und liest einfach den Vram. Und dabei sieht man dass der letzte Speicherblock schlicht deutlich langsamer angesprochen werden kann als der Rest... Daraus kann man klar schlussfolgern dass die gesamte Bandbreite nicht über die 4Gb vorhanden sind. NV hätte das so spezifizieren müssen!
 
Zuletzt bearbeitet:
Jein, es ist weniger L2 vorhanden, allerdings müssen die Daten des RAMs offenbar immer durch den L2 Cache hindurch (um zur oder von der Crossbar zu gelangen).
D.h. dadurch dass der L2 fehlt, ist auch der Datendurchsatz direkt gemindert - Und das ist eben nicht üblich!

Dieses erste, spezielle Benchmark Programm das das Problem verdeutlich hat, macht ja z.B. keinen direkten Gebrauch von den Caches (so wie es die Graka selbst tun würde) sondern füllt und liest einfach den Vram. Und dabei sieht man dass der letzte Speicherblock schlicht deutlich langsamer angesprochen werden kann als der Rest... Daraus kann man klar schlussfolgern dass die gesamte Bandbreite nicht über die 4Gb vorhanden sind. NV hätte das so spezifizieren müssen!
Sehe ich das Falsch? Das Speicherinterface beschreibt die Verbindung von Speicherchip zu Speichercontroller?! Also hängt auch der 'besondere' Speicherchip mit 32Bit am Speichercontroller und bietet theoretisch dessen volle Bandbreite?! Das diese Bandbreite dieses einen Chips aufgrund der weiteren 'suboptimalen' Anbindung (fehlender L2-Chache) ins GPU Design nicht effektiv performant genutzt werden kann mit den anderen Speicherchips zusammen, ändert doch nichts daran das insgesamt real 4096MB Speicher mit 256Bit am GPU angebunden sind?!

Das alle Speicherchips gleich schnell effektiv performant genutzt werden können, wie es bisher die Regel war, davon sind doch nur alle stillschweigend ausgegangen.



- - - Updated - - -



Achso. :d Wenn Nvidia Prozessoren rausbringen würde, würden sie diese wahrscheinlich mit 8 GHz (4x 2GHz-Kerne) bewerben.
Sowas ähnliches trifft man z.B. heute schon bei AMD APUs an, wo CPU Kerne mit GPU 'Kerne' addiert werden, hier rechnet sich also jeder Hersteller die eigenen Produkte 'schön'.

http://www.amd.com/de-de/products/processors/desktop/a-series-apu
Erleben Sie die fortschrittlichste AMD APU Technologie aller Zeiten. Mit 12 Rechenkernen (4 CPU + 8 GPU)* und innovativer Graphics Core Next(GCN)-Architektur setzt die AMD A10-7850K neue, revolutionäre Maßstäbe beim Prozessordesign.1
 
Zuletzt bearbeitet:
Es sind 8 Speicherchips zu je 512MB mit jeweils 32Bit an die GPU angeschlossen!

Ähm... also ich bin mir nicht sicher, was du versuchst zu sagen. Jedenfalls können 3,5GB eben nur mit 224bit angesprochen werden und die restlichen 0,5GB die mit 32bit angebunden sind, werden eben nicht gleichzeitig mit den ersten 3,5GB angesprochen, sprich eben keine vollen 256bit über die kompletten 4GB. Das ist was anderes als dein genanntes Beispiel, da du davon ausgehst, dass alle angebundenen Speicherchips parallel verwendet werden, was eben bei der GTX970 nicht der Fall ist.

//Ein paar kleine Fehler behoben
 
Zuletzt bearbeitet:
SFVogt, der Beispiel von AMD den du angibst ist kein Beispiel für "vorsätzliche Täuschung" wie es NVidia gemacht hat, es steht doch ganz klar und deutlich für jeden lesbar das es sich um 12 Rechenkerne handelt, 4 CPU + 8 GPU. Hier steht nichts davon das es z.B. 12 CPU Kerne oder 12 GPU Kerne sind sondern das die APU über insgesamt 12 Rechenkerne verfügt die sich auf 4 CPU und 8 GPU verteilen.
 
Seltsames Statement von Nvidia Re: Vram Problem, Vergleich 980 & 970

>
The one remaining unknown element here (and something NVIDIA is still investigating) is why some users have been seeing total VRAM allocation top out at 3.5GB on a GTX 970, but go to 4GB on a GTX 980. Again from a high-level perspective all of this segmentation is abstracted, so games should not be aware of what’s going on under the hood.
>

siehe AnandTech | GeForce GTX 970: Correcting The Specs & Exploring Memory Allocation
(übrigens sehr guter Artikel der die technischen Interna und Unterschiede erklärt)

Freie Übersetzung....
Das einzig verbleibende ungeklärte Element hier (und Nvidia untersucht dieses) ist warum einige User bei der GTX 970 [in Spielen] insgesamte Videospeicher Allozierung von maximal 3.5GB sehen aber bei der GTX 980 bis 4GB. Von einer High-Level Perspektive ist die [Speicher] Segmentierung abstrahiert, Spiele sollten davon gar nix wissen.

Also....Nvidia macht uns weiss DASS SIE SELBST nicht wissen warum Spiele nur 3.5GB allozieren. Wer soll das glauben?

Nvidia WUSSTE ja über das Performance Problem mit dem langsamen Speichersegment und dass dieser nur im Notfall genutzt werden sollte, die haben ja selbst sogar gesagt dass in Treibern usw. "Optimierungen" vorhanden sind um Speicher im schnellen Segment zu priorisieren. (Oder auf Deutsch: Dass Spiele aus "magischen Gründen" nur 3.5GB allozieren hilft erstaunlicherweise und zufälligerweise das Problem niedrig zu halten, nicht zu sagen um es zu kaschieren....)

Wir haben hier angebliche 4GB Speicher der aber so GAR NICHT ANGEFORDERT WIRD, und wenn er nicht angefordert wird ist das essenziell das selbe als wäre er nicht vorhanden. (Das oft genannte Beispiel mit dem Gratis Riegel Ram als Zugabe in der Packung ist demnach nicht mal SO falsch...) Trotzdem besteht aber Nvidia (und einige Schönredner) drauf dass die Karten "ja wirklich 4GB haben wie angegeben".

Und hier sind wir ja wieder ganz am Anfang der Diskussion von vor ein paar Wochen weil das Problem ja aufflog da Leuten es komisch vorkam warum die 970 3.5GB alloziert und die 980 den gesamten Speicher....
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh