Limitierte Speichergeschwindigkeit bei der GeForce GTX 970 (5. Update)

Anzeigebug bei den Tools, welche nur die erste Partition sehen. Wurde hier schon zur Genüge breitgelatscht...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
[...] Sowas ähnliches trifft man z.B. heute schon bei AMD APUs an, wo CPU Kerne mit GPU 'Kerne' addiert werden, hier rechnet sich also jeder Hersteller die eigenen Produkte 'schön'.

AMD A-Serie APUs
Wieso?
Es sind doch 12 Rechenkerne und man sagt dazu, dass diese sich aus 4 CPU und 8 GPU zusammensetzen.

Aber hat nicht mal wer bei seinem SoC 3x mehr GPU Leistung und 2x mehr CPU Leistung zum Vorgänger gehabt und die dann einfach addiert und etwas von 5x schneller geschwafelt? Wenn mich nicht alles täuscht war das nVidia.
 
Zuletzt bearbeitet:
Ähm... also ich bin mir nicht sicher, was du versuchst zu sagen. Jedenfalls können 3,5GB eben nur mit 224bit angesprochen werden und die restlichen 0,5GB die mit 32bit angebunden sind, werden eben nicht gleichzeitig mit den ersten 3,5GB angesprochen, sprich eben keine vollen 256bit über die kompletten 4GB. Das ist was anderes als dein genanntes Beispiel, da du davon ausgehst, dass alle angebundenen Speicherchips parallel verwendet werden, was eben bei der GTX970 nicht der Fall ist.

//Ein paar kleine Fehler behoben
Doch es sind halt 4096MB Speicher und 256Bit Speicheranbindung, so wie es nVidia angibt. Jeder 512MB Speicherchip ist mit 32Bit am jeweiligen Speichercontroller angebunden, das ist eine technische Gegebenheit wo es wohl auch anscheinend nichts zu rütteln gibt. nVidia hatte schlicht nur nie dazu geschrieben das dies eine andere Funktionsweise aufweist, als es bisher der Fall war. Darum sind auch alle davon ausgegangen das diese wie ein 'übliches' 256Bit Speicherinterface funktioniert und nicht unterteilt wird in zwei Speicherbereiche.


SFVogt, der Beispiel von AMD den du angibst ist kein Beispiel für "vorsätzliche Täuschung" wie es NVidia gemacht hat, es steht doch ganz klar und deutlich für jeden lesbar das es sich um 12 Rechenkerne handelt, 4 CPU + 8 GPU. Hier steht nichts davon das es z.B. 12 CPU Kerne oder 12 GPU Kerne sind sondern das die APU über insgesamt 12 Rechenkerne verfügt die sich auf 4 CPU und 8 GPU verteilen.
Ich rede bei keinem der beiden Hersteller von 'vorsätzlicher Täuschung'. Zumindest ich halte mich mit solchen Anschuldigungen lieber etwas zurück, wenn ich es schlich nicht beweisen kann. In meinem Satz steht doch deutlich drin worauf ich hinaus will mit derartigen Marketing Tricks:
...hier rechnet sich also jeder Hersteller die eigenen Produkte 'schön'


- - - Updated - - -


Wieso?
Es sind doch 12 Rechenkerne und man sagt dazu, dass diese sich aus 4 CPU und 8 GPU zusammensetzen.

Aber hat nicht mal wer bei seinem SoC 3x mehr GPU Leistung und 2x mehr CPU Leistung zum Vorgänger gehabt und die dann einfach addiert und etwas von 5x schneller geschwafelt? Wenn mich nicht alles täuscht war das nVidia.

Nochmal:
... hier rechnet sich also jeder Hersteller die eigenen Produkte 'schön'.
 
Na toll. Dank dem shared L2 cache block sind aber entweder 224bit ODER 32bit SI im Betrieb. Zu KEINEM Zeitpunkt sind 256bit aktiv. Das geht wegen L2-RMW-Cache Kohärenz gar nicht. 4GB@256bit treffen NICHT zu. Unter 3.5GB sind 224bit aktiv. Über 3.5GB abwechslungsweise RMW auf 224bit oder 32bit.
Nur schon der Grund, dass dies bei keiner Grafikkarte bis jetzt so war und von niemandem erwartet werden konnte, sowie die real vorhandenen Probleme die dadurch bedingt werden reichen für einen Sachmangel aus. Hinzu kommen als Stütze die falschen ROP Angaben (56 nicht 64) und falschen L2 Angaben (1.7MB nicht 2MB).
 
Zuletzt bearbeitet:
Es ist doch viel einfacher als "hätte erwartet werden können" beim VRam usw.
Es hieß 64 ROPs und 2MB L2 Cache. Und das ist einfach falsch! Da habt ihr euren Sachmangel.
 
Es sind 8 Speicherchips zu je 512MB mit jeweils 32Bit an die GPU angeschlossen!

8 x 512MB = 4096MB
8 x 32Bit = 256Bit
8 x 7000MHz * 32Bit / 8 = 224.000MB/s

So läuft das bei allen (?!) Grafikkarten mit 256Bit Anbindung, die sich auf 8 Speicherchips stützen.

Die Augenmerk liegt bei der GTX 970 darauf, das dieser 0,5GB Speicher nicht über einen eigenen L2-Cache angesprochen an der Crossbar hängt, was die effektive performante Nutzung beinträchtigt?!

http://www.hardwareluxx.de/images/stories/newsbilder/aschilling/2015/GTX970_GM204_crossbar.jpg

Das Problem liegt nicht an dem kleineren L2-Cache. Es ist die Anbindung des Speicher selber.
Bei der GTX970 teilt sich der Speicher in 2 Blöcke auf. Einen mit 3,5 GB und 224Bit Anbindung und eben einen sehr langsamen 0,5GB mit nur 32Bit Anbindung.
Zwar sind die Speicherchips nur mit jeweils 32 Bit angebunden, können aber beim großen Block (3,5 GB) parallel angesprochen werden. Eine Textur mit 512 MB-Speichermenge, wird nicht auf 1 Chips gespeichert, sondern gleichmäßig auf allen 7-Chips verteilt und kann parallel abgerufen werden. Sobald aber die Datenmenge die 3,5 GB übersteigt, wird der Speicherdurchsatz extrem eingebremst, da die GTX 970 nicht gleichzeitig auf den großen Block und den kleinen Block zugreifen kann. Die Daten, die nun im 0,5GB Block liegen, können nur mit 32Bit gelesen und beschrieben werden. Sie sind nicht mit den anderen 7-Speicherchips verbunden und agiert allein. Zudem kann die GTX970 nicht in der Zwischenzeit am 3,5 GB Block schreiben oder lesen. Dadurch wird der ganze Datenfluss zerstört und die Karte erzeugt Microruckler und das als Single-Karte, also absolut unbrauchbar für den Spielbetrieb !
NVIDIA hätte die 0,5 GB erst gar nicht verbauen dürfen und hätten somit zwar nur eine 3,5 GB-Karte, aber eben ohne das sie stottert. Zwar weniger werbewirksam, aber dafür deutlich besser für den User. Aber das ist NVIDIA eh egal, wie es aussieht und das Geld haben sie schon verdient.
Die Fans werden es mal wieder verzeihen...

Ich bin jedenfalls heil froh mich nicht von diesem Hype erfasst gefühlt zu haben und die GTX900er-Serie als das gesehen zu haben, was sie wirklich ist.
Bauernfänger...

- - - Updated - - -

Also das ist mal echt ziemlicher Unsinn... Wie schaffst du das eigentlich jedes mal?

Schalt einfach mal dein Gehirn ein, dann schaffst du das auch. ;)
 
Zuletzt bearbeitet:
Es ist doch viel einfacher als "hätte erwartet werden können" beim VRam usw.
Es hieß 64 ROPs und 2MB L2 Cache. Und das ist einfach falsch! Da habt ihr euren Sachmangel.
Ja, das sind die Angaben die nVidia falsch gemacht hat, 4096MB und 256Bit sind technisch vorhanden, 64 ROPs und 2MB L2-Cache nicht.


Das Problem liegt nicht an dem kleineren L2-Cache. Es ist die Anbindung des Speicher selber.
Bei der GTX970 teilt sich der Speicher in 2 Blöcke auf. Einen mit 3,5 GB und 224Bit Anbindung und eben einen sehr langsamen 0,5GB mit nur 32Bit Anbindung.
Zwar sind die Speicherchips nur mit jeweils 32 Bit angebunden, können aber beim großen Block (3,5 GB) parallel angesprochen werden. Eine Textur mit 512 MB-Speichermenge, wird nicht auf 1 Chips gespeichert, sondern gleichmäßig auf allen 7-Chips verteilt und kann parallel abgerufen werden. Sobald aber die Datenmenge die 3,5 GB übersteigt, wird der Speicherdurchsatz extrem eingebremst, da die GTX 970 nicht gleichzeitig auf den großen Block und den kleinen Block zugreifen kann. Die Daten, die nun im 0,5GB Block liegen, können nur mit 32Bit gelesen und beschrieben werden. Sie sind nicht mit den anderen 7-Speicherchips verbunden und agiert allein. Zudem kann die GTX970 nicht in der Zwischenzeit am 3,5 GB Block schreiben oder lesen. Dadurch wird der ganze Datenfluss zerstört und die Karte erzeugt Microruckler und das als Single-Karte, also absolut unbrauchbar für den Spielbetrieb !
NVIDIA hätte die 0,5 GB erst gar nicht verbauen dürfen und hätten somit zwar nur eine 3,5 GB-Karte, aber eben ohne das sie stottert. Zwar weniger werbewirksam, aber dafür deutlich besser für den User. Aber das ist NVIDIA eh egal, wie es aussieht und das Geld haben sie schon verdient.
Die Fans werden es mal wieder verzeihen...

Ich bin jedenfalls heil froh mich nicht von diesem Hype erfasst gefühlt zu haben und die GTX900er-Serie als das gesehen zu haben, was sie wirklich ist.
Bauernfänger...
Ja, du schreibst es ja selber 3,5 GB 224Bit und 0,5GB 32Bit ergeben was? 4GB 256Bit in der Gesamtheit sind bei der Grafikkarte vorhanden, wie es nVidia anpreist und nichts anders sagt das aus. nVidia hatte zu keinem Zeitpunkt gesagt das es wie ein 'übliches' 256Bit Speicherinterface funktioniert, das haben nur alle angenommen und auch nicht mit entsprechenden Tests hinterfragt. Aber das wird sich - denke ich - ab dem nächsten Grafikkarten Release ja Gott sei dank ändern ;)
 
Zuletzt bearbeitet:
SFVogt schrieb:
Die Speicherproblematik wird aber auch nicht wirklich richtig erklärt von dem Herrn ab der ~8:20 Minute. Das 3,5GB mit 224Bit angebunden und die restlichen 0,5GB 'nur' mit 32Bit ist doch technisch völlig normal, denn das beides zusammen ergibt real vorhandene 4GB Speicher mit realer 256Bit Anbindung.

Lasst mich das mal ein für alle mal klar stellen.

Es existiert kein 256bit angebundendes SI. Auch nicht mathematisch, da man nicht den Fehler machen darf und und einmal die 224bit und die 32bit zusammenrechnen darf, weil beide gleichzeitig gar nicht angesprochen werden können.

Das heißt letztendlich man hat irgendetwas von 224bit + 16 bit, also unter 256bit.

Sry aber darüber jetzt noch zu diskutieren, das lockt doch keinem mehr vom Ofen hervor.
 
Ja, du schreibst es ja selber 3,5 GB 224Bit und 0,5GB 32Bit ergeben was? 4GB 256Bit in der Gesamtheit sind bei der Grafikkarte vorhanden, wie es nVidia anpreist und nichts anders sagt das aus. nVidia hatte zu keinem Zeitpunkt gesagt das es wie ein 'übliches' 256Bit Speicherinterface

Also so wie ich das sehe/gelernt habe definiert sich die Breite (xxxBit) eines Speicherinterfaces darüber welche Datenmenge bei einem Taktzyklus gleichzeitig übertragen werden kann. Da hier gleichzeitig maximal 224Bit möglich sind ist es eben KEIN 256Bit Speicherinterface und Nvidia hat ganz klar gelogen.

Edit.: Da war Schaffe wohl schneller.
 
Zuletzt bearbeitet:
Nun, allein die Angabe von 256bit, sagt aber nichts über die Funktionsweise aus, sondern nur das diese physisch vorhanden sind. Da 8x32bit Leitungen auch physisch vorhanden sind, dürfte auch die Angabe von 256bit korrekt sein.
 
Lasst mich das mal ein für alle mal klar stellen.

Es existiert kein 256bit angebundendes SI. Auch nicht mathematisch, da man nicht den Fehler machen darf und und einmal die 224bit und die 32bit zusammenrechnen darf, weil beide gleichzeitig gar nicht angesprochen werden können.

Das heißt letztendlich man hat irgendetwas von 224bit + 16 bit, also unter 256bit.

Sry aber darüber jetzt noch zu diskutieren, das lockt doch keinem mehr vom Ofen hervor.
Na wenn das laut deiner Aussage eindeutig ist, das kein 256Bit Speicherinterface vorhanden ist bei der GTX 970, dann dürfte die Rückgabe beim Händler easy sein, oder?
VRAM bei GTX 970: Sachmangel, Vertragsrücktritt, Kaufpreisminderung - Kommentar von Clemens Gäfgen
Zweites Problem ist die beworbene Speicherbandbreite von 224 GB/s. Fraglich ist, ob die beworbene Bandbreite von 224 GB/s erreicht wird, wenn ein Bereich des Videospeichers langsamer angebunden ist. Auf der deutschen Produktwebseite von Nvidia steht in diesem Zusammenhang "Max. Bandbreite". Schaut man sich jedoch die US-Webseite als auch die Übersicht der Grafikchips auf der deutschen Webseite an ("Spezifikationen ausblenden"), fehlt ein derartiger Zusatz, der auf einen möglichen Spitzenwert hinweist. Bekannt ist, dass weiterhin acht 32-Bit-Controller vorhanden sind. Lediglich zwei müssen sich unter bestimmten Umständen einen L2-Cache-Block teilen. Vorausgesetzt, dass die Speicherschnittstelle wie beworben 256 Bit beträgt, ergeben sich nach folgender Rechnung (256 / 8 * 3.506 MHz * 2 / 1.000) abgerundet 224 GB/s. Soweit nicht gegenteilige Details bekannt werden, dass keine (oder zumindest nicht immer) 256-Bit breite Speicherschnittstelle besteht, ist die Angabe korrekt und daher nicht angreifbar, allerdings unter der Einschränkung stehend, dass die vollen 224 GB/s nur dann erreicht werden, wenn beide Speicherpartitionen genutzt werden (siehe dazu die Aussagen von Jonah Alben). Wird nur eine Speicherpartition (also die 3,5 GiB große) genutzt, wird diese Speicherbandbreite nicht erreicht.


Also so wie ich das sehe/gelernt habe definiert sich die Breite (xxxBit) eines Speicherinterfaces darüber welche Datenmenge bei einem Taktzyklus gleichzeitig übertragen werden kann. Da hier gleichzeitig maximal 224Bit möglich sind ist es eben KEIN 256Bit Speicherinterface und Nvidia hat ganz klar gelogen.

Edit.: Da war Schaffe wohl schneller.
Wie die GTX 970 deutlich zeigt, sagt die reine Angabe über das vorhandene 'Speicherinterface', hier im Fall 256Bit, nichts über deren Funktionalität aus und der daraus resultierenden 'Speicherbandbreite'. Oder löst sich bei der Verwendung des 3,5GB 224Bit Speicherbereichs der achte 512MB 32Bit Bereich in Luft auf oder bleibt dieser auf der Karte existent?
 
Ich vermute mal, dass Alternate um den Faktor 50-60mal mehr 970 als Caseking verkauft hat und es deswegen für sie nicht ganz so einfach ist, die Rücknahme ohne Rückendeckung von nVidia zu stemmen.
Alternate ist doch noch mal ein anderes Kaliber mit Niederlassungen im Ausland etc. pp..
Die sind groß genug, um überall recht präsent zu sein, aber zu klein, um so einen Ansturm mit Rücklagen zu decken.

Deswegen gebe ich nicht den Händlern für diese Situation die Schuld. Schön, wenn sich ein paar den Austausch leisten können.
Die Schuld an der Misere trägt einzig und allein nur nVidia. Wenn die das OK geben würden, könnten und würden wohl auch alle Händler zurücknehmen.
 
Muss Schaffe89 und Gubb3L zustimmen.

@SFVogt
dass die vollen 224 GB/s nur dann erreicht werden, wenn beide Speicherpartitionen genutzt werden
Soweit ich weiß, können ja gerade nicht beide Speicherpartitionen gleichzeitig genutzt werden? Zumindest wurde ja unter der Vorraussetzung hier die ganze Zeit argumentiert...
 
Die Angabe von 224GB/s wäre deshalb ja auch angreifbar...
 
Zuletzt bearbeitet:
SFVogt schrieb:
Na wenn das laut deiner Aussage eindeutig ist, das kein 256Bit Speicherinterface vorhanden ist bei der GTX 970, dann dürfte die Rückgabe beim Händler easy sein, oder?

Natürlich ist das normalerweise Easy, kommt halt drauf an ob der Händler eine Ahnung von der Thematik hat oder nicht.
Mindfactory stellt sich hier ihmo komplett quer und schickt ihre Mitarbeiter in die Foren um dort Stimmung gegen Kritiker zu machen.

Der V-ram lässt sich nicht gleichzeitig ansprechen, sondern ich muss für Operation A den einen nehmen und dann bei Operation B den anderen, während bei Operation B der erste Speicherbereich zu dem Zeitpunkt gar nicht angesprochen werden kann, also fallen Nvidia auch die 256bit SI auf die Füße.
 
Zuletzt bearbeitet:
Mindfactory stellt sich hier ihmo komplett quer und schickt ihre Mitarbeiter in die Foren um dort Stimmung gegen Kritiker zu machen.

WAT?! Also ich mag ja MF aus anderen Gründen nicht sonderlich, aber gibt es für diese - doch sehr gewichtigen- Vorwürfe irgendwelche Beweise und/oder Links?
Wenn nicht, wäre ich mit solchen Behauptungen aber doch etwas vorsichtiger.
 
egal wie mans dreht und wendet
nvidia hat gelogen und das ganz dreist

sofern bis montag keine stellungname von MF vorliegt wird das egen gerichtlich durchgesetzt
fertig
die sache ist ganz klar, versteckter mangel.

wozu gibt es denn gesetze hier in D wenn sich niemand dran halten sollte?
ob der händler schuld hat oder nicht ist mir primär egal weil ich keinen vertrag mit gigabyte oder nvidia habe

--> Viel Glück & Spass dabei :d


Wieso alle so gegen MF sind verstehe ich nicht. Bin schon lange Kunde, keine Problem bei RMA & Co. Nie unfreundlich gewesen.

Wartet einfach mal 1-2 Wochen. Das wird nicht so schnell gehen und ihr müsst euch auch nicht gleich entscheiden.
 
weil die unter anderem auch ihre preise machen wie sie lustig sind ^^
 
Natürlich ist das normalerweise Easy, kommt halt drauf an ob der Händler eine Ahnung von der Thematik hat oder nicht.
Mindfactory stellt sich hier ihmo komplett quer und schickt ihre Mitarbeiter in die Foren um dort Stimmung gegen Kritiker zu machen.

Der V-ram lässt sich nicht gleichzeitig ansprechen, sondern ich muss für Operation A den einen nehmen und dann bei Operation B den anderen, während bei Operation B der erste Speicherbereich zu dem Zeitpunkt gar nicht angesprochen werden kann, also fallen Nvidia auch die 256bit SI auf die Füße.
Okay okay ich geb mich geschlagen: ne Menge RAM plus ein 'echtes' 256Bit Speicherinterface und man sitzt gleich auf der Sonnenseite des Lebens ... wie ich :d :fresse:

970_980m_gpuz12uny.png






- - - Updated - - -



Da fällt mir gerade auf:

Hätte nVidia die GTX 980M Specs mit höherem GPU Takt bei mit halben RAM sowie 3500MHz Speichertakt als GTX 970 für den Desktop gebracht und die Desktop GTX 970 Specs mit etwas weniger GPU Takt bei doppeltem RAM (nVidia neigt ja dazu im Mobilbereich den Speicher überdimensionieren) und gesenktem Speichertakt, wäre das nie und nimmer aufgefallen, weil der gedrosselte Mobil GPU die Puste ausgeht bevor man überhaupt die dann kritische 7GB Grenze erreicht hätte :fresse: :fresse: :fresse:
 
Zuletzt bearbeitet:
andere händler machen das nicht. ergo nachteil für MF.

Wie jetzt? Andere Händler bestimmen ihre Preise nicht selbst? Da ist der Kunde wohl noch König und bestimmt selbst, oder wie? :d
 
Wird sicherlich auch interessant wie sich die Preise für gebrauchte 970 in den Foren und bei Ebay entwickeln.

Bisher hatten die Nvidia Karten beim Wiederverkauf einen guten Wert, das könnte sich erstmals seit langer Zeit bei der 970 ändern.

Oder alternativ, NVidia nimmt so viele Karten zurück und damit aus dem Marktkreislauf, das die Preise sogar ansteigen.
 
Wie jetzt? Andere Händler bestimmen ihre Preise nicht selbst? Da ist der Kunde wohl noch König und bestimmt selbst, oder wie? :d

stell dich doch nicht so an. bei mf war es in den letzten wochen deutlich sichtbar das sie einige komponenten deutlich im preis verändern je nach tageszeit. und das nicht um 5-10 euro sondern um 30-40 euro.
 
Alles gut, weiß ich doch. :)
 
stell dich doch nicht so an. bei mf war es in den letzten wochen deutlich sichtbar das sie einige komponenten deutlich im preis verändern je nach tageszeit. und das nicht um 5-10 euro sondern um 30-40 euro.
Und? Ist das ist mittlerweile ein 'Verbrechen'? Es wird doch keiner gezwungen bei Mindfactory zu bestellen?! Es gibt doch eine riesige Auswahl an Händler, welche die gleiche Hardware liefern können.
 
Moin, ich hab auch mal ausprobiert:
Assetto Corsa mit 23 AI Cars GT3 auf Silverstone, ein paar Modautos bei...max Ramusage 3054 MB. GPU Auslastung ca. 65 %
Raceroom: 23 AI Cars DTM 1992 Hungaroring...max Ramusage 2250 MB.
GPU Auslastung ca. 85%
Getestet wird noch rFactor 2, glaube das ich Rfactor 1 vernachlässigen kann oder? Da dürfte es nicht ans Limit stoßen.
Edit: PCars möchte ich mir erstmal angucken, sollte schon Sim sein, sonst kaufe ich es nicht.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh