Limitierte Speichergeschwindigkeit bei der GeForce GTX 970 (5. Update)

Was heißt denn Marketing, aus dem Zusammenhang zitieren ist oft wenig hilfreich.
Ich habe lediglich meine persönliche Erfahrung beschrieben.

Und ich bin aktuell von Nvidia mehr als angenervt, also kein Grund für Marketing!
Wie beschrieben, bleibe ich wegen Shield und den GF Exp Funktionen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
was durch Gamesworks zunichte gemacht wird um NVIDIAs tollen Werbefeature PhysX zu präsentieren

Wäre AMD damals auf den PhysX Deal eingegangen, hätte ich (nun spätestens nach der GTX970 Geschichte) keinen Grund mehr auf Nvidia zu setzen.
Finde PhysX ist nun einmal ein cooles Feature.
 
Zuletzt bearbeitet:
Wäre ATI damals auf den PhysX Deal eingegangen, hätte ich (nun spätestens nach der GTX970 Geschichte) keinen Grund mehr auf Nvidia zu setzen.
Finde PhysX ist nun einmal ein cooles Feature.

Kann ja auch an meinem Alter liegen^^................aber ich habe noch nie den Unterschied zwischen PhysX und nicht PhysX gesehen/erkannt. Aber gut.............jedem das seine.
 
Aha, ist das so ?
https://www.youtube.com/watch?v=wRjglOqwRBw

NVIDIA kauft sich in die Spieleschmieden ein. Das ist richtig. Aber wer gekauft ist, muss genau das tun, was der Geldspender sagt und das kann nie ein gutes Verhältnis sein, besonders, wenn das Verlangte moralisch fragwürdig und marktwirtschaftlich unfair abläuft. Ich glaube kaum, das ein Programmierer besonders viel Spaß daran hat, gezielt andere Hardwarehersteller aus zu booten, das macht sicherlich keiner gerne !
Somit leidet schon von Grund her die Qualität des Projekts. Wer keinen Spaß mehr daran hat, der macht es nur noch halbherzig. Sieht man ja an allen Gamesworks Titel.
Das beste Beispiel wird The Witcher III sein. Wieder ein Spiel, was durch Gamesworks zunichte gemacht wird um NVIDIAs tollen Werbefeature PhysX zu präsentieren, müssen Abstriche in der Grafikqualität gemacht werden, da sonnst die NVIDIA-Karten zu sehr einbrechen würden. Aber AMD darf natürlich dann nicht besser aussehen, also bleibt auch bei AMD die Bildqualität genauso schlecht. Toll !
Jetzt wird vermutlich schon mit 30FPS gedeckelt (wegen PhysX).
Danke NVIDIA für deinen tollen Beitrag zur Spielewelt ! :grrr:


Das ist nicht schön, richtig. Aber ich denke kein Studio wurde vorher gezwungen einen solchen Deal einzugehen, was um so mehr die Alternativlosigkeit zeigt.
Zu dem hat ATI auch das Problem dass kein "echtes Hardware Shading" (so etwas in der Art meinte einer unserer Artists, ich frage gerne Mal nach) in einem bestimmten Programm ermöglicht.
Dass durch Kooperationen eigene Ziele verfolgt werden ist klar und auch in der Wirtschaft normale Praxis.

Ich möchte kein positives oder negatives Bild auf die Sache werfen. Persönlich finde ich natürlich eine künstliche Einschränkung für AMD Kunden sehr dreist und nicht gut.
 
Zuletzt bearbeitet:
Das Problem ist eher das PhysX insofern relativ nutzlos ist weil die meisten Effekte wenn nicht sogar alle ohne extra Physics Engine realisiert werden können.
Ansonsten würden genug andere alternativen zur Verfügung stehen (Havok, Bullet, Newton usw)

Davon ab würde mich mal interessieren warum so viele in den Foren darauf bestehen das Problem meinen relativieren zu müssen.
Fanboy hin oder her, jedem sollte bewusst sein das auch jetzt schon Games verfügbar sind die unter bestimmten Umständen (Settings, Mods etc) die 3,5GB/4GB @1080p nutzen.
Nur weil UbiSoft Games genutzt werden zum testen ist das noch lange keine Ausnahme nur weil schlechter Konsolen Port.

Nvidia hat mitlerweile ja auch klargestellt das kein Treiber-Patch spezifisch für die 970 kommen wird. Die FrameTime-Spikes usw werden also bleiben, und in naher Zukunft noch sehr viel extremer.
Bspw, DX12. Wenn ich micht recht entsinne sogar ein Feature mit dem die 970 beworben wurde/wird.
Da wird der VRAM wahrscheinlich bei so gut wie jedem neuen Titel bis oben hin voll laufen. Ergo, Probleme.

Games wie StarCitizen und GTA V werden bestimmt auch net wirklich happy sein wenn sie noch öfter als bei 4GB nötig pagen dürfen.

Mal vom Prinzip der Sache komplett abgesehen.
 
Das Problem ist eher das PhysX insofern relativ nutzlos ist weil die meisten Effekte wenn nicht sogar alle ohne extra Physics Engine realisiert werden können.
Ansonsten würden genug andere alternativen zur Verfügung stehen (Havok, Bullet, Newton usw)

Davon ab würde mich mal interessieren warum so viele in den Foren darauf bestehen das Problem meinen relativieren zu müssen.
Fanboy hin oder her, jedem sollte bewusst sein das auch jetzt schon Games verfügbar sind die unter bestimmten Umständen (Settings, Mods etc) die 3,5GB/4GB @1080p nutzen.
Nur weil UbiSoft Games genutzt werden zum testen ist das noch lange keine Ausnahme nur weil schlechter Konsolen Port.

Nvidia hat mitlerweile ja auch klargestellt das kein Treiber-Patch spezifisch für die 970 kommen wird. Die FrameTime-Spikes usw werden also bleiben, und in naher Zukunft noch sehr viel extremer.
Bspw, DX12. Wenn ich micht recht entsinne sogar ein Feature mit dem die 970 beworben wurde/wird.
Da wird der VRAM wahrscheinlich bei so gut wie jedem neuen Titel bis oben hin voll laufen. Ergo, Probleme.

Games wie StarCitizen und GTA V werden bestimmt auch net wirklich happy sein wenn sie noch öfter als bei 4GB nötig pagen dürfen.

Mal vom Prinzip der Sache komplett abgesehen.


THIS +1

PhysX ist kein Kaufgrund - eher nice to have. Bei Mirrors Edge habe ich mir dafür noch eine extra PhysX Karte eingebaut :love:

Vor allem denke ich dass das Spiel sagen wird "Hey, 4GB VRAM, den pack ich Mal voll!" - und dann kommt es zu bekannten Problemen.
Wenn die Karte klar definiert hätte "3GB VRAM Nutzbar" - Dann packt das Spiel weniger rein, okay mehr nachladen, aber dafür dann im Spiel flüssig.
 
Kann ja auch an meinem Alter liegen^^................aber ich habe noch nie den Unterschied zwischen PhysX und nicht PhysX gesehen/erkannt. Aber gut.............jedem das seine.

Für mich sind das oft völlig übertriebene Stoff- oder Fellspielereien. Als würd die ganze Zeit Windstärke 12 herrschen...
 
Könnte man beim Thema bleiben? PhysX hat wenig damit zu tun
 
Die Diskussion führt einen aber in alle möglichen Richtungen... ;) gibts was neues von nVidia zu dem Thema?
 
Da geht es aber um: Plattform: (PS4, XBO), oder?
Und dazu ist der Artikel verdammt alt (22.12.2013) :rolleyes:

vergiss es, er holt das einfach raus und weiss gar nicht worum es geht...
das Physx mit den Nextgen Konsolen 30 FPS mal GAR nix zu tun hat ist egal
 
THIS +1
PhysX ist kein Kaufgrund - eher nice to have. Bei Mirrors Edge habe ich mir dafür noch eine extra PhysX Karte eingebaut

Vor allem denke ich dass das Spiel sagen wird "Hey, 4GB VRAM, den pack ich Mal voll!" - und dann kommt es zu bekannten Problemen.
Wenn die Karte klar definiert hätte "3GB VRAM Nutzbar" - Dann packt das Spiel weniger rein, okay mehr nachladen, aber dafür dann im Spiel flüssig.
Aber inwiefern wird das realistisch möglich sein ?
Einige klagen bereits über Probleme sobald mehr als nur 3GB genutzt werden. Nicht jeder hat das magische 3,5Gb Limit.
Wenn ich mir die von Hexus? gepostete Grafik angucke macht das vll. auch Sinn.
ns3bk9tz.png

Da die letzten 512MB und der Rest ja auch nicht gleichzeitig angesprochen werden können, müssen die letzten 512MB über den MC meiner Meinung nach komplett deaktiviert werden.
Stellt sich die Frage ob dies überhaupt möglich ist, auch wenn der Bereich extra angesprochen werden kann. Falls nicht, würde es sicherlich weiterhin durch ansprechen des 3072-3584er Bereichs über den L2 zu überläufen kommen ?
Ggf. müssten also die letzten 1024MB stillgelegt werden.

Keine Ahnung ob das ganze Sinn macht, habe von Memory Allocation/Management eigentlich relativ wenig Ahnung. War nur so ein Gedanke.
 
Zuletzt bearbeitet:
Don, habt ihr vielleicht auch einen mobile-Ableger zur Verfügung?
 
Woher habt ihr eigentlich immer den Blödsinn, dass Nvidia keine Konkurenz hat? Momentan gibt es nur zwei Karten, die keine direkte Konkurenz haben, aber da ist der Vorsprung so gering, dass es nicht ins Gewicht fällt bzw. der Preis so hoch, dass es irrelevant ist: gtx980/Titan Black

Die Stromverbrauchsgeschichte ist auch immer wieder niedlich:

Messung: Extrem gesteigerte Effizienz! - Raijintek Morpheus im Test: Eiskalter Hitzekiller für R9 290X & Co.

"Die gemessenen 224 Watt sind für eine R9 290X also gar kein so schlechter Wert, denn eine GeForce Titan nimmt im gleichen Benchmark sogar 233 Watt auf und eine GeForce GTX 780 Ti, ebenfalls im Referenzdesign, sogar stolze 244 Watt. "
...

Gutes Statement!
+1
 
Naja vielleicht macht AMD ja noch was möglich wie in den USA mit XFX :d
 
Don, habt ihr vielleicht auch einen mobile-Ableger zur Verfügung?

Ich nicht nein. Ich meine aber gelesen zu haben bzw. aufgrund der Erkenntnisse die bei der GTX 970 gewonnen wurden, lässt sich durch die Verhältnisse von SMMs, Speicherinterface etc. zumindest auf dem Papier bestimmen, dass es da keinerlei Einschränkungen gibt. Gab es auch einige Posts hier im Forum.
 
NV hat das problem gelöst :asthanos:

 
Ist euch aufgefallen, dass sich noch kein Anwalt zu Wort gemeldet hat?

Werden irgendwelche DE Bürger abgemahnt, geht es keine 24h und zumindest Christian Solmecke hat sich zu Wort gemeldet.....

Aber hier..... tote Hose :confused:
 
Jau der Solmecke, der hat immer so große Pupillen :shot:
 
das neue "The Fixer" Video ist mal genial, jetzt noch Infos zur 380X und ich bin vorerst glücklich
 
wer ist dieser Solmecke?
 
wer ist dieser Solmecke?


Seit 2007 bei HWL und 14k Post und du hast keine Ahnung wer Christian Solmecke ist? :eek:

EDIT: Ich denke, google wir dir helfen können. Denn das hat mit dem Thema hier nichts zu tun
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh