Limitierte Speichergeschwindigkeit bei der GeForce GTX 970 (5. Update)

Meine reicht auch für meine Zwecke....und uhh ich zocke über FullHD.....[emoji15]
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das hat hier so einen Jehova-Touch.

Kommt mir vor als müsse jeder vor seiner Haustüre bekehrt werden. Unbefleckte Empfängnis is scheisse, Inquisition war scheisse, Jehova, Jehova... Dürfte ich ihnen bitte meinen Glauben aufdrücken ? Tut auch nicht weh...

Soll doch jeder machen wie er will, ohne ständig von dahergelaufenen selbsternannten Weltverbesserern genötigt zu werden dies und das zu kaufen. :stupid:
 
Zuletzt bearbeitet:
das hat hier so einen jehova-touch.

Kommt mir vor als müsse jeder vor seiner haustüre bekehrt werden. Unbefleckte empfängnis is scheisse, inquisition war scheisse, jehova, jehova... Dürfte ich ihnen bitte meinen glauben aufdrücken ? Tut auch nicht weh...

Soll doch jeder machen wie er will, ohne ständig von dahergelaufenen selbsternannten weltverbesserern genötigt zu werden dies und das zu kaufen. :stupid:

Steinigt ihn!!! :d
 
Hat schon mal wer heute Dying Light getestet mit dem heute erschienenen Treiber?

Hatte vorhin ~3650 MB Vram auf dem Tacho und die Performance ist nicht eingeknickt (bzw. nicht unter 60 FPS gefallen, hab VSync an daher kommen nicht mehr) und auch kein "übergangs ruckler" gemerkt.
 
Test von EVOLVE bei CB!

Zu einem Großteil wiederholt sich das Spielchen in 3.840 × 2.160: Die Radeon R9 290X hat die besten Frametimes, das Spielgefühl liegt jedoch auf dem Niveau der GeForce GTX 980. Nur die GeForce GTX 970 fällt nun negativer auf. Das schlechtere Spielgefühl und häufige Stocken zeigt sich auch in den Frametimes. Die Abweichungen zwischen den Frames sind messbar deutlich größer als bei den anderen Grafikkarten. Das Spiel belegt dabei auf der GeForce GTX 970 nicht mehr als 3,5 Gigabyte Speicher (auf den beiden anderen Modellen rund 3,8 Gigabyte). Bei genauerer Betrachtung zeigt sich jedoch, dass die GTX 970 immer wieder Daten aus dem Speicher löscht, um neue Daten zu laden. Genau dann kommt es zu den störenden Rucklern.


Hochinteressant.
Anscheinend versucht Nvidia genau das, was hier so viele Nvidia - Nutzer immer wieder gefordert haben, nämlich den "Cut" der letzten 0,5GB per Treiber (Version 347.52 vom 2015.2.10)
Aber das verursacht wohl noch mehr Ruckler durch das "rein-/rausladen" der Daten in den 3,5GB-Bereich als ohne.
Sieht man sehr plakativ daran, daß GTX980 und 290X 3,8GB brauchen, während die GTX970 bei 3,5 bleibt.

Wäre noch schön gewesen, wenn CB einen älteren Treiber mit den Frametimes gegengetestet hätte, dann wäre das noch klarer.
 
Zuletzt bearbeitet:
War zu erwarten neuer treiber und noch schlimmer ab 3,5 GB. Wie soll das auch gehen da ist wohl der 0,5 GB krüppel speicher noch besser als die daten rein und rauszuladen.
 
Zuletzt bearbeitet:
Das hab ich mir auch von Anfang an gedacht,das per Treiber bei 3,5Gb abgeriegelt wird, um nicht in den langsamen 0,5Gb Sektor zu gelangen. Na mal Sehen,was die anderen 970 Besitzer berichten,ob es mit dem neuen Treiber besser oder schlechter geworden ist.
 
ich frag mich immer wie man mit einer einzige 970 in 4k spielen will....
 
ich hoffe, das hier einer meine schon oft gestellte frage beantworten kann. hat hier jemand eine GTX 970 auf einem X99 System mit sehr schnellen Ram (3000er) getestet. Denn wenn wirklich in den RAm geschrieben und gelesen wird, müsste das Problem mit DDR 4 und Quadchannel zumindest wenig stark sichtbar sein. Ich wäre diesbezüglich sehr dankbar für Erfahrungsberichte...

mfg
daniel
 
ich frag mich immer wie man mit einer einzige 970 in 4k spielen will....

Ich zocke mit einer einzigen R290 alles in 5920x1080 (etwas weniger als 4k). Zugegeben warte ich sehnlichst auf den Maxwell Vollausbau bzw. die 390X aber mit einem Monitor zocken ist für mich inzwischen völlig undenkbar und SLI Crossfire hat mich jedes Mal wieder einfach nur enttäuscht.
 
Mit der 290 hab ich auch BF in 4k und hohen Details ohne Probleme gespielt, weit entfernt von unflüssig... (ist ja auch CPU lastig)
 
Ich zocke mit einer einzigen R290 alles in 5920x1080 (etwas weniger als 4k). Zugegeben warte ich sehnlichst auf den Maxwell Vollausbau bzw. die 390X aber mit einem Monitor zocken ist für mich inzwischen völlig undenkbar und SLI Crossfire hat mich jedes Mal wieder einfach nur enttäuscht.
Ich denke mal Du meinst 5760x1080, oder?
Ich zocken ebenfalls in der Auflösung und warte daher auf die 390(x).
Sollte der Sprung von ~50% tatsächlich zutreffen wäre das natürlich ein Traum.
 
Ich denke mal Du meinst 5760x1080, oder?
Ich zocken ebenfalls in der Auflösung und warte daher auf die 390(x).
Sollte der Sprung von ~50% tatsächlich zutreffen wäre das natürlich ein Traum.

Bei AMD erhöht die Rahmen (bezel) Korrektur die Auflösung in die Breite. 5760x1080 ist Standard - mit Rahmenkorrektur komme ich dann auf 5920x1080 oder manchmal auch 5880x1080 - je nachdem wie ich es einstelle.
 
ich frags mich mittlerweile nicht mehr. stattdessen bewundere ich die Konsequenz 4k als Kriterium für ne SingleGPU anzuführen.

Grundsätzlich korrekt, aber ich frage mich warum immer die Aussage kommt, daß erst bei "unspielbaren" 4K Auflösungen viel VideoRAM gebraucht wird.

Den Hauptteil des Grafikkartenspeichers belegen immer noch die Texturen, und deren Auflösung ist das entscheidende Kriterium für vielleicht ca. 70% bis 80% des verbrauchten Speichers.

Das einzelne gerenderte Bild, was auf dem Monitor ausgegeben wird, hat im Schnitt bei 4K ca. 100 MB.


Da die Konsolen bisher nur relativ wenig Grafikspeicher hatten, wurden die Spiele oft mit geringen Texturauflösungen dargestellt. Stichwort - verwaschene Texturen. Die Spieleentwickler haben sich halt angepasst.
Da aber der Speicher in Konsolen auf 8 GB angewachsen ist, werden immer mehr neue Spiele höhere und bessere Texturauflösungen verwenden und dann wird es knapp mit dem Speicher auf den Standard-Karten.

Dabei ist es egal ob 3,5GB oder 4GB genutzt werden, die 3,5GB merken es halt bei einigen Spielen früher als die 4GB Nutzer, aber über kurz oder lang werden alle Probleme bekommen.
 
Du hast mit allen recht, sage ich ja auch.
Jetzt sind es halt 3,5 GB statt 4... wobei mein AC:U Video, wie auch die Verbesserung gestern bei Dying Light zeigen das man auch mit mehr als 3,5GB , jeh nach Game noch sehr gut spielen kann. (Dying Light mit dem jetzt neuen Treiber. Hab nicht ein einziges Problem in dem Spiel gehabt seit dem neuen Treiber)

Wer die 970 gekauft hat für 4K in aktuellen Titeln ist grundlegend falsch, egal ob 3,5 oder 4GB Vram. Dann hätte man gleich zu einer Karte mit mehr als 4GB greifen müssen.

Das ist ja das was ich die ganze Zeit versuche zu sagen.

Was NV angeht, gibt es da nichts zu beschönigen.
Was die Karte als solche angeht, dramatisiert man es aber mehr als es eigentlich ist.
 
Man muss ja auch nicht immer auf 4k zocken. Die meisten spielen ja "noch" oder sogar "erst" auf 1920x1080p. Ich glaube da geht der Trend in die falsche Richtung und vor allem viel zu schnell
 
Bin ebenfalls gut mit noch Full HD oder 2560x aufgehoben.
Ältere Perlen dann eben via Downsampling oder wie es jetzt heißt DSR auf Ultra HD berechnet.

Aber bei mir dauert das noch ewig bis UHD -> nativ
 
Zuletzt bearbeitet:
Ich zocke mit einer einzigen R290 alles in 5920x1080 (etwas weniger als 4k). Zugegeben warte ich sehnlichst auf den Maxwell Vollausbau bzw. die 390X aber mit einem Monitor zocken ist für mich inzwischen völlig undenkbar und SLI Crossfire hat mich jedes Mal wieder einfach nur enttäuscht.

Hi und Hallo,
Also ich spiele BF in 4k und Ultraeinstellung mit AA 30-40FPS ohne AA 40-50FPS auf 28" UHD monitor
Samsung D590D und Alien Isolation mit Höchsteinstellung 45-55 FPS mit GTX 970 Phantom von Gainward flüssig und ohne Probleme.
Mein SYS.:
Gehäuse: Corsair 600T Graphite Mesh
Netzteil : Enermax Platinmax 1500W
Mainboard: Asrock Z87 Extreme 9 a/c Sockel 1150
CPU: 4770k / Kühler Thermalright Silver Arrow SB-Extreme
RAM: 16GB G-Skill Ares 1600
GPU: GTX 970 Phantom Gainward
SSD: Samsung 840 EVO
Monitor: Samsung UHD U28D590D
Trotz aller miessmacherei im Netz ist die GTX 970 eine sehr gute Karte.
 
AA kannst du auf jeden Fall weglassen ;)
 
Exakt :) ich freue mich auf meinen 4K Monitor
 
Nene, muss schon FreeSync mit an Bord sein :P
 
Wird meiner meinung nach überbewertet, aber es reicht auch ein 1.2a Diplayport Anschluss um Adaptive Sync zu nutzen ohne zusätzliche Hard oder Software. Monitore kommen jetzt auf den Markt, rechtfertigen aber meiner Meinung nach noch nicht den Kaufpreis für die Leistung.:popcorn:

Adaptive Sync funktioniert auch jetzt schon:
http://www.tweakpc.de/hardware/tests/grafikkarten/pov_nvidia_geforce_680/s04.php
:coffee:
 
Zuletzt bearbeitet:
Meine leise G1 (Bios Mod und kein Spulenfiepen) wurde nun gegen einen Aufpreis getauscht. Meine neue 980 G1 hat auch kein Spulenfiepen und durch das bessere Bios genau so leise :d
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh