Ähm... das ist hier eher dein Problem. Was du gerade mit Hdmi 2.0 wunderbar auslebst.
Das war doch nur ein Beispiel unter einer Ansammlung von diesen!? Warum versteift man sich da jetzt drauf?
Was machst du, wenn du ins lokale Möbelhaus gehst, dem Verkäufer dort sagst, ich hätte gern einen Tisch, aber nicht von Firma Grün der Marke 079XTG, da dieser offenbar für vier Personen beworben wird, in real aber nur 3 Personen daran Platz finden.
Nun sagt dir der Verkäufer, alles kein Problem bei uns finden Sie alles, wie wäre es mit einem neuen Fernseher? Ist zwar kein Tisch, aber Hey... Scheiß auf deine Anforderungen, ich sage dir, was du wirklich brauchst und was nicht.
Denk mal drüber nach... Genau darauf zielt eure Argumentation ab. Nicht ob HDMI 2.0 heute genutzt wird oder nicht. Sondern der Kunde definiert, was er will und was nicht.
Hast Du dir überlegt dass vielleicht viele kein DSR benutzen WEIL es eben diese Probleme gibt?
Unwarscheinlich... Der Karte dürfte viel eher die GPU Power ausgehen. Zumindest wenn man einen Schnitt über viele aktuelle und auch ältere Titel tätigt.
Ob sich daran in Zukunft gravierend was ändern wird, muss sich zeigen.
Man sollte halt auch bedenken, dass 4GB absoluter VRAM auch erst seit nunmehr etwas über einem Jahr per default zu brauchbaren Preisen angeboten wird. Und das auch nur im absoluten HighEnd. Mal von "Sonderlocken" wie einer GTX 680 mit 4GB oder GTX 770 mit 4GB abgesehen.
Die Spiele allerdings richten sich häufig doch zum Release nach der mehr oder weniger gängigen Hardware. Was dann aber sowohl für die GPU als auch für den VRAM gilt. Und DSR geht in erster Linie erstmal voll auf die GPU Power. Skalierungsfaktor 2:1 bis 3:1 ist da angesagt... VRAM Limit und viel Luft in Sachen GPU Power ist heute doch ziemlich selten der Fall. Eher ist GPU Limit mit Luft im VRAM der Fall würde ich meinen.
Aufgefallen ist mir...
1. das der maximale Speichertakt von 1752MHz nicht erreicht wurde, er nur bis auf max. 1501MHz beim benchen ging. Nun habe ich versucht die Differenz (1752MHz zu 1501MHz = ca. -14%) hochzurechnen, was aber auch nicht hinkommt. Ausgehend von 178GB/s erhalte ich auch nur ca. 203GB/s (178GB/s x 1,14 = 202,92GB/s). Es fehlen also noch rund 21GB/s...
2. die Auslastung des Memory-Controllers beim benchen konstant bei 100% lag. Ich gehe deshalb mal davon aus, das die Shaderleistung (GPU) das Speicher-Subsystem gar nicht auslasten kann, was eigl. logisch wäre, da die Karten so nicht von der Speicher-Bandbreite limitiert werden.
Deshalb, auch im Falle deiner GT630 wäre es im Prinzip völlig normal, wenn die Bandbreite nicht komplett ausgelastet wird, da wie du auch schon mal angemerkt hast, der Benchmark quasi nur den interne GPU-Durchsatz zum Speicher-Subsystem misst.
Ich muss zugeben, bei mir gar nicht geguckt zu haben... Im TrippleScreen Setup bei aktivem SLI liegt aber der MemoryClock immer Voll an. -> was zumindest dafür sprechen würde, das meine TI 300GB/sec bringt. Wer weis, wie viel Overhead von der theoretischen Bandbreite da am Ende real noch abgezogen wird... ~10% scheinen mir da aber durchaus realistisch. Es ist nicht nichts... Und es ist nicht übermäßig viel.
Eventuell muss man das bei den 970er Messungen auch mal mit gegenprüfen. Wenn der VRAM Takt gar nicht voll ausfährt, womöglich auch weil die Karte zu lange braucht bis sie diesen hochschaltet? Wären die Werte natürlich niedriger als eigentlich unter Spielelast...
Es ist aber immer noch nicht klar, wie nVidia das Speichersystem im Detail aufgebaut hat und wie das Management dieser Segmente (3,5GB + 0,5GB) genau zusammen funktioniert. Da müsste nVidia mit mehr technischen Hintergrundwissen rausrücken...
Was hälst du eigentlich von der Priorisierungsaussage von NV?
Priorisierung, was auch immer damit bei NV gemeint ist, glaube ich nämlich nicht... Das wäre arg unlogisch, eine Logik zu entwerfen, die das "Problem" versucht mit Priorisierung von Daten zu lösen oder zu umgehen...
Für mich klingt das eher nach einer art Softlimit bei 3,5GB... Und dieses Softlimit macht genau das, was jede andere Karte auch macht, wenn ihr der VRAM ausgeht. Sie versucht möglichst unter dem Limit zu bleiben. Zwingt man allerdings darüber, wird ausgelagert. Bei der 970er offenbar über die letzten paar MB. Nicht ganz so lahm wie PCIe 3.0 16x, aber dennoch viel zu lahm für den Speed der GPU...
Also wenn ich das richtig verstehe hätte Nvidia einfach noch einen SMM weglasern müssen und es hätte keine Probleme gegeben? Den Geschwindigkeitsverlust dann mit etwas mehr Takt ausgleichen und fertig ... wenn ja wundert es mich, dass man diesen Weg nicht gegangen ist. Weder tut sich eine Firma freiwillig so einen Skandal an noch lässt sie sich die Gelegenheit entgehen mehr teildeaktivierte Chips verkaufen zu können. Das wäre ja dann bei nur 12 SMM möglich gewesen.
Nach den bisherigen Erkenntnisen wäre genau das eine Option, die machbar wäre.
Andernfalls, wenn es unbedingt 13 SMMs sein müssen/sollen, wäre die Option denkbar, je einen SMM pro ROP Partition wegzucutten. Anstatt die wohl heute gewählte Methode, einer ROP Partition zwei SMMs zu klauen und einer weiteren eben einen.
Für mich sieht das nämlich arg nach einem Timingproblem aus. Die voll angebundenen ROP Partitionen schaufel die Daten einfach viel schneller weg. Somit bleibt am Ende der Rest hinten über... Und um so weniger aktive "Member" beim "Pumpen" der Daten dabei sind, desto geringer die Bandbreite. Bis zum letzten Part mit 256MB, welcher rechnerisch nur noch mit um die 11,5GB da durchlaufen sollte, weil nur noch 1/4tel einer ROP Partition (also 1/4tel eines 1/4tels des Memorysubsystems) aktiv ist.