wenn ich euch folgen kann, dann wäre hier das argument für
mehr Ram = bei höherer Auflösung?
Nicht unbedingt... Es hält sich heute immernoch das seit Anfang der 3D Grafikberechnung fußende Argument von mehr Auflösung = mehr VRAM. Ja ist im Grunde auch so, aber die Releationen sind derart gering, das es einfach nicht mehr ins Gewicht fällt.
Wo du heute vielleicht zwischen FHD und UHD, also der vervierfachung der Bildpunkte um 10-15% mehr VRAM benötigst, waren die Unterschiede in Zeiten, wo 1, 2 oder 4MB! VRAM vorhanden waren wirklich ausschlaggebend, welche Auflösung eine Grafikkarte überhaupt fahren konnte.
Macht doch selbst einfach den Test, sucht euch eine Szene und lasst den VRAM sich einpegeln (bis das Spiele alle relevanten Daten in den VRAM gekippt hat). Dann vervierfacht ihr die Auflösung und wiederholt das Ganze. Am Ende vergleicht ihr die beiden VRAM Max. Werte und werdet sehen, das es da keine großen Unterschiede mehr zu sehen gibt.
Warum ist das so?
-> der überwiegende Teil der Daten im VRAM besteht aus Texturdaten. Diese Texturdaten werden idR immer in der selben Auflösung abgelegt (man kennt das von Mods, wo man von 2k, 4k oder 8k Texturen spricht!!) und dann, je nach eingestellter Screenresolution in der jeweilige Auflösung berechnet. Sagen wir also 90% des VRAM Bedarfs von einem Spiel liegt Auflösungsunabhängig immer in der selben Größe vor, so sind das bei 2GB reiner Belegung gute 1,8GB. Der Rest kommt von anderen Daten. Wie eben den Bildern in der korrekt berechneten Bildschirmauflösung im VRAM zwischengespeichert werden. Wie viel ein Rohbild im VRAM selbst belegt, lässt sich errechnen, dafür gibt es Formeln. Ob das aber allerdings 200MB sind. Oder 400MB, fällt anhand der 1,8GB Texturdaten schlicht und ergreifend nicht ins Gewicht... -> so einfach ist das im Grunde.
Unterm Strich, wenn ein Spiel die 2, 3 oder 4GB heutiger "Standard" Karten in "normalen" Auflösungen lange nicht voll bekommt, dann wird dieses Spiel auch in UHD und Größer dies idR nicht hinbekommen. Wenn ein Spiel hingegen in niedriger Auflösung schon in der Lage ist, den VRAM der Karte ganz zu füllen oder gar zu überfüllen, wird sich der Umstand in UHD bspw. nur unwesentlich verschlimmern.
Heist also, die Auflösung, die man gedenkt zu berechnen ist lange kein Garant mehr für den Bedarf an VRAM Größe...
Das halte ich aber für ein Gerücht. Mit drei aktivierten Monitoren taktet meine nVidia-Karte auch nicht mehr in den 2D-Modus. Möchte ich Strom sparen, muss ich zumindest einen Monitor deaktivieren.
Es gibt mehrere Einflussfaktoren. Bei mir geht bei drei Monitoren die Karte bspw. in den P8 State, wenn kein SLI aktiv ist. Mit aktivem SLI geht es nur in den P2 State. Mit zwei Monitoren hingegen geht die Karte immer in den P8 State.
Auch mit drei "gleichen" Monitoren soll dies der Fall sein, was ich aber aus mangel von drei gleichen Monitoren nicht belegen kann...
Aber ich denke das man den VRAM bestimmt deutlich effektiver nutzen kann!
Aber da bei der PS4 VRAM = RAM ist, gehen die Entwickler für die meisten Portierungen auf PC wohl einfach den gleichen weg!
Speicher versuchen nicht zu belegen ist aber der falsche Weg. Denn ungenutzter Speicher bringt schlicht und ergreifend absolut gar keinen Vorteil.
Nur belegter Speicher bedeutet einen Vorteil. Nämlich das die Daten im schnellen Zugriff sind. Brachliegende Speicherbereiche erzeugen nur Hitze und Verbrauch... Nicht mehr.
Vorhandenen Speicher also durch was auch immer weniger hoch zu belegen bringt absolut gar nix!
Ist alles eine Milchmädchen Rechnung. Ich meinte das man nicht unbedingt auf dem Stromverbrauch schauen sollte. Aber ist nun mal weniger
Der Verbrauch selbst ist doch gar nicht mal das riesige Problem. Das Problem ist das durch den Verbrauch 1:1 einhergehende Problem der höheren Hitzeentwicklung sowie der dafür notwendigen Kühlleistung.
Klar gibt es riesige Custom Kühler mit drei, vier oder wie vielen Slots auch immer. Aber wer will sowas schon?
Ich bekomme gut zwei DualSlot GPUs bei mir in die Hütte. Was soll ich da mit einem GPU Modell mit jeweils einem TrippleSlot Kühler? -> passt nicht...
Weniger Verbrauch heist daher wohl eher, das weniger Kühlleistung notwendig ist. Was gleichbedeutend mit weniger Hitzeentwicklung steht sowie auch schlussendlich mit der erzeugten Lautstärke des Lüfters.
Eine Karte die nur 150W verbrät erzeugt weit weniger Hitze und somit direkt Lautstärke wie eine Karte, die auf selben Raum 250W verbrät.
Dazu kommt noch der Umstand mit den Custom Kühlkörpern, die die Abluft idR nicht aus dem Gehäuse rausbefördern. Ich habe seit jüngstem hier eine 780TI DC2 von Asus. Das Teil wird dermaßen verdammt heiß, das es schon ziemlich unangenehm ist, das Gehäuse anzufassen, was in unmittelbarer Umgebung der Karte ist. Die Ref. 780TI erzeugt bei weitem nicht so eine Abwärme -> warum? Weil die Abluft hinten aus dem Case befordert wird.
Wer schonmal ein SLI aus zwei Fermi GPUs (bestenfalls sogar mit OC) im PC stecken hatte, der kann wohl sogar ein Liedchen davon singen, wie es sich im Sommer anfühlt bei 600-700W Verbrauch und somit entsprechender Abwärme versuchen wollen zu spielen...
Und wenn du anstatt mit diesen 600-700W Verbrauch eben nur 40% weniger verbrauchst, ist das eine extreme Verbesserung der Situation. Selbst wenn durch schwächere Kühlkonstruktionen die GPUs gleich heiß werden würden, so entsteht bei weitem weniger Hitzelast, die die Umgebung aufheizt.