Der Durchschnittsuser nutzt weder Downsampling noch SGSSAA, die meisten wissen nicht einmal was MSAA ist.
Neja grundsätzlich stimme ich da natürlich zu... Dennoch gebe ich zu bedenken, das der Durchschnittsnutzer eben auch keine 900€ für so ein Produkt hinblättert.
Beim Durchschnittsnutzer ist der ganze PC inkl. NT und Gehäuse sowie HDDs nichtmal 900€ schwer
Schau dich mal bei der Steam Hardwareumfrage um, was dort so für GPUs im Einsatz sind... Mal völlig abgesehen von der Verbreitung ob NV oder AMD kommen dort Karten mit nem Leistungniveau von GTX 460 - GTX 560TI zum Einsatz. Und dieses Leistungsniveau ist in den letzten Monatsumfragen in etwa so häufig vertreten wie die ganzen 600er NV Karten zusammen.
Ne GTX 690 kommt auf 0,18% aller! DX11 GPUs in der Umfrage...
Im Vergleich zu beispielsweise den Auflösungen stehen Tripplescreen Setups mit ~0,1% gegen beispielsweise 30% für FullHD. Der Durchschnitt spielt also in der Tat mit FullHD oder 136xer kleine HD Auflösung (in Summe gute 50%)
Die große Preisfrage ist nun, wie häufig sind überdurchschnittlich hohe Auflösungen bei überdurchschnittlich schnellen GPUs vertreten? Und ich denke mal, hier ist klar ne Tendenz zu mehr Pixel bei mehr GPU Power vorhanden.
Leider lässt sich die Umfrage nicht! über inGame benutzte Auflösungen sowie Settings aus. Sprich Downsamplingauflösungen oder verwendete AA Level sieht man dort nicht.
Auch ist zu erkennen, das sowohl die 690er als auch Titan ihre Stärken erst bei hohen Settings ausfahren. Wer da mit FullHD ohne AA (was ich jetzt einfach mal so schreibe, weil du sagst, die meisten wissen wohl nicht, was MSAA ist) zockt, hat zwar keine Probleme mit irgendwelchen VRAM Limits, könnte die Kohle aber durchaus auch besser investieren. Denn die GPU wird nichtmal ansatzweise voll ausgefahren.
Spielt überhaupt keine tragende Rolle ob MSAA oder SparseGrid der Vram Verbrauch ist in etwa der selbe bei beiden Samplingmodis
Weist du wie genau getestet wird?
Ich hatte vor ner Zeit lang mal einblick in so Vergleiche...
Zu meinem Bedauern geht dort oftmals das Motto "Masse statt Klasse" um. Heist, da wird nicht geprüft, ob die Settings laufen, oder ob das, was rauskommt auch wirklich gut ausschaut. Oder ob überhaupt irgendwas von den Settings wirkt. Bestenfalls schaut man, ändern sich die FPS -> dann muss es wirken.
Da du gerade Skyrim ansprichst. Es ist ein Himmelweiter Unterschied, ob du SSAA via InGame MSAA + Inspector Erweiterung zuschaltest. Oder ob du beispielsweise mit AA Bits und ohne InGame AA das MSAA + SGSSAA im Inspector drauf bringst.
Der Unterschied ist dabei nicht nur in Sachen Optik massiv (In Skyrim wird beim InGame AA nicht alles gelättet, Bücher, manche Ladeszenen, Schlossknackspiele usw.) sondern auch im Ressourcenbedarf.
Drück mal Skyrim 4xSGSSAA mit 10C1 oder 12C1er AA Bits drauf. Natürlich override im Inspector...
Der VRAM Bedarf steigt extrem... Was von den Bits kommt.
Ich für meinen Teil finde aber ein Inspector erzwungenes SGSSAA deutlich hübscher, weil eben das komplette Bild vollumfänglich geglättet wird. Ist natürlich persönliche Meinung, klar Aber genau für solche Spielereien sollten Preisstarke GPUs auch herhalten müssen. Im Falle von Titan geht sich das definitiv aus... Bei der 690er, trotz mehr Rohleistung nicht vollumfänglich. Zumindest im Falle Skyrim.
Wie so oft bleibt aber der Nachteil des enormen VRAM Bedarfs durch die Bits (teils doppelte Belegung bei der selben Szene direkt beim Start!) sowie der Enorme Leistungsbedarf an die GPU bestehen...
PS: auch nicht zu vergessen, es gibt mehrere Stufen von VRAM Limitation.
Das fängt bei leichten Nachladerucklern mit kurzen FPS Einbrüchen an, und geht bis zu unspielbarkeits FPS durchgängig.
Das Spiel u das ist nur verständlich nimmt sich das was da ist,weil Zugriffe aus dem eigenen Vram nunmal problemloser laufen,wie wenn ich das Ganze erst zwischendrin über den Bus einladen muss
Das ist aber auch nur die halbe Wahrheit...
Der meiste/größte Bedarf an VRAM kommt wohl nach wie vor von Texturen. Und ja, wenn mehr VRAM da ist, dann können auch mehr Texturen über längere Zeit dort drin gehalten werden.
Nur kann natürlich nicht mehr belegt werden, als es an Texturen in dem Fall auch gibt. Heist, beispielsweise hat ein Spiel Texturen in Summe mit einer Größe von sagen wir 1GB. Nun spielt man, und das 1GB wandert nach und nach vollständig in den VRAM. Mehr ist aber an der Stelle nicht. Da bringt dich keine 2, 3 oder 6GB Karte auf mehr VRAM Belegung, weil einfach nix mehr da ist, was rein wandern kann. -> ergo absolut kein Limit, keine Nachladeruckler und alles ist schick.
Nun gibts aber auch den anderen Fall. Nämlich Games, die Texturen von mehreren 10GB über die Spielwelt verteilt haben.
Klassisches Beispiel ist dabei Gothic 3. Riesige Spielwelt, drei Klimazonen mit vollständig anderen Texturen pro Klimabereich und eine offene Welt absolut ohne Ladescreens. Sprich anders als Skyrim, kein Laden in Städten, kein Laden in Häusern, kein Laden beim Wechsel der Klimazonen usw.
Im diesem zugegebenen Extrembeispiel bringt dich mehr VRAM natürlich auch deutlich vorran. Denn du kannst zwischen den Klimazonen hin und her reisen ohne jemals Nachladeruckler zu verspüren. Hast du nicht genügend VRAM, gibts Nachladeruckler. Und diese sind teils enorm, weil große Datenmengen geschaufelt werden müssen.
Kommt man nun auf stupide Balkenbenches mit avg. FPS zurück, ja selbst wenn min. und max. FPS mit angegeben währen heist das im ersten Fall, es gibt nen avg. FPS Wert, der egal ob nun 2, 3 oder 6GB vorhanden sind, immer gleich ist. Bzw. direkt nur von der reinen GPU Power beeinflusst wird.
Im zweiten Fall kommt es drauf an, was gebencht wird. Läuft der Bench über mehrere Klimazonen, hat die Karte mit wenig VRAM deutlich! das Nachsehen. Weil die Nachladeruckler teils recht lange die FPS einbrechen lassen. Wärend bei viel VRAM eben dies nicht der Fall ist. Bencht man hingegen ne Szene, die sich Texturtechnisch nicht nennenswert ändert, bringt auch die Karte mit wenig VRAM wiederum die gleichen FPS wie die mit viel VRAM und wird einzig durch die GPU Power beeinflusst.
Genau das ist der Grund, wieso ist seit jeher sage, das die default ~20-60sec Benchszenen der ganzen Redaktionen absolut unbrauchbar für VRAM Verbrauchsanalysen bzw. VRAM Bedarfsanalysen sind. Einfach weil nicht praxisrelevant gebencht wird. Ich zumindest spiele nicht nur! 20-60 Sekunden am Stück und beende dann das Spiel Sondern im Falle von Open World Games kommen da auch mal mehrere Stunden am Stück bei rum.
Zuletzt bearbeitet: