NVIDIA kündigt die GeForce GTX 780 Ti an (Update)

Ich denke, EVGA wird da schon Modelle mit 4GB oder 6GB launchen. :xmas:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Was mir bisher bekannt ist:

  • 780 Ti ist die erwartete Titan Ultra, heißt halt jetzt nicht so
  • > 2496 SPs (wahrscheinlich 2880), ergo war der GPU-Z-Screenshot Fake
  • 3 GB
  • > 6 Gbps Speicher
  • Custom-Modelle erlaubt! Evtl. dann auch mit 6 GB, denn Titan geht EOL, läuft aus. Auf den muss man dann keine Rücksicht mehr nehmen

Bis auf das 1 GB an Speicher weniger scheint es also ein würdiger Gegner für die 290X zu werden.

Ob die 290X ein würdiger Gegner ist, hängt einzig und allein davon ab, wieviel schneller sie gegenüber Titan@MaxClock ist.
 
Ja wir kennen die Schallplatte, alle Schieberegler auf Maximum, weil es ja in der Garantie ist und sich dann freuen, das die 290x langsamer ist, weil da OC ja nicht von der Garantie abgedeckt ist... :coffee:
 
Schonmal überlegt, einfach nichts zu schreiben? Ich weiß, Internet und geringere Intelligenz und so.

Aber hey, dann lass es mich anders formulieren:
Ob die 290X ein würder Gegner ist, hängst davon ob, ob sie nicht 50% mehr Strom für <10% Mehrleistung benötigt.
 
Die geringere Intelligenz hält dich ja offensichtlich auch nicht vom Schreiben ab und kauf dir mal eine Tüte Sozial-Kompetenz... :wink:

Im übrigen entscheiden das nicht deine kruden Kriterien, sondern schlicht ihre Leistungsfähigkeit im Alltag. Kein @Stock vs OC-Blödsinn oder die Energie-Effizienz, das sind Foren-Spielzeuge, die die meisten Spieler nicht jucken. Ist die 290x out of the Box im Mittel schneller oder auf Augenhöhe mit der Titan, dann ist sie ein würdiger Titan-Gegner - fertig.
 
Ich persönlich würde denken das 3GB 7Gbps die sinnvollste Speicherbestückung ist. Die Größe ist wohl gefühlt für 95% der Fälle ausreichend ist und man ne ordentliche Speicherbandbreite hat gar über der 290X. Wenn der Speichertakt gegebüber 780 und Titan angehoben wird, dürfen ja 7Gbps Chips zum Einsatz kommen, was bei sich bei 6GB doch sicherlich im Preis bemerkbar machen dürfte. Daher, 3GB 7Gbps der beste Kompromiss aus Größe, Leistung und Preis?
 
Was mir bisher bekannt ist:

  • 780 Ti ist die erwartete Titan Ultra, heißt halt jetzt nicht so
  • > 2496 SPs (wahrscheinlich 2880), ergo war der GPU-Z-Screenshot Fake
  • 3 GB
  • > 6 Gbps Speicher
  • Custom-Modelle erlaubt! Evtl. dann auch mit 6 GB, denn Titan geht EOL, läuft aus. Auf den muss man dann keine Rücksicht mehr nehmen

Bis auf das 1 GB an Speicher weniger scheint es also ein würdiger Gegner für die 290X zu werden.

Das klingt nach nem neuen Spielzeug für mich :fresse:
Wollte ja eigentlich ne 780er bzw. zwei davon holen. Aber die 3GB VRAM haben mich bis jetzt noch nicht zugreifen lassen...
Ne 6GB 780TI wäre da wohl gekauft. -> solange der Preis im Rahmen bleibt.

Daher, 3GB 7Gbps der beste Kompromiss aus Größe, Leistung und Preis?

Für mich persönlich nicht...
Ich lebe gern mit seichten Leistungseinbußen, sofern der mehr VRAM nicht die Bandbreite erreicht wie die kleineren Modelle.
Denn der riesen Vorteil kommt genau dann zum tragen, wenn der VRAM mal ausgeht. Und das kann dir bei 3GB genau so schnell passieren, wie damals noch zu GF100/110 Zeiten mit 1,5GB, zu HD5870 Zeiten mit 1GB oder noch zu HD4870 Zeiten mit 512MB... Ist der VRAM (über) voll, nutzt dir Bandbreite gar nix mehr. Nachladeruckler und sodde Geschichten gehen extrem gegen den Spielspaß. Ich merke das aktuell mal wieder bei Skyrim und 2GB auf GK104...
 
Zuletzt bearbeitet:
Ob die 290X ein würdiger Gegner ist, hängt einzig und allein davon ab, wieviel schneller sie gegenüber Titan@MaxClock ist.
Die R9-290X hat mehr Shader, Bandbreite, ROPs & Takt als Titan, natürlich ist die Karte schneller als Titan.
Der Flaschenhals wurde endlich beseitigt, die CUs skalieren jetzt viel besser als bei GCN1.
Die GTX780 Ti sollte auch kein Problem sein, es gibt bei der R9-290X ein Dual Bios, mit Max. Clock ist die R9-290X nochmal 10-15% flotter als Nvidia.
 
Die R9-290X hat mehr Shader, Bandbreite, ROPs & Takt als Titan, natürlich ist die Karte schneller als Titan.
Der Flaschenhals wurde endlich beseitigt, die CUs skalieren jetzt viel besser als bei GCN1.
Die GTX780 Ti sollte auch kein Problem sein, es gibt bei der R9-290X ein Dual Bios, mit Max. Clock ist die R9-290X nochmal 10-15% flotter als Nvidia.

Aha. Weiß du wie hoch der Stromverbrauch? Leistung ist ein direktes Resultat daraus.
Wenn ich 300W verbrate, dann kann ich natürlich mehr Leistung generieren. Wenn ich aber nur <10% schneller bin als eine Karte mit 200W, dann sagt es einiges aus über "Konkurrenzfähigkeit". Vorallem, wenn die 200W Karte aktiv durch das TempTarget eingebremst wird.
 
Der Flaschenhals wurde endlich beseitigt, die CUs skalieren jetzt viel besser als bei GCN1.

Das hat aber nicht unbedingt was mit GCN1 zu tun :wink:
Die kleineren Modelle skalierten bei gleichem Takt und jeweils einer kompletten! Einheitenverdopplung mit ~90%. Und das auch bei GCN1 ;)
Einzig bei Tahiti hat man das irgendwie versemmelt... Denn dort sind 16 statt nur 10 ALU "Cluster" pro Frontendpart verbaut. Man hat nur die Einheiten, welche an den ALUs "hängen" skaliert. Und das SI um 50% erhöht.
Hawaii scheint nach aktuellen Infos eher ein doppelter PitCairn mit 11 anstatt 10 ALU Clustern zu werden. Sollte also wenn nicht alles schief geht, ebenso in diesen Regionen skalieren, wie die kleineren GPUs. (+ eventuellen weiteren Verbesserungen)
Das heist dann irgendwo im Bereich ~90%+ auf die HD7870 = minimal über Titan. :wink:
Mit Schnitt vielleicht was mehr, was weniger... Je nach Game und Support.

Gilt aber natürlich auch für die Leistungsaufnahme... Wobei hier eventuelle Fertigungsvorteile noch etwas gegen wirken können. Aber das sehen wir dann wenn das Ding verfügbar ist...

Wenn ich 300W verbrate, dann kann ich natürlich mehr Leistung generieren. Wenn ich aber nur <10% schneller bin als eine Karte mit 200W, dann sagt es einiges aus über "Konkurrenzfähigkeit". Vorallem, wenn die 200W Karte aktiv durch das TempTarget eingebremst wird.

Mach das Temptarget auf und da stehen auch mehr Watt auf der Uhr ;) im max. Boost auch gerne mal 250W+, was dir sicher bekannt ist...
 
Zuletzt bearbeitet:
I know. Aber es ist verpöhnt über ein Verändern des TempTargets nur zu schreiben.
Also habe ich Herrn Foley auf scharmante Art und Weise ein anderes Beispiel gezeigt, woran man "Konkurrenzfähigkeit" festmachen kann.
 
Es sind nur deine ewig gleichen Argumentationsketten verpöhnt, die immer darin münden, dass Nvidia am Ende doch eh besser ist...
 
Du weißt doch nicht einmal, wie "charmant" geschrieben wird. :shot:

Ich mag kein französisch.

Es sind nur deine ewig gleichen Argumentationsketten verpöhnt, die immer darin münden, dass Nvidia am Ende doch eh besser ist...

Stimmt. Immer diese Argumente. Man, es ist doch viel schöner einfach Schwachsinn zu schreiben. Ist sowie besser für Leute, denen die Realität egal ist.

Davon abgesehen sollte es klar gewesen sein, warum ich MaxClock genommen habe.
 
Zuletzt bearbeitet:
vram wird btw immer so viel genutzt, wie da ist. hat man nur 1.5GB, kommt ein spiel wie bf3 auch mit 1.5GB aus. haste 6GB, nimmt sich das spiel was es im stande ist zu füllen.

Das stimmt nicht und das kannst du auch ganz leicht selbst überprüfen, in dem du mit einem geeigneten Tool die Speicherausnutzung beobachtest.

Bei einem halbwegs professionell programmierten Spiel schwankt die Ausnutzung immer hin und her, da dieser Speicher dynamisch allokiert wird.

D.h. egal, ob eine Karte nun 3 oder 6 GB VRAM zur Verfügung hat, es wird nie über den tatsächlich gebrauchten Bedarf Speicher zugewiesen, bei gleichem Szenario ergibt sich also ein identischer Füllungsgrad.

Wird mehr Speicher gebraucht als durch die Menge an VRAM allokierbar, beginnt das Swapen.

Würde deine Vermutung zutreffen, wäre in Spielen der Füllungsgrad immer auf Anschlag bei max. VRAM.
 
Aha. Weiß du wie hoch der Stromverbrauch? Leistung ist ein direktes Resultat daraus.
Wenn ich 300W verbrate, dann kann ich natürlich mehr Leistung generieren. Wenn ich aber nur <10% schneller bin als eine Karte mit 200W, dann sagt es einiges aus über "Konkurrenzfähigkeit". Vorallem, wenn die 200W Karte aktiv durch das TempTarget eingebremst wird.
Gefällt dir nicht? Stromverbrauch spielt erstmal keine Rolle, GK110 kann mit hohen Takt instabil werden, Hawaii bleibt dagegen mit hohen Takt weiterhin stabil, das ist ein Unterschied, Nvidia kann nicht Serienmäßig ein Dual Bios mit 1100 oder 1150 MHz anbieten, "Treiber Reset".
 
Schonmal überlegt, einfach nichts zu schreiben? Ich weiß, Internet und geringere Intelligenz und so.

Aber hey, dann lass es mich anders formulieren:
Ob die 290X ein würder Gegner ist, hängst davon ob, ob sie nicht 50% mehr Strom für <10% Mehrleistung benötigt.

Dir ist wohl entgangen, dass ich es andersherum formuliert habe: Nämlich dass die 780 Ti ein würdiger Gegner für die 290X zu werden scheint ;)

6 GB non-Referenzkarten soll es übrigens geben, evtl. auch Referenz. Das wird aber wohl teurer als $649.
 
Ist es nicht. Nur ist erstmal Titan der Gegner.

Gefällt dir nicht? Stromverbrauch spielt erstmal keine Rolle, GK110 kann mit hohen Takt instabil werden, Hawaii bleibt dagegen mit hohen Takt weiterhin stabil, das ist ein Unterschied, Nvidia kann nicht Serienmäßig ein Dual Bios mit 1100 oder 1150 MHz anbieten, "Treiber Reset".

Lolwut? Boost 2.0 Karten sind mit MaxClock stabil. Meine Titan ist es auch mit 1163MHz...
 
Titan ist irrelevant, da EOL wird und preislich auch in einer ganz anderen Liga spielt. Nvidia will die 780 Ti besser positionieren ggü. der 290X als Titan es ist.
 
Titan's Leistungslevel ist aber nicht irrelevant. Denn dieses wird Maßstab für die GTX780Ti sein. Und wenn AMD das nicht schlagen kann, dann haben sie auch keine Chance gegen die GTX780Ti.
 
Das stimmt nicht und das kannst du auch ganz leicht selbst überprüfen, in dem du mit einem geeigneten Tool die Speicherausnutzung beobachtest.

Bei einem halbwegs professionell programmierten Spiel schwankt die Ausnutzung immer hin und her, da dieser Speicher dynamisch allokiert wird.

Hat er doch geschrieben... Ist der VRAM zu klein, kann nur das belegt werden, was da ist.
Und ist mehr vorhanden als im Grunde benötigt, "nimmt sich das spiel was es im stande ist zu füllen." :wink:
Das kann von Level zu Level oder von Szene zu Szene anders sein. -> schwanken.

Übrigens, deine Aussage ist auch nicht ganz richtig... Denn der Speicher wird nicht sofort frei, wenn nicht mehr benötigt. Das heist, es wird definitiv mehr Speicher belegt, als tatsächlich benötigt wird. Nämlich genau den Teil mehr, der vor kurzem noch benötigt wurde, aber noch nicht wieder frei gemacht wurde. Und das ist auch gut so und hat triviale Grüne. Würde man das nicht so machen, wäre massiv mehr Betrieb auf dem PCIe Interface, da die Daten alle Nase lang neu in den VRAM geschoben werden müssen. :wink: Das ist aber so nicht gewünscht. Speicher ist da um belegt zu werden und nicht um frei zu bleiben. Von freiem Speicher hat niemand was... :wink:
Das geht in Titeln mit viel Speicherbedarf auch soweit, das durchaus auch 6GB (oder noch mehr) belegt werden können. Heist aber nicht, das diese zwingend auch im Zugriff stehen...
Zu beobachten ist sowas in echten OpenWorld Titeln ohne Ladescreens zwischen Szenenwechseln... (negatives Paradebeispiel ist da Gothic 3, komplett OpenWorld ohne Ladescreen, drei Klimazonen mit völlig unterschiedlichen Texturen usw.)
 
Titan's Leistungslevel ist aber nicht irrelevant. Denn dieses wird Maßstab für die GTX780Ti sein. Und wenn AMD das nicht schlagen kann, dann haben sie auch keine Chance gegen die GTX780Ti.

Gleichauf wird sie schon sein, evtl. einen Tick flotter im Übermodus (verglichen mit Titan@1GHz). Die 780 Ti erwarte ich dann wiederum einen Tick flotter als die 290X. Aber jeweils zu knapp, um von einem wirklichen Sieg der 290X ggü. Titan oder der 780 Ti ggü. der 290X zu sprechen. 0-5% schätze ich jeweils.

Was anderes ist ja auch nicht zu erwarten von Karten, die von den Specs her so nah zusammenliegen. Ob jetzt 2688 oder 2816 SPs ist doch gehupft wie gesprungen.
 
Aha, also knüppelt man den Speicher voll bis zum "Geht-Nicht-Mehr"?

Never.

Identische Settings usw. belegen auf einer 6 GB Karte nicht automatisch mehr Speicher als auf Karten mit weniger RAM. Ob jetzt die eventuelle Möglichkeit, mehr zu cachen nun genutzt wird oder nicht, sei dahingestellt.

Sehr schön zu beobachten bei vermutlich allen anderen Spielen außer vielleicht den von dir genannten.

Übrigens habe ich nie behauptet, der Speicher würde sofort freigegeben.

PS:
Hat er doch geschrieben... Ist der VRAM zu klein, kann nur das belegt werden, was da ist

Ja klar, und wenn mehr braucht, beginnt das Auslagern.

Aber das bedeutet nicht, dass auf einer üppiger mit RAM bestückten Karte automatisch mehr Speicher dadurch belegt wird, weil sie mehr Speicher besitzt.
 
Zuletzt bearbeitet:
Aha, also knüppelt man den Speicher voll bis zum "Geht-Nicht-Mehr"?

Never.

Wer behauptet das!?
Wie gesagt, Speicher ist dafür da, belegt zu werden... Nicht um nicht genutzt zu werden, dann das bringt dir schlicht nichts. Außer Kosten im Geldbeutel bei Beschaffung des ganzen...
Das heist nicht, das randvoll bzw. übervoll gewünscht ist...

Identische Settings usw. belegen auf einer 6 GB Karte nicht automatisch mehr Speicher als auf Karten mit weniger RAM. Ob jetzt die eventuelle Möglichkeit, mehr zu cachen nun genutzt wird oder nicht, sei dahingestellt.

Sehr schön zu beobachten bei vermutlich allen anderen Spielen außer vielleicht den von dir genannten.

Was beobachtest du denn!? Ich würde fast sagen, der erste Teil ist sogar grundsätzlich falsch. Denn es hängt nicht primär vom Spiel selbst ab, wie diese Daten in den VRAM geschoben werden, sondern viel eher vom Speichermanagement der Karte/des Treibers. -> eine AMD GPU wird dir ein völlig anderes VRAM usage Verhalten zeigen als eine NV GPU, obwohl die gleichen Spieldaten angezeigt werden. Gehst du dazu noch über die Generationen von GPUs, gibts auch dort nochmals teils extreme Unterschiede.
Nahezu jedes halbwegs aktuelle Game mit Ladescreens bzw. vielfach genutzten Schlauchleveldesign macht genau dann den Speicher wieder frei, wenn eben ein solcher Ladescreen hochkommt. Kommt der Ladescreen allerdings öfters, besteht auch nicht die Möglichkeit den mehr VRAM entsprechend mehr zu belasten... :wink: Da diese Ladescreens aber unabdingbar sind, kann man daran nix ändern. Aus meiner Sicht schlussfolgerst du dahingehend einfach nur falsch. Das Laden erzeugt nen harten Cut. Quasi wie das Booten deines PCs -> dann sind auch alle Daten aus deinem RAM nicht mehr drin, wärend du ohne Boot bei geöffnetem Programm(en) die Daten idR solange im RAM liegen hast, bis er voll ist, oder anderweitig benutzt werden muss...

Gut zu beobachten in Skyrim... Lauf durch die Welt und du hast sogut wie nur Anstieg im VRAM Verbrauch... Teleportier dich -> VRAM wird geleert zu einem großen Teil, dann wieder gefüllt und das Spiel beginnt von vorn. So kann es dir zum Beispiels nicht passieren, das die Texturen für die Städte beim laufen durch die Spielwelt geladen werden müssen. Weil jedes Betreten dieser Städte einen Ladescreen und obiges Verhalten nachsich zieht.
Hätte man hingegen keinen Ladescreen, würden die Texturdaten auch im VRAM bleiben. Bis das Ding eben (fast) voll ist. -> und geleert werden muss. Dann fliegen alte/nicht mehr benötigte Texturen raus...
Das kannst du zum Beispiel ebenso in Skyrim nachstellen, wenn du schlicht keinen Teleport ausführst und keine Städte betrittst. Es gibt "Ödland", es gibt Wälder, es gibt Gebirge usw. usf. Nimmst du all das mit indem du dort hinläufst, wird der VRAM solange steigen, bis er voll ist, oder alle Texturdaten im VRAM sind. :wink: Passt irgendwann nix mehr rein, muss ausgelagert werden. Dann ist auch der Füllstand grundlegend anders bei Karten mit unterschiedlichem VRAM Ausbau. Das sich der VRAM aber ohne Teleport oder Betreten von Häusern selbst drastisch leert, obwohl noch genügend freier VRAM vorhanden, ist faktisch fast vollkommen ausgeschlossen... Hatte ich auch bis dato bei keinem Spiel :wink: und ich habe immer den Afterburner inkl. Diagrammen auf dem zweiten Schirm...
 
Zuletzt bearbeitet:
Das stimmt nicht...

wie kommt es dann, dass ich über 2GB vram auslaste während eine 1.5GB GTX 580 auch mit 1.5Gb auskommt, bei gleichem szenario?!

wenn ich nicht mehr vram habe, kann ich nicht mehr nutzen, habe ich mehr, lädt sich das system mehr in den vram.

würde solche aussagen nicht treffen, wenn ich nicht selbst bereits 1.5/2/6GB karten mit dem gleichen spiel laufen hatte. dabei wurde natürlich immer gemonitort.
evtl habe ich mich unklar ausgedrückt, nur weil ich 6GB habe, werden natürlich nicht 6GB genutzt. habe ich aber mehr als zb. 1.5GB, wird mehr genutzt, habe ich weniger als 2GB, kommt man auch mit weniger aus.
nur weil das game mit 1.5GB karten läuft, heißt es nicht, das eine karte mit mehr als 1.5GB nicht auch mehr nutzen kann, bei gleichem szenario.

ich glaube auch nicht, das eine 1.5GB GTX 580 swappen muss, da der vram mit einer solchen karte nicht bis zum rand vollgestopft wird. ich denke da steckt ein inteligentes management dahinter.
wenn spiel X bei szenario Y immer 2GB braucht, müsste eine 1.5GB karte auch deutlich vollen ram haben, hat sie aber nciht, liegt meist ein paar MB unter der maximalen grenze.
gleiches ist auf eine 2GB karte übertragbar, ich hatte mit der 680er nie maximale auslastung des vram, waren immer ein paar mb frei. hat man mal extreme settings reingehauen (DS o. AA) konnte man den vram schon an die grenze zwingen. hat man 6GB, nimmt sich das game, was es braucht und muss nicht haushalten.

wenn du die karten mit unmanagened vram allokation laufen lassen würdest, hättest du bei karten mti weniger vram als die szene im game X braucht deutlichste performance probleme, weil immer ausgelagert werden müsste sobald mehr gebraucht wird, als die karte bietet. bietet sie weniger, werden weniger wichtige daten halt nicht prefetched geladen, sondern gegen andere daten im vram getauscht, wenn sie benötigt werden.
 
Zuletzt bearbeitet:
Mit dem vram ist doch logisch, so wie es fdsonne sagt, mein Rechner mit der Titan hat bei der bf4 beta ca 2.3gb RAM Auslastung gehabt , aber mein Rechner mit der 780gtx bei die selben settings nur max 2gb
 
Zuletzt bearbeitet:
@webmi
heutige/neue(ere) Games nutzen in der Tat intelligente Systeme um VRAM Knappheiten etwas zu kompensieren.
Das heist, es wird wärend des Spielens einfach immer ein gewisser Vorrat an Daten im VRAM gehalten... So kommt es wohl sehr häufig vor, das auch Texturen geladen werden, die nicht zwingend zum Anzeigen des aktuellen Bildes notwendig sind. Aber wenn das Game weis, das es bald dazu kommen kann/wird, macht es imho Sinn, da Daten vorzuladen... Das klappt vor allem in Schlauchleveln extrem gut -> da es ja idR nur einen Weg gibt ;)

PS: das war in der Vergangenheit mal anders, bzw. wurde sich darüber fast keine Gedanken gemacht... So konnte es dir beispielsweise vor noch 5-7 jahren passieren, das es Szenen gab, die massiv mit Nachladerucklern verbunden waren, eben weil keine solche Intelligenz vorhanden war die den Spaß im Vorfeld holt um dann bei Bedarf schnell verfügbar zu sein ;)

Was aber beispielsweise die 1,5GB 580er angeht. Die wird schon irgendwann swappen... Es werden halt für gewöhnlich die Daten rausgeschmissen, die beispielsweise länger keinen Zugriff hatten oder irgendwie nach so einem Muster. Besuchst du dann die Szenen von dehnen die Daten stammen nicht nocheinmal, hast du da im Grunde auch keine Nachteile mit/von. Kehrst du aber dahin zurück müssen die Daten erst wieder reingeladen werden. Um so intelligenter das Speichermanagement funktioniert, desto wenig bekommt der Spieler davon allerdings mit. Für ein VRAM "Limit" gibt es ja mehrere Symptome. Das fängt bei leicht niedrigeren FPS Raten (durch etwaige Datentransfers) an und geht bis zum fast völligen Stillstand der FPS im einstelligen Bereich.
Leider gibt es im Netz sogut wie gar keine brauchbaren VRAM Benchmarks... Und das schon seit Generationen von GPUs nicht. Sondern oftmals nur falsche Rückschlüsse von wegen, die und die Menge an VRAM werden für die und die Karte nicht benötigt usw. Und das ganze dann noch gemessen anhand der avg. FPS Rate und in Benchszenen von teils nur ~30 Sekunden.
 
Zuletzt bearbeitet:
genau das sage ich doch, nur durch so ein verhalten kann ich mir die unterschiedliche vram auslastung erklären, die tatsächlich vorhanden ist. eine titan wird sich maxed out settings in bf3 metro mehr in den ram knallen als eine GTX580. das ist fakt und genau das, was ich in meinem post heute vormittag gesagt habe. wenn ich überlege, mit der titan 1080p maxed out habe ich 2.2GB in metro auf der anzeige. wie soll eine GTX580 mit 1.5GB das überhaupt schaffen ohne derbste nachladeruckler?! ->> mehr vram ->> mehr im vram ->> inteligentes vram management

mit extremen settings, 1600p mit 16xAA, kann man für ein szenario X allerings derart viel ram brauchen, dass es eine GTX580 mit 1.5GB halt nicht mehr schafft und schon überfordert ist und somit dann swappen muss. in 1080p 0815-settings, sind selbst 1.5GB wohl für die meisten games kein problem und können dank management effizient genutzt werden.

meine ausgangs aussage war aber eine andere und wurde für falsch erklärt. das ganze lässt sich aber wohl mit vram management bzw prefetching erklären.

mit anderen worten, eine titan kann sich das game in den ram laden, eine GTX580 muss managen, was zu unterschiedlichen vram zuständen bei gleichen szenarien führen könnte.

meine aussage "vram wird btw immer so viel genutzt, wie da ist" ist also nach meinen erfahrungen keinesfalls falsch.

wenn also einer ankommt und sagt ich hab bei der bf4 beta mit meiner 2GB graka nur 1900MB ausgelastet, reicht ja lockerst, ist das nur bedingt richtig. denn eine 6GB karte wird sich unter umständen weit mehr als 1900MB in den ram laden.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh