NVIDIA GeForce GTX 1070 und 1080 sollen im Mai auf GTX 970 und 980 folgen

Pascal im Vollausbau hat 3.840 Shader und hört auf den Namen "GP100", GP104 ist kein Vollausbau.
Ich hab nirgends "Pascal im Vollausbau" geschrieben. Ich habe extra den Namen GTX 1080 und GP104 in den Satz gepackt, noch genauer geht es ja kaum, oder?

Ich denke da wie webmi und meine daß die GTX 1080 (wenn sie denn so heißt) mit GP104 Vollausbau und 8GB GDDR5X (wenn es denn alles so kommt wie vermutet) eine GTX 980Ti (Referenz vs. Referenz) knapp schlagen wird. ...

Danke, G3cko hat's richtig verstanden und perfekt erklärt:
...
Falsch. Es gibt verschiedene DIEs. Jeder für sich ist bereits der Vollausbau und für ein bestimmtes Performance-Ziel designt. Um die Ausbeute bei der Produktion zu erhöhen gibt es auch Möglichkeiten diese Chips bei Fehlern teilzudeaktivieren. Daher auch der Begriff Salvage (= Abfallverwertung, Bergung, Rettung). ...
Auch oooverclocker und kalle666 haben es korrekt interpretiert, also hab ich mich doch nicht so schlecht ausgedrückt.

@webmi
Abgesehen davon wissen wir noch nicht einmal ob Pascal im Vollausbau dann auch wirklich 3.840 Shader hat. Vielleicht schieben die noch ein größeres Modell nach wie bei Fermi damals.

Salvage = Abfallverwertung sprich ein Teil der Chips auf dem Wafer, der nicht perfekt ist. Ich hab mir nen kleinen ernst gemeinten Witz erlaubt. Alles unter gp100 Vollausbau ist Salvage... für mich :d

Meine classic Titan war ja auch Salvage aber ein guter Müll :fresse:
Ah okay, verstehe den Witz. Würde aber bedeuten daß alles unter dem dicksten Modell dann Abfallverwertung ist, was ja eigentlich Blödsinn ist da man ja extra kleinere DIEs und Varianten baut um keine künstliche* Abfallverwertung zu machen. Gilt ja für CPUs genau so. (* ... aufgrund der Nachfrage ist der Hersteller oft gezwunden auch nicht teildefekte DIEs zu kastrieren, also kein Abfall in dem Sinn)
Aber ja - die Classic Titan war ein Salvage.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ehrlich gesagt ist es mir wurscht, ob Salavage Produkt oder nicht, Hauptsache der Vorsprung zur aktuell verbauten Graka ist hoch genug für mich. Von der 680er auf die Classic Titan wars für mich ausreichend, von der Classic Titan auf die Titan X wars ausreichend. Wenn die 1080 GTX auch einen halbwegs guten Abstand (>20%) zur Titan X aufweist, dann werde ich auch wieder switchen... so einfach ist das! :d

Den Vollausbau Titan Black habe ich mir damals nicht umsonst gespart... die 5-10% Mehrleistung waren mir persönlich dann doch zu wenig.
 
Und wo benötigst du aktuell die Mehrleistung?
 
Und wo benötigst du aktuell die Mehrleistung?

Überall... seit Monitore mit 120/144Hz kann man nie genug Frames haben! Und bitte kommt mir jetzt nicht mit G-Sync als low Frames Retter :rolleyes:

The Division mit HTFS Schatten würde ich schon gerne mal spielen. Habe auch andere Einstellungen runtergeschraubt und das obwohl 1080p ;)
 
... Wenn die 1080 GTX auch einen halbwegs guten Abstand (>20%) zur Titan X aufweist, dann werde ich auch wieder switchen... so einfach ist das! :d ...
Das wird's nicht spielen. Die 1080 GTX wird vielleicht an die Titan X rankommen und in dem ein oder anderen Test vielleicht sogar schneller sein, aber >20% wird's nicht spielen. Da musst Du schon auf einen Nachfolger der Titan bzw. 980Ti warten a'la 1080Ti oder Titan [Next] mit GP100 Ableger, wie auch immer der aussehen/heißen wird (GP102? GP110? GP200?) mit HBM2.
 
Mal was anderes was wäre wen der Spekulierte GP102 für Gamer gar keine HBM2 Karte wird.
Wen das Chipdesign auch GDDR5X kann könnten einige nicht schlecht staunen .
384Bit und 12GBs GDDR5X aka 12GB Vs. Vega 8GB HBM2.
Ich halte das Szenario nicht für undenkbar.
Am Ende zählt ja nur was am Bildschirm ankommt .
Das könnte für den Hersteller und den Kunden ein sehr guter Kompromiss aus Wirtschaflicher Sicht werden.
Das es funktioniert hat ja die 980Ti bewiesen gegen die FuryX.
 
384Bit und 12GBs GDDR5X aka 12GB Vs. Vega 8GB HBM2.

Was allerdings völlig der bisherigen Politik von Nvidia widersprechen würde, was Speichergrößen anbelangt, und zudem deshalb keinen Sinn macht, weil es sonst schon 24Gib GDDR5X sein müssten... Dass die neuen Topmodelle mit 8/16GiB HBM2 kommen, gilt als ziemlich sicher.
Das Problem bei der Fury X ist ja nur, dass HBM1 technisch keine würdigen 8GiB zugelassen hat. Die 980Ti ist ja zudem zuerst da gewesen. AMD hätte sonst sicherlich auch beim VRAM angegriffen (größenmäßig).
 
Mal was anderes was wäre wen der Spekulierte GP102 für Gamer gar keine HBM2 Karte wird.
Wen das Chipdesign auch GDDR5X kann könnten einige nicht schlecht staunen .
384Bit und 12GBs GDDR5X aka 12GB Vs. Vega 8GB HBM2.
Ich halte das Szenario nicht für undenkbar.
Am Ende zählt ja nur was am Bildschirm ankommt .
Das könnte für den Hersteller und den Kunden ein sehr guter Kompromiss aus Wirtschaflicher Sicht werden.
Das es funktioniert hat ja die 980Ti bewiesen gegen die FuryX.

Wenn AMD als einziger HBM2 bringt kann mich Nvidia mal. Ich gehe zur Zeit aber eher davon aus dass der GP102 eine reduzierte Gamervariante vom GP100 ist, ohne die DP-Einheiten.

Es stimmt, dass die 60 FPS im 4K schon ankommen müssen, aber halte ich HBM2 da für die bessere Lösung. Die GP100 Teslakarte hat schon 740 GB/s, wer weiß was in einer Gamervariante da möglich wäre...
 
Interessiert doch nicht ob HBM 2 oder GDDRX5 dir z.b 60FPS liefern.
Schau dir die Benchmarks in 4K an die 980Ti gerade in einer Coustom Variante ist nahe zu immer schneller wie eine FuryX.
Was hast du den davon rein hypothetisch wenn du ne Vega GPU hast mit HBM2 die zb. 50 FPS liefert in 4K oder eine GP102 die dir z.b 53 FPS liefert mit der GDDR5X.
Richtig du hast nix davon .

Nicht Falsch verstehen das ich Vega gerade langsamer dargestellt habe.
So ein Bild haben wir derzeit ja grob bei der 980Ti und der Fury X wo die Ti weniger Bandbreite hat.

Aus rein Wirtschaftlicher sicht wäre der Ansatz für alle sogar ehr ein Vorteil als ein Nachteil.
 
Zuletzt bearbeitet:
Interessiert doch nicht ob HBM 2 oder GDDRX5 dir z.b 60FPS liefern.
Schau dir die Benchmarks in 4K an die 980Ti gerade in einer Coustom Variante ist nahe zu immer schneller wie eine FuryX.
Was hast du den davon rein hypothetisch wenn du ne Vega GPU hast mit HBM2 die zb. 50 FPS liefert in 4K oder eine GP102 die dir z.b 53 FPS liefert mit der GDDR5X.
Richtig du hast nix davon .

Nicht Falsch verstehen das ich Vega gerade langsamer dargestellt habe.
So ein Bild haben wir derzeit ja grob bei der 980Ti und der Fury X wo die Ti weniger Bandbreite hat.

Aus rein Wirtschaftlicher sicht wäre der Ansatz für alle sogar ehr ein Vorteil als ein Nachteil.

Wenn sie nicht abzocken. Die Fury hat nur 512 GB/s, während eine OC-Ti schon auf 400 kommt via GDDR, dazu hat die Ti noch viel mehr OC-Potenzial.

HBM2 wäre jedoch zukunftssicherer, gerade hohe Auflösungen profitieren von dem Speicher. 1TB/s HBM2 wäre schon ein größerer Unterschied zu 600 GB/s GDDR5X. Interessant finde ich aber die neuen Möglichkeiten in der Bauform mit HBM2.
 
@BrahmandYaatra
NV fährt beim GP100 die HBM2 Taktraten aber nichtmal aus... Die Frage wäre, ob es das im Gamerpart geben könnte/wird?
Sonst bleibts bei irgendwas um die 7xxGB/sec.

Und im Endeffekt profitiert das bestenfalls auf dem Papier. Gerade riesige Auflösungen fordern eher die GPU als die Bandbreite übermäßig. Was bringen dir xxx Hundert-GB/sec an Bandbreite, wenn die GPU die Auflösung gar nicht stemmen kann?

Das ganze HBM Thema ist eigentlich völlig für den Hintern. Speicher ist Speicher. Mehr braucht man da als Endkunde idR gar nicht dran rumzureden ;) Bestenfalls die Größe ist noch interessant. 8GB min., 12-16GB wünschenswert.
 
Naja theoretisch kann man mit 384Bit und GDDR5X auch an die 500GBS drücken je nach dem welche Speicher sie da verbauen.
Von jetzt derzeit 336GBs wäre das auf jeden Fall ausreichend.
 
Zuletzt bearbeitet:
@BrahmandYaatra
NV fährt beim GP100 die HBM2 Taktraten aber nichtmal aus... Die Frage wäre, ob es das im Gamerpart geben könnte/wird?
Sonst bleibts bei irgendwas um die 7xxGB/sec.

Und im Endeffekt profitiert das bestenfalls auf dem Papier. Gerade riesige Auflösungen fordern eher die GPU als die Bandbreite übermäßig. Was bringen dir xxx Hundert-GB/sec an Bandbreite, wenn die GPU die Auflösung gar nicht stemmen kann?

Das ganze HBM Thema ist eigentlich völlig für den Hintern. Speicher ist Speicher. Mehr braucht man da als Endkunde idR gar nicht dran rumzureden ;) Bestenfalls die Größe ist noch interessant. 8GB min., 12-16GB wünschenswert.

16 sollten es schon sein, für eine 4K Ultrahighend-GPU. Die Titan dann eben mit 32.

Meine Erfahrungen gehen auf das letzte Jahr zurück, ich hatte damals eine GTX 660 OEM, 192-bit / 1152 Shader. Diese schaffte in Mass Effect 1 nur 24 FPS, in ME3 immerhin 30-35. Danach bekam ich eine GTX 670, 256-bit / 1344 Shader. Diese schaffte in Mass Effect 1 und 3 konstante 60 FPS. Diese Verdopplung begründe ich eher auf dem Speicherinterface anstelle eines Extra-SMX. Beide Karten liefen bei ähnlichem Takt, die 660 war sogar etwas höher getaktet.

Das sind kleine Maßstäbe, aber bei 400 GB/s mehr sollte das schon einen Unterschied machen. Natürlich muss auch die GPU stimmen, wo ich mir aber keine allzu großen Sorgen mache, immerhin ist es ein Nodesprung, man schaue mal auf 285>480, 580>680. Dass die Teslakarte schon auf 1,4 GHz läuft lässt einiges erwarten, wenn man bedenkt dass die Maxwell-Referenz nur 1 GHz mit kleinem Boost hatte (Die Ti(tan)). Wenn diese sich auch nur ansatzweise so gut übertakten lassen wie Maxwell dann ist der 4K-Genuss nahezu sicher.
 
Wieso sollten die Hersteller für den Highend Bereich gleich 16GB liefern müssen von derzeit 8 auf 12 würden immer noch 50%+sein.
Ich glaube auch nicht das AMD 16GB bringt das werden 8 sein zu mindest im Highend für Entusiast vielleicht 16 ja aber dann halt zum Mega Preis (Titan+++Preis)
 
Was auch immer bei dir da schief lief, aber fast Faktor 3 bekommst du selbst mit dem recht an der Bandbreite klammernden GK104 nicht zu sehen zwischen 192Bit und 256Bit. Das sind immerhin nur 1/3tel mehr.

Und nein, auch bei 400GB/sec mehr Bandbreite ist das entscheidende schlicht und ergreifend der Bedarf. Wenn die GPU nicht Bandbreitenlimitiert ist, dann verpufft die Bandbreite schlicht und ergreifend. Selbst bei 40TB/sec mehr wäre das noch der Fall.
 
Kann zwar nicht wirklich mitreden aber finds schon enorm dass hier direkt 12-16gb vram gefordert werden, in der vergangenheit hatte ich immer 1/8 (- max 1/4) von meinem ram als vram und bin damit soweit ganz gut gefahren.

Also woran liegt es, dass der vram bedarf im vergleich zum ram bedarf so stark ansteigt?

Mit 8gb Ram (nicht vram!) lässt sich doch glaube ich noch ganz gut zocken? Und dann braucht man für ne highend gpu noch mehr vram als 8gb?


Klar ist mein Vergleich mit dem ram nicht grade professionell, aber in der vergangenheit kam man mit diesen 1/8 - 1/4 verhältnis eig. ganz gut aus.
 
Also woran liegt es, dass der vram bedarf im vergleich zum ram bedarf so stark ansteigt?

Vielleicht liegt es daran, dass es zwischen dem, was man meint, gebrauchen zu können und dem, was man tatsächlich gebrauchen kann, Differenzen gibt - um das mal vorsichtig auszudrücken, bevor ich wieder zerpflückt werde... Sicherlich auch daran, in welcher Form der Ramverbrauch unter Window 7 - 10 präsentiert wird und natürlich auch daran, dass man die 16GiB nicht am Releasedate braucht, sondern irgendwann später. Ist ja nur ein Vorrat - zum Beispiel auch für SLI, CrossfireX etc. Also anfang 2017 wird man sicherlich mit 8GiB was anfangen können - wie jetzt eventuell auch. Und mit 32GiB RAM würde das ja dem 1/4 dann noch ganz gut entsprechen.
 
Kann zwar nicht wirklich mitreden aber finds schon enorm dass hier direkt 12-16gb vram gefordert werden, in der vergangenheit hatte ich immer 1/8 (- max 1/4) von meinem ram als vram und bin damit soweit ganz gut gefahren.

Also woran liegt es, dass der vram bedarf im vergleich zum ram bedarf so stark ansteigt?

Mit 8gb Ram (nicht vram!) lässt sich doch glaube ich noch ganz gut zocken? Und dann braucht man für ne highend gpu noch mehr vram als 8gb?


Klar ist mein Vergleich mit dem ram nicht grade professionell, aber in der vergangenheit kam man mit diesen 1/8 - 1/4 verhältnis eig. ganz gut aus.

Schonmal auf 4K gespielt? Ich finde dafür 6 GB schon unangemessen, geschweige denn 4. 8 wären in Ordnung aber 16 sind zukunftssicherer, insbesondere bei Multi-GPU. Der GP100 soll wohl bis 32 GB gehen was ich bei einer Titan durchaus für möglich halte, die 12 GB der X waren ja schon extrem verglichen mit dem was zu der Zeit sonst so üblich war.

Beim Desktop da reichen 8, 16 sind jedoch immer besser und sicherer, zumal so ein Riegel nur noch 50 € kostet.

Das mit dem GK104 war nur ein Beispiel, da fiel es mir eben auf.
 
Vielleicht liegt es daran, dass es zwischen dem, was man meint, gebrauchen zu können und dem, was man tatsächlich gebrauchen kann, Differenzen gibt - um das mal vorsichtig auszudrücken, bevor ich wieder zerpflückt werde... Sicherlich auch daran, in welcher Form der Ramverbrauch unter Window 7 - 10 präsentiert wird und natürlich auch daran, dass man die 16GiB nicht am Releasedate braucht, sondern irgendwann später. Ist ja nur ein Vorrat - zum Beispiel auch für SLI, CrossfireX etc. Also anfang 2017 wird man sicherlich mit 8GiB was anfangen können - wie jetzt eventuell auch. Und mit 32GiB RAM würde das ja dem 1/4 dann noch ganz gut entsprechen.
Genau das ist der Punkt! Nachdem es früher hieß, viel VRAM auf mittelmäßigen Karten bringt nichts, werden nun bereits 4-6 GB bei absoluten Einsteigerkarten gefordert. Da meistens nach wie vor 8-16 GB verbaut werden, würden 2-4 GB 1/4 entsprechen. Jedenfalls keine 8-16 GB VRAM. Ich sehe das nach wie vor ziemlich entspannt ... mit 1 GB VRAM laufe ich inzwischen bereits immer wieder ins VRAM-Limit. Aber bereits 2-3 GB reichen oft noch (so komische, nicht optimierte Spiele und 164882K-Texturpakete außen vor gelassen). Sicherlich ist etwas VRAM entspannter. Aber das gerade die Menschen, welche sich 1-2x pro Jahr neue GPUs kaufen danach rufen, finde ich "süß".

Überall... seit Monitore mit 120/144Hz kann man nie genug Frames haben! Und bitte kommt mir jetzt nicht mit G-Sync als low Frames Retter :rolleyes:

The Division mit HTFS Schatten würde ich schon gerne mal spielen. Habe auch andere Einstellungen runtergeschraubt und das obwohl 1080p ;)

Jetzt würde ich natürlich interessieren, wo ein paar % Mehrleistung aus einer unspielbaren Kombination aus Settings/FPS eine spielbare Kombination machen. Das dürften doch eher die Ausnahmen sein. Aber gut, wenn dich 5-15 FPS hier und da glücklich machen, hau rein! :d
 


Nur mal als Beispiel mit meiner EX980Ti in 4K.
6088MB im Ram und ab und an mal Nachladeruckler inc.Performance drops.

Finde es auch immer lustig das die Leute meinen wen sie Benchmarks gelesen haben die 20-30 Sekunden laufen der Meinung sind 4GB reichen.
 
Zuletzt bearbeitet:
Genau das ist der Punkt! Nachdem es früher hieß, viel VRAM auf mittelmäßigen Karten bringt nichts, werden nun bereits 4-6 GB bei absoluten Einsteigerkarten gefordert. Da meistens nach wie vor 8-16 GB verbaut werden, würden 2-4 GB 1/4 entsprechen. Jedenfalls keine 8-16 GB VRAM. Ich sehe das nach wie vor ziemlich entspannt ... mit 1 GB VRAM laufe ich inzwischen bereits immer wieder ins VRAM-Limit. Aber bereits 2-3 GB reichen oft noch (so komische, nicht optimierte Spiele und 164882K-Texturpakete außen vor gelassen). Sicherlich ist etwas VRAM entspannter. Aber das gerade die Menschen, welche sich 1-2x pro Jahr neue GPUs kaufen danach rufen, finde ich "süß".



Jetzt würde ich natürlich interessieren, wo ein paar % Mehrleistung aus einer unspielbaren Kombination aus Settings/FPS eine spielbare Kombination machen. Das dürften doch eher die Ausnahmen sein. Aber gut, wenn dich 5-15 FPS hier und da glücklich machen, hau rein! :d

"Mittelmäßige" Karten wie die 1060Ti in 2016 haben bereits die Leistung einer 970. 3,5 GB sind für diese Karte alles andere als gut bemessen. Selbst 4 GB reichen nicht, spätestens im SLI (Wo die Rohleistung da ist) ist dann Schluss. Ich denke aber auch dass du nur auf 1080p spielst und entsprechend nicht weißt wie es beim VRAM-Bedarf höherer Auflösungen aussieht.

Nein, nur in 2560*1440, allerdings auch nur mit einer hd7850, bisher (härteste games waren bf3 und tombrider 2013) kam ich locker mit meinen 2GB vram klar.


2K ist jedoch auch kein Ultra-HD. Ich hatte auch zeitweise eine 680, diese kam mit 2K noch ganz gut klar (2GB), aber auf 4K gab es selbst auf Ultralow Framedrops, da der VRAM konstant zu war. Bei meiner jetzigen 780Ti ist das nicht der Fall, die 3GB sind wirklich sehr knapp aber sie reichen gerade so aus. Hätte ich ein SLI würde das am VRAM scheitern.

Man sollte ernsthaft bleiben, wer sich eine GPU wie die 1080Ti kauft, der wird damit bestimmt nicht auf 1080p spielen. Für die 980Ti ist 2K der optimale Sweetspot, die GP102 schaltet aber nochmal eine Leistungsstufe drauf.
 
was ist denn UHD und was ist 4k genau? ;)
und wieso sollte ein 3GB 780Ti-SLI scheitern? gibt mit Profil (und den richtigen, weil nicht überlaufenden VRAM, Einstellungen) immer noch mehr fps, woraufs einigen ja schon ankommt. in dem Fall lohnt das ja irgendwie schon, oder nicht?
und wer bemisst dieses merkwürdig abstrakte "ernsthaft"? ich hab ne 980Ti und "nur" 1080p. ne 1080Ti reizt mich auch. ganz ernsthaft.
nach deinen Ansprüchen haste evtl ja Recht, aber du nennst die gar nicht. alles maxed out? 4k? 120fps? alles zusammen?
aber sonst is es ne schöne Aussage.
 
was ist denn UHD und was ist 4k genau? ;)
und wieso sollte ein 3GB 780Ti-SLI scheitern? gibt mit Profil (und den richtigen, weil nicht überlaufenden VRAM, Einstellungen) immer noch mehr fps, woraufs einigen ja schon ankommt. in dem Fall lohnt das ja irgendwie schon, oder nicht?
und wer bemisst dieses merkwürdig abstrakte "ernsthaft"? ich hab ne 980Ti und "nur" 1080p. ne 1080Ti reizt mich auch. ganz ernsthaft.
nach deinen Ansprüchen haste evtl ja Recht, aber du nennst die gar nicht. alles maxed out? 4k? 120fps? alles zusammen?
aber sonst is es ne schöne Aussage.

Es muss in der Lage sein Star Wars Battlefront (Frostbite 3) zu maxen auf 4K. Möglicherweise noch mehr. Das liegt in der Verantwortung von BioWare.
 
Also woran liegt es, dass der vram bedarf im vergleich zum ram bedarf so stark ansteigt?

Mit 8gb Ram (nicht vram!) lässt sich doch glaube ich noch ganz gut zocken? Und dann braucht man für ne highend gpu noch mehr vram als 8gb?

Sind halt zwei völlig verschiedene paar Schuhe, die Texturqualität heutiger Titel ist nach wie vor unterirdisch schlecht... Vor allem im Vergleich, wenn man selbst weis, was technisch zumindest möglich wäre. Bspw. durch Aktivitäten im 3D Renderingbereich.
Auch gab es in der Vergangenheit phasenweise immer mal wieder das Problem, dass mehr Speicher teils technisch nur bedingt realisierbar war. Bspw. wenn Speicherchips mit doppelter Größe entweder gar nicht oder nur sehr teuer zu haben waren.

Der Markt in Form von Spielen richtet sich dort nach verbreiteten Modellen. Wenn die nächste Hürde im VRAM einmal beim Endkunden angekommen ist, zieht die Software nach. Früher gab es dazu das Limit mit den Texturen durch die Konsolen -> Konsequenz waren Schlauchlevel in manchem Titel oder technische Workarounds wie Texturstreaming anhand der Playerposition sowie irgendwelche Weichzeichner für die "Ferne" um gar nicht so viel Suchfeld HighRes Rednern zu müssen und dergleichen. Mittlerweile haben die Konsolen 8GB shared Memory, welcher sich dort quasi dynamisch nutzen lässt. Auch gibt es nach wie vor dort die Praxis, am PC höhere Texturauflösung zu fahren -> was wie oben erwähnt, oft immer noch matschig ist.

Speicher für Texturen kann man nie genug haben. Vor allem, kostet es eben idR. keine Performance, höher aufgelöste Texturen zu nutzen, bringt aber recht viel.
Der VRAM Bedarf steigt also weiterhin. Und das recht stark, schneller sogar als der RAM Bedarf.

Ich denke aber auch dass du nur auf 1080p spielst und entsprechend nicht weißt wie es beim VRAM-Bedarf höherer Auflösungen aussieht.

Der Mehrbedarf zwischen FHD und UHD ist sehr gering, was VRAM Menge angeht. Lass es 10-30% sein, bei 400% mehr Pixeln. Das ist eigentlich ein Witz.
Das Problem ist eher, fährst du mit FHD ans Limit beim VRAM, kann diese geringe Menge schon reichen um über den kritischen Punkt zu kommen und dann geht gar nix mehr.
TR, wie Thunderbird den Screen zeigt, ist nicht mit Ultra Texturen und 3GB, es läuft phasenweise, aber viele Stellen zeigen Nachladeruckler und einige sogar unspielbare FPS Räten.
Das zeigt aber kein Bench ;) denn die Stellen musst erstmal finden.

was ist denn UHD und was ist 4k genau? ;)
und wieso sollte ein 3GB 780Ti-SLI scheitern? gibt mit Profil (und den richtigen, weil nicht überlaufenden VRAM, Einstellungen) immer noch mehr fps, woraufs einigen ja schon ankommt. in dem Fall lohnt das ja irgendwie schon, oder nicht?

Neja, SLI kostet VRAM ;) sprich du benötigst etwas mehr Speicher.
Ansonsten, klar kannst du die Regler Drehen, aber was nutzen schicke Shadereffekte in Verbindung mit matsche Texturen, wenn es einzig und allein der VRAM ist, der limitiert? HighRes Texturen kosten idR. keine FPS, bringen aber doch recht viel Optik...
Es ist mindestens mal ärgerlich, wenn das Problem kommt.
 
Wenn man noch Optionen mit einer Karte nicht auf Max. hat, geht man mit CrossfireX oder SLI eventuell auch noch von 4xMSAA auf 8xMSAA oder man macht Downsampling von 4K/5K etc. Auch das kostet neben der GPU- Leistung je nach Spiel auch sehr viel VRAM(In der Regel dann, wenn das Spiel ohnehin schon viel verbraucht). - Als kleine Ergänzung zu fdsonnes zutreffenden Beitrag.
 
also nu werdet Ihr schon ein wenig kleinlich, findet Ihr nicht?
Kompromisslos is nicht. wißt Ihr beide. 1, 2 Regler mehr dann halt ...
 
Keine Frage, aber der Regler Texturqualität bringt idR. keine FPS und kostet auch keine, schnapp dir ne Einstiegskarte mit viel VRAM und spiel mit min. Quality trotzdem bei Ultra Texturen.

Und natürlich ist kompromisslos nicht, nur aber wozu Kompromisse eingehen, wo man es nicht zwingend müsste?
An der Speichermenge zu sparen ist selten heute technisch begründet.
 
Zuletzt bearbeitet:
ich hab bisher noch keine wirklich nennenswerten Unterschiede zwischen ultra und sehr hoch gesehen. kaum sichtbar, find ich.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh