Ampere-Architektur von NVIDIA soll im April starten – Turing als Codename der ersten GeForce-Karte

Ja ich meinte schon die Gamingkarte, Turing soll sie doch heißen.
Mit mindestens 30% bis maximal 55% Rohleistungzuwachs ist bei Turing im Vergleich m.E. zu Pascal zu rechnen, 30% sollten es sein, damit nVidia sich nicht blamiert, denn eine GTX1080Ti will man schon mit mindestens 5% übertrumpfen wollen mit dem neuen GT104 Chip-Vollausbau (GTX1180/2080) und PC-Gaming-Flaggschiff, um dessen Kauf auch mehr zu rechtfertigen/attraktiver zu machen für Gamer, oder nicht?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Naja kommt drauf an - wenn es so läuft wie bisher, dann ersetzt einfach nur das neue Ding die alte 1080TI mit GP102 Basis. Ob das nun +-0% oder wie viel auch immer sind, ist doch nicht sonderlich entscheident. Das wird kein "Nachfolger" auf den die TI Besitzer wechseln sollen/wollen, sondern eher der Nachfolger zur 1080 non TI auf GP104 Basis.
Wenn ich mir die Benches aktuell ansehe - so liegen zwischen 1080 und 1080TI (FE vs. FE oder Custom vs. Custom) ca. 30-35% im GPU Limit.
ICH würde mit ca. 35-40% für die kommenden Performance-Chips als Top Produkt rechnen.

PS: ich fragte, weil du Ampere schriebst, nicht Turing! :wink:
 
Für mich zählt schlicht der direkte Vergleich zum Vorgänger, also das:
1070 zu 1170
1080 zu 1180
1080Ti zu 1180Ti
Kommen da überall beispielsweise "nur" ~20/25% bei rum = gääähn. Sind es jedoch ~50% oder mehr, dann = nice, weil das spührt man dann deutlich.

Wie gesagt, ich kam von einer (hochgezüchteten)GTX980Ti Lightning und der Sprung zur GTX1080Ti FE war nice! (50-70% höhere Frameraten). Sowas wünscht man(n)/Frau sich natürlich auch bei kommender Generation. Ob es nv so hinbekommt bzw. überhaupt will, wird man sehen.
 
Könnte mir schon vorstellen, dass man, Fertigungsbedingt, die üblichen 50-70% nicht sehen wird.
Rein vom Shaderausbau her sollte der TopDog schon in Richtung dem gehen, was die TitanV vorgemacht hat... Also >5000 ALUs.
Das Ding geht schon übel, 40%+ auf ne 2GHz TI, wenn man dem Teil richtig in den Hintern tritt. Aber - das musst du erstmal erreichen. Das Powerlimit ist halt bei 5000+ ALUs weit strikter als bei den nichtmal 4000 ALUs der TI.
Hier wäre dann eher wieder ne anständige Custom (OC) Lösung vorzuziehen. Leider kann ich diese Dinger bei mir idR nicht gut fahren - weil bei 3-4 GPUs in der Renderbüchse der Spaß einfach ohne Radial-Gebläse nicht kühlbar ist... Vllt sattel ich irgendwann mal auf Wakü + SingleSlot Umbau :fresse: Dann wären gar 7x GPUs drin...
 
50% fänd ich erstmal hart, aber wenn man sich Kepler => Maxwell => Pascal ansieht, dann erscheint das nicht ganz unmöglich.

Nvidia hat die letzten Jahre echt Land gut gemacht.
 
Seit G80 ist das doch im Schnitt Standard zwischen den TopDog GPUs der jeweiligen Gen.?
 
Für mich zählt schlicht der direkte Vergleich zum Vorgänger, also das:
1070 zu 1170
1080 zu 1180
1080Ti zu 1180Ti
Kommen da überall beispielsweise "nur" ~20/25% bei rum = gääähn.
Sei doch froh wenn deine "alte" Karte noch so gut mithält und du nicht andauernd eine neue kaufen musst, damit die Entwickler noch weniger optimieren. Allerdings würde ich davon ausgehen, dass die 1170/2070 (oder wie auch immer sie heißen wird) mit einer TitanXP vergleichbar sein wird: 12GB (oder gar 16GB) und in etwa deren Leistung. Die xx80 wird dann vielleicht 25-30% darüber rangieren.
 
Ich gehe im Moment eher davon aus, dass die kommenden 04er based GPUs weiter mit 8GB arbeiten ;)
Lass mich aber gern auch positiv überraschen dass es dort 16GB werden. Wäre das aber Stock der Fall, müsste man ja dann den TopDog mit 24GB@384Bit bringen... Kann ich mir so noch nicht vorstellen.
Oder man dreht am SI nochmal rum -> den 04er Chip mit 192Bit und den 00/02er Chip auf 256Bit -> dann wären 12GB im kleinen und 16GB im großen denke ich passend. Wäre aber das erste mal, dass der TopDog Chip mit weniger als 384Bit SI kommt seit G80! Also seit über 10 Jahren...
 
Das stimmt, SLI ist kacke. Vor zwei Jahren kam man um SLI gar nicht herum wenn man 4K ohne Kompromisse spielen wollte, auf manche Titel durfte man dann komplett verzichten weil sie keinen Support boten. Die 1080 Ti bot aber büer der 980 Ti einen gewaltigen Vorsprung, sie kommt häufig auf diesselben FPS raus wie zwei 980 Ti. Es kommt auch immer darauf an ob man die letzten übertriebenen Optionen noch mitnehmen muss, wie 8x AA bei GTA V (auf 4K) oder maximales Hairworks bei Witcher 3. Stellt man das auf 2x sieht es genauso aus aber läuft dann stabil bei 60 FPS. Ich hatte so ziemlich jedes letzte Schlachtschiff und eine 1070, die FPS haben sich mit der Ti nahezu verdoppelt. Es waren teils 80 - 90 %, mindestens aber 60. Ich denke auch dass das mit an der Bandbreite liegt, selbst ein GM200 schafft höchstens 384 GB/s wenn der Speicher das überhaupt mitmacht. Meine Ti läuft nun auf 550 GB/s, natürlich meine ich damit Ingame, keine Benchtakte.

40 % auf eine Ti, Max OC vs. Max OC, finde ich nicht so beeindruckend. Gerade bei der Anzahl an Shadern. Auf 12nm ist aber wahrscheinlich auch nicht viel mehr Takt drin, da gehen also nur noch mehr ALUs die man dann näher am Sweet Spot taktet um mehr Effizienz zu erreichen.
 
Jupp, seitdem NV die "heisse" Umstellung ala GTX480 (welche viel zu früh rauskommen musste) hin zu GTX580 ging es stetig bergauf mit dem "guten Job".
Ebenso finde ich die Schiene der "Zweigleisigkeit" (Trennung Profibereich/Gamingbereich) gar nicht so verkehrt. So können sie für die Anwender im jeweiligen Bereich das Maximum rausholen, ohne auf den anderen Bereich Rücksicht nehmen zu müssen. Ich gehe sogar soweit, und behaupte, das genau da der Hund bei Vega begraben liegt... Aber das ist anderes Thema.

Legendäre G80 war/ist für mich DER größte "Aha/Wow-Effekt" in meiner persönlichen (Gaming)PC-Geschichte! Nichts danach kam nur annähernd an diesen ""Aha/Wow-Effekt" heran^^. Neben mal eben mehr als +100% Mehrleistung gegenüber Vorgänger überzeugte mich damals auch die massive Verbesserung der Bildqualität! Einen kleinen negativen Wehrmutstropfen gab es aber auch: massiver nie dagewesener Anstieg des Strombedarfs (was zu verschmerzen war^^). Sowas wird es wohl nie wieder geben, also so einen enormen "Aha/Wow"-Effekt. Obwohl, man soll "niemals nie" sagen :d.
 
@shaderfetischGTxXx
Im quasi gleichen Prozess? Was willst du denn mehr? Das PT deckelt hart bei der GV100 - entweder du hebelst es komplett aus via ModBios oder wie bei der TitanXp mit dem Hardmod (keine Ahnung ob sowas schon geht) oder du musst gucken, was du aus den ~265W rausbekommst. ~40% find ich da schon "OK". Der Preis ist halt das KO Kriterium - die TitanV ist definitiv weit drüber und damit uninteressant. Aber die Technik dahinter fetzt schon...
Das der GV100 nicht überproportional mehr Leistung aus dem Takt holt, als er mehr Recheneinheiten hat, dürfte wohl jedem klar sein, oder??
 
Diese Hoffnung auf 4K wird doch jedes mal bei einem nVidia/AMD Release befeuert. Damals hieß es Maxwell wird 4k Gaming ermöglichen, danach wurde bei Pascal das gleiche rausposaunt. Mit den Karten am Markt muss man in vielen Spielen schon deutlich runterregeln um spielbare FPS in 4k zu erreichen. Auch Turing, oder wie sie die Generation nennen werden, wird mMn uneingeschränktes 4k Gaming nicht ermöglichen.
 
50% fänd ich erstmal hart, aber wenn man sich Kepler => Maxwell => Pascal ansieht, dann erscheint das nicht ganz unmöglich.

Nvidia hat die letzten Jahre echt Land gut gemacht.

Naja von Keper zu Maxwell wars die Architektur die den massiven Leistungssprung gemacht hat und bei Maxwell Pascal der Fertigungsprozess.
 
Die Technik ja, aber der Preis fetzt auch. Und rummodden werde ich nicht, ich kaufe das wo "EVGA FTW" draufsteht mit dem dicksten BIOS, drehe es auf und schaue was dann geht. Wenn dann maximal 40 % drin sind lohnt es nicht. Macht aber an sich auch nichts, das wäre dann mal das erste Jahr wo ich keine überteuerten Grafikkarten kaufen muss.

Die 1080 Ti schafft das schon, aber wenn dann eine übertaktete. Alles darunter reicht nicht für aktuelle Titel in 4K. So gesehen wird es nie richtiges 4K geben. Wenn man will kann man auch eine 1080 Ti OC in 1080p in die Knie zwingen, wenn man unnötige und übertriebene Settings anmacht. Dieses ist aber die erste Karte bei der ich sagen würde, sie schafft 4K in annehmbaren Details, sprich 90 - 100 % des Maximums und mindestens 60 FPS.
 
Seit G80 ist das doch im Schnitt Standard zwischen den TopDog GPUs der jeweiligen Gen.?
Jupp, kommt +/- in etwa hin.
Sei doch froh wenn deine "alte" Karte noch so gut mithält und du nicht andauernd eine neue kaufen musst...
Bin ich auch. Allerdings bin ich auch ein kleiner Hardwarebekloppter, sprich kömmt was neues raus und schwupps hat mich das "haben will" und "austesten will" Fieber erfasst. Dann wird es schwer, den Finger vom Bestellbutton zu bekommen :fresse: :d (war zuletzt bei Ryzen und Vega der Fall, hab es aber hinbekommen ^^)

Ich gehe im Moment eher davon aus, dass die kommenden 04er based GPUs weiter mit 8GB arbeiten...
Kann ich mir auch gut vorstellen, schon alleine aus wirtschaftlicher Sicht. Vermutlich könnte NV seinen Partner dann aber auch 16GB freigeben. Der Top-Dog wird dann natürlich protzen dürfen.

40 % auf eine Ti, Max OC vs. Max OC, finde ich nicht so beeindruckend.
Bei Vergleichen sollte man aber zunächst stock vs. stock hernehmen und dann nach OC vs. OC schauen.
40% wären ok. Für 4K-Gaming mit allen Reglern auf max jedoch immer noch zu wenig. Auch für VR noch zu wenig, mal davon ab, das dort mMn die HW noch nicht (also für mich!) tauglich ist. Stichwort: Fliegengitter.
 
In welchem Spiel reicht dir die Ti denn noch nicht für 4K? 50 - 60 FPS werden eigentlich immer erreicht.
 
Auch Turing, oder wie sie die Generation nennen werden, wird mMn uneingeschränktes 4k Gaming nicht ermöglichen.
Gebe dir absolut recht. Hart aber ist so: Turing wird zu lahm sein für uneingeschränktes 4K Gaming. Vielleicht packts dann dessen Nachfolger oder dessen Nachfolger :fresse:.

Die 1080 Ti schafft das schon, aber wenn dann eine übertaktete. Alles darunter reicht nicht für aktuelle Titel in 4K.
Hmm.
Was du mit einer normalen 1080Ti nicht schaffst, das schaffst du auch mit einer auf biegen und brechen getakteten 1080Ti in der Regel nicht... (Ausnahmen bestätigen die Regel). Was ich damit sagen will: was mit 1080Ti Stock "ruckelt", kann auch eine 1080Ti max OC nicht von "ruckelt" zu "smooth" umwandeln...
 
In welchem Spiel reicht dir die Ti denn noch nicht für 4K? 50 - 60 FPS werden eigentlich immer erreicht.
KA ob du mich meinst. Ich antworte trotzdem mal.

"Eigentlich" - genau da liegt der Hund begraben. Mit den "richtigen" Einstellungen/Mods brauche ich noch nichtmal 4k, um meine Ti an ihre Grenze zu bringen^^.
Klar, wer Ingameregler bedienen kann, der sollte im Prinzip jedes Game auf 4K flüssig zocken können. Allerdings sind wir hier im Luxx und da möchten viele nunmal nur eins: alle (Ingame)Regler nach rechts und Game geniessen! Bei 4k dann hin und wieder problematisch bei bestimmten Games, trotz dicker OC-Ti.
 
Ja und nach 4K kommt 8K eigentlich ein Teufelskreis und die Hardware wird nie ausreichen, wenn wir nicht mal einen revolutionären Leistungsschub bekommen werden :fresse:

Edit:
Genau, es hieß ja auch immer, dass bei 4k die Regler nach rechts wandern können, weil der Unterschied nicht mehr relevant sei ...
 
Zuletzt bearbeitet:
In welchem Spiel reicht dir die Ti denn noch nicht für 4K? 50 - 60 FPS werden eigentlich immer erreicht.


Eine GTX1080 ist auch eine 4K Karte wenn mann Settings Runterschraubt
Eine GTX980 TI ist auch eine 4K Karte wenn mann im Spiel Settings runterschraubt.

Eine GTX 1080 TI + Ultra Setting + 4K Auflösung brechen die FPS extrem ein. Meistens unter 60 FPS es ist Spiel abhängig.

Wann wäre denn eine GPU 4K Karte ?

Wenn man Settings runterschraubt in 4K oder mit Ultra Setting Spielt mit weniger FPS in 4K.



Für mich bedeutet 4K alle in Game Setting auf Ultra stellen + AVG FPS sollte 60 sein. Kann ich das mit meine TI ......... Jaein.

Also ist die GTX1080 TI für mich keine 4K Karte.
Ich Denke die GTX2080 TI wird 100% unsere Wünsche erfüllen. Nie mehr wieder Settings runterschaben in 4K.
 
So krass würde ich das eben nicht sehen mit 4K.

4K hat seine Berechtigung eben auch, wenn nicht alle Settings auf max sind. Es kann eben auch eine Alternative sein zur sehr hohen Settings.
Man muss einfach auch mal akzeptieren, dass die Leistung für 4K plus hohe Settings einfach nicht ausreicht. Das ganze wird sich mit 8K wiederholen ...
 
Ach ja ein ordentlicher Perfomanceschub wäre schon ganz nice. Nicht weil ich unbedingt einen 4k-Monitor haben möchte, sondern weil ich großer Fan von Downsampling bin. Aber leider zieht das viel zu viel Leistung :fresse:


BTW:
Ich habe ganz zufällig die Entdeckung gemacht, dass die Option MFAA im Nvidia Treiber unter den globalen 3D-Einstellungen Einfluss auf die DX11 Command List hat. Wenn MFAA aktiviert wird, dann wird die D3D11 Driver Command Lists deaktiviert.

Ist das Verhalten eigentlich allgemein bekannt und bin ich der einige Depp, der das nicht wusste oder wusstet ihr davon auch nicht? :fresse:

Glossary:Anti-aliasing (AA) - PCGamingWiki PCGW - bugs, fixes, crashes, mods, guides and improvements for every PC game
 
Wenn du bei Witcher 8x AA benötigst dann bist du aber auch selber schuld. Mit der Erwartung wird auch die 2080 Ti nicht reichen. Die Spiele werden immer anspruchsvoller. Auf der 1080 Ti OC lassen sich die meisten Titel maxed out spielen, nur beim AA und im Zweifelsfall Postprocessing muss man ein oder zwei Optionen weglassen. Optisch macht das keinen Unterschied mehr. Ich wollte früher auch immer absolute Max-Settings, aber mittlerweile habe ich eingesehen dass das einfach nicht lohnt. Wenn die normalen Regler alle auf "Ultra" stehen ist das völlig ausreichend und trotzdem extrem, denn wir reden hier von 4K.

8K, da wird es irgendwann auch abstrus. Manche sagen bereits dass 4K unnötig sein, wobei sie das selbst wohl auch noch nie erlebt haben. 8K aber fordert solche enormen Ressourcen dass selbst ein Spiel wie Mass Effect 3 gerade so auf der 1080 Ti läuft, bei 90 % Last. Das ist Gaming von 2030. Schön wären 144 Hz. Der Vorteil hier ist auch, dass die Auflösung die gleiche ist, nur die FPS mehr, kein verschwommenes Bild wenn man mal wieder eine Karte mit 4K quält und es absolut nicht geht.

Das wusste ich nicht. Da steht aber auch dass das eher problemtisch ist wenn man CPU-limitiert ist. Das bin ich nie.
 
Ich habe ganz zufällig die Entdeckung gemacht, dass die Option MFAA im Nvidia Treiber unter den globalen 3D-Einstellungen Einfluss auf die DX11 Command List hat.

Ist doch nicht wirklich verwunderlich, wenn MFAA anstatt nur pro Frame zu "sampeln" den Spaß zusätzlich mit Infos vom vorhergehenden Frame zusammen wurschtelt. Sie deaktivieren dort den Multithreading Stuff, wohl damit das gewährleistet werden kann.
Ich für meinen Teil nutze MFAA möglichst nicht - es blurt, es geht auch "nur", wenn echtes MSAA geht (und wenn das geht, kann ich gleich qualitativ auf SGSSAA extenden) und der Spaß frisst wenn ich das recht in Erinnerung habe übel PCIe Bandbreite. MFAA@SLI kostet richtig Performance wenn du da nicht 16x/16x@3.0 fährst...

8K, da wird es irgendwann auch abstrus. Manche sagen bereits dass 4K unnötig sein, wobei sie das selbst wohl auch noch nie erlebt haben. 8K aber fordert solche enormen Ressourcen dass selbst ein Spiel wie Mass Effect 3 gerade so auf der 1080 Ti läuft, bei 90 % Last. Das ist Gaming von 2030.

Würde ich nun eher nüchterner betrachten.
UHD kostet ca. 50-70% mehr Performance als FHD in den gleichen Settings. 8k (oder besser, der 16:9 Ableger davon) kostet abermals ~50-70% mehr Performance als UHD.
Das ist doch 1A Kalkulierbar?

Das Problem an dem ganzen Spaß ist, dass der Sprung einfach übel groß ist. Wer also von FHD oder irgend 2560x irgendwas kommt und auf UHD geht, muss viel mehr GPU Bumms mitbringen. Das gilt für den nächsten Schritt abermals.
Und auch die Spiele werden nicht stillstehen mit dem Bedarf. Das verkompliziert es in Zukunft halt weiter.

So langsam aber sicher kann man aber UHD/4k auch recht bedenkenlos nutzen. Zur Not bisschen am Regler schrauben und fertig. Es wird aus meiner Sicht aber noch paar Generationen dauern, bis das ähnlich schmerzfrei geht wie heute mit FHD...
 
Ich habe Aktuelle GPU von EVGA die kann man nirgendswo Kaufen. Sie macht in 4K 200 FPS. Leider darf ich keine Benchmark veröffentlichen.

Bilder könnt ihr haben. Hier ist das Monster Reales 2020 :bigok:

unbenanntqmrpg.png
 
Ist das so ein Vape Teil?

Ich weiß ja nicht was er für Spiele spielt, aber bei meinen sehe ich da keine Probleme. PUBG kommt bei um die 55 FPS raus, das sind die Drops, mit 0,1 Drops auf 40, was aber jeder hat. Sowas wie AC Origins läuft auch auf knapp über 50 FPS wenn man wirklich alles auf Max haben muss. Zwei Optionen runter und da sind die 60.

8K lässt sich selbst mit zwei Tis nicht spielen, da wird auch die nächste Ti nicht helfen, und die übernächste wahrscheinlich auch nicht. Ich rechne damit dass erst ab der übernächsten Ti 144 Hz wirklich erreichbar werden, zumal die Spiele anspruchsvoller werden und die Monitore aktuell nicht auf dem Markt sind. Wahrscheinlich verzögert sich das auch weil die Karten zu schwach sind. Selbst eine Ti schafft höchstens 60 und das bei Volllast. Und ob die Enthusiasten bereit wären 2000 € für einen Monitor auszugeben um CSGO bei 144 Hz in 4K zu spielen mag ich zu bezweifeln.
 
Ist doch nicht wirklich verwunderlich, wenn MFAA anstatt nur pro Frame zu "sampeln" den Spaß zusätzlich mit Infos vom vorhergehenden Frame zusammen wurschtelt.

Aber so ein kleinen Hinweis darüber in der Beschreibung zu der Option wäre von Nvidia schon ganz nett gewesen, finde ich. Auch in den Artikeln, wo über MFAA berichtet und erklärt wird, wie dieses funktioniert, gibt es nirgends eine Anmerkung dazu.

Ein Option wäre es auch gewesen, dass man die Driver Command Lists dann einfach nur bei den Games deaktiviert, welche MFAA überhaupt unterstützen und dass auch nur dann, wenn MFAA im Treiber aktiviert ist.


Sie deaktivieren dort den Multithreading Stuff, wohl damit das gewährleistet werden kann.

Ja und das kann teilweise ganz schön reinhauen :d

Also ich habs einfach mal kurz bei AC Unity getestet. Im (künstlich erzeugten) CPU-Limit bin ich mal eben an der gleichen Stelle von ~130FPS auf ~110FPS gedroppt und dies reproduzierbar. Dazu bin ich einfach an der Stelle geblieben, an welcher sich der Char nachdem Laden befunden hat. Da ich mich ja nicht bewegt hatte, war diese natürlich immer gleich. Habe eine gute Minute gewartet und mir dann die FPS notiert. Dann das Game beendet und die Option MFAA entsprechend im Treiber aktiviert bzw deaktiviert (ich habe mehrere Durchläufe durchgeführt). Mit dem DX Caps Viewer immer schön validiert, ob Driver Command Lists entsprechend aktiviert oder deaktiviert ist. Vielleicht noch interessant anzumerken ist, dass ich bewusst FXAA benutzt habe, sodass das Spiel bei den Durchgängen nicht zwischen MSAA und MFAA gewechselt hat und so die Ergebnisse verfälscht.

So wie ich gelesen habe, kann das bei anderen Spielen noch deutlicher ausfallen. Mit diesem 3DMark API Overhead Test könnte man das wohl ganz gut verdeutlichen, aber der steht mir nicht zur Verfügung. :d
 
Ich Denke die GTX2080 TI wird 100% unsere Wünsche erfüllen. Nie mehr wieder Settings runterschaben in 4K.
Hmmm....
zum 1.Satz: Einspruch :d. Denn irgendwas gibts immer zu meckern, somit max +99% drinne^^
zum 2.Satz: Volle Zustimmung, weil:
:fresse2: ... vor der 2080Ti erst noch 1180Ti|1280Ti.....1880Ti | 1980Ti released werden :fresse2:
...problemtisch ist wenn man CPU-limitiert ist. Das bin ich nie.
Du Glücklicher.
Oder du spielst einfach nur die falschen Games (oder ich^^). Jede Wette, das dein Prozzi im MP bei ETS2 im Raum Calais oder Duisburg eingeht wie eine Primel sobald dort +100 Tür... ähh Trucker "near to you" sind. :shot:
 
Würde ich nun eher nüchterner betrachten.
UHD kostet ca. 50-70% mehr Performance als FHD in den gleichen Settings. 8k (oder besser, der 16:9 Ableger davon) kostet abermals ~50-70% mehr Performance als UHD.
Das ist doch 1A Kalkulierbar?

Wie du sagtest, der Bedarf wird nicht stehen bleiben.
Momentan ist es doch eher so das FullHD der Standart ist und man grob gesagt mit 16 Ecken ein Kreis zeichnen kann der einen rund vorkommt. Auch in 4K werden die Meshs im Nahbereich nicht plötzlich viel detaillierter weil niemand Meshs mit 32 Ecken einbaut die man eh nicht erkennt. Dadurch hat 4K heute im Nahbereich eher die Funktion vom besseren AA und bringt nur auf Weitsicht und die Umschaltung auf niedrige LoD Stufen (Level of Detail) echten Mehrwert.
Das bedeutet wenn 4K der Standart wird will man auch soviele Details einbauen wie die Pixeldichte erlaubt und womit die Anzahl der Polygone fließend wohl auch um Faktor 2-4 steigen wird. Nur weil man etwas auf 4K rendert macht man damit kein echtes 4K Spiel daraus wo der Entwickler drauf hingearbeitet hat.

Momentan kann man evtl. ein FullHD Spiel in 4k Rendern bei annehmbarer Framerate aber darauf ausgelegt dürften die Entwickler mal locker 50-100% Mehrbedarf fordern um die Auflösung auch ausfahren zu können.8K ist für mich damit weit weit weg. Würde annehmen so 3,5-4 fache Leistung jetziger Flaggschiffe damit man mal später 4k Spiele auf 8k rendern kann. Wie heute FullHd Spiele in 4K.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh