REDFROG
Enthusiast
So viele VR Spieler hier die unbedingt 90fps brauchen. Schön!
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Das denke ich eher nicht. Der Markt würde es derzeit nicht hergeben. Es sind nicht sehr viele bereit Mondpreise zu zahlen. Nvidia wird zwar nicht zum "Billigheimer", aber Marktgerechte Preise werden Sie verlangen.
In beiden Fällen soll die zusätzliche Stromversorgung über zwei 8-Pin-Anschlüsse
Mir gings eher darum, dass sie jetzt eine beschnittene 2080ti bringen udn später noch den Vollausbaul als 2085ti oder wie die auch immer heißen könnte.
So viele VR Spieler hier die unbedingt 90fps brauchen. Schön!
4K habe ich wieder aufgegeben. Monitor steht jetzt nur rum.
Derzeit ist 1440p 144Hz weitaus interessanter, so wie es hier auch Performer immer predigt - mit Recht. 60hz ist scheiße. Das ist einfach Fakt, der Unterschied fängt schon auf dem Desktop an.
Vor allem zieht 4K einfach auch nur MASSIV Strom und heizt die Bude total auf. Das Desktop scaling kann auch nerven, manche Spiele spacken wenn sie nicht die native Desktop res fahren.
(100% desktop scaling 4K ist schon recht klein)
Aber wer es weiterhin so will...
Ich frage mich gerade welches Wort in diesen Ausführungen überhaupt einen Sinn ergibt?Wieso heizt es die Bude auf? Das macht 1440p 144 Hz auch. Du hast laut Signatur sogar eine WaKü. Dann würde ich mir aber eine 1050 Ti holen und den Threadripper rauswerfen... Mein System kam (als es noch funktionierte) auf etwa 300 - 350 W im 4K-Gaming-Loop. Das ist durchaus vertretbar und sogar mit Luft gut kühlbar.
Habe bereits vor fast 2 Monaten vermutet dass zeitnah nach dem Launch, eine geforce ti-Variante erscheinen wird, als es in den Gerüchten noch hies "... gtx 2080, gtx 2080+ ...".
Korrekte Entscheidung der Beteiligten des Unternehmens, da 7nm schon nächstes Jahr erscheint und die meisten einfach auch die 7nm geforce Karten warten würden.
Werde ich auch tun :P
Auch so kann man die Enttäuschung der Kundschaft etwas dämpfen, die den großen Leistungssprung vermissen wird, indem es einfach mit der etwas stärkenen Version überspielt wird.
Sorry Leute, das Ti u. die 11 Von den 11GB auf der MSI Verpackung sehen doch sehr seltsam aus im Vergleich zu der restlichen Schrift an der Stelle,
das ist klar ein Fake
Ich glaube 144 Hz erzeugen da noch mehr Hitze, da mehr CPU-Last bei 100 % GPU-Last und die Monitore werden auch heißer.
Vega wird nur noch als 1€ GPU bei McDonalds eine Chance haben.
- - - Updated - - -
Wie meinst du das, in einem Monopol einen Käufermarkt?
Also mir riecht es zu sehr nach Fermi was den Stromverbrauch angeht bei der DIE-Fläche. Eigentlich ist es schon Wahnsinn. Und dabei nicht mal die volle Performance "dank" Raytracing. Auf die paar Lichteffekte was Huang da präsentiert hat, kann ich dank HDR Dolby Vision + OLED eh verzichten. Das und 120Hz in 1080p liefert meine GTX1080 auch. Für 4k@120Hz sind weder TV's noch ihre GPU's reif. Für die paar Games die ich in 4k@60FPS (statt 120Hz @1080p) spielen würde, lohnt sich 2080Ti nun wirklich nicht. Langweiligster Launch seit...ever.
Wieso denn nicht? Wer nach Jahren auf einmal aus GTX RTX machen kann, der schafft auch sowasDass die Ti gleich kommt denke ich nicht. Wieso sollte NVIDIA das machen, wo sie all die Jahre immer erst die Titan brachten?
Eig. war das damals nicht so krass würde ich meinen. 2008 gabs ne 8800GT für 140€. Damit konnte man z.B. COD 4 locker mit allem (vllt AA und AF nit komplett aufdrehen) in FHD zocken. Grid ging genauso easy. (mit sinnvollen hohen Settings, dort kann man auch iwelche Filter so aufdrehen dass vermutlich ne 1080Ti einknickt). Und die anderen Games gingen eig. genauso, Crysis war halt ne Nummer härter, aber das sollte man vllt nicht als Referenz nehmen. An mehr Spiele aus der Zeit erinnere ich mich gerade nicht, aber ich weiß dass ich mit der 8800GT sehr gut versorgt war und kaum Probleme hatte.Wieviel Jahre hat es gedauert, bis midrange-Grafikkarten die durschnittliche Bildrate in den meisten Fällen, in der 1080p Auflösung, bei neuesten Titeln und mit hohen Einstellungen, über 60 gehalten haben?
Die Monitore mit der Auflösung gibt es so seit 2007/2008.
Also mir riecht es zu sehr nach Fermi was den Stromverbrauch angeht bei der DIE-Fläche. Eigentlich ist es schon Wahnsinn. Und dabei nicht mal die volle Performance "dank" Raytracing. Auf die paar Lichteffekte was Huang da präsentiert hat, kann ich dank HDR Dolby Vision + OLED eh verzichten. Das und 120Hz in 1080p liefert meine GTX1080 auch. Für 4k@120Hz sind weder TV's noch ihre GPU's reif. Für die paar Games die ich in 4k@60FPS (statt 120Hz @1080p) spielen würde, lohnt sich 2080Ti nun wirklich nicht. Langweiligster Launch seit...ever.