Erste Custom-Design der RTX 2080 (Ti) diverser Hersteller – TU104 als Codename der GPU

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Dass die Ti gleich kommt denke ich nicht. Wieso sollte NVIDIA das machen, wo sie all die Jahre immer erst die Titan brachten? Sieht ziemlich nach Fake aus. Erstmal wird gemolken. Aber man muss ja nicht kaufen. Wenn sich dann die Ti zeigt und ein ordentliches Custom-Modell sich preislich eingependelt hat werde ich mal schauen. Wahrscheinlich wird es dieses Mal sogar ASUS, da EVGA ja seine Garantie nicht mehr hat und bei ASUS zumindest noch gewisse Hoffnung auf RGB-Sync besteht (Aura). Ich sehe es schon kommen, ich wechsel nur auf die neue Ti damit die Farben endlich passen...
 
Ja normalerweise kommt die Ti erst später.
Die early adopter springen direkt auf das Basismodell. Damit sich die gleichen Leute Wochen/Monate später sich direkt wieder eine neue Karte in Form von Ti holen. Weil: "Die paar Hundert Euro Aufpreis und kann man ja so gut gebraucht verkaufen" So war es doch immer. Und Nvidia hat den Absatz.
 
Zuletzt bearbeitet:
Das denke ich eher nicht. Der Markt würde es derzeit nicht hergeben. Es sind nicht sehr viele bereit Mondpreise zu zahlen. Nvidia wird zwar nicht zum "Billigheimer", aber Marktgerechte Preise werden Sie verlangen.

Mir gings eher darum, dass sie jetzt eine beschnittene 2080ti bringen udn später noch den Vollausbaul als 2085ti oder wie die auch immer heißen könnte.
 
In beiden Fällen soll die zusätzliche Stromversorgung über zwei 8-Pin-Anschlüsse

Zumindest auf dem Bild ist einer nur mechanisch ein 8-Pin...

Was für Nvidia nicht so schön ist, ist die mit dieser Generation verbundene Erwartungshaltung der potentieller Käufer wie man sehr schön bei 3DCenter sehen kann.
 
Mir gings eher darum, dass sie jetzt eine beschnittene 2080ti bringen udn später noch den Vollausbaul als 2085ti oder wie die auch immer heißen könnte.

Das könnte durchaus möglich sein.
 
Ich tippe auch mal das keine ti zum Start kommt.

Sollte tatsächlich eine kommen, können wir nächstes Jahr eine neue erwarten.
 
Habe bereits vor fast 2 Monaten vermutet dass zeitnah nach dem Launch, eine geforce ti-Variante erscheinen wird, als es in den Gerüchten noch hies "... gtx 2080, gtx 2080+ ...".
Korrekte Entscheidung der Beteiligten des Unternehmens, da 7nm schon nächstes Jahr erscheint und die meisten einfach auch die 7nm geforce Karten warten würden.
Werde ich auch tun :P
Auch so kann man die Enttäuschung der Kundschaft etwas dämpfen, die den großen Leistungssprung vermissen wird, indem es einfach mit der etwas stärkenen Version überspielt wird.
 
War doch mit der ersten Pascal Titan nicht viel anders. Kam auch recht früh

Gesendet von meinem VKY-L09 mit Tapatalk
 
4K habe ich wieder aufgegeben. Monitor steht jetzt nur rum.
Derzeit ist 1440p 144Hz weitaus interessanter, so wie es hier auch Performer immer predigt - mit Recht. 60hz ist scheiße. Das ist einfach Fakt, der Unterschied fängt schon auf dem Desktop an.

Vor allem zieht 4K einfach auch nur MASSIV Strom und heizt die Bude total auf. Das Desktop scaling kann auch nerven, manche Spiele spacken wenn sie nicht die native Desktop res fahren.
(100% desktop scaling 4K ist schon recht klein)
Aber wer es weiterhin so will...
 
NVIDIA GeForce RTX 2080 Ti features 4352 CUDA cores | VideoCardz.com

Scheint wohl doch der Vollausbau der Ti zu sein (Ti ist ja immer leicht beschnitten) da die RTX6000 nur "ein Paar" mehr Cuda Cores hat (4608 vs 4352 Cuda Cores).
Bin gespannt wie sich das Teil gegen die 1080ti schlägt.

@REDFROG

this! der ganze 4K Hype ist einfach nur bekloppt, ich hab mich schon vor 2 Jahren für 1440p@144hz entschieden und das wird noch ne ganze Weile so bleiben.
 
Zuletzt bearbeitet:
Ja so ist es. Es gibt auch Leute die von Ti auf 2080 wechseln. Wenn die Gerüchte stimmen wird die Ti gleichschnell sein. Da fehlt das "ich muss das haben"-Gefühl das bei dem Wort "Ti" bei mir normalerweise aufkommt. Eine 2080 mit 8 GB wäre ja richtiger Beschiss. Eine 1080 Ti für Arme? Wohl nicht, weil sie sicher noch teurer sein wird...

Das kann sein @Raz0r, das war bei Kepler auch so. Eventuell bringen sie den GT104 direkt als 2070 (770) und den FT102 als 2080. Dann kommt später noch ein Vollausbau nach. Das eine Leakbild sieht nämlich echt aus und eine 250 W 2080 würde mich ansonsten echt wundern.

4K geht schon, aber mindestens mit Ti. Und man sollte Gsync haben. Es sind 50-60 FPS drin. Ohne Sync merkt man die Drops natürlich, andererseits sollte man die 200 € übrig haben wenn man sich schon die Hardware für 4K leisten kann. Es ist teuer aber leider bleibt einem nichts anderes übrig, AMD ist zwar billiger liefert aber nicht die gleiche Leistung. 40 und 55 FPS sind mit Sync ein Unterschied, die Vega 64 macht nicht mehr. Unter 45 - 50 FPS hilft auch Sync nichts mehr.

60 Hz sind Gewohnheitssache. Darum fange ich gar nicht erst damit an. Vor ein paar Jahren war ich noch Laptop und Sub-60 Hz gewöhnt. Da waren 60 Hz ein echter Luxus, vor allem in Shootern. Es gab Zeiten da stand meine KD in BF4 auf 0,42, als ich dann auf Desktop wechselte ging sie innerhalb von Wochen auf über 1 (Ich spiele nicht nach KD).

Wieso heizt es die Bude auf? Das macht 1440p 144 Hz auch. Du hast laut Signatur sogar eine WaKü. Dann würde ich mir aber eine 1050 Ti holen und den Threadripper rauswerfen... Mein System kam (als es noch funktionierte) auf etwa 300 - 350 W im 4K-Gaming-Loop. Das ist durchaus vertretbar und sogar mit Luft gut kühlbar.
 
4K habe ich wieder aufgegeben. Monitor steht jetzt nur rum.
Derzeit ist 1440p 144Hz weitaus interessanter, so wie es hier auch Performer immer predigt - mit Recht. 60hz ist scheiße. Das ist einfach Fakt, der Unterschied fängt schon auf dem Desktop an.

Vor allem zieht 4K einfach auch nur MASSIV Strom und heizt die Bude total auf. Das Desktop scaling kann auch nerven, manche Spiele spacken wenn sie nicht die native Desktop res fahren.
(100% desktop scaling 4K ist schon recht klein)
Aber wer es weiterhin so will...

Jo meine Zeiten mit 120HZ sind durch zocke keine MP mehr und für Singleplayer reichts für mich.
Jeder halt wie er mag.
Ich dadle auf nem 65Zoll Oled für mich Bildlich die Krönung.
Ich kann mir LCD Monitore eigentlich nicht mehr ansehen.
Selbstleuchter sind State of the Art für mich.
Gut dafür kein Gsync.
 
Zuletzt bearbeitet:
Bissel Genre abhängig. Bei SimCity oder ähnlichem kann man mit 60fps gut klar kommen bei shootern gerne 80+

Gesendet von meinem VKY-L09 mit Tapatalk
 
Wieso heizt es die Bude auf? Das macht 1440p 144 Hz auch. Du hast laut Signatur sogar eine WaKü. Dann würde ich mir aber eine 1050 Ti holen und den Threadripper rauswerfen... Mein System kam (als es noch funktionierte) auf etwa 300 - 350 W im 4K-Gaming-Loop. Das ist durchaus vertretbar und sogar mit Luft gut kühlbar.
Ich frage mich gerade welches Wort in diesen Ausführungen überhaupt einen Sinn ergibt?
4K heizt die Bude auf, weil die Karte permanent am limit läuft. Und 1440p kann man die fps anständig cappen. Höhere Auflösungen ziehen enorm, je nach Spiel natürlich. Wakü oder nicht, die Abwärme ist fast exakt die gleiche.
Und was das mit dem 1050ti downgrade und Threadripper rauswerfen bedeuten soll...
300-350Watt halte ich für 4K unrealistisch. Da zB. eine 1080ti allein unter Volllast gerne 250-300+Watt schluckt (je nach OC). Also am Netzteil und nicht an der Steckdose..
 
Sorry Leute, das Ti u. die 11 Von den 11GB auf der MSI Verpackung sehen doch sehr seltsam aus im Vergleich zu der restlichen Schrift an der Stelle,

das ist klar ein Fake
 
Habe bereits vor fast 2 Monaten vermutet dass zeitnah nach dem Launch, eine geforce ti-Variante erscheinen wird, als es in den Gerüchten noch hies "... gtx 2080, gtx 2080+ ...".
Korrekte Entscheidung der Beteiligten des Unternehmens, da 7nm schon nächstes Jahr erscheint und die meisten einfach auch die 7nm geforce Karten warten würden.
Werde ich auch tun :P
Auch so kann man die Enttäuschung der Kundschaft etwas dämpfen, die den großen Leistungssprung vermissen wird, indem es einfach mit der etwas stärkenen Version überspielt wird.

Wenn die wirklich schon nächstes Jahr kommen werde ich wohl auch warten, oder ne 24GB Vram Titan nehmen,...
 
4K kannst du auch cappen. Ob 4K60 oder 1440p144, es zieht beides auch bei einer Ti 100 % bei AAA-Titeln. Das Argument verstehe ich nicht.

Ich habe einen Ryzen und 1080 Ti @1V, da spart man durchaus ein paar Watt. Sollte ich jemals wieder einen funktionierenden PC haben kann ich gerne ein Bild davon machen. Vor allem ist die Karte so viel leiser, was zu den 600-RPM-Lüftern meines Restsystems passt.

Das mit der 1050 Ti war eine Anspielung darauf dass dich die Abwärme stört. Die ist bei einem High-End-System natürlich höher. Das ist aber wirklich das letzte das einen interessieren soll. Verbrauch ist für mich weniger wegen des extremen Strompreises relevant, sondern weil es leiser zu kühlen ist. Ich glaube 144 Hz erzeugen da noch mehr Hitze, da mehr CPU-Last bei 100 % GPU-Last und die Monitore werden auch heißer.
 
Ich glaube 144 Hz erzeugen da noch mehr Hitze, da mehr CPU-Last bei 100 % GPU-Last und die Monitore werden auch heißer.

Ja dann glaube das alles mal weiter..
Mein alter 4K hat sich fast 40 Watt genehmigt während der 144Hz Monitor nicht mal 30 braucht. Was soll das also zu behaupten, ein 144Hz (1440p) Monitor wird heißer!? Der hat auch weniger Pixel anzusteuern. o_O
Glauben ist das eine, Fakten sprechen eine andere Sprache. Glauben bringt hier niemanden weiter.

Außerdem zieht eine 1080ti auch noch bei uncapped 60fps@4K@100% mehr Strom als ein System mit gecappten 144fps auf einem 144Hz Monitor ohne die 100% load weil hier ohnehin Leistungsreserven bestehen. Wobei auch hier 100% load relativ ist. Furmark 100% ist was anderes als ein Spiel. Und Spiel ungleich Spiel.
Bei über 8mio Pixel@4K passiert einfach wesentlich mehr.
Wobei man aber auch sagen muss, die 144fps müssen auf einem 144Hz Monitor gar nicht mal anstehen, dürfen auch 100 sein...der Bildfluss sieht trotzdem besser aus.
Ich habe 4K lange genug gehabt und fand es geil, aber irgendwann muss man die Wahrheit ins Gesicht sehen. Vor allem dann, wenn man sich schon zwingt (also ich) in 1440p zu spielen weil der Stromverbrauch und die damit verbundene Abwärme einfach total überzogen ist.
Das hat auch nichts mit Lautstärke zu tun (hallo...7x140mm). Das hat was mit Heizen im Sommer zu tun. Lästig und dann auch noch für 60 Krüppel Hz!
Bis dahin.... 4K@144Hz, dann bin ich auch wieder dabei.
 
Zuletzt bearbeitet:
Dann "glaub" mal was du willst, es zieht beides fett Leistung, was aber einen Threadripperbesitzer nicht kümmern sollte. Ich möchte die 8 Mio Pixel nicht mehr missen, 1440p wäre ein Downgrade. 2080 Ti und ein bezahlbarer sowie ordentlicher 4K90-100 Monitor wären super. Mir würden 90 FPS reichen. Solange ich an 60 gewöhnt bin habe ich damit aber auch kein Problem. Auf dem Fernseher sind auch weiterhin nur 60 drin. Ich werde aber sowieso nicht neu kaufen bevor die Leistung da ist, ein 4K100 würde mir aktuell nichts bringen, da ich außer bei Battlefield keine 100 FPS erreiche. Da muss erstmal die passende Ti her bevor der Monitor kommen kann.

Hier nochmal zu dem Bullshit mit dem Monitor: 27 Acer Predator XB271HU - Stromverbrauch

XB271 sind identisch bis auf Auflösung. Die Pixel spielen keine Rolle, laut dem Test ist sogar mein XB321 nicht verbrauchsamer.
 
Zuletzt bearbeitet:
Vega wird nur noch als 1€ GPU bei McDonalds eine Chance haben. :fresse:

- - - Updated - - -



Wie meinst du das, in einem Monopol einen Käufermarkt?

Dein Ernst!? Holzmann wurde dein Account gehackt? Ich freue mich auch auf die neuen Karten aber die Sprüche sind sowas von überflüssig. Das kenne ich anders von dir;)

Erstmal die Preise und die Leistung abwarten.
Denke die werden recht hoch einsteigen. Vielleicht 899€ für die Ti!?
Vega wird sich vom Preis her wie die NV Pedants verhalten.
 
Wieviel Jahre hat es gedauert, bis midrange-Grafikkarten die durschnittliche Bildrate in den meisten Fällen, in der 1080p Auflösung, bei neuesten Titeln und mit hohen Einstellungen, über 60 gehalten haben?
Die Monitore mit der Auflösung gibt es so seit 2007/2008.
2014 mit der geforce 700 Serie ging es in der midrange Abteilung erst los. Bis dahin hatten selbst die highe-end Karten - noch echtes highend im Preisbereich 500 - 600 € - an der Auflöäsung zu knabbern. Und selbst heute erscheint noch so mancher aaa Titel mit neuester Grafik, bei dem eine midrange Karte voll ausgelastet ist.
Das waren Jahre wo es extrem große Fortschritte in der Fertigung und der Software gab und die Hersteller mehr als die heutigen 50 % (oder gar weniger) mehr an Leistung pro Architektur-Generation boten.
Es scheint sich abzuzeichnen dass es keine Fortschritte, in dem großen Ausmaß, in den nächsten Jahren geben wird; jedenfalls bei der hardware Fertigung. Die Prognosen gibt es ja bereits heute.
144 Hz bei uhd Auflösung, alle 2 Jahre eine neue Grafikkarten-Generation, da dauert es noch 3 - 4 Generation bis es so eintrifft wie mit den midrange Karten und der 1080p Auflösung.
 
Also mir riecht es zu sehr nach Fermi was den Stromverbrauch angeht bei der DIE-Fläche. Eigentlich ist es schon Wahnsinn. Und dabei nicht mal die volle Performance "dank" Raytracing. Auf die paar Lichteffekte was Huang da präsentiert hat, kann ich dank HDR Dolby Vision + OLED eh verzichten. Das und 120Hz in 1080p liefert meine GTX1080 auch. Für 4k@120Hz sind weder TV's noch ihre GPU's reif. Für die paar Games die ich in 4k@60FPS (statt 120Hz @1080p) spielen würde, lohnt sich 2080Ti nun wirklich nicht. Langweiligster Launch seit...ever.
 
Zuletzt bearbeitet:
Also mir riecht es zu sehr nach Fermi was den Stromverbrauch angeht bei der DIE-Fläche. Eigentlich ist es schon Wahnsinn. Und dabei nicht mal die volle Performance "dank" Raytracing. Auf die paar Lichteffekte was Huang da präsentiert hat, kann ich dank HDR Dolby Vision + OLED eh verzichten. Das und 120Hz in 1080p liefert meine GTX1080 auch. Für 4k@120Hz sind weder TV's noch ihre GPU's reif. Für die paar Games die ich in 4k@60FPS (statt 120Hz @1080p) spielen würde, lohnt sich 2080Ti nun wirklich nicht. Langweiligster Launch seit...ever.

Als ob es nur 1080p (Auflösung vom letzten Jahrhundert) und 4k geben würde. Wechsel erstmal auf 1440p / 144Hz. Dann hast du auch gleich ne ganz andere Meinung.
 
Wieviel Jahre hat es gedauert, bis midrange-Grafikkarten die durschnittliche Bildrate in den meisten Fällen, in der 1080p Auflösung, bei neuesten Titeln und mit hohen Einstellungen, über 60 gehalten haben?
Die Monitore mit der Auflösung gibt es so seit 2007/2008.
Eig. war das damals nicht so krass würde ich meinen. 2008 gabs ne 8800GT für 140€. Damit konnte man z.B. COD 4 locker mit allem (vllt AA und AF nit komplett aufdrehen) in FHD zocken. Grid ging genauso easy. (mit sinnvollen hohen Settings, dort kann man auch iwelche Filter so aufdrehen dass vermutlich ne 1080Ti einknickt). Und die anderen Games gingen eig. genauso, Crysis war halt ne Nummer härter, aber das sollte man vllt nicht als Referenz nehmen. An mehr Spiele aus der Zeit erinnere ich mich gerade nicht, aber ich weiß dass ich mit der 8800GT sehr gut versorgt war und kaum Probleme hatte.
 
Also mir riecht es zu sehr nach Fermi was den Stromverbrauch angeht bei der DIE-Fläche. Eigentlich ist es schon Wahnsinn. Und dabei nicht mal die volle Performance "dank" Raytracing. Auf die paar Lichteffekte was Huang da präsentiert hat, kann ich dank HDR Dolby Vision + OLED eh verzichten. Das und 120Hz in 1080p liefert meine GTX1080 auch. Für 4k@120Hz sind weder TV's noch ihre GPU's reif. Für die paar Games die ich in 4k@60FPS (statt 120Hz @1080p) spielen würde, lohnt sich 2080Ti nun wirklich nicht. Langweiligster Launch seit...ever.

Die Spekus gehen hier aber ziemlich weit..
Warte doch erstmal bis die Benches da sind bevor du hier weitreichende Prognosen abgibst..
Achja es gibt nicht nur Full HD und WQHD, und was dein Fernseher jetzt damit zu tun hat wüsste ich auchmal gerne ?
 
Ich benutze seit einiger Zeit nur noch 120Hz zu gamen. Und das geht bei den LGs OLEDs nur bis 1080p/1440p. So eine 2080Ti wäre perfekt für 1440p@120Hz aber das kann ja nur der neue 2018 LG. Somit müsste zuerst ein echter Fortschritt in Form von 4k@120Hz seitens LG abgewartet werden, bis man für 1700€ wieder umsteigt. Und bis dahin langt eben auch eine GTX1080 für 1080p@120Hz.
Das ist halt was anderes als wenn man 08/15 28" Mäusekino als Anzeige benutzt...

EDIT
Ich habe ja zum Glück die Beta von Black Ops 4 mitgemacht, da liegen die 120 FPS in 1080p ziemlich konstant an. Also wozu andere GPU wenn ich eh bei 1080p bleibe? Gut vielleicht für mehr DSR-AA mit 2080Ti aber das überlege ich mir noch, auch wegen dem angesprochenem Verbrauch bei 750mm².
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh