Spezifikationen der GeForce RTX 2080 Ti und RTX 2080 enthüllt

Du meinst also, die 2080Ti bringen sie einfach viel zu früh?
Ich persönlich finde in Anbetracht der nahenden 7nm Reife die 12nm Generation reichlich spät und steige nicht wirklich hinter nVidias Plan dabei. Kann mir nur vorstellen das die 7nm Generation vielleicht doch nicht so problemlos schnell starten wird wie das einige denken und sich nVidia vielleicht doch lieber bis Ende 2019 oder gar Anfang 2020 Zeit lässt mit der 7nm Generation. Abgesehen natürlich von einem GV100 Nachfolger, aber da sind die hohen Preise peripher und die Chipfertigung kann direkt an einer großen GPU getestet werden. Denke für die folgenden Gamerchips möglicherweise gar von Vorteil.

Mit wieviel 2080Ti für 1000€ pro Monat rechnet man? Weil sonst hätt ich das seitens der Speicherhersteller als PR-Launch genutzt. Also die 11GB NV zum Preis von 8GB verkauft. Wenigstens für die Ti halt.
Kann dir nicht ganz folgen was du mir damit sagen willst. Fakt ist nVidia nutzt bei der 2000er GeForce Generation riesige unübliche Chipgrößen => teuer. Zu dem kommt erstmalig der neue GDDR6 Speicher zum Einsatz => teuer. Will da wirklich noch jemand die doppelte Speichermenge bezahlen obwohl die bei der jeweiligen GPU höchstwahrscheinlich nicht effektiv ausgenutzt werden kann => unnötig teuer.

Hier sehe ich keinen Zusammenhang (?)
Wenn einer GPU die Power an Rechenleistung fehlt, brauch ich kein teuren völlig überdimensionierten VRAM.

Es wurde gesagt es sei die größte architektonische veränderung seit Einführung der CUDA-Shader. Eventuell sinkt daher nun die erreichbare Taktrate. Das wäre echt schade wenn die Leistung damit verloren geht. Dieses RTX-Zeug interessiert jetzt keinen. Was bringt mir eine Karte die nur in ein oder zwei Spielen bessere Performance erreicht und sonst nicht besser ist als die die ich schon habe?
Wozu brauchen wir Gamer 8 oder mehr Kerne ... bringt doch bis auf eins zwei Strategie Spiele keine spürbar bessere Performance! Merkst du was?

Irgendwann muss einer mal den Anfang machen und den Grundstein legen für eine Veränderung. Die Software wird wie bei den CPUs über kurz oder lang nachziehen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hab zwar kein 2018er Titel aber kein Spiel saugt bei mir über 4GB VRAM :hmm:
Welche Titel sind den da extrem hungrig?

Frostpunk 7+GB in 1440p, PUBG 6-7GB, Watchdogs 2 7+ GB, Ghost Recon Wildlangs 7,5GB, Star Cizizen 8+ GB, Doom Ultra Texturen 7GB..

Die Liste ist noch viel länger..
 
Es wurde gesagt es sei die größte architektonische veränderung seit Einführung der CUDA-Shader. Eventuell sinkt daher nun die erreichbare Taktrate. Das wäre echt schade wenn die Leistung damit verloren geht. Dieses RTX-Zeug interessiert jetzt keinen. Was bringt mir eine Karte die nur in ein oder zwei Spielen bessere Performance erreicht und sonst nicht besser ist als die die ich schon habe?

Genau, bringen wir die RT Kerne erst wenn min. 500 Spiele das supporten........ Den Anfang muss nun einmal die Hardware machen und wenn DU das nicht willst, kauf dir halt eine Pascal .....
 
Ich weiss nicht was ich von der Gen halten, soll und warum die Chips so gross sind ,der wenige Vram passt mir auch nicht ,warten wir mal Montag ab..
 
Weil sie mehr Cores haben und TSMCs "12nm" nicht mehr ist ein als optimierter 16nm Prozess?

Mit 11GB lässt es sich wohl bis 2020 aushalten, ich sehe das entspannt.
 
Zuletzt bearbeitet:
Mir sind die specks eig wumpe wenn die Leistung stimmt.
Von daher erstmal ein bissel abwarten bis die ersten test da sind.

Gesendet von meinem VKY-L09 mit Tapatalk
 
Das Problem ist bei den Games heute, dass diese erstens den VRAM nutzen der da ist, was nicht zwingend bedeutet, dass das wirklich benötigt wird. Sprich, wenn bei Thrawn 8GB+ belegt sind in der GTX1080Ti, heißt das nicht, dass diese auch wirklich notwendig sind.

Außerdem haben die games auch rutinen integriert die die games davon abhalten, dinge zu tun, die nicht funktionieren können. Sprich, die Texturen werden unter umständen, trotz "Ultra" Einstellung nicht auf das maximum aufgedreht.

Ich würde daher sehr vorsichtig sein, mit dem Rückschluss aus der Belegung auf den Bedarf.
 
Kann dir nicht ganz folgen was du mir damit sagen willst.
DU hast die These aufgestellt, eine 2080Ti bekommt nur 8GB, weil das sonst die Karte noch teurer machen würde. Ich meinte damit, ich würde mein GDDR6 mit dieser bisschen promoten wollen, hätte NV also 11GB zum Preis von 8GB verkauft.
Find ich übrigens wirklich interessant, daß es kein HBM wurde...

@[W2k]Shadow
1080Ti 11GB ist also unnötig teuer, weil sie 3GB zuviel Vram hat?

@all
Ich muß aber selbst zugeben, das was man zumeist zwischen Maximum und Ultra unterschieden kann und was das im Gegenzug an FPS kostet... also mir ist wäre sowas völlig wumpe. Das Prob ist nur, welche Zielgruppe man mit einer 1000€ Graka anpeilt und welche Erwartungshaltung diese hat :)
 
Zuletzt bearbeitet:
DU hast die These aufgestellt, eine 2080Ti bekommt nur 8GB, weil das sonst die Karte noch teurer machen würde. Ich meinte damit, ich würde mein GDDR6 mit dieser bisschen promoten wollen, hätte NV also 11GB zum Preis von 8GB verkauft.
Find ich übrigens wirklich interessant, daß es kein HBM wurde...
Wo schrieb ich eine These von einer 2080Ti die nur 8GB bekommen soll? Einfach nirgends. Wie will man auch 8GB VRAM an ein 352Bit Speicherinterface anbinden, geht gar nicht.

Viele heulen wegen den gleichen VRAM Größen wie der 10er Reihe rum. Fordern bei der RTX 2080 mindestens 12GB. Aber wie soll das funktionieren an einem 256Bit Speicherinterface? Krüppel Speicherinterface wie nVidia bereits zwei mal hatte, will auch keiner haben. Also bleiben logischerweise nur 8GB oder 16GB Speicherbestückung übrig. GDDR6 ist allerdings neu und erst bei den Herstellern in die Massenproduktion gegangen, damit teuer. Gleich 16GB von dem ohnehin teurerem Speicher bezahlen will auch niemand, wird ja auch wegen dem VGA Preis rumgeheult. nVidia macht in der augenblicklichen Situation das einzig Richtige. Die VRAM Erhöhung auf einen Zeitpunkt verschieben wo die GDDR6 Speicherpreise hoffentlich bei einer Verdopplung auf ein günstigeres Niveau gefallen sind. In Verbindung mit den nächsten 7nm GPUs und deren größeren Leistungssprung macht eine VRAM Erhohung höchstwahrscheinlich auch mehr Sinn als mit der 12nm GPU Generation.
 
Wo schrieb ich eine These von einer 2080Ti die nur 8GB bekommen soll? Einfach nirgends.
"Kann dir nicht ganz folgen was du mir damit sagen willst. Fakt ist nVidia nutzt bei der 2000er GeForce Generation riesige unübliche Chipgrößen => teuer. Zu dem kommt erstmalig der neue GDDR6 Speicher zum Einsatz => teuer."
 
Wo schrieb ich eine These von einer 2080Ti die nur 8GB bekommen soll? Einfach nirgends.

"Kann dir nicht ganz folgen was du mir damit sagen willst. Fakt ist nVidia nutzt bei der 2000er GeForce Generation riesige unübliche Chipgrößen => teuer. Zu dem kommt erstmalig der neue GDDR6 Speicher zum Einsatz => teuer."
Sag mal nimmst du bewusstseinsverändernde Substanzen ein? In keinem einzigen Beitrag den ich hier schrieb, schrieb ich irgendwas von einer These von einer 2080Ti die nur 8GB bekommen soll. Keine Ahnung wie du dir das zusammendichtest. GDDR6 ist neu und teurer als GDDR5X, dies alleine macht die RTX 2000er Gen teurer als die GTX 1000er Gen bei identischer Speicherbestückung, mehr steht da nicht.
 
Wir wissen ja auch noch nicht welchen Platzbedarf die neuen/veränderten Einheiten im Vergleich zu der alten Architektur einnehmen. Wäre zudem nicht das erste Mal das NV den Prozess in Bezug auf die mögliche Packdichte nicht richtig ausreizt.
Vielleicht auch deshalb weil man statt weiter zu optimieren schon an der 7nm Version arbeitet;)
 
Zuletzt bearbeitet:
Sag mal nimmst du bewusstseinsverändernde Substanzen ein?
Es tut mir leid, daß dir das alles so nahe geht. In deinem momentanen Gemütszustand sehe ich keine Möglichkeit mit dir vernünftig zu kommunizieren.
Bis später mal. Noch mehr Kaffee oder Tee lass mal heute aber lieber weg.

@all
Was von den ganzen Takten die ihr bei Pascal erwähnt und den bei Turing vermuteten, OC meine ich, ist eigentlich OCCT-Fehlerfrei (ab v4.5)?

Sprich, wenigstens 60s in nativer Auflösung, Shaderkomplexität 1x "2" und 1x "6" und 1x "2100" MB und 1x "4100" MB wenigstens... (ja die krumme MB-Zahl ist so richtig). Und was davon, wenn die Soft keine Fehler meldet, hält sich noch 120s lang ohne Drosseln?
 
Zuletzt bearbeitet:
dann würde es mit meinen 6GB ja Nachladeruckler geben, die ich aber nicht habe.

Dann haste eben was getweaked, selbst wenns bei Doom nicht so ist, bei genug anderen Games isses so.
Willste jetzt wirklich erzählen die 6GB sind in allen Lebenslagen genug ? Dann such dir dafür aber bitte nen anderen..

- - - Updated - - -

Das Problem ist bei den Games heute, dass diese erstens den VRAM nutzen der da ist, was nicht zwingend bedeutet, dass das wirklich benötigt wird. Sprich, wenn bei Thrawn 8GB+ belegt sind in der GTX1080Ti, heißt das nicht, dass diese auch wirklich notwendig sind.

Außerdem haben die games auch rutinen integriert die die games davon abhalten, dinge zu tun, die nicht funktionieren können. Sprich, die Texturen werden unter umständen, trotz "Ultra" Einstellung nicht auf das maximum aufgedreht.

Ich würde daher sehr vorsichtig sein, mit dem Rückschluss aus der Belegung auf den Bedarf.

Unrecht hast du nicht bei manchen Games(andere brauchen defintiv den Vram) , ABER es zeigt definitiv wieviel Vram ideal wäre. Und ich buttere sicher nicht soviel Geld in das Hobby um beim Vram zu sparen.

- - - Updated - - -

DU hast die These aufgestellt, eine 2080Ti bekommt nur 8GB, weil das sonst die Karte noch teurer machen würde. Ich meinte damit, ich würde mein GDDR6 mit dieser bisschen promoten wollen, hätte NV also 11GB zum Preis von 8GB verkauft.
Find ich übrigens wirklich interessant, daß es kein HBM wurde...

@[W2k]Shadow
1080Ti 11GB ist also unnötig teuer, weil sie 3GB zuviel Vram hat?

@all
Ich muß aber selbst zugeben, das was man zumeist zwischen Maximum und Ultra unterschieden kann und was das im Gegenzug an FPS kostet... also mir ist wäre sowas völlig wumpe. Das Prob ist nur, welche Zielgruppe man mit einer 1000€ Graka anpeilt und welche Erwartungshaltung diese hat :)

Das es kein HBM wird ist seit zig Monaten bekannt wenn man die News richtig gelesen hat.
 
Da die meisten fordernden Games zwischen 6,5 und 7,5GB Ram belegen reichen die 8GB momentan (noch).
Nur Schatten des Krieges auf Ultra Texturen belegt auch mehr als 11GB Vram und ruckelt dann..
 
... Willste jetzt wirklich erzählen die 6GB sind in allen Lebenslagen genug ? ....
wenn ich dieser Meinung wäre, hätte ich da auch so geschrieben, was ich aber nicht getan habe.
ich hab Doom auch nicht getweaked.
tut mir leid für dich, dass du dir sowas ausdenkst und mir das so aggro unterjubeln willst.

@Performer: an die 5GB, Doom, 1440p, maxed out
DOOMx64vk_2018_08_19_13_48_15_588.jpg
 
Und das ist mit den Ultra Texturen ?
Zum Release haben diese selbst auf 1080P um die 7 GB Vram belegt.
 
Zuletzt bearbeitet:
Das kann man wohl nur duch empirische Tests genau belegen, ich glaube aber nicht das sein Screen mit Ultra Texturen ist..
Ich installiers grade wieder, ist gleich fertig, zieht mit 48 MB/s :fresse2:
 
Zuletzt bearbeitet:
@Perfomer: was wir dazu sagen, entspricht nicht unbedingt dem, was tatsächlich passiert oder nicht passiert.
ich behaupte nach wie vor, dass das was sich Karten mit viel VRAM da rein schaufeln, nicht unbedingt das ist, was benötigt wird.

@thrawn: ultra Texturen (Decals genannt bei Doom)
DOOMx64vk_2018_08_19_13_48_36_046.jpg
 
Und ich glaube wenn weniger Vram da ist als das Game idealerweise belegen möchte mag manches Game das gut kompensieren, trotzdem ist aber die Performance schlechter als sie sein könnte da kompensieren eben Leistung kostet.
 
Möglicherweise fehlt es mir etwas an topaktuellen Games, aber bin ich der einzige der meint dass die steigenden GPU/VRAM Anforderungen in keinster Weise zu der effektiven Bildqualität passen?

Wenn ich mir z.B. Tomb Raider 2013 ansehe, das läuft auf jeder 2GB Karte fast maxed out (z.B. HD7850), die Grafik wirkt schon ziemlich erwachsen!

Ne 1080Ti wischt mit der Karte den Boden auf in aktuellen Games... aber so viel besser sehen diese m.E.n. gar nicht aus?

Auch damals UT2004, das lief auf jeder noch so alten Schüssel, dann gab es später Spiele die genauso gut aussahen, aber gefühlt 5x so viel Leistung benötigt haben :hmm:
 
*Glaskugel raushol und dran rum reib*

Erinnert sich wer von euch an die 8800 GT/GTX wo es zwei unterschiedliche Chipsätze gab einmal mit dem G 80er und de G92er Chip? Dabei rede ich nicht von den Bug oder war es was anderes was den G80 Chip in verruf brachte? Egal, worauf ich hinaus will, was ist wenn Nvidia in einem Jahr oder später eine 2. Generation von GTX 2080/Ti rausbringt die dann mehr Speicher hat 12GB die GTX 2080 und 16GB die Ti Version evtl. mit einen etwas höheren Gesamttakt dazu noch eine schneller Speicherbandbreite.

Sollte das aber so bleiben wie es ist, dann hat Nvidia mächtig tief, mit beiden Händen, in die Scheiße gegriffen. Dann werde ich auch ein AMD Graka Protestkäufer, wenn der GTX 1070 irgendwann die Luft ausgeht.:motz::kotz:
 
@Performer: wie du schon sagst, fehlt uns da wohl einfach Wissen. auch mit deinem verlinkten Video kann ich grade nix anfangen.

wenn meine 6GB VRAM zu wenig sein sollten, frage ich mich: warum die dann nicht bis oben hin voll sind. da sie es nicht sind und ich keine Nachladeruckler oder Stottern bemerke sowie ich auch die Fernsicht scharf empfinde, scheinen bei mir diesbezüglich keine Probleme vorhanden zu sein.
warum sind bei mir dann also 1,5GB frei?
mein 2,44MB screenshot war aufgrund der Foren-Begrenzung von 600KB runtergerechnet. da thrawn selber vergleichen möchte, hab ich ihm das Original verlinkt. wenn er das mit seinen 8GB mal nachstellt, wird er uns damit ja evtl Aufschluß geben können.

aber ehrlich, find ich die VRAM-Diskussion zwar interessant, aber doch auch OT.
 
Les mal über dir,m bei mir sinds auch nur 5,8GB Vram, da wurde einiges optimiert im Vergleich zum Release..




Anders bei Frostpunk und immer mehr anderen Games.
Grade gemacht der Screen. Maxed Out 1440P.
Das Game belegt mit zunehmendem Spielverlauf immer mehr Vram (hier der oberere, unten das ist belegter Systemram). Bei der Auflösung, Texturen etc auch normal.
ieir kann nichts gestreamed werden, da Aufbauspiel. Bin mir sicher das würde bei dir ruckeln Slot108
 
Zuletzt bearbeitet:
das mag sein. dann zock ich halt in nativen 1080p.

edit: laut benchmark in 1080p würde es nicht wirklich ruckeln. da liegt mein Kärtchen immer noch vor ner Vega64 :fresse2:
 
Zuletzt bearbeitet:
1080P würde bei mir nicht gut Aussehen bei nativen 1440p ;)

Ist die Frage wann wurde gebenched, im Lategame hatte ich locker 1,5GB Vram mehr voll als am Anfang..
Der Benchscreenshot ist von relativ am Anfang.

OK BTT, diskutieren das weiter per PN ok ?
 
Zuletzt bearbeitet:
Das 2018 eine 500€+ Grafikkarte mit 8 GB nicht zeitgemäß erscheint, ist nicht von der Hand zu weisen. Viele, wie auch mich, beeinflusst dies bei der Kaufeinscheidung. Wenn auch wissend das es Blödsinn ist.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh