NVIDIA macht die GeForce RTX 2080 Ti, RTX 2080 und RTX 2070 offiziell

Ja 8GB ist da top für 1440p aber für 4K nicht so prall.
grade weil Texturen einfach keine Leistung kosten.
Ich finde das selbst die 11,3Gb der Ti fast schon zuwenig sind wenn man bedenkt das so eine karte mit OC in bereiche von 20Tflops kommen kann.
Eine Karte die 20Tflops macht sollte schon für einige Spiele reichen um bei 4K Downsampling zu nutzen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
als ich gestern assassins creed origins auf meiner gv100 gespielt habe, mit konstanten 60fps unter UHD versteht sich, wurden dezente 12GiB belegt.. bin gespannt, ob das mit dem fehlenden GiB mit den TIs dann irgendwie negativ auffällt. nervt voll, dass da ein speicherbaustein fehlt.


(..)

mfg
tobi
 
Ich finde das selbst die 11,3Gb der Ti fast schon zuwenig sind wenn man bedenkt das so eine karte mit OC in bereiche von 20Tflops kommen kann.
Ich halte das noch für ein ziemliches Gerücht, daß man die Ti soweit auf 2Ghz übertakten kann.
Wobei bei KEINER (?) der auf Geizhals schon aufgelisteten Ti mit "OC" oder XCultra usw. im Namen, die GPU-Takte dabei stehen ;)

Wenn man ohne kW Netzteil die Ti mit 1800 ab Werk fahren könnte, warum bring ich sie mit ~1545 raus? Wenn ich sowas hab kostet mich das nicht einen Cent mehr zu jetzt und ich kann den preislichen Abstand zu den beiden anderen viel besser verteidigen. Verstehe ich nicht.
 
Zuletzt bearbeitet:
als ich gestern assassins creed origins auf meiner gv100 gespielt habe, mit konstanten 60fps unter UHD versteht sich, wurden dezente 12GiB belegt.. bin gespannt, ob das mit dem fehlenden GiB mit den TIs dann irgendwie negativ auffällt. nervt voll, dass da ein speicherbaustein fehlt.


(..)

mfg
tobi

Eine neue Gamer Titan mit 22 oder 24 GB Vram wäre wirklich Top !
 
ach was.. das kostet nur sinnlos strom vom powerbudget, wenn da doppelt bestückt wird. das kostet unterm strich dann nur takt. unterstützt wird das doch eh von nix. spieleentwickler bauen keine spiele, die auf 9 von 10 rechnern nicht laufen und titan hat doch keine relevante marktverbreitung.. klar, drölf neureiche nerds, aber für die fertigt keine spieleschmiede games. ;)


(..)

mfg
tobi
 
Wie ich schon schrieb. 2070 mit 8, 2080 mit 11 und 280Ti mit 16 GB und keiner würde vom Speicher reden. Außer den neureichen Nerds natürlich ;)
 
klar, drölf neureiche nerds, aber für die fertigt keine spieleschmiede games. ;)
(..)
mfg
tobi

Doch Cloud Imperium Games / Star Citizen, die machen das. ;)

2080ti 11Gb darüber wird nur noch die Titan CEO Edition kommen.
 
Das ganze wird sich erst schlagartig ändern wenn auf einmal die konsolen 16Gb und mehr bekommen werden weil dann kann es passieren das man mit den 8/11Gb karten echte probleme bekommen wird.

@BessereHälft
Naja es wird doch nur der garantierte Boosttakt angegeben.
als beispiel meine Titan X hat ja 1075Mhz Boosttakt aber ohne das ich was machen muss geht die Karte auf 1202mhz und mit OC dann auf 1550Mhz
ich denke mit den pascal karten ist das sicherlich nicht anderes das die deutlich höher takten als der Boosttakt von Nv angegeben ist

Wie ich schon schrieb. 2070 mit 8, 2080 mit 11 und 280Ti mit 16 GB und keiner würde vom Speicher reden. Außer den neureichen Nerds natürlich ;)
Ja das wäre wirklich klasse oder eben 320Bit 2080@10Gb 384Bit 2080Ti 12Gb was eher machbar wäre weil 16GB würde ja nur mit 256Bit klappen oder eben 512Bit
 
Zuletzt bearbeitet:
Das ganze wird sich erst schlagartig ändern wenn auf einmal die konsolen 16Gb und mehr bekommen werden weil dann kann es passieren das man mit den 8/11Gb karten echte probleme bekommen wird.
Auf den Konsolenn ist das aber imho hUMA im GDDR. Also der Hauptspeicher + Vram in einem ;)

oder eben [...]384Bit 2080Ti 12Gb was eher machbar wäre
Wäre fein, für die 2080. Ich glaub bei der Ti macht den Kohl jetzt nicht fett, ob 11 oder 12GB?
 
Zuletzt bearbeitet:
und was spricht gegen 512Bit, bei leicht reduziertem Takt und besseren Timing?

Ok, ich schaffe die selbst in einem Jahr nicht :-D
 
Ist halt das Prob, daß die 16 GB entweder 256bit hätten oder eben 512bit. Mit 256bit müßte man den Speicher peitschen um so einer 12GB 384bit 2080 zu entkommen. Soviel geben die ICs imho noch nicht her. Bei 512bit hätte man einiges am Design am Bord (und GPU). Das würde die Marge doch sehr drücken, wenn sie die bekannten Preise gehalten werden sollten.

Jedenfalls hab ich nicht so das Gefühl, die 11GB sind den GDDR6 Preisen geschuldet. Das war für mich eher die obengenannte Zwickmühle. HBM2 ist da echt entspannter was die Stufen angeht. Mit GDDR6 hatte man wirtschaftlich leider keine große Chance das hinzubekommen.

Wenn also, dann eher was zwischen 16GB und 32GB :d
 
Zuletzt bearbeitet:
Ist halt das Prob, daß die 16 GB entweder 256bit hätten oder eben 512bit. Mit 256bit müßte man den Speicher peitschen um so einer 12GB 384bit 2080 zu entkommen. Soviel geben die ICs imho noch nicht her. Bei 512bit hätte man einiges am Design am Bord (und GPU). Das würde die Marge doch sehr drücken, wenn sie die bekannten Preise gehalten werden sollten.

Jedenfalls hab ich nicht so das Gefühl, die 11GB sind den GDDR6 Preisen geschuldet. Das war für mich eher die obengenannte Zwickmühle. HBM2 ist da echt entspannter was die Stufen angeht. Mit GDDR6 hatte man wirtschaftlich leider keine große Chance das hinzubekommen.
Das Problem ist einfach das HBM egal welcher noch zu teuer ist für den consumer Markt da ist die Markt Durchdringung zu klein aber es ist ein neuer Ansatz den auch ich für richtig halte.

Die geringe Größe und der geringere Stromverbrauch sind die positiven Seiten auf negativ stehen dagegen die teure Fertigung und die noch zu geringe Menge was gefertigt werden kann.

Anders rum jeder hast bzw zweifelt an HBM würde es von Nvidia kommen würden es alle feiern sieht man ja nun an RT jeder feiert es auch wenn er bei Pascal bleibt das aber dafür DX12 nötig ist wird unter den Tisch gekehrt, AMD wurde ausgelacht das sie auf DX12 gesetzt hatten.

Gesendet von meinem RNE-L21 mit Tapatalk
 
ach was.. das kostet nur sinnlos strom vom powerbudget, wenn da doppelt bestückt wird. das kostet unterm strich dann nur takt. unterstützt wird das doch eh von nix. spieleentwickler bauen keine spiele, die auf 9 von 10 rechnern nicht laufen und titan hat doch keine relevante marktverbreitung.. klar, drölf neureiche nerds, aber für die fertigt keine spieleschmiede games. ;)


(..)

mfg
tobi

Schön das du es nicht brauchst, wäre aber noch schöner wenn du trotzdem den neureichen nerds ihre Spielzeuge lässt..
Powerbudget kann man erhöhen..

Achja ich brauche auch keine 500 PS, trotzdem macht das tägliche Fahren damit erheblich mehr Spass als mit einem 80 PS Polo ;)
Denk mal drüber nach..

- - - Updated - - -

Wie ich schon schrieb. 2070 mit 8, 2080 mit 11 und 280Ti mit 16 GB und keiner würde vom Speicher reden. Außer den neureichen Nerds natürlich ;)

+1
 
448Bit wäre auch noch möglich aber der chip hat ja nur 384Bit daher ist das alles ja nur ein hätte, wäre, wenn Gerede.
Zu den Konsolen, ja natürlich haben die 8Gb gesammt aber wenn es so kommen würde das die Konsolen auf einmal mit 320bit kommen mit 20GB Ram wird das am PC ne ganz andere Hausnummer was den VRAM angeht.
bei einem Chip von 400MM² wäre es bei der Konsole auf jedenfall machbar 16Tflops + 12CPU kernen und 20GB Ram@320Bit zu bringen.
wenn so eine Konsole nächstes jahr erscheint ( PS5: Analyst nennt mögliches Release-Jahr - Verschiebung droht - NETZWELT ) dann könnte das die VRAM Bedeutung ganz schön auf den Kopf stellen
 
Würde das nicht "nur" bedeuten, daß die Spiele auf PC wie auf der PS5 gleich aussehen? ;) Momentan sind wir im gewohnten Vorteil. Warum sollten wir mit 16GB in der PS5 und 11GB auf unseren Grakas, gleich direkt im Nachteil sein? :)

Bis denne. Statt GPUs muß ich nun erstmal was im Garten grillen ;)
 
Zuletzt bearbeitet:
Lass es dir schmecken ;)
 
Würde das nicht "nur" bedeuten, daß die Spiele auf PC wie auf der PS5 gleich aussehen? ;) Momentan sind wir im gewohnten Vorteil. Warum sollten wir mit 16GB in der PS5 und 11GB auf unseren Grakas, gleich direkt im Nachteil sein? :)

Bis denne. Statt GPUs muß ich nun erstmal was im Garten grillen ;)

Nu ja wäre ja nicht gleich!
Sagen wir mal nächstes Jahr würden neue Grafikkarten kommen mit kleineren Chips und 16GB Speicher damit wäre man wieder gleich auf.
2020 dann mit grossen Karten und noch mehr Speicher wieder im Vorteil.
Man muss ja auch anregungen für den Markt schaffen um von einer 2080Ti wieder aufzurüsten.:fresse::fresse::fresse:

Aktuell stehen der Xbox one ja 9 von 12GB Ram zur Verfügung.
 
Zuletzt bearbeitet:
Eine neue Gamer Titan mit 22 oder 24 GB Vram wäre wirklich Top !

ach was.. das kostet nur sinnlos strom vom powerbudget, wenn da doppelt bestückt wird.

Bei der 2080Ti werden 11x 8Gb (1GB) Speicherchips verbaut. Da Samsung bereits 16Gb (2GB) produziert, ließe sich, zumindest aus technischer Sicht, problemlos die Speicherkapazität, ohne die doppelte Menge an Speicherchips zu verbauen, verdoppeln. Die 16Gb ICs sollten dann auch zu keinen nennenswert höheren Stromverbrauch führen.

Jedenfalls hab ich nicht so das Gefühl, die 11GB sind den GDDR6 Preisen geschuldet.

Ich würde mal behaupten...

1. Marktsegmentierung, um sich erstens von der Quadro-Serie besser distanzieren zu können und zweitens um bei späteren Generationen noch ein wichtiges Kaufargument zu haben. Wenn die jetzige High-End 12nm Generation bereits mit mindestens 16GB an den Start gehen würde, hätte man bei der nächsten Generation ein sehr wichtiges Kaufargument verloren. Es ist nicht davon auszugehen, dass man mit mehr als 16GB dann noch viele locken könnte. So stark sollte der Bedarf an VRAM in den nächsten Jahren nicht ansteigen. Im Moment sind 8GB und 11GB in dem Segment noch ausreichend. Niemand sollte damit in der nahen Zukunft in ein ernsthaftes Limit laufen.

2. Fertigungskapazität, weil im Moment anscheinend nur Samsung 16Gb ICs GDDR6 fertigen kann, dementsprechend "teuer" dürften die Chips sein. Da macht es Sinn die Chips erstmals nur in einer Serie zu verbauen, die kein allzu hohes Volumen hat und dabei auch teuer verkauft werden kann (Quadro). SK Hynix und Micron können im Moment nur 8Gb ICs liefern und die müssen auch irgendwie an den Mann gebracht werden. Wenn in größerer Stückzahl in einen preiskompetitiven Markt verkauft werden soll, ist es einfach sinnvoller mehrere Lieferanten an der Hand zu haben, nicht zuletzt um auch die Preise zu drücken und auch evtl. Engpässen zuvorzukommen.

3. Kosten/Marge, weil man im Gaming-Segment einen gesunden Kompromiss zwischen Kosten, Kapazität und Notwendigkeit eingehen muss. 16GB und mehr würden die Kosten weiter in die Höhe treiben ohne dafür aus aktueller Sicht einen entsprechenden Mehrwert zu generieren. Das mag der ein oder andere subjektiv unterschiedlich bewerten, aber aus nVidias Sicht dürfte das objektiv ein wichtiger Punkt sein. Mit 8GB und 11GB fährt man die nächsten 2+ Jahre sicherlich noch sehr gut. Hier schließt sich dann wieder Punkt 1 an.
 
Zuletzt bearbeitet:
Wurde das schon gepostet?

Hat jemand zu früh Benchmarks von der 2080ti vs 1080ti veröffentlicht.

RTX 2080 Ti vs GTX 1080 Ti - 10 GAMES BENCHMARKED | LEAK - YouTube

Der türkische YouTuber der das "leaked" hat, hat die Ergebnisse von "Quellen" und Hochrechnungen.
Die Vergleiche sind weder auf dem selben System, noch sind es unterstützte Treiber, noch sind die Hälfte davon überhaupt Benchmarks.
Es wird in anderen Foren sogar daran gezweifelt ob irgendwas davon überhaupt sein kann, da niemand eine Karte hat aktuell. Nur die Boardpartner. Und selbst die haben keine aktuellen Treiber.

Also leider total nutzlose Infos hier.
Einfach nur ne Menge an Bauchgefühlen und Hochrechnungen, zusammengetragen und angepasst an vermutete Werte damit es glaubwürdig wirkt.
Clickbait vom feinsten sozusagen.
 
3. Kosten/Marge, weil man im Gaming-Segment einen gesunden Kompromiss zwischen Kosten, Kapazität und Notwendigkeit eingehen muss. 16GB und mehr würden die Kosten weiter in die Höhe treiben ohne dafür aus aktueller Sicht einen entsprechenden Mehrwert zu generieren. Das mag der ein oder andere subjektiv unterschiedlich bewerten, aber aus nVidias Sicht dürfte das objektiv ein wichtiger Punkt sein. Mit 8GB und 11GB fährt man die nächsten 2+ Jahre sicherlich noch sehr gut. Hier schließt sich dann wieder Punkt 1 an.

Wobei man da ja durchaus zwei unterschiedliche Konfigurationen (mit entsprechendem Aufpreis) verkaufen könnte, bei der 1060 gehts ja auch.
 
Jop bis zur GTX 7xx Serie gabs ja doppelten Vram durch die Boardpartner gegen Aufpreis, so hat jeder was er will,m die Sparfüchse normalen Vram und die die den Hals nicht vollkriegen eben den doppelten, ABER das mag Nvidia ja nicht, da rüsten die User mit den doppelten Vram Karten ja weniger oft auf..
Zu den Zeit alterten nämlich die doppelten Vram Karten IMMER besser..
 
GDDR6 Speicher mit kostet 20-22 Euro pro GB.
Source: Reddit

Das wären von 11 -> 16 gb allein 100 Euro mehr.
Wenn die nie / so gut wie nie benötigt werden, wäre das dann ein relativ nutzloser Aufpreis.

Verstehe schon die Aussage das mehr halt besser ist. Aber wo ist die Grenze die finanziell sinnvoll ist?
Von den Berichten die ich bisher gefunden habe ist eher nicht zu erwarten, dass 11gb zu low sind. Sicher kann man alles mit Texturmods voll bekommen, aber sollte man dafür den Preis für alle user erhöhen?
Immerhin ist die RTX generation eh schon teuer genug wegen anderen Gründen.

Eine Option mit doppeltem Speicher für Aufpreis würde ich aber definitiv begrüßen. So wären beide Lager happy.
Gibt es dazu ein offizielles Statement von NVidia wieso das nicht mehr läuft, mit Außname der 60er lines? Also offiziell, nicht Bauchgefühl und Theorie.
 
Deswegen doch 2 Versionen, wer mehr Vram will zahlt auch mehr..
Stellt die Pfennigfuchser und Enthusiasten gleichermaßen zufrieden.

Offizeilles gibts da nix,. gab aber Gerüchte das es NV den Boardpartnern verboten hat (denn die Karten gabs nicht offiziell von NV so, das waren einzelne Boardpartner die solche Versionen brachten, Gainward war immer mit dabei zb)
 
Zuletzt bearbeitet:
Kosten/Marge ? Bedingt, Nvidia möchte nur immer mehr Gewinn machen..

Ja, natürlich. Aber die Frage ist ja was sinnvoller wäre um mehr Gewinn/Marge zu erreichen. Die Karten durch noch mehr VRAM nur noch teurer machen, als sie ohnehin schon sind, die dann dazu kaum einen Mehrwert bieten, schreckt ebenfalls Käufer ab. Wie gesagt, das bewertet subjektiv jeder unterschiedlich. Dem einen ist es das Wert, den anderen nicht. Aber ich weiß nicht wie viele nun bereit wären für eine 2080Ti mit 22GB, grob geschätzt über 1500,- Euro oder noch mehr zu bezahlen, wo dazu noch die Hälfte des VRAMs meist ungenutzt vor sich hin dümpeln würde. In 2-3 Jahren wo man diese Mengen VIELLEICHT!! mal brauchen würde, kauft der Enthusiast i.d.R. doch sowieso neu.

Wobei man da ja durchaus zwei unterschiedliche Konfigurationen (mit entsprechendem Aufpreis) verkaufen könnte, bei der 1060 gehts ja auch.

Naja, ich weiß nicht ob sich das Beispiel 1060 hier nun so einfach übertragen lässt. Eine 2080 mit 16GB würde wahrscheinlich viele weg von der 2080Ti mit 11GB treiben. Diese müsste dann wiederrum schon 22GB bieten, was dann aber den Preis nur unnötig nach oben treiben würde und zudem noch die Attraktivität der zukünftigen Generation schmälern würde. Objektiv gesehen muss(!) man aktuell nicht mehr als 8GB/11GB verbauen.
 
Warum nicht gleich,die GPU als Sockeleinheit verkaufen (wie CPUs) ,und den Vram an den RAM nahtlos anbinden? Oder extra ne Vram Slot machen und normalen arbeitspeicher benutzen.Einmal 32GB RAM oder höher und fertig,oder etwa nicht?

Nur mal ne bildliche Vorstellung
Man nehme ein Mobo mit dual cpu Slots,denke sich den einen als GPU Slot,mit 2-4 Rambänken (normaler Arbeitsspeicher) und 1-2 Vrambänke (größe SO-Dimms) Jeder kann ausrüsten was er will.
 
Zuletzt bearbeitet:
Gehen würde das..

- - - Updated - - -

Ja, natürlich. Aber die Frage ist ja was sinnvoller wäre um mehr Gewinn/Marge zu erreichen. Die Karten durch noch mehr VRAM nur noch teurer machen, als sie ohnehin schon sind, die dann dazu kaum einen Mehrwert bieten, schreckt ebenfalls Käufer ab. Wie gesagt, das bewertet subjektiv jeder unterschiedlich. Dem einen ist es das Wert, den anderen nicht. Aber ich weiß nicht wie viele nun bereit wären für eine 2080Ti mit 22GB, grob geschätzt über 1500,- Euro oder noch mehr zu bezahlen, wo dazu noch die Hälfte des VRAMs meist ungenutzt vor sich hin dümpeln würde. In 2-3 Jahren wo man diese Mengen VIELLEICHT!! mal brauchen würde, kauft der Enthusiast i.d.R. doch sowieso neu.



Naja, ich weiß nicht ob sich das Beispiel 1060 hier nun so einfach übertragen lässt. Eine 2080 mit 16GB würde wahrscheinlich viele weg von der 2080Ti mit 11GB treiben. Diese müsste dann wiederrum schon 22GB bieten, was dann aber den Preis nur unnötig nach oben treiben würde und zudem noch die Attraktivität der zukünftigen Generation schmälern würde. Objektiv gesehen muss(!) man aktuell nicht mehr als 8GB/11GB verbauen.

Naja ob 1250 oder 1500, ds macht den Braten dann auch kaum noch fetter..

Aber die weiter unten genannten Gründe sprechen objektiv dagegen ja, auch wenn das MIR nicht gefällt und ich gerne sowas kaufen würde..
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh