NVIDIA macht die GeForce RTX 2080 Ti, RTX 2080 und RTX 2070 offiziell

Ich fände das durchaus interessant.
Sozusagen wie bei Konsolen, shared memory.

Aber das würde schon ein wenig Probleme machen beim Verkauf von neuen GPUs.
Man müsste dann ggf. neuen Speicher organisieren um die GPUs zu unterstützen, was evtl. auch ein neues Board bedeuten würde, damit ne neue CPU,...

Also klar, die Idee klingt erst mal genial und ich würde das sicher gerne so handhaben. Aber was ist mit der breiten Masse an usern die schon überfordert sind die Grundlagen eines PCs zu verstehen?
Das wird dadurch sehr viel komplexer als es bisher ist. Auch müssten Board / Ram / GPU hersteller das alle gemeinsam anpacken. Neue GPUs ohne dedicated Speicher würden eine riesen Ausgabe bedeuten, da jeder erst mal nen passendes Board dazu braucht ect.

Wäre ein riesen Aufwand. Aber sehr interessante Idee.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Es geht doch einfacher, die GPU ist mit dem PCB fest verlötetet, nut die Ramslots sind halt gesockelt und der Ram damit tauschbar und erweiterbar..
 
Nu ja wäre ja nicht gleich!
Sagen wir mal nächstes Jahr würden neue Grafikkarten kommen mit kleineren Chips und 16GB Speicher damit wäre man wieder gleich auf.
WAS? :hmm:

Aktuell stehen der Xbox one ja 9 von 12GB Ram zur Verfügung.
Eben. Das steigert sich ja nicht proportional. Mit 16GB würde der Box immernoch ~10-11 GB als Vram zur Verfügung stehen. Können. Damit braucht man keine 16GB PC-Graka um gleichzuziehen. Die PS5 wird in der Darstellung mit einer 1080 gleichziehen (da mit bequemen 60fps).

@all
Was soll mit 21€/GB sein? Bei DEN Preisen für die Ti? ~100€ mehr für 16GB Ti würde niemand bezahlen, der das Geld für eine 11GB Ti ausgeben würde? Was ist das denn wieder für eine Rattennebelkerze... Es wird schon so sein wie wir es gesagt haben. Sie können es mit GDDR statt HBM nicht vernünftig staffeln. Sonst müßten es 512bit sein (256bit zu lahm) und das wären dann wieder mehr als nur +100€.

@Cippoli
"2." wird wohl nicht gelten. Die 2000er sind für Samsung die Promotion von GDDR6. Die werden sich das nicht sündhaft bezahlen lassen.

@Thrawn.
Steckkontakte kosten dich Signalqualität und daher auch Latenzen.
 
Zuletzt bearbeitet:
Es geht doch einfacher, die GPU ist mit dem PCB fest verlötetet, nut die Ramslots sind halt gesockelt und der Ram damit tauschbar und erweiterbar..

Achso, also quasi nicht board related, sondern slots direkt auf der GPU?
Hmm. Weniger interessant als shared memory, aber einfacher umzusetzen.
Wie würde dann die Kühlung funktionieren? Man muss den VRam ja auch kühlen. Das würde die Leute quasi zwingen den Kühler zu entfernen und da zumzuwerkeln.
Plus die Gefahr, dass die GPU Leistung hart unter falsch gewähltem VRam leiden könnte.

Befürchte diese Überlegungen sind zwar technisch interessant, aber nicht realistisch in die Praxis umzusetzen.
Finde aber alles was modular ist einen spannenden Ansatz. PC bauen macht eh schon Spaß, das durch modulare GPUs zu erweitern wäre durchaus cool. ;-)
 
Ist halt das Prob, daß die 16 GB entweder 256bit hätten oder eben 512bit. Mit 256bit müßte man den Speicher peitschen um so einer 12GB 384bit 2080 zu entkommen. Soviel geben die ICs imho noch nicht her. Bei 512bit hätte man einiges am Design am Bord (und GPU). Das würde die Marge doch sehr drücken, wenn sie die bekannten Preise gehalten werden sollten.

Jedenfalls hab ich nicht so das Gefühl, die 11GB sind den GDDR6 Preisen geschuldet. Das war für mich eher die obengenannte Zwickmühle. HBM2 ist da echt entspannter was die Stufen angeht. Mit GDDR6 hatte man wirtschaftlich leider keine große Chance das hinzubekommen.

Wenn also, dann eher was zwischen 16GB und 32GB :d

sehr drücken? 512bit bus gabs zuvor schon bei Nvidia, und das bei DEUTLICH niedrigerem preis fürs flaggschiff. Bei AMD gabs 512bit schon öfters, auch beim flaggschiff und auch zu deutlich niedrigerem Kurs.
 
@Powl
Da hat der Rest aber nicht SO viel gekostet. Imho. Man muß jetzt zusehen wie man das in den Griff kriegt. NV verkauft GPUs. Um das Design der Boards müßen sich die AIBs kümmern. Oder sie nutzen die Referenz. Beides wäre in 512bit noch weniger Schnappes.

Denn, NV will die Kriegskasse weiter füllen. Niemand in der Geschäftsetage wird Intel im GPU Markt unterschätzen wollen. AMD wird nächstes Jahr Ryzen weiter pimpen, AMD hat die beiden Spielekonsolen, AMD hat die SSG die jeder der Mediacontent bearbeitet haben will, und noch paar Sachen die beruflich eben im Preis überzeugen.

AMD hat erstmal keine großen Sorgen mit GPUs. Und auch mit Intel nicht. Die sind mittlerweile wie Stiefbrüder. Intel und NV sind dagegen, und auch Mittlerweile, eher wie ein Dortmunder und ein Schalker. Für NV stehen in den nächsten 5 Jahren SCHWIERIGE Zeiten an, durch welche man sich durchmanövrieren muß.
 
@Cippoli
"2." wird wohl nicht gelten. Die 2000er sind für Samsung die Promotion von GDDR6. Die werden sich das nicht sündhaft bezahlen lassen.

:confused:

Ich steh aufn Schlauch. Was genau meinst du? Was meinst du mit 2000? Ich verstehe den Bezug zu meiner Antwort überhaupt nicht. Klär mich bitte auf.
 
Junge... 2000er. Die NV RTX. 2070, 2080, später 2060 vielleicht. Hast du in all den anderen Threads gepennt bisher? ;)
 
Junge... 2000er. Die NV RTX. 2070, 2080, später 2060 vielleicht. Hast du in all den anderen Threads gepennt bisher? ;)

Ja ja, schon gut, kein Grund gleich die Mistgabel rauszuholen. :d

Naja, die Aussage bleibt trotzdem etwas schwammig. Aber OK, jetzt kann ich sie wenigstens ein bisschen verstehen.
 
Ich bin mit der Hardware die wir Zuhause haben noch völlig gut bedient. Far Cry5 geht damit auch noch @768. Perfekt.
 
Zuletzt bearbeitet:
Ich habe mich vertan. Wir spielen, wenn wir überhaupt mal spielen, @1360x768.
Auf dem 43" der eh nur maximal 1920x1080 auflöst. Assassin's Creed Origins, Shadow of Mordor, Rise of the Tomb Raider hat bei dieser Auflösung 1360x768, mit der 970, nur einem 8GB Kit, keine SSD und den etwas schwächeren i5 4590 richtig Spaß gemacht und keinerlei Probleme bereitet. Auf die 2 Meter Abstand zum Fernseher habe ich noch nicht einmal den Unterschied zwischen 1920x1080 und 1360x768 wirklich gesehen.


Meine Freundin hatte eben den i5 4590 8GB Kit und die 970. Ich hatte den i5 4670K, 8GB Kit und eine GTX 760. Habe daraus jetzt einen PC gemacht und dementsprechend haben wir jetzt 16GB RAM. Habe dazu noch eine SSD gekauft. Ich muss sagen, von der so oft beschworenen tollen Leistungssteigerung durch eine SSD, bin ich eher enttäuscht. Für unsere Anwendungen kommt uns diese so tolle Leistungssteigerung eher sinnlos vor. Gut, der PC fährt schneller runter. Ob der schneller hoch fährt, merken wir nicht, weil wir praktisch immer nach dem Starten des PCs nie auch sofort am PC hängen.
Upplay auf der SSD startet jetzt auch nicht schneller als Steam auf der HDD.
 
Zuletzt bearbeitet:
Tolle Geschichte, merkt den Unterschied zwischen SD und Full HD nicht, aua, aua.
Und eine SSD lohnt nicht.
Was sind das denn für Fischkuttergeschichten?
 
Zuletzt bearbeitet von einem Moderator:
Ich habe mich vertan. Wir spielen, wenn wir überhaupt mal spielen, @1360x768.
Auf dem 43" der eh nur maximal 1920x1080 auflöst. Assassin's Creed Origins, Shadow of Mordor, Rise of the Tomb Raider hat bei dieser Auflösung 1360x768, mit der 970, nur einem 8GB Kit, keine SSD und den etwas schwächeren i5 4590 richtig Spaß gemacht und keinerlei Probleme bereitet. Auf die 2 Meter Abstand zum Fernseher habe ich noch nicht einmal den Unterschied zwischen 1920x1080 und 1360x768 wirklich gesehen.


Meine Freundin hatte eben den i5 4590 8GB Kit und die 970. Ich hatte den i5 4670K, 8GB Kit und eine GTX 760. Habe daraus jetzt einen PC gemacht und dementsprechend haben wir jetzt 16GB RAM. Habe dazu noch eine SSD gekauft. Ich muss sagen, von der so oft beschworenen tollen Leistungssteigerung durch eine SSD, bin ich eher enttäuscht. Für unsere Anwendungen kommt uns diese so tolle Leistungssteigerung eher sinnlos vor. Gut, der PC fährt schneller runter. Ob der schneller hoch fährt, merken wir nicht, weil wir praktisch immer nach dem Starten des PCs nie auch sofort am PC hängen.
Upplay auf der SSD startet jetzt auch nicht schneller als Steam auf der HDD.

Evtl wärst du mit einem Game Boy besser bedient..
 
Zur Preisdiskussion:
Eine neue Quelle die in den meisten Fällen als sehr glaubwürdig angesehen wird, Gamers Nexus.

HW News - Tom Himself Responds to Tom’s HW, 25% PC Price Hike - YouTube

Zeitstempel 5min17sec.

Boardpartner reden von 2,8% Margin für einige der RTX Karten.
Es wird nicht genauer darauf eingegangen welche (wohl eher die lowend Karten, Highend hat ja normal mehr), aber unabhängig davon sieht es so aus, als wäre das Zeug echt sehr teuer und der Preis wäre dann wohl nicht aufgrund fehlender Konkurrenz oder Gier.

Und für DE - EU Bürger weniger interessant, aber evtl. auch für den ein oder anderen nett zu wissen: Es wird bis zu 25% Zölle geben, die dann die Karten für US Kunden auf einen ähnlichen, oder sogar höheren Preis heben als wir dank VAT zahlen in der EU.
Amazon versucht das noch zu verhindern, aber die Margen sind zu gering um das zu halten.
 
Zuletzt bearbeitet:
Was soll das erklären?? Ob das Zeug "echt sehr teuer" oder das mit Konkurrenz oder Gier zu tun hat, kann man erst sagen, wenn man weiß mit welcher Marge NV die Chips an die Boardpartner verkauft. Wen interessieren Boardpartner?

Und wieder mal eine schwache Nebelkerze..
 
Zuletzt bearbeitet:
Dass Leute wie DTX @ 768p spielen und dabei hochzufrieden sind ziehe ich persönlich überhaupt nicht in Zweifel. Ich habe selbst so jemanden im Freundeskreis, der heute noch locker flockig das aktuelle Battlefield spielt und auch das kommende Battlefield spielen wird. Witcher 3, PUBG - alles kein Thema. Mit welcher Hardware? Mit nem i5-4590, 8 GB RAM und ner 2 GB GTX 770. Worauf? Auf einem 19" im 5:4-Format und der Auflösung 1280x1024 und nem guten Meter Sitzabstand. Was soll ich sagen? Auflösungsbereinigt ist die Kiste bei 1280x1024 wohl sogar schneller als meine 1080 Ti @ 3440x1440. Achja - er spielt mit diesem Schund mehr als 4 Stunden täglich.

Es gibt definitiv Menschen, denen alles egal ist. Wir wollten ihm schon nen potenten 27er WQHD mit 144 Hz schenken. Das hat er dankend abgelehnt. Dann müsste schließlich so oft aufrüsten. Außerdem mache es für ihn absolut keinen Unterschied. Er war vom Gaming an meinem 35er 21:9 völlig unbeeindruckt.

Man glaubt es kaum, aber ja. Diese Menschen gibt es wirklich.

Jede Wette dass die GTX 770 und der HannsG-19"-TFT bis zum Erscheinen von Cyberpunk 2077 überleben und er es wagt, Cyberpunk darauf zu starten. Nein mehr noch - es ausgiebig zu genießen und die Tolle Grafik und Atmosphäre zu loben.
 
Zuletzt bearbeitet:
Ich dachte auch immer, ich brauch den Super-Duper 100+ Zoll 8K Dolby Atmos TV. Bin ich im Ferienhaus, hocke ich auf weitere Distanz vom 32" HD-Ready TV und genieße die Filme mehr, als auf jeden Pixel zu achten wenn ich daheim im Heimkino oder vor dem großen 4K TV hocke.
N64 kurz zum Test angeschmissen? 8h später merke ich, dass ich vor 6h ins Bett wollte/sollte.
Beim Auto? Klar, die neue Kiste ist geil für ne Runde. Die alte, rostende macht mir aber mehr spaß beim herumkurven.

Ich war auch total unbeeindruckt von den ganzen Widescreen Monitoren. Bei der neuen Büchse bleibe ich weiterhin bei 16:9, weil ich mehr nicht brauche bzw. will. Nettes Gimmick, nicht jedem was Wert.:banana:
Solange die Story/Spielmechanik gut ist, komme ich auch ohne gute Grafik aus. Hunt Showdown spiele ich auf der Kiste in der Sig auf 1080p auf Low Settings auf einem 30" "1440p" Monitor. Ich kennes aber auch von meiner großen Maschine in 1440p alles Max. Interessiert mich trotzdem nicht...
 
Ich hatte die RTX 2080Ti am Montag in den Händen:
gtx1080ti.jpg
 

Anhänge

  • IMG_20180903_164226.jpg
    IMG_20180903_164226.jpg
    140,5 KB · Aufrufe: 80
Zuletzt bearbeitet:
Wie schnell fasste sie sich an? :lol:
 
So schnell, dass ich Sie nicht mitnehmen konnte. :bigok:
 
Mich würde noch interessieren, ob man von der Haptik der Karte Rückschlüsse auf den Verbrauch ziehen konnte? :d
 
Die gibt es, wobei das mit der SSD dennoch bullshit ist. 2012 war für mich eine GT 530 2 GB auch high-end, nachdem ich bis dahin auf einer Officekarte von 2007 gespielt hatte die CoD4 in 1024x768 mit 30 FPS wiedergab. Heute macht das aber keinen Sinn, weil eine 200 €-Karte bereits für 1080p reicht und mittlerweile wäre mir selbst das zu verpixelt. Ich würde es mir nicht antun wollen, wo anständige Hardware nichtmal teuer ist, eine RTX braucht keiner für grundlegendes Gaming, die ist nur für 4K und 144 Hz.
 
Ich würde es mir nicht antun wollen, wo anständige Hardware nichtmal teuer ist

Ich glaube noch nie (in den letzten 14 Jahren) war "anständige Hardware" so teuer wie aktuell :d

Früher konntest du jedes Game mit ner <100€ (C2D) CPU im 60 Hz Limit des Monitors spielen, bei Bedarf auch mit deutlich mehr FPS. Früher gabs für 200€ verdammt flotte GPUs, was gibts heute für 200€? ne RX570 4GB?

Vor 7-10 Jahren hat man für 60-70€ mehr RAM bekommen als man je voll bekommen könnte (4GB in 2008 = ~65€, 16GB in 2011 = 50-70€). Heute kosten 16GB 140€.
 
Zuletzt bearbeitet:
Ja, wenn man will baut man sich einen Radeon PC mit einem 2200G oder 2600. Der 2600 ist sogar uneingeschränkt gut. Für die Leistung hättest du 2015 noch 400 € bezahlt, nur für die CPU, heute bekommst du dafür das Bundle mit RAM.

RAM gebe ich dir recht. Ansonsten, was hast du für eine 970/80 bezahlt? 350-500 €. Davor gab es diese Leistungsklasse nur im Highend, jetzt ist sie Mittelklasse.
 
Die gespreizten Veröffentlichungszeitpunkte erscheinen mir reines Marketing, stattdessen alles in einem gewohnten "Einzeltest-Bericht" zu bringen, wie wir es zb vom Luxx in der Vergangenheit gewohnt waren, splittet Nvidia das Ganze nun auf 3 Einzelne Termine, frag mich echt wozu das gut sein soll, außer, dass NV ihre Kontrolle maximiert.

Naja, was solls, man kann es auch positiv sehen, eben mehr Zeit für das Vorbestellen ohne dann von lästigen Reviews abgehalten zu werden. ;)

Nvidia Geforce RTX 2080 & 2080 Ti: Testberichte sollen gestaffelt erscheinen
 
Zuletzt bearbeitet:
Und jetzt? Überraschung heucheln? ;)

Es kostet erstmal noch Leistung wie Sau. Wenn es in den Optionen abschaltbar oder gestuft werden soll, dann will man die Leute auch nicht von "Wow" mit der Ti, auf "sehe kaum was" auf der 2070 fallen lassen. Für mich ein Ergebnis der Regen Absprachen zwischen Dice und NV. Das Teil verspätet sich ja nicht umsonst...

Es fehlen noch ~60% Leistung, damit Spiegelungen UND Licht&Schatten gleichzeitig über RT bequem laufen. Also, feste 60fps auf FHD :d Erst ab da wird das Leben anfangen. Und, bei NV, noch 75% Leistung (fehlt, insgesamt), damit man das noch kleinwenig mit HDR kombinieren kann.

Und dann rechne das mal jemand hoch, was für Plus an Leistung noch für UHD 60fps notwendig wäre. Und dann UHD 120fps und dann 144fps :d
Aber, jeder Anfang ist schwer. Schon ok so. Schwer, und teuer ;)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh