Technische Daten zur GeForce RTX 3090 und 3080 durchgesickert

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.744
asus-geforce-rtx.jpg
Es ist wohl nur eine Frage der Zeit, bis wir die finalen technischen Daten zu den neuen GeForce-RTX-Karten kennen werden – auch wenn NVIDIA diese auf einem Special-GeForce-Event am 1. September verraten wird. Einmal mehr hat Videocardz die eigenen Quelle angezapft und listet offenbar finale technische Daten zu zumindest zwei Karten auf, die am Dienstag vorgestellt werden sollen.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Diskussion dazu gibts in 3-6 anderen Threads - wär cool wenn man die nutzt
 
wäre cool wenn man einfach den ampere sammler nimmt und alle anderen threads schließt. steht doch eh überall das gleiche :d
 
  • Danke
Reaktionen: Tzk
Ich kann hier keine News im eigentlichen Sinne entdecken.
Für mich heißt dieses Produktupdate von nVidia, dass ich auf das Zwischenmodell (3090_?_3080) warten werde, weil VRAM-technisch eine 3080 von meiner 2080 kaum Fortschritt bedeutet und die 3090 zu teuer sein wird.
 
So sieht es aus, entweder da kommt noch eine 3080 (Ti) mit mehr Shadern und Speicher zu einem vernünftigen Preis oder es wird auf AMD gewartet (gehofft). Mehr als sinken können die Preise bis dahin wohl kaum. Noch ist zwar nicht klar was die 3080 kosten wird, ich schätze aber dass sie locker bei 1 K liegen wird. Für 10 GB wäre das eine echte Verarschung. Es gab selbst 2017 schon mehr Speicher zu geringerem Preis, jetzt ist es 2020 und da ist dann auch egal ob der Speicher schneller ist, das nennt sich eben Fortschritt sonst würden wir nach wie vor mit SDRAM auf Grafikkarten unterwegs sein.

1080 Ti-, 5700 XT und 2070S-Besitzer brauchen gar nicht unruhig zu werden. Die interessanten Karten kommen wohl erst gegen Weihnachten.
 
@Don habt ihr die 7 nm "wie der A100" selber dazugedichtet oder sagt das der leak aus? Es gibt ja diese Kontroverse Diskussion um Samsung 8 (eigentlich 10) nm vs TSMC 7nm. Sollten die 7 nm aus dem Leak so richtig sein, ist dann TSMC confirmed?
 
Videocardz schrieb auf Twitter 7 nm. An eine Fertigung bei Samsung glaube ich persönlich nicht.
 
Videocardz schrieb auf Twitter 7 nm. An eine Fertigung bei Samsung glaube ich persönlich nicht.
Welche Alternativen gäbe es?
7nm TSMC? Also N7, N7P oder N7+...
Bei dem Sprung, den AMD mit Vega20 bei "simplen" Shrink aus 7nm rausgeholt hat, war schon reichlich groß. Und AMD hat mit der Vega20 quasi den kompletten Effizienzgewinn rein in höheren Takt geblasen. Das sehe ich hier aber noch nicht. Oder doch? Wenn dem so wäre, würde es die 43xx und 52xx ALUs erklären, die eben gleich bzw. gerade mal ~20% zum Vorgänger drauf legen. Auf der anderen Seite würde das dann aber auch bedeuten, dass ~20% ALUs und Takt eben auch entsprechend in die Region 40%+ gehen müssten... Eher mehr, denn die TDP steigt (anders als bei AMD, wo diese eben gesunken ist)
-> und das mit dem Speicher bzw. dem Verbrauch für den Speicher ist dabei auch nicht schlüssig. Nach den Aufstellungen bei Turing kommt man dort auf ca. 16-22W für den GDDR6 der 2080/2080TI. Das soll jetzt 3x und mehr so viel sein. Für polige 50% mehr Bandbreite beim TopDog? Da stimmt doch was nicht... Man erkauft sich doch solche Bandbreite nur dann über so ein teures Mittel wie eine massive TDP Erhöhung, wenn das irgendwo sinnig und notwendig ist. Für 30% mehr Leistung auf ne 2080TI hätte man auch GDDR6 mit bisschen mehr Takt nehmen können. Egal - wäre es halt mehr Bandbreitenlimitiert -> aber wäre klar effizienter.

Was ICH mir allerdings noch vorstellen kann - die GA102 womöglich bei TSMC und die kleinen bei Samsung?
Das Gerücht, dass man keine Kapazitäten bei TSMC hat bekommen ist ja schon ne ganze Weile alt. Aber weder GA100 noch so ne eher teure GA102 GPU hätten wirklich riesige Stückzahlen, als dass sowas nicht gehen dürfte. Bei GA104 oder 106 schaut das schon eher anders aus...
 
Würde Sinn ergeben mit den 7nm und 8nm bei kleineren GPUs.
Bei den Low-Mid Range Dingern ist es nicht ganz so wichtig das Maximum herauszuholen und der Umsatz ist viel größer. Für die Top-Line Produkte mit kleinem Umsatz ist da schon ne ganz andere Relevanz dahinter. Wenn die Kapazitäten wirklich nicht ausreichen, ist das ein super Weg.

Was mir mit diesem Topic aber erneut auffällt:
Jedes Fitzelchen an Informationen scheint genug für einen Artikel zu sein, weil die Leute (nehme mich nicht aus), drauf hechten, wie die Irren.
Wieso ist Ampere mit so viel Hype versehen,... all die Leaks? Gehe nur ich da von gezielter Werbung von NVidia aus, um genau diese Situation zu provozieren?
Um AMD ist es immer verdammt still, bis kurz vorher. Da hat man halt die Fanboys mit ihren feuchten Träumen, aber kaum bis keine "Leaks", die irgendeine halbwegs sinnvolle Spekulation und Diskussion anregen würden.

Fällt mir schon länger auf, aber jetzt mit dem 21 Tage Ampere Countdown, ist das derbe ins Extrem gerutscht.
(Wie gesagt, ich nehme mich da nicht aus.)

Ich meine WTF. AMD hat ne neue GPU launched und es gibt nicht mal nen Artikel dazu (den ich finden würde).
RX 5300 und so,...

Wenn das TSMC 7nm ist, dann ist die Leistungsaufnahme mehr als peinlich

Oder die Leistung in FPS wird extrem beeindruckend.
Oder die Leistungsaufnahme wird nicht halb so hoch wie spekuliert.
Wissen wir es? Nein. :-)

Wenn die Leistungsaufnahme als MAX gesehen wird, weil RT auf einmal ne zweite GPU onboard ist, dann wäre die normale Leistungsaufnahme sau gering,... und RT kostet keine Performance, weil es nen extra Chip ist, der halt extra Strom braucht.
Wunschdenken? Kann sein! Unmöglich? Sicher nicht! :-)
 
Oder die Leistung in FPS wird extrem beeindruckend.
Oder die Leistungsaufnahme wird nicht halb so hoch wie spekuliert.
Wissen wir es? Nein. :-)
Oder NV weiss was AMD bringt und müssen an die Kotzgrenze so wie AMD es bis jetzt immer mussten.
 
Jedes Fitzelchen an Informationen scheint genug für einen Artikel zu sein, weil die Leute (nehme mich nicht aus), drauf hechten, wie die Irren.
Wieso ist Ampere mit so viel Hype versehen,... all die Leaks? Gehe nur ich da von gezielter Werbung von NVidia aus, um genau diese Situation zu provozieren?
Lass dich halt nicht hypen ;) Ist doch kein Akt... Meldung ansehen, für sich bewerten und gut ist... Da ist viel kalter Kaffee bei und vor allem, es gibt bis jetzt keine Infos. Weder in die eine, noch die andere Richtung. Alles kann - nix muss. Die Leute wollen halt scheinbar nicht verstehen, dass sich NV hier das Recht raus nimmt zu entscheiden wann die Infos kommen. Der Nachteil daraus ist, dass es mit der Präsentation eben dann erst die ersten handfesten Infos gibt, aber es definitiv an diesem Tag noch keine Karte im Regal gibt. Oder von Partnern oder ähnliches.
Die werden da was präsentieren und ein Datum dran schreiben - dann ist die Katze aus dem Sack -> bis dahin gibts weder Treiber noch haben die Partner was wirklich der Endleistung nach funktioinerendes. Gleiches gilt für die Preise.
Theoretisch ist das ganze Gesabbel in alle Richtungen total sinnbefreit - weil es gibt einfach nix außer Annahmen ;)
Was MICH bspw. viel eher dran stört sind die irgendwie ausufernden Selbstbeweihräucherungen. Mir fällt da auf, dass man sich in 2020 bei Sachen, die sich als Wahr herrausstellen gern mal selbst beweihräuchert, wie toll es doch war, das man das schon vor Wochen und Monaten hat gesagt. :kotz:

Wenn das TSMC 7nm ist, dann ist die Leistungsaufnahme mehr als peinlich
Bis jetzt wird spekuliert, dass der Großteil der Mehrleistungsaufnahme vom Speicher kommt... Sprich da kann TSMC nix für bzw. NV mit der GPU eigentlich auch nur bedingt. Nur stellt sich eben die Frage, warum nimmt man so nen sauf-Speicher? Das müsste dann schon ziemlich abgehen, damit sowas überhaupt lohnt...

Nimmt man mal Igors Rechnung von früher zu Turing und rechnet gegen die 60W beim Speicher, dann kommt da nicht soooo viel mehr für die GPU raus, selbst bei 320-350W Total Board Power. Ein Teil kommt vom der absolut stiegenden Ineffizienz und der Rest vom Speicher. Für die GPU bleiben da vllt noch 200-220W über. Lass es paar Watt mehr oder weniger sein, geschenkt. Ne TU102 auf der 2080TI lag da bei ~190W. Wenn sie da also 50% mehr Effizienz raus holen aus der GPU -> und dafür 50% mehr Bandbreite brauchen beim Speicher, der dann aber 40W mehr säuft, ja dann kommen halt auch 320-350W total bei rum ;) Nur wird AMD, wenn sie da nicht irgendwie nen Zaubertrick gefunden haben, das gleiche Problem auch haben... HBM behebt das auch nicht, weil auch dort obenraus der absolute Verbrauch stark steigt... Und mehr GPU Leistung = mehr Bandbreite notwendig ;)
 
Interessant in was für Preisregionen wir stoßen.
Inzwischen bekommst du ja ganze Arbeitsplätze für eine GraKa.
 
Der genannte angebliche Verbrauch der 3080 gepaart mit den angeblichen technischen Daten leuchtet mir nicht so richtig ein. Im Vergleich mit der Titan RTX hat sie weniger Shader, massiv weniger RAM, einen niedrigeren Takt, eine stark verbesserte Fertigung und soll trotzdem mehr verbrauchen.

Möglichkeit 1: Die Daten sind nicht 100% korrekt.
Möglichkeit 2: Nvidia hat Mist gebaut.
Möglichkeit 3: Auf der Karte sind dermaßen viele RT-Kerne verbaut, daß uns die Präsentation am 1.9. vorkommen wird wie das hier:

 
Oder NV weiss was AMD bringt und müssen an die Kotzgrenze so wie AMD es bis jetzt immer mussten.
Natürlich weiß nv was amd bringt und man wird soviel entgegen setzen wie nötig nicht mehr und nicht weniger, da sollten wir realistisch bleiben.
 
7nm von TSMC bei 300W+ TBP... sofern es kein Rückschritt zu Turing ist muss da was richtig Starkes auf uns zukommen.
 
Eben, ist die Grafikkarte zu stark, bist du zu schwach :d
 
Natürlich weiß nv was amd bringt und man wird soviel entgegen setzen wie nötig nicht mehr und nicht weniger, da sollten wir realistisch bleiben.
Machst du nun als Schlau oder bist Du es sogar, und stellst nur oft dich dumm dar? :haha:

Lustige Strategisches Denken. Respekt! :bigok:

PS Bitte nicht als Angriff ansehen, ist mir nur gerade zu eingefallen :d
 
Rück mich bitte nicht immer so in den Vordergrund 😇
 
Wir sollten etwas mehr über den Herrn Holzmann reden meiner Meinung nach.
Er hat interessante Gedanken zu der AMD / Nvidia / Intel Thematik!
 
erstmal muß sich meine asus strix 2070 super oc bezahlt machen, reicht mir erstmal völlig

aber frage: rtx ist ja eh nur spielerei die man derzeit nicht wirklich braucht bzw. nur die fps in keller gehen, aber welche nvidia non-rtx karten wäre aktuell mit ner rtx 2070 super oc vergleichbar bzw. eine stufe darunter wäre auch interessant, danke!
 
aber frage: rtx ist ja eh nur spielerei die man derzeit nicht wirklich braucht bzw. nur die fps in keller gehen, aber welche nvidia non-rtx karten wäre aktuell mit ner rtx 2070 super oc vergleichbar bzw. eine stufe darunter wäre auch interessant, danke!

Da gibt es keine GPU.
Raytracing ist jetzt da und bleibt da. Sogar AMD hat angekündigt alles mit RT zu machen nun. Die Ampere Generation bekommt RT für jedes Model laut Lederjacke.
Die schnellste "nicht RT" GPU wird aktuell dann wohl uhm... die 5700XT sein? Ist die schneller als ne 1080ti? Eine der zwei.

Edit: Ne, die 1080ti ist schneller wohl. Greift der Wundertreiber wohl noch nicht. Frag in 3-4 Jahren noch mal, dann ist die 5700xt sicher vorne.
 
Zuletzt bearbeitet:
Die 5700 XT ist nahe dran, in manchen (neueren Titeln) auch schneller. In DX11 ist die 1080 Ti nach wie vor das Optimum. Allerdings hat die 5700 XT auch ganze 1024 Shader weniger. Im Schnitt sind es 10 % weniger Leistung, laut Firestrike sind es 1000 Punkte die fehlen bei einer 1080 Ti FTW3 vs. 5700 XT Nitro+ SE (beides dicke Karten mit massig Werks-OC).
 
Der einzige grund warum amd bei RT mitzieht ist um intel anzukacken und im im marketing etwas vorweisen zu können.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh