Beidseitiges Kühlkonzept: Foto soll GeForce RTX 3080 zeigen

kaufen wird sie dennoch niemand weil sie sehr bald abgelöst wird.

Was so eben nicht stimmt. Weil von nicht kaufen kann nicht die Rede sein. Nur weil hier im Forum einige Wannabe Enthusiasten ihr Unwesen treiben, heißt das nicht, dass AMD keine Karten verkauft. Aber ja, wer unbedingt die Flaggschiffe mit den meisten max FPS braucht, kauft sich eben teuer bei NV ein.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bei der Version mit kurzem PCB würde ich auf jeden Fall von HBM ausgehen.
Das Bild zeigt aber keine Consumer Karte mMn.
 
:ROFLMAO:
9 Jahre dabei und noch nichts gelernt.

AMD ist mit Navi auf 2016er Niveau angekommen (bzw. knapp darüber), kleiner Insidertipp: wir haben 2020 und Nvidia wird vermutlich dieses Jahr auch technisch das Jahr 2020 einläuten.
Du hast schon mitbekommen, dass Big Navi doppelt so viele Shadereinheiten wie die 5700XT hat, ja? Ich könnte genausogut die iGP der Ryzen APUs mit Nvidias Flagschiffen vergleichen, wenns nur um die Jahreszahl geht - macht aber auch keinen Sinn. Vergleich mal lieber Die-Größe mit Fertigungsprozess gegen die Leistung und dann wird eher ein Schuh draus. Aber bevor wir uns hier in Zankereien verdrahten: Warte einfach die Benchmarks ab. ;)
 
Du hast schon mitbekommen, dass Big Navi doppelt so viele Shadereinheiten wie die 5700XT hat, ja?
Die Nvidia Karte wird deutlich effizienter als Navi werden, beide haben ein gewisses TDP Limit das sie begrenzt. Wo wird BN liegen? Bei 250-300W? Das wird Nvidia mit einer 250W GPU zu schlagen wissen. Allerdings spekuliert man bei Nvidia über eine 350W Version...

Um bei diesen bisher bekannten/spekulierten Informationen davon auszugehen dass es für Nvidia knapp werden könnte, dafür reicht schon keine rosarote Brille mehr, dafür muss gleich die Bettwäsche das AMD Logo tragen.
 
Da muss ich leider zustimmen. Ich denke AMD wird mit RDNA2 aufschließen können. Aber es ist eher unwahrscheinlich, dass sie die "Krone" übernehmen.
Ich tippe auf ca. 10-15% Rückstand auf die Leistungskrone bei mindestens gleichem Verbrauch.
 
Ich tippe auf ca. 10-15% Rückstand auf die Leistungskrone bei mindestens gleichem Verbrauch.
Ich glaube nicht dass Nvidia "lediglich" 18 % effizienter sein wird, ich tippe da auf >30 %.

Was das absolut betrachtet bei einer 350 W GPU bedeuten würde, kann man sich ausmalen.
(es bedeutet dass wir bis (mindestens) 2025 warten müssen ehe AMD die gleiche absolute Grafikleistung bringt).
 
Denke schon, dass AMD im relevanten einstigs Highend Bereich, also bis zur 3080 Paroli bieten können wird, nicht aber im oberen Highend Bereich, bis zur CEO Titan Edition, oder was auch immer da noch so für Freaks angeboten wird. Mit doppelter 5700xt Leistung wird man mehr als solide im oberen Bereich mit schwimmen können bei postolierten Preisen um 800 EUR.
Das Ergebnis wäre die erste echte 4k Karte für deutlich unter 1K!
 
Die letzten Tiger Lake S Scores bspw in der 3DMark11 Datenbank stammen offenbar von Samsung, weil der Vendor des (unveröffentlichten) Gerätes Samsung ist - oder es ist Jemand, der Zugriff auf Samsung Engineering Books hat.
Offline ist da laaaange nicht die Regel.

Die bekommst du aber, wenn du die ID kennst/weißt. Und die ID kennt/weiß man, wenn man einfach jede ID probiert -> es ist ne fortlaufende Nummer. ;)

Hätte ich nicht gedacht das gerade die "großen" die es eigentlich wissen müssen so unvorsichtig sind oder man macht es extra um Gerüchte zu pushen.
 
Die Nvidia Karte wird deutlich effizienter als Navi werden, beide haben ein gewisses TDP Limit das sie begrenzt. Wo wird BN liegen? Bei 250-300W? Das wird Nvidia mit einer 250W GPU zu schlagen wissen. Allerdings spekuliert man bei Nvidia über eine 350W Version...

Um bei diesen bisher bekannten/spekulierten Informationen davon auszugehen dass es für Nvidia knapp werden könnte, dafür reicht schon keine rosarote Brille mehr, dafür muss gleich die Bettwäsche das AMD Logo tragen.
Ich sehe bei Nvidia kaum Verbesserungspotential bei der Rasterperformance, bei Navi hingegen schon. Wo da auf einmal der Effizienzsprung bei Nvidia herkommen soll, ist selbst bei der bestmöglichen Interpretation der Leaks nicht ersichtlich. Nvidia hat einen neuen Prozess, womit mehr Transistoren pro Fläche draufgebügelt werden und entsprechend skaliert auch die Performance. AMD scheint nun endlich auch dieses Problem entkernt zu haben und kann es also auch. Bleibt die Frage nach der Chipgröße, dem Takt und dem Treiber. Nvidia hat auch dieses mal einen größeren Chip, allerdings in Standard 7nm - weil bei ~520mm^2 Schluss ist mit der Belichtungsgröße beim erweiterten 7nm Prozess. Ich bleib dabei: Ich warte die Benchmarks ab und erwarte ein Kopf-an-Kopf Rennen bei der Rasterperformance.

Raytracing ist sowieso noch ein Lüftchen im Wind, da die Studios das Zeug erstmal optimieren müssen.
 
Nö - siehe oben. Dieses selektive Kirschenpicken bringt nix.
 
AMD hat doch +50% Perf/Watt für RDNA2 angesagt... RDNA ist ähnlich effizient wie Turing, oder nicht? Sprich wenn AMD die Shader verdoppelt, dann muss Nvidia mehr als 30% Zuwachs machen. Oder sehe ich das falsch?

Mal so hypothetisch:
Eine normale 5700XT hat 225W und liegt laut CB Liste bei 2/3 der Leistung einer 2080Ti FE. Wir gehen von doppelten Shadern und keinen Skalierungsproblemen bei BigNavi aus, dann liegt man bei 133% einer 2080ti (2/3*2 = 133%). Durch die Effizienzverbesserung würde die Karte dabei nicht 450W (2x 225) sondern "nur" 300W (450 / 1,5) ziehen.

Und jetzt kommt Nvidia mit einer 30% Steigerung zur 2080Ti und 350W Boardpower... Klingt erstmal nicht sooo weit auseinander, wobei erstens AMDs 50% natürlich mit Vorsicht zu genießen sind und zweitens die Skalierung bei AMD noch ein Fragezeichen hat.
 
Zuletzt bearbeitet:
AMD hat doch +50% Perf/Watt für RDNA2 angesagt...
AMD will dieses Jahr eine GPU mit 50% höherer Effizienz als Navi bringen? Oder von welchem Jahr reden wir hier?

Das würde mich sehr stark wundern, ich gehe aktuell davon aus dass BN die gleiche Effizienz hat wie Navi.

Edit:
ja, RDNA2 soll 50% mehr bringen. Aber wenn man sich an die Folien zu Polaris erinnert (up to 2,8x more efficiency) weiß man wie viel man auf sowas geben kann.
 
xdmjx6yssxk41.png
 
Das wäre phänomenal und damit müsste ich meine letzten Aussagen revidieren. Aber ich glaube da nicht so recht dran...
 
AMD hat doch +50% Perf/Watt für RDNA2 angesagt... RDNA ist ähnlich effizient wie Turing, oder nicht? Sprich wenn AMD die Shader verdoppelt, dann muss Nvidia mehr als 30% Zuwachs machen. Oder sehe ich das falsch?
Fast. Navi10 ist noch ne Art Hybrid aus GCN und RDNA2 - so ne Art Zwischenstufe, damit die Abwärtskompatibilität gewährleistet bleibt. RDNA2 hat den GCN Teil praktisch entkernt und ist als richtiger Neustart zu verstehen - da es jetzt 2 Command Processor-Elemente gibt, (was nur ein Teil der Bohrung ist, aber ist ja auch nur exemplarisch) was mit GCN nicht möglich war. Generell bist du aber auf der richtigen Spur.

Mal so hypothetisch:
Eine normale 5700XT hat 225W und liegt laut CB Liste bei 2/3 der Leistung einer 2080Ti FE. Wir gehen von doppelten Shadern und keinen Skalierungsproblemen bei BigNavi aus, dann liegt man bei 133% einer 2080ti (2/3*2 = 133%). Durch die Effizienzverbesserung würde die Karte dabei nicht 450W (2x 225) sondern "nur" 300W (450 / 1,5) ziehen.
Ganz grob ausgedrückt - ja. Wir wissen leider nicht, wie viel der Effizienzsteigerung von der aufgebohrten Architektur kommt (die IPC), wie viel vom Prozess und wie viel von Designänderungen auf Transistor-Level. Die 50% sind wohl eine Kombination von all diesen Elementen zusammengepackt.

Und jetzt kommt Nvidia mit einer 30% Steigerung zur 2080Ti und 350W Boardpower... Klingt erstmal nicht sooo weit auseinander, wobei erstens AMDs 50% natürlich mit Vorsicht zu genießen sind und zweitens die Skalierung bei AMD noch ein Fragezeichen hat.
Exakt. Die 30% bei Nvidia kommen aber größtenteils von den zusätzlichen Shadern. Die Shader selbst sind nahezu deckungsgleich zu dem was wir jetzt haben - halt nur mehr davon. Da Turing an sich aber gut skaliert, braucht Nvidia da nicht wirklich rumzubohren. Hier etwas mehr Cache, da etwas geringere Signalwegen und fertig ist der Fisch. Worauf sich Nvidia mehr konzentriert hat, ist Raytracing - verständlicherweise. Denn das ist deren Marketingbulle. Und was an Rasterperformance zu AMD fehlt (rein hypothetisch) würde durch DLSS 2.0 weggetrickst werden. Auch wenns nicht wirklich sauber ist,, 720p upskaling zu machen - wenns gut genug ist, dass die Leute es kaufen, hat es seinen Zweck erfüllt.

edit: Problematisch wird es nur, wenn mal ne Engine rauskommt, welche die Rasterperformance auch mit physikalischen Folgen besetzt - dann nützt dir das Upskaling nix mehr, weil du dann eventuelle Licht/Partikeleffekte nicht mehr trainieren kannst. Du kannst zwar noch die Szene darstellen, aber nicht mehr die daraus resultierenden Effekte, die darauf beruhen. Dann hast du auf einmal eine beeindrucknd aussehende gelernte Geometrie, aber die Lichteffekte reflektieren sich an unsichtbaren Kanten oder ähnliche Scherze.
 
Zuletzt bearbeitet:
@Shevchen
Vielen Dank, deine Analysen!
Das hört sich sehr zuversichtlich an, ich glaube es. :)

Make Navi Great Again! :bigok:
 
nvidia richtete sich an Spiele Veröffentlichungen, dann kanns schon mal passieren das man in 2 Wochen 3-4 Treiber raushaut.
Vor allem wenns in die Winterzeit geht gibt es übertrieben viele "Game Ready" Treiber

Die letzte Treiber Bug Phase war kurz nach der Veröffentlichung von Turing, da gab es Memory Leaks( die auch zum PC Absturz führten aber meistens wars "nur" nen app crash ) und Grafik Fehler in paar DX12 games aber nach 2 Wochen war wieder fast alles gefixt mit nem Beta und anschließendem Offiziellen Treiber.
Ein Turing seitiger bug ist sogar noch offen in FM7
siehe:
nvbug3.jpg
nvbug4.jpg
 
Zuletzt bearbeitet:
Nene das waren schon Bugfixes etc., noch nicht so lange her, müsste 2018/2019 gewesen sein.
Hatte ja nach meiner letzten AMD Karte ne 970, 980ti, 1080ti und jetzt ne 2070 super als Übergang.
 
Und jetzt kommt Nvidia mit einer 30% Steigerung zur 2080Ti und 350W Boardpower... Klingt erstmal nicht sooo weit auseinander, wobei erstens AMDs 50% natürlich mit Vorsicht zu genießen sind und zweitens die Skalierung bei AMD noch ein Fragezeichen hat.
Das ist halt das Problem - wieso sollten sie mit 30% kommen?
Nach den bisher spekulierten ALU Ausbauten sind 4352 zu 5376 = 23,5% mehr ALUs. Das heißt, sie müssten noch ne Hand voll Prozent Takt (~5%) drauf packen um bei 30% zu landen.
Ernst gemeinte Frage - wozu sollten sie dafür nen neuen Prozess brauchen? Die Anzahl der ALUs sklaiert mehr oder weniger relativ unbeeindruckt. Das Backend bei NV ist nicht wirklich starr, das ist recht einfach skalierbar. Mit der GV100 zeigte man schon, dass sowas geht - und das man sowas auch bauen kann in der Größenordnung. Schmeiß den ganzen FP64 Kram raus, die RT/Tensor Dinger dran und das funktioniert... Klar wirds dann theoretisch noch größer, aber mir erschließt sich nicht, woher da auf einmal ausgehend von ~270W (2080TI FE) die 350W kommen sollen! Die TitanV kommt mti 5120 ALUs udn ~1,7GHz auf ~250-260W.

Um es nochmals weiter zu verdeutlichen - AMD hat mit der Radeon VII gezeigt, dass quasi ohne Architektur Änderung ein Change des Prozesses bei fast reinem Shrink UND! 1:1 verblasen in Takt, also Mehrleistung ~40% höhere Effizienz gebracht hat. Ich gehe davon aus, wenn NV nicht an die Vollen geht/gehen muss, dann bekommen wir mindestens ebenso diese 40%, allein durch den Prozess - wenn man nicht in Takt investiert bzw. rein in Takt, dann vllt sogar Richtung 50% und mehr. (allerdings seehr schwer vorherzusagen)

Ein Glied in der Kette passt da nicht rein - entweder die 350W, die läppischen 30% oder der Prozess (also die spekulierten 7nm wie es mal waren). ~30% in 12nm halte ich für machbar in Größenordnung 350W ganze Karte - aber dagegen spricht ganz klar die DIE Size.


Man kann übrigens recht schöne Rechnungen auf Spekulatius Basis anstellen:
- 5700XT = 100% = ~210W
- 2080TI = 153% = ~271W
- TitanRTX = 163% = ~280W
- BigN = 200% (2x der Navi10) = ??
Bei AMDs angesagter 50% Perf/Watt und exakt Faktor 2 auf Basis von Navi10 Leistung und Verbrauch kommt man da auf 280W.
Das halte ich sogar durchaus im Rahmen des realistischen. Ob es jetzt paar Prozent mehr Leistung und paar Prozent mehr Verbrauch oder umgekehrt werden - geschenkt.

Nimmt man ähnliche Größen bei NV -> einfach nur mal die ~40% die der Prozessschritt oben drauf bringen sollte, weil das bei AMD schon funktioniert hat, kommt:
- GA102-5376 = 189% = ~240W ohne ein einziges MHz mehr.
Fiktiv weiter gerechnet - ohne näher auf die Spannung einzugehen -> Takt drauf um 1:1 mit Takt auf ~280W zu kommen, wären das 220% Leistung. NV wäre also ~10% schneller als AMD mit dem fiktiven BigN.
Noch weiter gerechnet, auf dei 350W, die spekuliert werden, komme ich auf knapp 275% Leistung - was grob 35% mehr als BigN wären... Das geht aber schon in Größenordnungen, wo definitiv mit 1:1er Skalierung nicht mehr zu rechnen sein sollte.

Solche Phasen hatte auch Nvidia, da gabs wöchentlich wenn nicht häufiger ein Treiber...

Es gab in der Tat schon schlechte Phase, ich habe allerdings seit Fermi durchgehend mindestens ein System mit NV GPUs aktiv - was es bei NV in den letzten 10 Jahren definitiv aber nicht gab ist das, was man aktuell, wenn man schlicht Pech hat, mit Navi GPUs durch macht. Zumindest im letzten halben Jahr ungefähr.

ja, RDNA2 soll 50% mehr bringen. Aber wenn man sich an die Folien zu Polaris erinnert (up to 2,8x more efficiency) weiß man wie viel man auf sowas geben kann.
Geben wird man da ne Menge viel drauf können - sie werden sich an der Aussage messen müssen. Ich halte es absolut für unwahrscheinlich, dass sie da Mist erzählen würden... Was da wie und wo mit Polaris gelaufen ist, ist ne andere Geschichte. Müsste man sich im Detail ansehen um es zu werten. Vor Polaris Release hatte man zumindest große Töne gespuckt und die Fans in den Foren sahen den Untergang von NV, weil Mr. Lederjacke nichts, aber auch gar nichts erwähnte. Und dann kam erst GP100, gefolgt von GP104 und unmittelbar danach GP102 und der Ofen war ziemlich schnell ziemlich aus...

Exakt. Die 30% bei Nvidia kommen aber größtenteils von den zusätzlichen Shadern. Die Shader selbst sind nahezu deckungsgleich zu dem was wir jetzt haben - halt nur mehr davon. Da Turing an sich aber gut skaliert, braucht Nvidia da nicht wirklich rumzubohren. Hier etwas mehr Cache, da etwas geringere Signalwegen und fertig ist der Fisch. Worauf sich Nvidia mehr konzentriert hat, ist Raytracing - verständlicherweise. Denn das ist deren Marketingbulle. Und was an Rasterperformance zu AMD fehlt (rein hypothetisch) würde durch DLSS 2.0 weggetrickst werden. Auch wenns nicht wirklich sauber ist,, 720p upskaling zu machen - wenns gut genug ist, dass die Leute es kaufen, hat es seinen Zweck erfüllt.

Was du immer alles so wissen willst!? Ampere ist nicht released bis jetzt. Niemand weiß wie das funktioniert. Was wir wissen - NV ist in der Lage ein 8k ALU fettes Monster Ding als GA100 zu bauen. Mehr wissen wir nicht...
Es soll wohl ne knapp 7k ALU breite PCIe Version mit 250W mit GA100 kommen -> an derartigen Modellen kann man meist gut die Effizienz beziffern, also in welche Region das geht bzw. wohin man sich in etwa orientiert. +-5-10% ist da dann nicht das Problem. Leider wissen wir, ohne dass das Jemand mal testet, nicht wie viel Takt so ein GA100 mit 7k ALUs in ner PCIe Karte Dauerhaft schafft. TU102 zeigt, dass NV mit Turing bei weniger ALUs und mehr Takt zu GA100 nicht minder effizient unterwegs sein kann im gleichen Node. Zumindest in solchen Größenordnungen.

Kleine Rechnung - 2GHz bei 5376 ALUs macht ~21,5 TFlop/sec. TU102 in der 2080TI kommt auf ~1,8GHz. Macht real ohne weitere Skalierungseffekte knapp 40% mehr Leistung.
Ne TitanV taktet ~1,7GHz im 12nm Alt Prozess trotz Last auf 5120 ALUs - bei ~250-260W realer Leistungsaufnahme.
Auch hier die Frage - 350W für paar wenige MHz? Trotz neuem Prozess? Why?
 
Um mit aller Gewalt die Krone zu behalten.
Du hasts nicht verstehen... 5120ALUs auf Volta laufen mit 1,7GHz und ~250-260W im alten 12nm Prozess auf der TitanV. Das sind Peanuts, da 10% Takt und nichtmal 5% mehr ALUs rauszuholen. Dafür braucht man dann vllt in 12nm 350W - aber keine 7nm oder was auch immer da kommen soll... Der/ein Effiziensprung durch den Prozess würde komplett verpuffen, egal wie man es dreht, wenn 350W, ~30% mehr Performance und ein neuer Prozess vom Level 7nm TSMC irgendwo unter einen Hut sollen.
 
vielleicht hat nvidia gemerkt das viele Enthusiasten eh immer ein Mod BIOS von nem Partner Flashen für mehr Powerlimit.
Die theoretischen 350w haben daher Erstmal nichts zu bedeuten, am ende hat sie 250w aber bis 350w einstellbar.
Oder die angaben/Gerüchte der TDP stimmen nicht.
 
Das kann natürlich sein - aber es machts halt nicht besser - denn es bleiben dann die ~30% über, was für 2 Jahre Entwicklung relativ poplig ist.
Gemessen am 8k GA100 Monster mit 50Mrd+ Transistoren ist das auch nicht gerade viel.

Bleibt natürlich immer die Option, dass NV komplett aufs falsche Pferd gesetzt haben könnte und voll auf den RT Zug aufgesprungen sein kann... Aber das möchte ich aktuell noch nicht glauben, bevor ich das mit eigenen Augen sehe :d So viel Weitsicht traue ich Kollege Lederjacke durchaus noch zu.
Wir sind hier ja auch nicht irgendwo technisch limitiert, wie der GA100 eindeutig belegt. Wenn es so sein sollte, dass man da so extrem gering gestapelt hat und dann am Ende, worst case like vllt gar noch den Takt prügeln muss, damit man auf Leistung kommt (und die Effizienz damit verspielt), ist es halt so. Aber da muss mMn ne Menge schief laufen...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh