Gerüchte um Big Navi mit 24 GB HBM2e

Ich könnte meine 1080 Ti FTW3 auf 368 W aufdrehen, aber das wäre kein fairer Vergleich. Bei identischer Leistung ist die 5700 XT definitiv effizienter, was bei der Chipgröße und verringertem Speicherinterface auch nicht verwundern sollte. Kurzfristig ist eine 1080 Ti die bessere Wahl, langfristig aber nicht. In DX12 ist die XT oft jetzt schon vorne, nur in DX11 und OpenGL (Minecraft mit Shadern) ist der Unterschied spürbar.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
naja ich denke das ist wohl klar, das wenn man jetzt neut kauft man zur 5700XT oder meintewegen eine 2070(s) greifen würde und nicht zu einer 1080ti :d - darum hab ich ja auch eine 5700XT gekauft und bereue es in keinster Weise....
 
@ilovebytes
Ganz ehrlich, wenn du das Gefühl von was besonderem haben willst, hättest du zu Radeon7 greifen sollen. ;)
 
Ich mag meine R7 auch ;)
 
@Bullseye13
wogegen auch nichts einzuwenden ist

@ilovebytes
Ganz ehrlich, wenn du das Gefühl von was besonderem haben willst, hättest du zu Radeon7 greifen sollen. ;)
diese Art mir Dinge in den Mund zu legen, die ich weder direkt geschrieben noch zwischen den Zeilen habe durchblicken lassen, ist freundlich ausgedrückt ziemlich unhöflich.
ich habe niemals im Thread behauptet oder angedeutet das ich etwas besonderes haben möchte oder wollte und deshalb mit Navi unzufrieden bin.

ich bin einzig und alleine auf deine Aussage eingegangen:
Dafür das Navi10 eine Mittelklasse Karte ist, finde ich die Leistung beachtlich, leider wird dieser Umstand zu oft ausgeblendet.
worauf ich mit belegbaren Beispielen aus meiner eigenen Erfahrung eben mit meiner Navi Karte im Vergleich zu meiner Pascal Karte ausgeführt habe, warum ich das anders sehe - nicht mehr und nicht weniger.

ich will Navi auch in keinster Weise schlecht machen, den dann hätte ich meine Sapphire sicher nicht behalten und auch hier im entsprechenden Thread nicht geschrieben wie gelungen Sapphire die Kühlung und Abstimmung der Karte selbst @stock mal wieder gelungen ist , aber ich muß auch nichts übertrieben Positiv darstellen... :)

um abschliessend wieder zum Thema zurückzukommen - ich hoffe das RDNA2 wenn es erst so spät im Jahr kommt zumindest 2080ti +10-20% an Leistung schafft, damit sollte man in Verbindung mit Freesync ordentlich in 4K@60 Fps spielen können. Wenn dann der Preis so bei 1000 maximal liegt würde ich defintiv eher zu Big N als zu einer Ampere TI greifen die vielleicht 40-50% schneller ist aber dann wohl auch min 1500 Flocken kostet - zudem hoffe ich das man bei AMD im High End zumindest doch 16GB Vram bekommt, bie Nvidia gibts da ja schon wieder Rumors das es selbst dei der Ampere Ti bei 12 GB bleiben könnte...
 
Zuletzt bearbeitet:
zudem hoffe ich das man bei AMD im High End zumindest doch 16GB Vram bekommt, bie Nvidia gibts da ja schon wieder Rumors das es selbst dei der Ampere Ti bei 12 GB bleiben könnte...
AMD unterliegt den gleichen Restriktionen wie NV auch. Wenn da nicht ein Navi mit HBM kommt, ist die Wahrscheinlichkeit ultra hoch, dass bei 384Bit Schluss ist und damit 12 oder 24GB drauf sein werden. Gerade mit/nach der angekündigten Trennung für HPC und Gaming, oder wie auch immer das genau jetzt abgespalten ist, macht ein 512Bit SI direkt gar keinen Sinn mehr für Gaming. Und 256Bit wird zu klein. Unrunde Größen wären technisch möglich, aber auch unwahrscheinlich...
 
Die Radeon VII war preislich sehr gut, ich glaube nicht dass AMD auf NVIDIAs Preisniveau aufzieht. Die brauchen Marktanteile. Die neueren Leaks mit ~5000 Shadern klingen zudem eher realistisch, es kann zwar sein dass eine noch fettere HPC-Karte kommt (eventuell sogar recht zeitnah), so ein Teil wäre für den Gamingmarkt aber viel zu teuer - Dazu vergleiche man mal die Beiträge im Titan-V-Thread mit den üblichen Highendkarten hier im Forum.

Eine RDNA2 mit 5120 Shadern (Doppelte 5700 XT) und vielleicht 10-20 % mehr IPC läge locker vor der 2080 Ti. NVIDIA würde diese dann wiederum um ein paar Prozent überbieten, die Frage ist nur zu welchem Preis. 20 % mehr Leistung für 60 % mehr Geld, in dem Fall würde ich komplett auf AMD wechseln, auch wegen Freesync - Gsync im Fernseher wird es wohl nicht mehr geben.

12 GB wären echt ein Witz, aber neuerdings gibt es ja die Mode zu krummen Speicherkonfigurationen. 320 oder 352-Bit und daraus resultierende unrunde Summen sind da durchaus denkbar, stört auch nicht solange es mehr Speicher als jetzt ist.
 
Ich denke 12 GB Speicher würden reichen, auch wenn mir 16 GB besser gefallen würden.
Beitrag automatisch zusammengeführt:

Außerdem kommt mir vor die 5700 XT wird gerade extreme abverkauft. Da muss doch ein Nachfolger im Anmarsch sein?
 
Die Radeon VII war preislich sehr gut, ich glaube nicht dass AMD auf NVIDIAs Preisniveau aufzieht. Die brauchen Marktanteile.

So scharf scheint AMD gar nicht auf Marktanteile zu sein wenn man sieht wie teuer die R9 290/390 waren, oder wie teuer RX 480 zu Beginn waren. bei den Preisen muss man sich teilweise nicht wundern dass >90% der Leute das modernere/effizientere Produkt gewählt haben. Bei der 290/390 könnte man noch argumentieren dass das einfach ein teures Stück Hardware war, aber bei der RX480 wurden die Preise zu Beginn künstlich hoch gehalten um eine gute Marge bei minimalen Absatzzahlen abzugreifen.
 
Wer etwas "besonderes" sucht, sollte sich ggf. eher bei Pentium 4, FX5900, Bulldozer, GTX 480, Vega und Co. umschauen :hmm:
 
Kostete die 480 nicht um die 200 € als sie rauskam? Zeitweise waren die RX 470 sogar die bessere Wahl gegenüber der 1050 Ti. Erst ab 2017 als es so richtig mit dem Mining losging wurden die Preise dann astronomisch, selbiges auch bei Vega, wobei dort noch sehr schlechte Verfügbarkeit zukam.
 
Korrekt ich habe sogar eine (8GB) von Sapphire für 239euro gekauft zu relase , die 4Gb kostete um die 190€ .
 
Genau, ich meine die RX 480 Nitro (8 GB) hatte 229 € gekostet und das war eines der teuren Modelle.
 
GPU: 12 TFLOPS, 52 CUs @ 1.825 GHz Custom RDNA 2 GPU
kann man eigentlich vom GPU Teil der neuen Xbox Apu irgendwelche Rückschlüsse auf die zuerwartende Leistung der Desktop Karten ziehen ?

wenn ich da einfach "milchmädchenhaft" auf die spekulierten 80 CUs von Big Navi hochrechne, kommen gute 18.5 TFLOPS raus - wobei eventuell mit einer besseren Kühlung auch an die 2 Ghz möglich sein könnten -also an die 20 TFLOPS damit sollte man sich doch eigentlich locker vor einer 2080ti mit ihren 14/15Tflops einordnen. Wobei halt wieder die Frage ist wie gut Amd diesmal die Rohleistung in Spielen rüberbringt - das war ja in der Vergangenheit leider sehr oft die Achillesverse...
 
Zuletzt bearbeitet:
Meint ihr wirklich, dass wir binnen diesen Jahres noch neue Desktop gpus sehen?
 
Zuletzt bearbeitet:
Meint ihr wirklich, dass wir binnen diesen Jahres noch neue Desktop gpus sehen?
Ich zweifle tatsächlich auch immer mehr dran. Announced ist nach wie vor Q4 und ich kann mir vorstellen, dass die gegenwärtige Lage das weiter zurück wirft

Da ich auf 4k umgestiegen bin habe ich eigentlich stark auf den Release gebaut. Die 5700xt kann das zwar, aber halt gerade so und je nach Titel auch nur semi optimal. Daher liebäugel ich Momentan mit ner 2080ti... Wäre die nicht so teuer, wäre die schon bestellt. Der Preis bleibt einfach im Hals stecken
 
Zuletzt bearbeitet:
GPU: 12 TFLOPS, 52 CUs @ 1.825 GHz Custom RDNA 2 GPU
kann man eigentlich vom GPU Teil der neuen Xbox Apu irgendwelche Rückschlüsse auf die zuerwartende Leistung der Desktop Karten ziehen ?

wenn ich da einfach "milchmädchenhaft" auf die spekulierten 80 CUs von Big Navi hochrechne, kommen gute 18.5 TFLOPS raus - wobei eventuell mit einer besseren Kühlung auch an die 2 Ghz möglich sein könnten -also an die 20 TFLOPS damit sollte man sich doch eigentlich locker vor einer 2080ti mit ihren 14/15Tflops einordnen. Wobei halt wieder die Frage ist wie gut Amd diesmal die Rohleistung in Spielen rüberbringt - das war ja in der Vergangenheit leider sehr oft die Achillesverse...
Hatte AMD nicht auch gesagt das RDNA 2 deutlich höhere taktraten erreichen soll? weil wer weiß ob das teil nicht mit 2000Mhz stock daher kommt.
mit OC auf 2200Mhz hat man dann auch 22Tflops

Die PS4 hatte ja auch 800Mhz und die 7950GHZ Edition lief bei 1050Mhz und mit OC@Wakü ging da 1200Mhz+
Mal sehen wie moderat die Xbox vom Takt läuft.
Was ich mich frage ist wie stark wird Navi21 im Raytracing weil es wurde ja gesagt das Minecraft komplett in Raytracing läuft , was ja schon echt beachtlich ist wenn ich da mal an Quake 2 denke wie das auf der RTX 2080Ti@OC läuft bei 4k....
Bin mir nur nicht sicher ob Minecraft da in 60FPS lief.
 
Zuletzt bearbeitet:
Eigentlich hatte ich schon damit gerechnet NVIDIA würde seine HPC-Karten bald vorstellen und dann im September die ersten Gamerkarten raushauen, aber das könnte sich nun verzögern, mit Glück Q4 falls es bis dahin keinen Weltuntergang gibt.

Bezüglich der Leistung: Die neuen Konsolen sollen ja irgendwo im Bereich einer 1080 Ti angesiedelt sein, was durchaus glaubwürdig ist. Was an Takt fehlt gleicht RDNA2 mit verbesserter IPC aus. Vergleichbare Desktopkarten wären dann etwa 25 % schneller bei gleicher Shaderzahl, siehe hier am Beispiel der PS4 Pro. Die GPU liest sich wie eine RX 480 aber die Taktraten sind niedriger als bei der Desktopvariante. Bei der Xbox One X ist das etwas anderes, da dort eine GCN-GPU mit 2560 Shadern und 384-Bit eingesetzt wird.

Die Variante mit ~3000 Shadern wird aber sicher nicht das Topmodell sein, dort würde ich mal auf 3584 (30 %mehr ) oder 3584 (40 % mehr) Shader tippen für eine "5800 XT" und dann ein Modell mit den vollen 5120 Shadern ("5900 XT"), eventuell AMD-typisch mit Abstufungen ("XT") die leicht beschnitten (und günstiger) sind. 2 GHz sollten locker drin sein, warum sollte RDNA2 langsamer sein als RDNA1 und da sind schon problemlos 2 GHz möglich. Am Ende dürften dann mindestens 60 - 80 % Mehrleistung zur 5700 XT rauskommen, wenn nicht mehr. Natürlich gilt das auch fürs grüne Lager, die Karten werden mehr oder weniger ähnlich sein, da seit RDNA der Unterschied in Sachen Shadereinheiten nicht mehr so groß ist wie mit GCN.

Mit Angaben zur Rechenleistung als Bezugspunkt zur Gamingleistung muss man jedoch vorsichtig sein, denn dann wäre eine Vega 64 (~12,6 TFLOPs FP32) schneller als eine 1080 Ti (11,3 TFLOPs FP32), in Wirklichkeit wischt Letztere jedoch mit der Vega den Boden auf, zumindest beim Gaming.

Da ich auf 4k umgestiegen bin habe ich eigentlich stark auf den Release gebaut. Die 5700xt kann das zwar, aber halt gerade so und je nach Titel auch nur semi optimal. Daher liebäugel ich Momentan mit ner 2080ti... Wäre die nicht so teuer, wäre die schon bestellt. Der Preis bleibt einfach im Hals stecken

Da bist du nicht alleine, derzeit geht 4K nur mit Kompromissen. Ich könnte alle meine Karten verkaufen und mir eine 2080 Ti zulegen aber selbst dann reicht es nicht für mindestens 60 FPS mit allem auf Maximum. Die XT liefert eine solide Leistung ab wenn man bereit ist den ein oder anderen Regler auf "Hoch" zu stellen. Die neuen Karten dürften eher in Richtung 4K90 oder 4K60 maxed out gehen. Lieber das Geld weglegen und dann gleich das dickste Modell kaufen, zumal jeder mit einem 4K-Monitor sowieso eine der neuen Karten haben wollen wird und dann doppelt kauft. Ausnahme: Man hat Geld wie Heu und es kann einem egal sein. Ist das nicht der Fall findet man in der Zwischenzeit bis 2021 sicher noch was anderes am PC das dringend aufgerüstet werden muss, bei mir ist das praktisch ein Dauerzustand.
 
Zuletzt bearbeitet:
Habt ihr mal den takt der PS5 gesehen?
holy shit ist der hoch!
Die PS5 hat 2230Mhz GPU takt da kann man dann mal sehen wo die Reise bei RDNA2 hingehen wird.
so ein 80cu Big Navi sollte bei dem Takt dann 22,88Tflops drücken. Mit Wakü geht bestimmt sogar noch mehr weil das ist ja nur eine Konsole mit dem Takt.
aber dennoch ist die PS5 leider irgendwie ein Rohrkrepierer geworden...
 
das ist ja bei der PS5 der maximale "Turbo" Takt - im Schnitt sind es dann vielleicht 2 Ghz, was ich immer noch durchaus beachtlich empfinde - die Frage ist halt weil das bei 36 CUs möglich ist, ob es dann bei mehr als doppelts so vielen CUs(soferne diese ganzen Rumors einigermassen stimmen) auch noch möglich ist ?

wobei dann eine dezidierte Graka natürlich eine wesentlich bessere Kühlung zu Verfügung hat als in diesen recht schlecht belüfteten Design Kästchen von Xbox und wohl auch Ps5 (da wissen wir es ja noch nicht wie das Ding aussieht)

Aber selbst wenn diese ganze Hochrechnerei einigermassen rankommt und Big Navi die erhoffte Rohleistung hat - heisst das leider bei Amd noch lange nicht das es auch im Gaming gut ankommt, den eigentlich alle großen Karten der letzten Jahre hatten durchaus mehr Rohleistung als die Nvidia Pendants und wurden im Gaming doch meist klar und deutlich geschlagen, weil es Amd nicht wirklich geschafft hat die Leistung in Gaming FPS umzumünzen
 
Naja zumindest darin ist Navi besser bis sehr gut aufgestellt. Pro ALU und Takt ist Navi nicht wirklich schlechter als NV. Das Treiberthema ist aktuell wieder mal in Mode - wenn da alles an Mehrwertfeatures hart ausgeschalten werden soll damit das ansatzweise stabil bleibt, ist das nicht unbedingt der Sinn der Sache, aber das fixen die vllt/hoffentlich irgendwann.
Ansonsten wäre so ein 52 CU Teil bei ansatzweise brauchbarer Skalierung halt schonmal um die 40-50% über einer 5700XT - wenn das mit der Effizienz von RDNA2 nach AMDs Ansage stimmt (und nicht nur irgendwelche Sonderlocken betrifft), dann funktioniert das schon auch mit der Leistungsaufnahme.

Mit 72 CUs und nem 384Bit SI wäre das ca. 2080TI Niveau, so ganz grob über den Daumen... Also der doppelte PS5 "Ausbau".
 
Du meinst eine um 80% größere 5700XT bringt nur 40% Mehrleistung?
Ich würde eher meinen da kann man eher 60-70% Mehrleistung erwarten.
 
PCGH geht bei Big Navi davon aus das man 100%+ über einer 5700XT liegen wird wegen den ganzen verbesserungen die RDNA2 gegenüber RDNA1 hat und mehr Takt bei doppelter Shaderzahl.
Allerdings sagte PCGH auch das die Treiber von AMD immer "Pain in The ASS" sind und man sehen muss wie viel davon dann übrig bleibt
 
Zuletzt bearbeitet:
Ich finde interessanter wie die Raytracing Leistung der kombinierten Shader ist, evtl kann man so ja die Auslastungsprobleme früherer Chips umgehen.

Das die Karte einen hohen Takt fahren kann ist nicht abwägig. Selbst meine 5700xt schafft es stabil auf über 2200 mhz. Interessant daran ist dass sich die Spannung nach der Belastung richtet. Meistens mit 1,26v und in manchen Szenen kurze Peaks auf 1,3v, dadurch explodiert der Verbrauch auch nicht. Dauerlast bei Gaming um die 250W und kurzzeitige Peaks zu 315W. Denke so wird es bei der PS5 auch sein.
 
Du meinst eine um 80% größere 5700XT bringt nur 40% Mehrleistung?
Ich würde eher meinen da kann man eher 60-70% Mehrleistung erwarten.

Ich rechnete nach Leistung, nicht ausschließlich nach CUs.
52 CUs mit den Leistungsangaben der XBox, also um die 12 TFlop/s macht ggü. der 5700XT mit Augen zudrücken bestenfalls 40%, wenn da nicht noch was durch die Architektur kommt. (abseits der Effizienz) Als dGPU geht sicher mehr Takt, dann kommen die 40% sicher gut hin. Von 60-70% sind wir da weit weit entfernt...
BigN dürfte größer als 52 CUs werden. Stimmen die mal spekulierten 80 CUs, 96 habe ich auch schon mal aufgeschnappt irgendwo, geht das natürlich entsprechend weit nach oben... Dafür sinkt wahrscheinlich der Takt oben wieder etwas, weil auch eine AMD nicht zaubern kann ;)
 
Ich fände übrigens 52 CUs auch eine schöne Stufe zwischen BigNavi und Navi10, vielleicht ein bischen mehr, dann läge man auf dem Niveau, wo ich den GA104 vermute, also 3.584 Shader oder so. Hier konnte man übrigens damals sehen, dass Navi und Turing nahezu gleich effizient sind. Bei gleichem Takt und gleicher Shaderzahl (RTX 2070 und RX 5700, inzwischen ginge das auch mit RTX 2070S und RX 5700XT) ist Navi im CB-Testparcours nur 1% schneller.
Da kommt es also schon darauf an, wieviel IPC Nv bei Ampere noch rausholt, denn NV hat dank kleinerer Fertigung mehr Potential für mehr Shader und mehr Takt als AMD.

Ich habe mir übrigens deshalb nun eine EVGA RTX 2070 XC Ultra geschossen - preislich durch eine Aktion erschwinglich und immernoch ~100€ unter entsprechenden 2070S sowie nicht teurer als ordentliche 2060S. Obwohl ich eher Sympathien für die Roten habe (allein schon wegen G-Sync vs. Freesync), laufen genau meine aktuellen Spiele deutlich besser auf Turing, z.B. Anno 1800.
 
Zuletzt bearbeitet:
Die 2070 ist derzeit ein echter Geheimtipp, vor allem gebraucht. Mit dem Freesync hast du aber recht, da ich keine großen Hoffnungen habe dass es bezahlbare Gsync-Fernseher geben wird. Bei den Monitoren ist der Aufpreis schon saftig, wobei ich in der Hinsicht Glück hatte.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh