AMD spricht erneut über Big Navi: Desktop-Karten vor den Konsolen am Markt

XL 15% über der 3070
XT 5% über 3080
XTX 10% über einer 3090

So würde ich es mir bei AMD vorstellen:

449 Dollar
549 Dollar bis 599 Dollar
799 bis 899 Dollar (Prestige Produkt)
man sollte zwar diese "insider" infos nicht noch weiter verbreiten, aber glaubt da wirklich ernsthaft jemand drann, das wenn die Leistung wirklich so eintreffen sollte (was ich nicht glaube - wenn die xtx zwischen 3080 und 3090 landet, wäre das schon sehr beachtlich), das Amd dann auch nur annähernd diese Preise aufrufen wird :lol:

da wäre man bei Amd schön blöd für für eine 6800XT nur 550-650 Euro zu nehmen - selbst mit 800 euro wäre man noch billiger als die aktuellen 3080 Preise und geschweige denn dann 900 Euro für nen 6900XTX die 10% schneller als ne 3090 wäre die nicht unter 1800 zu bekommen ist aktuell - das ist einfach nur :ROFLMAO:

wenn realistisch die 6900XTX wirklich zwischen 3080 und 3090 landet würde mich ein preis von 1000euro+ nicht verwundern und ich würde in auch zahlen ....
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Spielt AMD halt in die karten.

Das will NV doch so oder warum hat Jensen die 16/20GB nun abgeblasen.

Der erhofft sich, das dan in 2 Jahren wieder alle wechseln. Bringt mehr ein als jetzt das Pulver zu verschießen :d

Unbelieber kann eine Firma sich gar nicht mehr machen.
 
1000 euro für die XTX mit fullcover mit etwa 3080+- leistung dürfte möglich sein denke ich.
Liegt die XTX dann preislich wirklich darunter wärs top.
Und man wüsste warum NV den caos launch hingelegt hat.:-)
Die VII war ja für 4K mit wakü auch ne gute karte mit ihren 16GB.
 
Naja wenn man bei ner RX5700XT von ca. 50% der Leistung einer RTX3080 ausgeht würde ich für den Vollausbau (80CUs) auf folgendes Rechenbeispiel kommen:
0,5 x 2 x 1,33 x 0,8 = 1,064 => 6,4% Schneller als ne RTX3080
(50% Leistung) x (doppelte Shader) x (33% bessere Perf./Watt) x (80% Skalierung für die doppelten Shader)

Alles was darüber ist würde mich schon sehr stark überraschen.

Was auch bedeuten würde dass die 72CU Version in etwa 2% hinter der RTX3080 liegen würde.
(0,5 x 1,8 x 1,33 x 0,82 = 0,98)

Die Rechnung ist abhängig davon wieviel besseres Perf/Watt an Ende wirklich da steht und wie gut die Shader skalieren.

Ergänzung: Die 50% der Leistung sind auf 4K bezogen: https://www.computerbase.de/2020-09/geforce-rtx-3080-test/2/#abschnitt_benchmarks_in_3840__2160
 
Ich bin eher bescheiden. Ich möchte eine Karte, die mir gegenüber der 2080 eine deutliche Mehrleistung in 3440x1440 bringt. Ob es dann am Ende ein paar FPS mehr oder weniger sind ist nicht so wichtig. Preis unter 1000 Eur. Stabil laufen muss sie. Vor allem aber habe ich keine Lust sie jetzt zu bestellen und irgendwann, vielleicht, mit viel Glück in 6 Monaten zu bekommen.
 
Bin gespannt ob die 6900XT dann die 3090 bei Doom Eternal dem Vorzeigespiel von Nv schlagen kann ?!?
Das wäre dann ein richtigem Hammer!
Cherry Pick will ich nicht sehen das man rankommt da muss schon Grundsolide sein die Leistung !
Dann habe ich bei weniger RT Leistung auch etwas nachsehen!
 
Zuletzt bearbeitet:
Aber dann hättest gleich eine die optimierte Treiber hat :fresse2:
Reicht doch wenn amd es schafft das der PC mit big navi nicht ausgeht mit dem launch treiber NV hat das mit dem launch treiber nicht hinbekommen.
Und die ganzen bench experten ausser igor hattens nicht mal gemerkt oder waren vom huang geschmiert. :shot:
 
Zuletzt bearbeitet:
Berni muss das wissen. Der hatte ja schon Monate lang einen Container Testsamples xD
 
Wenn man bei der XTX die RT Leistung hoch und runter schieben kann wie man mag.
Also so ähnlich wie bei der tesselation stufe damals wäre das top.
Und viel besser gelöst wie off und on bei NV.
Hoffentlich lässt lisa am 28 da auch ein paar infos dazu hören.
 
Das will NV doch so oder warum hat Jensen die 16/20GB nun abgeblasen.

Der erhofft sich, das dan in 2 Jahren wieder alle wechseln. Bringt mehr ein als jetzt das Pulver zu verschießen :d

Unbelieber kann eine Firma sich gar nicht mehr machen.

Hallo,

das warum vor dieser Entscheidung kennen wir nicht, vielleicht möchte er „schlechtem Geld kein Gutes hinterherwerfen“,
möglicherweise weiß er aber auch mehr als die meisten und glaubt das die Speicherverdopplung ob der überschätzten Performance des BN gar nicht mehr nötig wäre.

Ich hoffe, schon wegen der Belebung des Grafikkartenmarktes (und damit auch des Preisgefüges) ersteres, sicher bin ich mir nicht....wie auch.

Gruß
 
Zuletzt bearbeitet:
Aye - die RDNA2 Shader sind RT-fähig, die RDNA1 Shader nicht. Da hat sich was an der Hardware geändert. Nvidia hat das über eine extra Recheneinheit gelöst die am Konstrukt die µArch dranhängt, AMD hat eine weitere Schicht Befehlssätze auf die Shader gepackt, die dann im Switch Modus agieren.
Ansonsten kann ich dir nix zu sagen - ich hab die Karte weder in der Hand, noch kann ich die RT-Leistung/Qualität beurteilen. Und wann CDPR den Patch für AMD-RT rauskloppt kann ich auch nicht sagen.

Dann sind die Shader von RDNA2 also schlechter in Rasterberechnungen, weil ein Teil davon für RT ist?
Das wäre ja dann ernüchternd für die reinen Rasterfans.

Einfach nur "ne andere Instruction switchen" ist ja so nicht wirklich möglich. Darum hat Nvidia das ja strikt getrennt, weil man sonst zu viel normale Leistung verlieren würde.
Dann wären alle Hochrechnungen von RDNA1 für die Tonne.

Ich glaube da einfach zu wenig an Magie, um nicht zu hinterfragen woher die RT Leistung kommen soll. Irgendwo ist der Shortcut.
 
Naja wenn man bei ner RX5700XT von ca. 50% der Leistung einer RTX3080 ausgeht würde ich für den Vollausbau (80CUs) auf folgendes Rechenbeispiel kommen:
0,5 x 2 x 1,33 x 0,8 = 1,064 => 6,4% Schneller als ne RTX3080
(50% Leistung) x (doppelte Shader) x (33% bessere Perf./Watt) x (80% Skalierung für die doppelten Shader)
Die Rechnung ist gar nicht mal so schlecht. Vom Prinzip her gehe ich da mit, allerdings hat der gute Igor schon ein paar Taktraten fallen lassen mit boardpartner-Werten von fast 2.6GHz.

Igor sagte "Man kann 10% abziehen" - das kann ich leider nicht so unterschreiben. Es wird denke ich - ähnlich wie bei Zen 2 und kommend Zen 3 wohl ne Art Peak-Frequenz geben, die nur in einer Mili-Sekunde erreicht werden kann und dann werden sich die restlichen Frequenzen drunter einordnen. Und bei dem "wie viel" gucke ich weniger auf Prozentangaben, sondern ziehe schlichtweg 100-150MHz ab. Warum? Weil wir in den oberen Frequenzbereichen bereits krass nicht-linear in der P/F Kurve liegen. 10% Strom von 2GHz sind was Anderes als 10% Strom von 2.6GHz in dieser exponentiell steigenden Kurvenflanke.

Die IPC mit den "Wavelets pro Durchzug" ist ja auch von 5 auf 7 gestiegen und der Infinity Cache - wenn er dann den 256-bit Bus im Tandem auf das 384+bit Niveau wirft sollte dann den Rest machen. (Aber hier will der gute Igor ja auch noch ausloten, wo da sinnvolle Übertaktungswerte sowohl von der Frequenz als auch von den Timings sind)

Kurzum: 0,5 x2 x 1.44 x 0.87
Navi10 x doppelte Shader x Frequenzhub (ergibt sich auf F[Navi21_peak]/F[Navi10_peak] x Verlustskalierung_shaderskalierung

Warum beziffer ich die Verlustskalierung auf 0,87 bei den Shadern? Na ja, bis 40 CU soll das Teil bis 100% skalieren und dann bei 80CU hat das letzte CU noch 50% Skalierungsfaktor. Addiere ich 80 CUs und bilde ne lineare Regression von 40-80CU von 100% bis 50%, ist das gesamte Integral halt.

Es sollte also ~1.25 fache Leistung einer doppelten 5700XT rauskommen. Die IPC Steigerung hab ich einfach mal mit den restlichen Verlustskalierungen gleichgesetzt. Das ist die Rechnung von vor 3 Monaten und auch heute sind wir nicht schlauer - nur dass die Benches darauf hindeuten, dass wir diesen Werten doch irgendwie sehr nahe kommen.
Beitrag automatisch zusammengeführt:

Dann sind die Shader von RDNA2 also schlechter in Rasterberechnungen, weil ein Teil davon für RT ist?
Das wäre ja dann ernüchternd für die reinen Rasterfans.

Einfach nur "ne andere Instruction switchen" ist ja so nicht wirklich möglich. Darum hat Nvidia das ja strikt getrennt, weil man sonst zu viel normale Leistung verlieren würde.
Dann wären alle Hochrechnungen von RDNA1 für die Tonne.

Ich glaube da einfach zu wenig an Magie, um nicht zu hinterfragen woher die RT Leistung kommen soll. Irgendwo ist der Shortcut.
Nicht ganz. Die Shader waren bei AMD bisher immer das Sorgenkind und konnten nie wirklich ausgereizt werden. Mit RDNA1 hat AMD das Problem so halbwegs in den Griff bekommen (wirds aber wohl nie zu 100% lösen) und mit RDNA2 ist es jetzt angeblich noch etwas besser geworden. Anstatt also 50% der Shadereinheiten in den Idle zu schicken, weils irgendwo anders nen Flaschenhals gibt, liegen jetzt nur noch *daumen in den wind halt* 25% der Shadereinheiten brach. Das sind so ziemlich genau die ~20CUs von denen für "RT" gesprochen wurde. Also die Dinger, die eh nix zu tun haben, machen jetzt RT.

Wie gut das am Ende aufgehen wird... keine Ahnung.
 
Dann müsste man in 4K 25% vor einer RTX3080 liegen und das wär zwar schön. Aber dass AMD so ne krasse Karte hinknallt kann ich irgendwie nicht glauben.
 
Das wäre die XTX bei 2.6GHz Peak auf Sahne-laufendem Titel. Die stock XT Karte bei ~2.3GHz wird wohl eher direkt auf 3080 Niveau sein. Auch fehlt das der Treiberfaktor, der zum Release gerne mal x0,75 sein kann :d
 
Wenn man bei der XTX die RT Leistung hoch und runter schieben kann wie man mag.
Also so ähnlich wie bei der tesselation stufe damals wäre das top.
Und viel besser gelöst wie off und on bei NV.
Hoffentlich lässt lisa am 28 da auch ein paar infos dazu hören.
Hast ja in den Spielen auch qualtitätsstuffen für Raytracing also nicht nur on und off dazu dann halt noch dlss ist bisher bei jedem RT Spiel dabei !
Ist schon super gemacht mit NV wenn es für Maxout RT nicht reicht!
 
Hallo,

das warum vor dieser Entscheidung kennen wir nicht, vielleicht möchte er „schlechtem Geld kein Gutes hinterherwerfen“,
möglicherweise weiß er aber auch mehr als die meisten und glaubt das die Speicherverdopplung ob der überschätzten Performance des BN gar nicht mehr nötig wäre.
Gruß
Schlechtes Geld = Schlecht investiert, weil der "Vorteil" von GDDR6x verpufft da schlecht verfügbar, teuer und kaum Performancevorteile!
Gutes Geld hinterherwerfen = warum noch mehr Geld in etwas investieren was nichts bringt (Nvidia geht ja davon aus das 10GB und dieses Nvidia I/O reichen!) edit: und vermutlich noch teurer wird, weil schlecht verfügbar!

Vielleicht kommt ja ein Ampere "update" mit GGDR6 oder Nvidia steigt auf HBM um? :hmm:
 

schick, schick, schick ^^

das is dann die 72CU? :bigok:
Jupp!
Also RT Leistung mehr so auf 2080TI Niveau mit noch nicht finalen Treibern....
 
und nochmal zusammengefasst mit anderen werten
https://videocardz.com/newz/amd-radeon-rx-6800xt-alleged-3dmark-scores-hit-the-web


waaaaahhhhhh
st.coPGLctRyc8v.gif
 
Das beste ist es ist nicht die 6900XT !
Jetzt bin ich hart angefixt und neugierig!
 
Joar, paßt doch:
- Rasterperformance ist ++
- Raytracing ist noch Kinderschuh und knallt die Karte auf 2080Ti Niveau runter (ohne DLSS Derivate)

Baustellen sind also: Treiberseitige Performanceverbesserungen seitens Raytracing (aber es läuft schon mal, yay!), DLSS Derivat einbasteln (Ob nun FidelityFX 2.0 heißt oder whatever - who knows) und generell die ganzen experimental-Features schrittweise anschalten, ohne dass es zu Stabilitätsproblemen kommt.
Beitrag automatisch zusammengeführt:

Das beste ist es ist nicht die 6900XT !
Jupp, je mehr CUs du hast, desto kleiner sollte der Einschlagskrater von RT sein.
 
Bis auf raytracing beindruckende Leistung. Bei raytracing kann man von 2080ti Leistung ausgehen.
 
Wenn die Benches so eintreffen bin ich ja mal froh noch keine RTX30xx bekommen zu haben :)
 
Wir wissen nicht wieviele CUs die 6800XT hat... Wir vermuten nur!
Beitrag automatisch zusammengeführt:

Die ganze Euphorie steigt und fällt halt dann noch mit dem aufgerufenen Preis.
 
ach der preis ist doch "fast" zweitrangig,
wenn die Preis/Leistung passt, können die auch teurer werden, warum soll nur NV davon profitieren dürfen den längsten zu haben :d
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh