Plant AMD den Einsatz von HBM2E für RDNA2-basierte Karten?

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.820
radeon-rx-5700xt.jpg
AMD arbeitet bereits an seinen neuen, auf der RDNA-2-Architektur basierten Grafikkarten der nächsten Generation. Diese werden schon für das kommende Jahr erwartet und nutzen laut AMDs eigener Roadmap das fortschrittlichere 7nm+ Fertigungsverfahren.Verschiedenen Industriequellen zufolge sollen die neuen AMD-Grafikboliden Ray-Tracing-Unterstützung erhalten und über der aktuellen Radeon-RX 5700-Serie einzuordnen sein. Dabei deuten sich angeblich auch Änderungen bei der...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Für mich ist nur interessant ob vor Weihnachten noch eine rx 5800 (xt) erscheint, die Leistungsmäßig der rtx 2080 und super Version nahe kommt. Die Preise gehen mal gar nicht ...
Rdna2 kann sich nächstes Jahr mit rtx 7nm(+) anlegen, wobei das Duell eig. schon entschieden ist lol ;)
 
Zuletzt bearbeitet:
Naja, Killer ist sehr überspitzt ausgedrückt :d
Meinte das Duell "Wer wird die efffizienteren und leistungstärksten Karten (Rasterisation/ray tracing) haben?".
Würde persönlich dennoch zu amd greifen, mit nvidia Grafikkarte keine Lust mehr auf den g-sync Zwang, die Auswahl der freesync (2) Monitore ist viel größer.
 
Konkurrenz im High End wäre mal vorteilhaft, damit NV nicht mehr so abgedrehte Preise vorschreiben kann.
 
Nur hat AMD in der Vergangenheit schon oft mit HBMx-Speicher im High-End "getönt" und daraus wurde denn nicht immer etwas erfolgsversprechendes. Abwarten ...
 
hui

AMD haut einen nvidia Killer nach dem anderen raus
 
AMDs letzte Versuche mit HBM(2) waren ja eher enttäuschend. Die erzielte Leistung hätte man damals sicher auch mit GDDR hinbekommen.

Sie sollen lieber mit ner herkömmlichen Karte Leistung abliefern bevor man wieder mit solchen Spielereiern anfängt.
Nvidia zeigt schön was da geht, wenn man sich ansieht was die RTX2080Ti/Titan RTX mit GDDR6 gegen die Titan V mit HBM2 ausrichtet.
 
Die erzielte Leistung hätte man damals sicher auch mit GDDR hinbekommen.

Naja das Speicherinterface mit 1 TB/s ist so nur mit HBM2 möglich gewesen und daran wird sich vielleicht auch in nächster Zukunft nichts ändern.
 
Wäre natürlich wünschenswert wenn die Preisspirale wieder nach unten geht, glaube da aber irgendwie nicht dran.
Im Moment passt sich AMD eher Nvidia an, hab ich das Gefühl.
Und wenn wird sich das vermutlich nur um minimale Preissenkungen handeln, dass die Grafikkarten plötzlich um hundert Euro, oder mehr günstiger werden, ist wohl eher ein Wunschtraum.
 
Zuletzt bearbeitet:
Plötzlich nicht, aber auf Dauer sollte Konkurrenz zu einem Preiskampf und damit irgendwann wieder angemessenen Preisen führen. Auch die Mittelklasse ist immer noch deutlich zu teuer, weil der Druck von oben fehlt, da AMD sich ja dort einfach nvida untergeordnet.
 
Würde mir eine Grafikkartenserie mit und ohne raytracing wünschen, und das durchgehend für die nächsten 3 - 4 Jahre.
Schlussendlich bezahle ich die größere Chipfläche mit, auch wenn ich ray tracing nicht benutze.
Solch ein Zwang dies mitzubezahlen ist beim jetzigen Stand der Technik und Spiele für mich unsinnig.

Wenn nvidia nächstes Jahr mit der rtx 3080 ti voll ausfährt, muss die rdna2 high-end/enthusiasten-Karte mit schlappen 30 - 40 % mehr an Leistung oder Effizienz, verglichen mit rx 5700(xt) ankommen.
Bei tsmc 16FF (12FF) -> 7 FF 60 - 70 % reduzierung der Chipfläche, min. 30 % mehr Leistung, 50 - 60 % weniger Stromverbrauch. Wenn man bei nvidia entscheidet die Karten wieder mit Absicht zu kastrieren, könnte der nvidia-Killer noch in Vergleich x mithalten.
Solange man über den Preis geht wäre es für mich i.O.
 
Zuletzt bearbeitet:
Schlussendlich bezahle ich die größere Chipfläche mit, auch wenn ich ray tracing nicht benutze.

Bei Team grün - jupp. Bei Team rot wird es - wenn ich mir das vorläufige Implementationsdesign reinziehe eine (hoffentlich) freudige Überraschung geben, denn die Pixel-Shader (welche derzeit kaum ausgelastet werden) sollen diese Aufgaben übernehmen, anstatt dedizierte Fläche für noch mehr ungenutzte Transistorzahlen zu verbrennen.

AMD hatte bisher ein Auslastungsproblem der Shader, was sie etwas ins hintertreffen geraten ließen. Wenn genau diese jetzt für RT verwendet werden, hat AMD doppelt gewonnen. Was den HBM2E Speicher angeht: Das wird teuer. Ich rechne damit, dass nur die oberste Top-of-the-line GPU damit ausgestattet sein wird. Halo-Produkt und so.
 
Würde persönlich dennoch zu amd greifen, mit nvidia Grafikkarte keine Lust mehr auf den g-sync Zwang, die Auswahl der freesync (2) Monitore ist viel größer.

Gibt keinen Gsync Zwang mehr.
Adaptive Sync läuft auch auf Nvidia.


AMD hatte bisher ein Auslastungsproblem der Shader, was sie etwas ins hintertreffen geraten ließen. Wenn genau diese jetzt für RT verwendet werden, hat AMD doppelt gewonnen.

Klaro. Shader für intersection Berechnung. Geniestreich.
 
Zuletzt bearbeitet von einem Moderator:
AMD hatte bisher ein Auslastungsproblem der Shader, was sie etwas ins hintertreffen geraten ließen. Wenn genau diese jetzt für RT verwendet werden, hat AMD doppelt gewonnen. Was den HBM2E Speicher angeht: Das wird teuer. Ich rechne damit, dass nur die oberste Top-of-the-line GPU damit ausgestattet sein wird. Halo-Produkt und so.

Abwarten. AMD hat uns schon immer überrascht. :)

Klaro. Shader für intersection Berechnung. Geniestreich.

Klappt auf der Titan V ja auch ohne RT-Cores. :d
RayTracing in Battlefield V läuft (mit guten Frameraten) auch auf der Titan V | 3DCenter.org
 
Abwarten. AMD hat uns schon immer überrascht. :)

Klappt auf der Titan V ja auch ohne RT-Cores. :d
RayTracing in Battlefield V läuft (mit guten Frameraten) auch auf der Titan V | 3DCenter.org

Dass es auch auf Grafikkarten ohne RT-Corse läuft, wurde wohl nicht infrage gestellt, sondern eher wie gut dies läuft. Die RT-Cores sind u.a. dafür da die Intersection-Berechnungen zu beschleunigen: Turing RT Cores: Hybrid Rendering and Real Time Raytracing - The NVIDIA Turing GPU Architecture Deep Dive: Prelude to GeForce RTX
Dein verlinkter zeigt doch ganz gut, was die RT-Cores bringen. Denn die Titan V schafft es trotz deutlich mehr Shadern nicht mit einer 2080ti oder einer Titan RTX mitzuhalten.

Und dann soll das auf Consumerkarten mit deutlich weniger Shaderleistung zufriedenstellend laufen?
Klar...
 
Zuletzt bearbeitet:
Denn die Titan V schafft es trotz deutlich mehr Shadern nicht mit einer 2080ti oder einer Titan RTX mitzuhalten.

Und dann soll das auf Consumerkarten mit deutlich weniger Shaderleistung zufriedenstellend laufen?
Klar...

Und genau deshalb werden die Shadereinheiten umgebaut, damit sie dort eben nicht mehr so lahmen, sondern verwertbare Resultate abliefern. Die bisherigen Shader können das eher schlecht als recht, weshalb ja eine neue Iteration notwendig ist.

Ich verstehe den Aufriß nicht. Wenn ich eine Platzeffizientere Implementation von RT hinbekomme ist das doof, weils von AMD kommt? Es haben doch alle nach RT gekräht und jetzt wo es kommt isses doof weils keine dedizierten Kerne mehr sind?

Mal ganz ehrlich. Das, was sich Nvidia mit den RT-cores und DLSS-Schmankerl erlaubt hat, frisst Chipfläche ohne Ende. Wenn 1/3 des Chips sinnlos in der Ecke liegen weil das Spiel kein RT unterstützt, was nahezu 50% Aufpreis gegenüber Team rot rechtfertigen soll, ist das voll okay. Wenns im effizienten Shader+ Modus implementiert wird, ist das doof... weil?
 
Ray Tracing soll ja gar nicht den Aufpreis rechtfertigen. Das macht schon das Monopol im High End.
 
Und genau deshalb werden die Shadereinheiten umgebaut, damit sie dort eben nicht mehr so lahmen, sondern verwertbare Resultate abliefern. Die bisherigen Shader können das eher schlecht als recht, weshalb ja eine neue Iteration notwendig ist.

Ich verstehe den Aufriß nicht. Wenn ich eine Platzeffizientere Implementation von RT hinbekomme ist das doof, weils von AMD kommt? Es haben doch alle nach RT gekräht und jetzt wo es kommt isses doof weils keine dedizierten Kerne mehr sind?

Mal ganz ehrlich. Das, was sich Nvidia mit den RT-cores und DLSS-Schmankerl erlaubt hat, frisst Chipfläche ohne Ende. Wenn 1/3 des Chips sinnlos in der Ecke liegen weil das Spiel kein RT unterstützt, was nahezu 50% Aufpreis gegenüber Team rot rechtfertigen soll, ist das voll okay. Wenns im effizienten Shader+ Modus implementiert wird, ist das doof... weil?

Ich sehe hier keinen Aufriss..

Wie kommst du eigentlich darauf, dass AMD einfach nur die Shader anpassen will und nicht auch dedizierte Hardware dafür bringt?
 
Ich sehe hier keinen Aufriss..

Wie kommst du eigentlich darauf, dass AMD einfach nur die Shader anpassen will und nicht auch dedizierte Hardware dafür bringt?

Weil im Patentantrag nur ein Umbau der Shadereinheiten beschrieben worden ist und keine dedizierten RT-Zusätze, die entkoppelt vom Rest laufen. Evtl. wird der einzelne Shadercluster größer, so dass dann die Rechnung auf +/- null geht - who knows. Du sagtest ja, dass die Shaderleistung deutlich unter den dedizierten RT-cores läuft, was in der derzeitigen Ausbaustufe völlig korrekt ist. Aber wer sagt denn, dass es in der nächsten Iteration so bleibt? Dafür ist die ja genau da, um das "aufzubohren". Wie viel das wird und wie gut das läuft kann eh niemand abschätzen.

Ich würde diesen Ansatz aber nicht als "2. Wahl" abtreten, denn es ist durchaus möglich, dass mit dem richtigen Scheduler da ne Sache draus gebacken wird, die gleichwertig performant sein kann, ohne signifikant mehr Platz zu verbrauchen. AMD hat diesen Ansatz ja nicht aus Langeweile gewählt.
 
Sehe jetzt auch nicht das Problem.

Paddy hat nunmal recht. Die Titan V ist halt ein Monster von GPU und bekommts nicht hin RayTraycing genau so performant abzuliefern wie die RTX2070.

AMD hat außerdem erst die Shader umgebaut um die Auslastung zu verbessern. Es macht imho doch gar keinen Sinn den Teil den man optimiert hat wieder zurück zubauen auf den alten Stand. So oder so hat man Chipfläche die im Extremfall einfach nicht genutzt wird.
 
Die werden nicht zurück gebaut, sondern erweitert. Stell dir vor, deine nächste CPU hat nen zusätzlichen Befehl, den sie ausführen kann. Genauso ist es mit den Shadern, dass die halt nen zusätzlichen Vektor-Befehl können. Das musst du in Hardware gießen und hat evtl. einen leichten Umbau zur Folge. Wie signifikant der auf die Fläche wirken wird... kein Plan. Aber ich denke nicht, dass es den Chip um 1/3 größer machen wird.

Ansonsten werden hier alte Shader über brute Force vs dezizierte Transistoren für RT betrachtet. Was man eigentlich betrachten müsste:
Umgebaute Shader (die es noch nicht gibt) vs. RT cores.

Das die alten Shader das nicht gebacken bekommen ist klar.
 
Das Problem bei Technik ist halt,man kann nicht erst die dritte Generation einführen.Warum manche so auf RT einkeulen,erschließt sich mir schlicht nicht.Auch wenn DLSS von Anfang an hätte besser eingeführt werden können,da bin ich ebenso der Meinung.Da gehe ich sogar noch nen Stück weiter und könnte tatsächlich einigermaßen sauer sein,alleine schon wegen SotTR.Da wurde von Anfang an mit DLSS und RT geworben,obwohl keines drin war.Und als es dann Monate später kam....da hätte Nvidia wirklich mehr dafür tun können,auch wenn ich jetzt nicht genau weiß ob es an Grün,Square Enix oder sogar doch an Blau wegen 1903 lag.Stinkt mir aber bis heute.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh