HotChips32: AMD gibt Ausblick auf RDNA 2 mit Raytracing-Beschleunigung

Turing ist aber schon sehr gut. Bei DX12 & Vulkan Spielen haut Turing schon ordentlich rein.
Hier mal nen Vergleich in 4K zur 1080Ti
1597827046159.png


EDIT:
Schaut man sich hier auch mal die 5700XT an welche ja nur 2560 Shader hat und wie gut sie eigentlich da steht ist das auch beachtlich.
Hier auch mal ein 4K Vergleich mit der 5700XT@2560Shader vs RTX2080@3072Shader
Schaut auch mal auf den takt der 5700XT und bedenkt das man diese Problemlos auf 2200Mhz mit Wakü bekommen kann und man kein Problem mit der Bandbreite hat was bei Turing aber schon deutlich ist. Turing skalliert ab 2000Mhz quasi garnicht mehr. Zumindest bei meiner 2080ti ist es nahezu egal ob ich 2010Mhz oder 2100Mhz habe das bringt teilweise nchtmal 1FPS

Interessant ist das halt weil laut AMD Big Navi 100% mehr Leistung haben soll zur 5700XT aber man hat ja auch mit Sicherheit auch kein Bandbreiten Problem bei 512Bit
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn eine BN mit 16GB, 512Bit und +40% zur 2080TI kommen würde, dann wäre die sicher interessant...auch wenn die nicht verschenkt würde, so würde sie ein ernst zunehmendes Momentum sein. Da könnte es sich lohnen ein bisschen Angriffslust beim Preis zu zeigen, seitens AMD.
 
Ja sehe ich auch so, der Preis sollte unter 1k bleiben dann könnte das was werden:)
 
Hoffen wir, dass der EUR bei 1,19 zum Dollar bleibt, oder weiter steigt
 
Ich würde sogar drauf wetten das AMD Kampfpreise bringt.
Erstmal hat AMD nur einen 500mm² chip auch wenn es 7nm EUV sein wird, wird AMD sicherlich einen guten preis bekommen da sie enorm viel abnehmen siehe PS4/PS5 Xbox und halt auch CPUs sowie GPUs die da alle gefertigt werden.
Dann hat man 16GB was erstmal weniger sein wird als die 24Gb der 3090 und man braucht auch kein teuren GDDRX weil man 512Bit hat.

ich denke das Teil mit 5120 Shader wird 899-999€ kosten.
Ich werde da auf jeden fall drauf warten
 
Zuletzt bearbeitet:
......das hängt so davon ab, ob NV sich bei der Preisgestaltung (und was im EURO-Raum davon ankommt) beherrschen kann.
 
Auch die 16gb sollten für den Gelegenheits Zocker mehr als ausreichend sein. Am spannendsten ist im Endeffekt wie die rt Leistung ausfallen wird ..
 
stimmt auch
 
Für Gelegenheits Zocker? Was sind dann erst die 8GB oder das aktuelle Topmodell 2080ti? :d
 
Ich finde 16Gb sind sogar Perfekt
24Gb sind einfach zu viel und eher was für SLI was aber nicht läuft

Edit: wenn SLI aber funktionieren würde dann hätte ich bestimmt zwei 3090 gekauft und alles mit Downsampling gezockt
 
Zuletzt bearbeitet:
Bin gespannt ob Big Navi nicht enorm von PCI-E 4.0 profitieren wird bei next gen titel

Bin auch mal gespannt wie das dann bei Ampere sein wird weil da wird ja dann auch PCI-E 4.0 rein kommen.
denke je stärker das Streaming genutzt wird desto mehr wird man von PCI-E 4.0 profitieren.
 
Erstmal hat AMD nur einen 500mm² chip auch wenn es 7nm EUV sein wird, wird AMD sicherlich einen guten preis bekommen da sie enorm viel abnehmen siehe PS4/PS5 Xbox und halt auch CPUs sowie GPUs die da alle gefertigt werden.
Das mit dem Preis ist halt nicht nur abhängig von der Stückzahl, sondern auch freien Kapazitäten beim Fertiger.
Wenn die Fertigung schon hoch ausgelastet ist verkaufst du freie Kapazitäten zu höheren Preisen wie wenn du sowieso die Anlage unbedingt noch füllen willst.

Aber wünschen wir uns alle dass AMD rechtzeitig riesige Kapazitäten bei TSMC reserviert hat zu niedrigsten Preisen.
 
Das was ich gelesen habe ist das AMD sogar der größte Abnehmer werden wird und sogar Apple verdrängt

Hier mal ne news aber lest mal selbst weil ich weiß nicht genau was wie wo.
Habe nur gelesen das AMD sehr viel abnehmen wird bei TSMC und auch bei 5nm schon reserviert hat


 
Zuletzt bearbeitet:
[
Wird sehr sicher passieren. Denke das lief mit der PS4 Pro schon sehr gut.
Es müssen andere Versionen kommen. Alleine der Datenspeicher ist für die Einführung der Konsole schon sehr unterdimensioniert. XBox Entwickler haben schon eine Lösung parat. Ich meine bei der PS5 sind nicht alle Schnittstellen bekannt. Vielleicht wird es eine ähnliche Erweiterungslösung wie bei XBox für PS5 geben? Wie wird VR auf der PS5 umgesetzt?, Wireless oder doch noch kabelgebunden?, Lüfter? Und wie laut? Wird die hochgelobte Performance bei der Entwicklung neuer Spiele tatsächlich ein Sprung in die Zukunft sein? Limitiert die abgespeckte, aber schnellere Grafikeinheit, gegenüber der Xbox? Wie wird die Preisgestaltung von Peripherie und Speile sein? Wird der PS5-Controler noch unter 80 Euro angeboten werden können? Wird die Pro-Variante einen modifiziert neu designter, erweiterter Chip sein? Wie oft müssen die Konsolen (PS5+XBox) und Spiele gepatcht werden, bis es ohne Probleme rund läuft? Es bleibt spannend. :unsure::LOL:
 
Ich finde 16Gb sind sogar Perfekt
24Gb sind einfach zu viel und eher was für SLI was aber nicht läuft

Edit: wenn SLI aber funktionieren würde dann hätte ich bestimmt zwei 3090 gekauft und alles mit Downsampling gezockt

16 GB finde ich auch optimal, mehr als jetzt aber nicht so teuer wie 20 GB+.

~900 € wären auch das Optimum. Lust auf einen Eiswolf und Fullcoverblock (Custom-Wasserkühlung per AIO) hätte ich schon, das wird aber das Budget sprengen falls die Karten wieder exorbiant teuer werden. Lohnen würde das ohnehin nur bei einem Flaggschiff.

Was die Konsolen betrifft ist eins sicher, es ist Marketing und es wird immer schlechter als PC-Gaming sein. Dafür ist es einfach, alles funktioniert *outofthebox* und man kann zocken ohne sich um irgendwas zu kümmern. Das ist was die meisten Leute wollen.

Wireless-VR und allgemein verbreitetes VR wird auch mal nötig. Ich habe seit einigen Wochen eine VR-Brille, es liegt definitiv nicht am Medium "VR" - Sondern am Mangel an Spielen, der schlechten Qualität eines Großteils der vorhandenen Spiele, der teuren und meist schlecht funktionierenden Hardware. Wenn es aber mal funktioniert, dann ist man plötzlich in der Zukunft. Ein Cyberpunk oder ähnliche Titel wie das neue Half-Life in voller Auflösung und Grafik in VR zu erleben würde wesentlich mehr Leute davon überzeugen, als irgendwelche schlecht programmierten aber überteuerten Klon-Shooter und VR-Demos. In der Übergangszeit muss es über Crossplay sowie optionalen VR-Support laufen, gepaart mit bezahlbaren Headsets. Um die 300 € sind für die meisten bezahlbar, 1000+ sind es nicht - Außer die Hardware wäre schon integriert, was aber völlig utopisch wäre. Headsets mit makellosem Tracking wie die Valve Index bleiben weiterhin nur für Enthusiasten eine Option und da muss man dann auch überlegen ob man sich für drei Spiele ein Headset holt oder lieber einen 4K-High-Hz Monitor (den man in jedem Spiel nutzen kann).
 
Ich finde 16Gb sind sogar Perfekt
24Gb sind einfach zu viel und eher was für SLI was aber nicht läuft

Edit: wenn SLI aber funktionieren würde dann hätte ich bestimmt zwei 3090 gekauft und alles mit Downsampling gezockt
Jo wen NV eine 10GB 3080 bringt wird man mit 16GB für 4K alles richtig machen !
Es sei den die 3080 wird als FHD Karte vermarktet!:fresse:
 
Zuletzt bearbeitet:
10GB sind auf jeden fall viel zu wenig für so eine Karte.
die wird ja schneller als die 2080ti und wenn ich sehe das da einige spiel die 11gb voll ausreizen sind die 10GB absolut lächerlich.
wer natürlich mit texturen auf low zocken will der wird da dann keine Probleme bekommen.
ein Horizon Zero Dawn hat am PC wirklich top texturen aber noch lange nicht die Qualität die die next gen Spiele bekommen werden und trozdem sprengt das spiel die 11GB meiner Karte so das es immer wieder zu leichten ruckler komm.
die PS5 kann durch den sehr schnellen Controller zwischen SSD und GPU 8k texturen in einer openworld streamen was so am PC wohl nicht gehen wird weshalb man dann sehr viel VRAM braucht um das zu puffern.
da sollte man auf jeden fall die 3080@20gb kaufen
 
Mehr VRAM bedeutet langfristig auch wieder mehr Fortschritt da bessere Texturen möglich werden. Bei 4K hatte ich bei 11 GB meist 9-10 belegt und bei der XT eigentlich immer alles auf Anschlag voll - Man kann sich nun darüber streiten ob das Spiel die wirklich benötigt oder nur reserviert, es ist aber deutlich dass keine "Luft" da ist. Hier kann man dann ja weiterhin Modelle mit weniger Speicher für die 1080p-Spieler anbieten. Andererseits weiß ich auch nicht wie viele 1080p-Budget-Spieler sich eine 3080 oder 3080 Ti einbauen. Für die gibt es dann die X60 und X70 mit 6 bis 8 GB.

16 GB sind für mich schon das Minimum für die kommenden Flaggschiffe. Immer noch 5 GB mehr als die dicksten aktuellen Karten aber nicht so übertrieben wie 24 GB - Die ich zwar auch gern hätte, aber wahrscheinlich auch preislich ins Unermessliche gehen. Früher verdoppelte sich die Speichermenge zudem auch bei jeder Generation ohne dass die Karten gleich doppelt so teuer wurden. Ist GDDR6(X) so viel teurer als frühere Speichertypen als diese noch neu auf den Markt kamen?
 
GDDR6 hat um die 11 Euro Pro GB gekostet letztes Jahr.
GDDR6X soll deutlich teurer sein, aber ne genaue Zahl konnte ich bisher nicht finden.

Wenn man davon ausgeht, dass "deutlich" mind. zu 15 Euro führt, wäre eine Steigerung von aktuell 11 GB auf 24 GB ein Preisunterschied, allein im Einkauf, von 185 Euro.
Dazu kommt dann der deutlich komplexere PCB und die komplexere Herstellung / Fehleranfälligkeit, die man auch noch reinrechnen müsste (dazu habe ich aber schlicht keine Zahlen).
Man kann aber guten Gewissens von 200 Euro Kosten rechnen, nur für den gesteigerten VRAM. Wenn man von der aktuellen 20-40% Marge von NVidia ausgeht, wäre das allein ein Aufpreis von 240-280 Euro.

Das ist definitiv nichts, was man bei einer Low-End oder Midrange GPU machen kann, ohne die Preise komplett zu ruinieren.
Selbst bei den Flagships ist das kein unerheblicher Kostenpunkt. Ob eine GPU jetzt 1300 kostet, oder 1600, ist ja nun doch ein recht signifikanter Unterschied, auch in dem Bereich.
Und jetzt gibt es ja auch Leute, die fordern 16gb VRAM schon beim 300-500 Euro Segment. Kann man sich ja mal durchrechnen, wie realistisch diese Forderung ist.

Was die frühere Verdopplung von Speicher und die Kosten angeht:
VRAM war nie wirklich billiger, oder teurer. Zumindest das, was ich gefunden habe, zeigt immer relativ gleichbleibende Kosten pro GB. Grund hierfür wird sein, dass da immer Neues kommt und nie irgendwas so richtig lange benutzt wird. Von 1gb auf 2gb wären das aktuell um die 10-15 Euro. Nicht wild. Von 2 auf 4gb dann 20-30 Euro. Aber je höher man halt schon ist, desto relevanter wird eine Verdopplung auch.
 
Zuletzt bearbeitet:
Hast du dazu mehr, vielleicht eine Vergleichstabelle was die Speichertypen zu ihrer jeweiligen Zeit kosteten? Falls das stimmt, wären 16 GB sicherlich die beste Zwischenlösung. Andererseits gab es die VII mit 16 GB und die kostete "nur" um die 850 € und das mit immer als teuer angepriesenem HBM2. Machbar ist es doch irgendwie wenn man nicht völlig gierig wird. Alleine das macht mir Hoffnung dass es bei AMD wenigstens vernünftige Preise gibt. Für ein High-End-Produkt bin ich durchaus bereit 1 K hinzulegen, dann erwarte ich aber auch schon eine deutliche Leistungs- und Speichererhöhung gegenüber der Vorgängergeneration.
 
Es ist so richtig schwer bei sowas an die Einkaufspreise zu kommen, weil das normal an einem Tisch ausgehandelt wird und jedes Unternehmen andere Preise bekommt.
Hier ist ein Artikel von Guru3d, die da mal etwas Recherche reingesteckt haben als GDDR6 den GDDR5 abgelöst hat in 2019.

GDDR5 -> GDDR6 hat die Preise fast verdoppelt.
Zu GDDR6X gibt es halt nur überall die Aussagen, dass es "wesentlich" teurer wäre.

Andererseits gab es die VII mit 16 GB und die kostete "nur" um die 850 € und das mit immer als teuer angepriesenem HBM2. Machbar ist es doch irgendwie wenn man nicht völlig gierig wird.

Vergiss nicht, dass die deutlich teurer war für die Leistung, als NVidia GPUs mit identischer Leistung.
Zudem hat AMD die einfach aus dem Sortiment genommen, schon nach wenigen Monaten.

Ich glaube das suggeriert nicht fehlende Gier bei AMD, sondern zeigt eher, dass es evtl. doch nicht "machbar" war, außer für Werbezwecke in sehr beschränktem Rahmen.
 
Das weiß ich, allerdings war das vermutlich ohnehin nur Chiprecycling und wirklich gut war die Karte am Ende nicht. 3 Jahre zu spät aber immer noch weniger effizient als eine 1080 Ti, die 5700 XT ist dagegen ein echter Energiesparer bei gleicher Leistung. Nun mit Navi sehe ich aber durchaus die Möglichkeit dass AMD etwas konkurrenzfähiges raushaut. Für ihre 2560 Shader ist die Leistung echt beachtlich, aber so kommt man nicht im High-End mit. Gäbe es bereits eine 5800 XT mit ~4000 Shadern würde die sich wahrscheinlich sehr gut gegen eine 2080 Ti aufstellen, natürlich wäre die auch teurer.
 
So ist es halt immer.
Nicht nur NVidia hat das Problem, dass Kunden im GPU Segment einfach von +50% ausgehen, jede Generation. Ohne Preisaufschlag.
Dass sie da beide nicht ganz mithalten können und versuchen das alles etwas zu faken, ist nur natürlich. AMD baut einfach keine high-End GPUs, weil sie wissen, dass das nicht billig wird. So behalten sie die Kundenmeinung, dass sie nicht so teuer wären wie NVidia.

Wir sollten als Kunden einfach keine Wunder erwarten und erst recht nicht verlangen.
Mehr Speicher kostet einfach auch mehr. Schnellerer Speicher kostet nochmal mehr. Natürlich wird durch die Forschung Leistung billiger, aber eben nur bereits vorhandene Leistung. Wenn man 50% mehr will, muss das nicht zwingend billiger sein. Und dann muss ja jemand die Forschung auch noch bezahlen.
Da steckt viel mehr dahinter, als man auf den ersten Blick sieht.

Natürlich muss ein Kunde das nicht alles verstehen, oder sich dafür interessieren, aber ein gewisses Verständnis für die Komplexität hilft durchaus die Preise zu verstehen.
 
Eher plus 20%. KEiner will 50% mehr Leistung, so war es auch noch nie. Selbstverständlich ohne Preisaufschlag, sonst wäre es keine Nachfolgetechnologie, sondern ein höheres Modell. Und interessanter Weise hat es bisher auch schon immer und mit jeder Technologie so funktioniert.
Die arme Firma nvidia muss bestimmt nicht unbedingt Wucherpreise gestalten um zu existieren, wo sie ihren Wert doch innerhalb eines dreiviertel Jahres fast verdreifacht hat.
 
Zuletzt bearbeitet:
Für 20% würde ich kein GPU Update machen. Da muss mindestens >30% bei rumkommen.
 
Die arme Firma nvidia muss bestimmt nicht unbedingt Wucherpreise gestalten um zu existieren, wo sie ihren Wert doch innerhalb eines dreiviertel Jahres fast verdreifacht hat.
Mit dem Argument könntest Du AMD extremen Wucher vorwerfen
AMD Performance über die letzten 3 Jahre: +576%, im Vergleichszeitraum NV: +200%
Aktienpreise sind sicher kein Indikator dafür ob eine Firma zu hohe Preise ansetzt.
Und wenn du mal den Artikel den Du verlinkt hast auch lesen würdest, dann steht dort ziemlich klar dass die Umsatzsteigerung nicht direkt in höhere Gewinne umgesetzt werden konnte weil die Kosten eben steigen.

Tut aber nichts zur Sache, hier gehts ja um AMD und die werden sicher versuchen mit einem guten Produkt und guter P/L NV Paroli zu bieten.
 
Mal ne Frage an die Leute hier: Wenn mal so ne Graka rauskommt, die... sagen wir 500% mehr Leistung bietet und entsprechend auch 500% teurer wäre - kauft ihr das dann aus Reflex oder guckt ihr mal auf das Teil und fragt euch "Wie viel Leistung brauche ich eigentlich?". Das Problem haben wir derzeit nicht, weil 4k nicht unüblich ist und keine GPU das derzeit ordentlich stemmen kann. Aber mal so rein theoretisch. Würdet ihr euch ne GPU kaufen die 8k auf 200FPS stemmen könnte, obwohl ihr nur einen 1440p Bildschirm mit max 144Hz habt?

Bei einigen Kommentaren liest es sich nämlich so.
 
Nur wenn Nvidia drauf stehen würde :bigok:

Nein Spaß beiseite aber den Spieleentwicklern würde immer was einfallen wie sie die Leistung nutzen können.
Bis die Grafikkarten mal ein modernes spiel komplett in Raytracing berechnen können wird das wohl noch lange dauern und daher passiert das nicht so schnell das man genug Leistung hat.
Grade wenn eine neue Konsolengeneration ansteht gibt es einen Sprung in der Grafik und man braucht mehr Grafikpower und Vram.
Laut Entwicklern ist ja nun auch der Größte Sprung da den es jemals von einer Generation zur nächsten gegeben hat und wird sehr nah an Fotorealismus herankommen wobei The Last of Us Part 2 da ja schon auf der PS4 Pro echt dran ist
 
Mal ne Frage an die Leute hier: Wenn mal so ne Graka rauskommt, die... sagen wir 500% mehr Leistung bietet und entsprechend auch 500% teurer wäre - kauft ihr das dann aus Reflex oder guckt ihr mal auf das Teil und fragt euch "Wie viel Leistung brauche ich eigentlich?". Das Problem haben wir derzeit nicht, weil 4k nicht unüblich ist und keine GPU das derzeit ordentlich stemmen kann. Aber mal so rein theoretisch. Würdet ihr euch ne GPU kaufen die 8k auf 200FPS stemmen könnte, obwohl ihr nur einen 1440p Bildschirm mit max 144Hz habt?

Bei einigen Kommentaren liest es sich nämlich so.

Kann natürlich nicht für andere Sprechen, aber ich würde das definitiv nicht kaufen, nein.
Ich kaufe solange die dickste GPU, bis 4k@144hz in jedem Spiel gehen. Das wird frühestens ne 4080ti / 4090 sein, so in 2 Jahren vermute ich, eher ne 5080ti in 4 Jahren.
Mal AMD kurz ignoriert bei dem Gedanken, weil ich AMDs Behauptungen erst dann glaube, wenn ich sie sehe. Sollte BigNavi, bzw. die Nachfolger, besser zu meinem Ziel passen, bekommt AMD mein Geld.
Raytracing gehört allerdings auch zu der Rechnung, weil es mir sehr wichtig geworden ist und ich bezweifle, dass AMD im ersten Schuss mit NVidias zweitem Anlauf mithalten kann.

Das ist mein Ziel, aber aktuell passe ich eher den Monitor an die GPU an.
Es gibt momentan in 32 Zoll eh keine 4k 144hz IPS Panel, aber eben auch keine GPU dafür. Also schaue ich was die 3090 packt (und ob es nen Titanreplacement ist, oder ein 2080ti Replacement) und kaufe dann einen entsprechenden Monitor dazu. Wird wohl auf 1440p@144hz rauslaufen... die sind auch relativ günstig im Vergleich zu 4k. Kann ich wohl statt 4k wenigstens gutes HDR mitnehmen.

Wegen Titan vs 80ti:
Ich würde auch keine Titan kaufen, nur weil sie auf dem Papier 3% besser ist, bei nahezu doppeltem Preis. (In der Realität waren sie meist sogar schlechter, weil sie durch Boardpartner nicht tuned werden durften)
Eine gewisse Preis/Leistungs-Spanne erwarte ich schon. Bei 2080 vs 2080ti habe ich ne Woche überlegt, ob es mir das wert ist. 60% mehr Preis für 30% mehr Leistung. War nicht ganz klar, aber es mir im Endeffekt dann doch wert. Eine Titan hingegen ist mir den Aufpreis noch nie wert gewesen und wird es auch nie sein, solange NVidia die quasi gleichauf mit einer 80ti plaziert für doppelten Preis.

Kurz zusammengefasst:
Ich kaufe sicher nicht aus Reflex das Teuerste. Ich kaufe aber gerne das "Teuerste, dass noch einen signifikanten Leistungssprung liefert". Wie gesagt ist da 2080 -> 2080ti grob das Limit gewesen und vom Bauchgefühl würde ich das wohl auch in Zukunft so beibehalten. Bei "billigen" GPUs war ich bisher nie happy mit dem Kauf. Das ist etwas, dass man nicht vergessen sollte. 500 Euro für ne GPU tun mir mehr weh, wenn ich nicht happy damit bin, als 1500 Euro, wenn ich damit happy bin.
 
Also kann man sagen, 1500€ für ne High-End GPU kann man mittlerweile locker verlangen. "Leistung kostet eben was"^^
Gut, wenn sich das jetzt schon so eingebürgert hat brauchen wir uns ja keine iLLusionen mehr machen dass das P/L Verhältnis irgendwann mal wieder normal wird ;)

Wie macht die grüne Kuh? Muhhh^^
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh