RDNA 2: Big Navi soll in drei Chipgrößen kommen

Ja richtig dann wäre es viel schlimmer, ich sehe das im übrigen auch sehr kritisch und es ging mir auch nicht darum etwas zu beschönigen,

sondern, dass zb die Redaktionen der Sache mal nachgehen, um endlich Klarheit zu bringen.

Warum kommt den BN so spät auf den Markt, obwohl er schon längst hätte auf dem Markt sein sollen ....

Edit:
Hatte vor Monaten extra meine Radeon7 verkauft, um dann im März so hieß es damals auf BN um zu steigen, musste dann aber hart in die Röhre gucken und war genötigt mit Navi zu überbrücken. /:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja richtig dann wäre es viel schlimmer, ich sehe das im übrigen auch sehr kritisch und es ging mir auch nicht darum etwas zu beschönigen,

sondern, dass zb die Redaktionen der Sache mal nachgehen, um endlich Klarheit zu bringen.

Warum kommt den BN so spät auf den Markt, obwohl er schon längst hätte auf dem Markt sein sollen ....

Edit:
Hatte vor Monaten extra meine Radeon7 verkauft, um dann im März so hieß es damals auf BN um zu steigen, musste dann aber hart in die Röhre gucken und war genötigt mit Navi zu überbrücken. /:
Tja holzi, man verkauft die milch nicht, bevor die kuh gemolken ist ^^.
 
Btw. wieso sollte TSMC niedrige Yields selbst tragen? Das macht eine Intel, die für sich selbst fertigen, weil ihnen nix anderes über bleibt wenn das dennoch gefertigt werden soll. Aber ein Auftragsfertiger kalkuliert die Yields in den Preis -> niedrigere Yields = höhere Preise. Auf den Kosten wird eine TSMC ganz sicher nicht sitzen bleiben. Das zahlt ziemlich sicher AMD selbst... Von Fehlern bei der Produktion mal abgesehen, dafür dürfte es Versicherungen oder sonder Klauseln im Vertrag geben.
:giggle: Natürlich kannst du die Kosten weiterleiten, im übertragenden Sinne zahlt sie im Endeffekt der Käufer. Aber wenn TSMC nicht die vereinbarte Mindestmenge liefern kann werden die Kosten bei denen hängen bleiben, weil sie produzieren.
Die genauen Yields kennt AMD vielleicht gar nicht, die kennen nur das was TSMC intern so mitteilt.
Spielt auch bezüglich des Statements von Deckstein keine Rolle, die vergrößerte Chipfläche ist nahezu bei jedem Produkt was in Masse produziert wird problematisch, Herstellungszeit, Energieaufwand, Chemikalien, Maschinen, Hitze usw.. Daher erkennt man einfach das der größte Chip eigentlich kein Schnäppchen werden kann, auch wenn AMD gute Konditionen hätte.
Die wird Jensen und Nvidia mit Samsung als zusätzlichen Partner auch haben, ich glaube aber nicht das man seine Ware deswegen verschleudert, das wird wenn überhaupt die Kosten der kleinen Chips bzw. Einsteiger Modelle drücken.
Fährt man wieder son Monster wie bei Turing für die GeForce wird es teuer, auch wenn logischerweise 7nm bzw. 8nm insgesamt natürlich deutlich mehr Transistoren bietet und daher kleiner ist als 12+++ von der Gesamtfläche.

Das ist mir alles klar, aber das als debakel darzustellen halte ich für sehr mutig.

Geisterte nicht eine zahl von 5 milliarden herum?
Und damals war intel schon der grösste gpu lieferant(office kisten mit integrierter gpu) amd hat einfach gesehen dass man da eine nachfrage hat, die bedient werden will.
Das ist schlicht die Realität die stattgefunden hat, Nvidia wollte man für den selben Betrag eigentlich haben, hinzu kam noch der Bulldozer der auch über den Klee gelobt wird bis heute. Was aber finanziell im totalem Debakel geendet hat und nur durch Verkauf von Assets wie die gesamte Produktion etc. und ner gewaltigen Finanzspritze der Arabs zu retten war.

Die HD 5870 war natürlich ne ATi Karte, da würde ich mich nicht mit brüsten. Intern wird es sicherlich auch noch Leute geben die dabei sind, sie nennen sich ja immer noch so, aber die Radeons sind im Vergleich zu dieser Zeit ein Witz, und ich sehe keine ansatzweise authentischen Benches die deine Halluzinationen stützen, du leidest schlicht unter Markenwahn und kennst die eigene Historie der Marke gar nicht.


Ja richtig dann wäre es viel schlimmer, ich sehe das im übrigen auch sehr kritisch und es ging mir auch nicht darum etwas zu beschönigen,

sondern, dass zb die Redaktionen der Sache mal nachgehen, um endlich Klarheit zu bringen.

Warum kommt den BN so spät auf den Markt, obwohl er schon längst hätte auf dem Markt sein sollen ....
Dem sollte AMD eigentlich nachgehen, nicht die Kundschaft oder Hardwareluxx. Außerdem ist es eh immer eine Kombination aus Hard und Software. Die Reddit AMD Community kann aber meist GUI, und tatsächliche Treiberarbeit gar nicht unterscheiden, dann wird es problematisch.
 
Zeig uns doch mal bitte einen Quelle, wo AMD sagt, dass Navi ein Treiberproblem hat.
"Some users may still experience black screen or system hang issues during extended periods of gameplay. AMD will continue to monitor and investigate reports of these issues closely."
Steht btw. seit geraumer Zeit (min. seit Jan 2020 - hab aber auch nicht alle Release Notes gelesen) unter den known issues in den Release Notes - und tue bitte nicht so als wüsstest du das nicht...


"Some Radeon RX 5700 series graphics users may intermittently experience a black screen while gaming or on desktop. A potential temporary workaround is disabling hardware acceleration in applications running in the background such as web browsers or Discord."

Beim 19.9.2 ist nur von 5700 <> Discord die Rede, nicht aber von hangs or black screens allgemein. Hab jetzt aber auch keine Lust dir das hier vorzukauen, bei nächster Gelegenheit weißt du davon eh wieder nix und stellst Fragen dessen Antworten du normal selbst wissen müsstest um Unruhe zu stiften - zum Glück springen da mittlerweile sooo viele nicht mehr drauf an... Also spar es dir doch in Zukunft einfach und gut ist, es könnte wie immer so einfach sein...

:giggle: Natürlich kannst du die Kosten weiterleiten, im übertragenden Sinne zahlt sie im Endeffekt der Käufer. Aber wenn TSMC nicht die vereinbarte Mindestmenge liefern kann werden die Kosten bei denen hängen bleiben, weil sie produzieren.
Von der Seite, klar da stimmt das sicherlich, aber wer wenn nicht TSMC bzw. die Ingenieure kennen die Ausbeute?
Ich kann mir absolut nicht vorstellen, dass eine TSMC Mindestliefermengen zusagt, die sie nicht in der Lage sind zu liefern - ich mein in dem Bereich hört man so effektiv gar nix dergleichen. Bspw. verglichen mit den Lieferproblemen bei Intel, die auch zu gewissen Teil mit gesteigerter Nachfrage einher gehen und durch erhöhte Kapazitäten nicht abgefedert werden scheint es absolut keine Probleme mit TSMC zu geben...

Ich könnte mich irren, aber logisch wäre mMn eine Skalierung nach Kosten pro Liefermenge. Wer mehr abnimmt, zahlt weniger pro Stück, allein das bedeutet, dass Chips mit höherer Absatzmenge ggf. gar günstiger als Chips mit weniger kalkulierter Menge, nicht ganz unabhängig der Größe logisch, aber in einem Teil nicht zwingend in der Reihenfolge dieser.

Simples Beispiel, ein Massenmarkt BigN könnte trotz größerer DIE Size durchaus pro mm2 gesehen günstiger sein als ne Nischenreihe mit weniger DIE Size. Datacenter könnte hier mit rein spielen - Wobei auch AMD hier ja auftrennen wollte mit RDNA2 und einem Compute Ableger. Ich denke es muss abgewartet werden.

Bin aber voll und ganz bei dir bei der Aussage, wenn das Teil groß wird, wirds definitiv nicht günstig :d
 
und tue bitte nicht so als wüsstest du das nicht...

Henne-Ei-Problem, ich weiß das es Probleme gibt, aber das sie mit dem Treiber zu tun haben ist und bleibt Spekulation, selbst wenn sie in den Release Notes zum Treiber stehen.
Die Frage ist, können die besagten Probleme überhaupt mittels Treiber gelöst werden, einzig und allein darauf zielte mein Einwand ab, um mehr gings nicht.
 
Die erste Navi Generation war echt ein guter Wurf. Der Zeitpunkt war leider etwas zu spät, aber der Rest passte. Was AMD fehlt sind halt die OEM Partner, was sich auch bei der Server Sparte zeigt. Meine persönliche Einschätzung zu Big Navi wird Niveau einer 3080 + 5-10%
 
@Infi88 An welchem wahn leide ich?

Markenwahn? Du bist aber lustig. Geh nichmal lesen was gesxhrieben wurde und was ich geantwortet habe.
Tl:dr nur weil ein chip grösser isr, heisst es nicht dass er teurer sein muss. Alleine die verbesserte yield kann den preis um 20% pro chip drücken. davon dass der grosse chip günstig wird, habe ich jedenfalls nichts gesagt ^^
 
Von der Seite, klar da stimmt das sicherlich, aber wer wenn nicht TSMC bzw. die Ingenieure kennen die Ausbeute?
Ich kann mir absolut nicht vorstellen, dass eine TSMC Mindestliefermengen zusagt, die sie nicht in der Lage sind zu liefern - ich mein in dem Bereich hört man so effektiv gar nix dergleichen. Bspw. verglichen mit den Lieferproblemen bei Intel, die auch zu gewissen Teil mit gesteigerter Nachfrage einher gehen und durch erhöhte Kapazitäten nicht abgefedert werden scheint es absolut keine Probleme mit TSMC zu geben...

Ich könnte mich irren, aber logisch wäre mMn eine Skalierung nach Kosten pro Liefermenge. Wer mehr abnimmt, zahlt weniger pro Stück, allein das bedeutet, dass Chips mit höherer Absatzmenge ggf. gar günstiger als Chips mit weniger kalkulierter Menge, nicht ganz unabhängig der Größe logisch, aber in einem Teil nicht zwingend in der Reihenfolge dieser.

Simples Beispiel, ein Massenmarkt BigN könnte trotz größerer DIE Size durchaus pro mm2 gesehen günstiger sein als ne Nischenreihe mit weniger DIE Size. Datacenter könnte hier mit rein spielen - Wobei auch AMD hier ja auftrennen wollte mit RDNA2 und einem Compute Ableger. Ich denke es muss abgewartet werden.

Bin aber voll und ganz bei dir bei der Aussage, wenn das Teil groß wird, wirds definitiv nicht günstig :d
Asiaten halten alles intern, deshalb hört man auch nichts :ROFLMAO: ,und bei uns sind nur die Araber und Donald J. Trump in den Nachrichten vertreten.

Die hatten bei TSMC auch schon immer dramatische Probleme, wie jede Firma. Deshalb auch der immer schwankende Aktienkurs, obwohl man eigentlich schon seit sehr langer Zeit eine fundamentale Stellung im Markt inne hat.
Aber Erdbeben, falsche Chemikalien usw., wird meist die Versicherung bezahlen. Top-End Forschung bleibt aber immer Risikomarkt, liegt in der Natur der Sache.
Die werden denen einfach ne kalkulierte Summe an Chips versprechen zu einem gewissen Preis und fertig, kann aber schon sein wenn man die Node zusammen mit TSMC gemacht hat man sich tatsächlich Unkosten teilt und auch sensible Informationen austauscht, anders könnte man sich wohl auch nicht so viel Kapazität leisten bei der Konkurrenz Situation für AMD. Es wird ja gemunkelt das Intel auch jetzt zu gegen ist :oops:.

Aber ein passendes Beispiel ist jetzt auch COVID-19, wenn TSMC nicht produzieren kann werden die ihre Verträge wahrscheinlich nicht einhalten können, da werden sie dann neue aushandeln müssen, und das werden wohl auch alle mitmachen. Aber TSMC wird wahrscheinlich zwangläufig vertragsbrüchig werden, ich bin mir da nicht sicher ob US Firmen dann den Hut rum gehen lassen werden für den guten Zweck oder brüderlich teilen ;D.
Durch diese intelligente Verkaufsstrategie sind sie aber ja auch so stark geworden, "jeder bekommt etwas vom Kuchen ab" Apple, Nvidia,Qualcomm,Huawei und AMD etc. stopfen uns mit Geld voll :giggle:.

Die erste Navi Generation war echt ein guter Wurf. Der Zeitpunkt war leider etwas zu spät, aber der Rest passte. Was AMD fehlt sind halt die OEM Partner, was sich auch bei der Server Sparte zeigt. Meine persönliche Einschätzung zu Big Navi wird Niveau einer 3080 + 5-10%
Ich würde behaupten die haben schlechteren Absatz als Vega abgesehen von der Radeon 7 natürlich, die hatte gar keinen, und man hat eigentlich auch mit den größten OEM an Bord den man bezüglich discret GPUs haben kann, Apple. Die reine Leistung war bei den Radeons meist auch zumindest im Potential immer da, das reicht aber nicht für ne gute Grafikkarte.
 
Henne-Ei-Problem, ich weiß das es Probleme gibt, aber das sie mit dem Treiber zu tun haben ist und bleibt Spekulation, selbst wenn sie in den Release Notes zum Treiber stehen.
Die Frage ist, können die besagten Probleme überhaupt mittels Treiber gelöst werden, einzig und allein darauf zielte mein Einwand ab, um mehr gings nicht.

Also genügt dir nichtmal das, was AMD als known issue in ihre Release Notes schreibt um das Problem anzuerkennen? Jaaa genau... Lass mal gut sein...
Und nein, das ist nicht die Frage - Known Issues zu Treibern beantworten dir das ganz klar, wenn man denn akzeptieren würde, dass es da offensichtlich Probleme gibt. Man hat diese aktuell ein Stück weit eingegrenzt - viele vermelden deutliche Besserung, andere haben weiter die Probleme und schicken teils ihre gerade frisch erstandene Hardware zurück, weil der Mist einfach nicht funktioniert wie er soll... Aber in einem kleinen gallischen dorf gibts ein paar Nasen, ...

Die hatten bei TSMC auch schon immer dramatische Probleme, wie jede Firma.

Das weiß ich, aber abseits Corona ist es aktuell sehr ruhig. Es gab seinerzeit massiv Meldungen über GPUs und vor allem Yield Probleme - über verschiedene Prozesse hinweg auch über längere Zeiten hinweg. Aktuell ist eher das Gegenteil zu beobachten. Man meldet teils schneller neue Prozesse entsprechend hochgefahren zu haben als eingangs überlegt. All das zusammen, ich bleibe dabei, TSMC kann liefern - selbst aktuell scheint das da drüben bei den Chinesen und Taiwanesen weniger Corona "Nachwehen" zu geben als in der EU. Und TSMC liefert offenbar den Quartalszahlen nach auch real...

Aber egal, wir werden eh abwarten müssen wie das weiter geht... GPU ist das eine, wenn der Rest nicht funktioniert, die Lieferketten nicht oder nur in Teilen funktionieren usw. ist das dennoch ein Problem.


Btw. ich kenne persönlich Leute bei GloFo in Dresden - soweit ich das dort höre läuft die Produktion nach wie vor. Ich würde mal annehmen, dass das bei einer TSMC nicht sonderlich anders ausfallen dürfte. Anderes Land, andere Leute, anderer Prozess - aber sooooo viel Unterschied ist da im groben nicht. Allerdings macht ein Chip allein halt noch keine neue Grafikkarte - insofern kann natürlich dennoch Corona für Probleme sorgen, was die Produktion angeht. PCB Fertigung und so...
 
Das weiß ich, aber abseits Corona ist es aktuell sehr ruhig. Es gab seinerzeit massiv Meldungen über GPUs und vor allem Yield Probleme - über verschiedene Prozesse hinweg auch über längere Zeiten hinweg. Aktuell ist eher das Gegenteil zu beobachten. Man meldet teils schneller neue Prozesse entsprechend hochgefahren zu haben als eingangs überlegt. All das zusammen, ich bleibe dabei, TSMC kann liefern - selbst aktuell scheint das da drüben bei den Chinesen und Taiwanesen weniger Corona "Nachwehen" zu geben als in der EU. Und TSMC liefert offenbar den Quartalszahlen nach auch real...

Aber egal, wir werden eh abwarten müssen wie das weiter geht... GPU ist das eine, wenn der Rest nicht funktioniert, die Lieferketten nicht oder nur in Teilen funktionieren usw. ist das dennoch ein Problem.


Btw. ich kenne persönlich Leute bei GloFo in Dresden - soweit ich das dort höre läuft die Produktion nach wie vor. Ich würde mal annehmen, dass das bei einer TSMC nicht sonderlich anders ausfallen dürfte. Anderes Land, andere Leute, anderer Prozess - aber sooooo viel Unterschied ist da im groben nicht. Allerdings macht ein Chip allein halt noch keine neue Grafikkarte - insofern kann natürlich dennoch Corona für Probleme sorgen, was die Produktion angeht. PCB Fertigung und so...
Die Fabs 12, 14 und 16 sind die Produktions stärksten und haben wahrscheinlich alle 7nm Wafer mittlerweile am laufen, die sind alle auf dem chinesischen Festland :fresse: .
Da kommt bald ne Umsatzwarnung des Jahrhunderts wahrscheinlich, auch wenn ich die Auswirkung der Pandemie in Taiwain und auch dieser Region Chinas nicht kenne, aber das hat schon dramatische Auswirkungen die auch TSMC treffen werden, bzw. schon getroffen haben.

Das hat aber ja nichts damit zu tun was AMD so fürn Chipdesign plant, der wird aber halt zwangsweise teurer werden je größer die Chipfläche ist mehr schrieb ich eigentlich nicht, wenn dem nicht so wäre hätte AMD ja sicher schon längst einen Vollausbau mit ordentlicher Preisleistung gebracht, das können sie aber bisher nicht für Spieler, weil es eben nicht rentabel ist, und um ehrlich zu sein das 500m²+ Ding kostet wahrscheinlich mehr als die Radeon 7 zu Release die nur 331m² DIE Size hatte, da würde ich mich sehr weit aus dem Fenster lehnen.
 
Ob die doppelte Größe des dies zu einer doppelten Anzahl an CUs, vllt. geringer/höher führen wird, wissen wohl nur die Beschäftigten dort gerade ;)
Schau man sich die Transistoranzahl/mm² von den ryzen 2 chiplets an, ist diese gerade einmal 52,7 Mill. Transistoren pro 1 mm².
Das ist schon sehr wenig, verglichen mit Apples A13 ~ 86,7 Mill./mm². oder anderen.
Wenn man Intels 10 nm Angaben traut "Density by 2,7x over 14 nm", dann sind es wohl 35 - 40 Mill./mm² für 14 nm++, wobei andere Rechnungen von ~ 20 Mill./mm² ausgehen.
Amd renoir Chips sollen ~63 Mill./mm² haben. Also eine Verbesserung zu Desktop Zen 2. Ob es am verbesserten Fertigungsverfahren liegt, oder der Entscheidung die Dichte zu erhöhen da die Temperaturen niedriger sind? :coffee:

Laut coreteks Video haben die turing Chips bereits einige zwei zusätzliche Hardware-Beschleuniger (accelerators) abseits von dem RT zeugs (accelerators): kompression/Dekompression von Daten für in und aus dem Speicher. Ein Grund warum Turing so schnell ist.
egeves.jpg


Im Smartphone-Bereich bei Apple und co. ist man bereits viiiieel weiter.
Amd wird da also nachziehen und bei nvidia baut man diesbezüglich wohl auch weiter aus; scheint die Zukunft zu sein. Da geht also nicht nur Chipfläche für raytracing sondern auch für sowas drauf.

Was jedenfalls Fakt ist: die gpu der PS5 erreicht 2,2 GHz Takt! Vllt. 2,4 GHz im Desktop^^
 
Ich würde behaupten die haben schlechteren Absatz als Vega abgesehen von der Radeon 7 natürlich, die hatte gar keinen, und man hat eigentlich auch mit den größten OEM an Bord den man bezüglich discret GPUs haben kann, Apple. Die reine Leistung war bei den Radeons meist auch zumindest im Potential immer da, das reicht aber nicht für ne gute Grafikkarte.

Der Markt ist halt gesaettigt auf diesem Performanceniveau (1070 ti,1080,2060,2060s,2070,vega 56, vega 64)
Dazu gab es mehr Marketing auch bei Vega und auch mit vielen Features wurde beworben. Haette Vega seine Performance auf die Straße gebracht beim Gaming, waere es eine verdammt gute Karte geworden (außer Leistungsaufnahme). Klar Apple ist Nr.1 aber auch in einem 0815 Rechner bei Media-Saturn müssen mal mehr Navi Grafikkarten rein
 
Hoffentlich stellt AMD jetzt endlich mal wieder was brauchbares auf die Beine. Vega & co wurden von einem einem minimalbesetzten Team auf den Markt geworfen und haben entsprechend performt. Eigentlich hatte ich gehofft, dass man bei der 5700xt schon dazu gelernt hat, aber qualitativ ist die sogar schlechter als Vega (bei meinem Exemplar lies sich nicht einmal ein Treiber installieren...)

Im Midrangesegment war Polaris echt ok, der Rest war eigentlich nur enttäuschend.
 
Doppelte Chipgröße bedeutet leider nicht gleich doppelte Leistung.
Doppelte Leistung einer 5700XT? Da sind wir bei einer TDP von 450W..

Hoffe mal, AMD bekommt da was gutes hin.
Keine Lust, eine Niere für die nächste NV-HighendGPU zu verkaufen. :fresse:
 
Hoffentlich stellt AMD jetzt endlich mal wieder was brauchbares auf die Beine. Vega & co wurden von einem einem minimalbesetzten Team auf den Markt geworfen und haben entsprechend performt. Eigentlich hatte ich gehofft, dass man bei der 5700xt schon dazu gelernt hat, aber qualitativ ist die sogar schlechter als Vega (bei meinem Exemplar lies sich nicht einmal ein Treiber installieren...)

Das werden sie bestimmt. In der Vergangenheit hat man gesehen wozu Amd/Ati fähig ist. Das sieht man jetzt auch mit den Ryzen cpu's. Du sagst ja selber "ein minimalbesetztes Team". Für mich ist noch entäuschender wenn die anderen großen Hersteller die vielfache an Ressourcen und Finanzen haben nicht davon ziehen können. Natürlich ist man bei AMD nicht im High End voll vertreten. Die Vega Gpu's waren und sind in Compute Anwendungen sehr gut. Das waren halt universelle Karten. Für mein Zweck wo ich ein wenig Gaming betreibe sind die perfekt. Das war vielleicht AMD's fehler das die in allen bereichen mithalten wollten. Das wollen die in Zukunft besser machen in dem sie die Profi karten mit Gaming trennen. Deswegen glaube ich das da was gutes kommen wird.
 
Doppelte Chipgröße bedeutet leider nicht gleich doppelte Leistung.
Doppelte Leistung einer 5700XT? Da sind wir bei einer TDP von 450W..

Hoffe mal, AMD bekommt da was gutes hin.
Keine Lust, eine Niere für die nächste NV-HighendGPU zu verkaufen. :fresse:
Abzüglich der 50% effizienzsteigerung. Also 75% von 450W sind 330W pi mal daumen. Geht ja, meine alte vega 56 säufte gerne 350 watt

Bei doppelter leistung ist es doch ok. Aber wir werden sehen.
 
Die neuen Radeons auf Basis von RDNA2 werden sicherlich den Erfolg ala Zen2 bzw. Ryzen 3000 wiederholen.

So optimistisch kann man diesmal sein.
 
Kaum wahrscheinlich, dass sie RTX3000 damit Paroli bieten können.. also wieder eine Niete
 
Warum glaubst du das?

Bzw. warum sollte Big Navi sonst in drei Chipgrößen kommen?
 
Die letzte wirklich Krasse AMD Karte die mich richtig aus dem Haus gehauen hatte war damals die 7870XT, gut die Vega ist schon ein Monster bedarf aber viel Spieltrieb und Zeit.
Ich hoffe das mit BigNavi wieder es so wird ansonsten, ansonsten erstmal abwarten und Tee trinken sind wir ja schon gewohnt.
 
Die 7970 und R9 290 waren auch sehr gut. Gerade die 7970, die ist uralt und selbst heute noch halbwegs zum Zocken tauglich, zumindest in 1080p.

Bei Big Navi habe ich noch die Hoffnung dass es preislich im Rahmen bleibt. Bis 1 K bin ich bereit auszugeben und erwarte das Topmodell. Bei NVIDIA braucht man gar nicht erst zu hoffen, sollten sie die Turingpreise beibehalten können sie sich den Dreck sonstwo hinschieben. Früher bekam man für 1 K den Vollausbau mit doppeltem Speicher, heute ist nicht mal mehr eine beschnittene Ti drin.

Potenzial ist für AMD dieses mal auf jeden Fall drin, die 5700 XT legt gut vor und 2021 werden wir mindestens das Doppelte an Leistung sehen, wahrscheinlich sogar etwas mehr aufgrund der Architekturverbesserungen.
 
Ja ich muss dann Referenzkarte kaufen und ein Wakü Block das treibt das auch noch mal gut nach oben von daher rechne ich auch mit bis zu 1000 Euro und ich will eine ordentliche Verbesserung haben zu meiner Vega sonst lohnt das nicht
 
Die blackscreen Sachen von Navi haben was mit BN zu tun?
Außerdem ist nicht klar, ob die blackscreens bei xt5700 ein Treiberproblem ist, das muss man mal ganz klar so sagen, glaube sogar eher an ein Problem in Hardware, aber ist hier nicht das Thema.

Immer alles auf den Treiber zu schieben ist einfach unfair.

An Holzmanns Aussage könnte etwas wahres sein.
Ich habe ca. mitte letzten Jahres gelesen (schlagt mich, aber ich weis nicht mehr wo), dass die Ingenieure froh gewesen wären wenn sie von RDNA1 zum RDNA2 Team wechseln konnten da RDNA1 ziemlich verbugt gewesen sein soll.

Wäre möglich das da noch einige Bugs sind die man mit Software nicht in den Griff bekommt und/oder ziemlich versteckt sind (Vermutung von mir).
 
Zuletzt bearbeitet:
Die Quelle vom youtube Channel "Moore's Law is Dead"sagt dass sich die Beschäftigten bei nvidia diesmal so richtig ins Zeug legen mussten.
3.jpg

2.jpg

1.jpg


Kann man so als Nicht-Insider nicht wissen ob da was dran ist oder nicht. Gerüchte und so.
Das mit der "lossless vram Kompression/Dekompression" die Tensor-Kerne verwendet klingt aber mehr als glaubwürdig; macht man dies bei Turing momentan bereits auch.
DLSS 3.0 klingt zu gut um wahr zu sein. Wie soll dies möglich sein, ganz ohne ohne Integration der nvidia Bibliotheken etc. vom Entwickler?
Wenn dies mit dlss 3 wirklich so kommt und es dann sogar noch besser als bei dlss 2.0 aussieht, müssen die Redakteure die Tests überdenken.
Ohne/Mit dlss 3 testen. Macht dann kaum einen Sinn es nicht einzuschalten.
 

Anhänge

  • 1.jpg
    1.jpg
    147,5 KB · Aufrufe: 68
wieviele Spiele hast du mit DLSS gespielt? es hat noch Bugs, es macht dann Sinn wenn man mehr Performance benötigt
 
Mein Vergleich war mit DLSS 2,0 und den wenigen Spielen die dies benutzen. Bei Luxx gab es einen Test dazu. Da gibt es bezogen auf die Bildqualität doch kaum was mehr auszusetzen.
Wie ist deine Erfahrung?
Die 50 - 250 % mehr Bildrate (je nach gpu/Auflösung) nehmen die meisten wohl gerne mit ;)
Wen dlss 3 wirklich so kommen "würde".
Selber testen konnte ich nur Metro Exodus mit dlss (also nicht 2.0). War bekanntlich nicht so der Bringer.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh