Radeon RX 6000: AMD zeigt erste 4K-Benchmarks

Ich tippe mal auf die 6900.
Dann kann AMD am 28. noch die XT herzeigen und sich auf die 3080 drauf setzen.
Wobei mir das eigentlich ziemlich egal ist. Mir wär's sogar lieber, wenn die AMD im Schnitt ein bisserl langsamer ist, dann muss der Preis nämlich im Rahmen bleiben. ^^
NV lässt sich +10% mit ~800€ bezahlen. Wer weiß was AMD für+10% verlangt, jetzt wo sie auch abheben...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das gänzlich Schlimmste Szenario für mich wäre, wenn BigNavi Ampere schlägt bei Rasterisierung UND mehr VRAM hat, zum gleichen Preis.... dafür aber bei Raytracing abstinkt.

Ist echt schwer von RTX Voice wegzugehen. Die Alternativen sind alle richtig schlecht und / oder teuer im Vergleich.
Und eigentlich brauche ich auch nur RT Performance. ;-)

Aber wenn BN in den anderen Kategorien total gut wird, dann will ichs halt trotzdem haben,... doof!
Also einfach hoffen, dass es genauso ein Rundumschlag wird wie Zen 3, oder ein gewöhnlicher AMD GPU Launch, bei dem man sich keine Sorgen um ein Upgrade machen muss. Eines von beiden, nur nix dazwischen bitte. ;-)
 
Vieleicht ist es gut oder kalkuliert wenn AMD die Preise nicht zu neidrig ansetzt.
Was passiert wenn man Jahre lang bestenfalls als billige Alternative galt, sieht man grade bei den CPUs wo sich jetzt "alle" drüber aufregen dass sie nun wo sie die Oberhand haben, auch etwas mehr verlangen.
 
DLSS 2.0 sieht aber mega gut aus. Schau es dir bei Wolfenstein Youngblood an und du wirst deine Meinung mit Nativ ist das einzige Wahre mit sicherheit ändern da DLSS da besser aussieht.
DLSS ist eine Super Sache und Fidelity FX sieht auch top aus je nach Umsetzung

Die Sache ist, bei einer Karte für vielleicht 500 € klingt DLSS als Lösung sogar ganz gut um die Leistung zu strecken. Bei einer High-End-Karte wie der 2080 Ti war ich jedoch mehr als verärgert, schließlich erwartet man bei so einem Preis ein "ungestrecktes" Produkt dass auch RTX in 4K nativ schafft und dann in mehr als ein paar ausgewählten Titeln. Der Preis muss hier zum Gebotenen passen. Nun bei der 3090 wieder das Gleiche, teils über 2 K und dann bewerben sie es als 8K* (*nur mit Upscaling per DLSS), wobei es jetzt schon mehr als lächerlich wirkt, denn selbst wer die 30.000 € für einen 8K-Fernseher hat wird vermutlich lieber in 4K mit höherer Framerate spielen wollen auf der 3090 weil die gewonnene Bildqualität durch die zusätzliche Auflösung oberhalb von 4K bereits extrem gering ist. 4K war gut und ist ein Schritt nach vorne, es liefert gute Bildqualität verglichen gerade mit 1080p (Wenn man sich mal die Kanten selbst ohne AA anschaut) und läuft auf modernen GPUs auch bereits ganz akzeptabel, 8K ist aber noch übertriebener als es 4K vor ein paar Jahren mal wirkte. In 10 Jahren vielleicht...
 
Es geht aber eben darum, dass DLSS 2.0 besser ist als Nativ rendern. Sowohl vom Speed, als auch von der Qualität.
Genau das ist der Sellingpoint davon.

Da ist nix "gestreckt", sondern gepimped und auf Drogen.
Solange es aber entwicklerseitig implementiert werden muss, wird es sicher nicht zu groß durchstarten leider.
Rein von dem was es liefert, würde ich aber stark hoffen, dass es durchstartet, egal wie.
 
RT Performance kann von mir aus schwächen zeigen wenn im Gegenzug die 3090 um 30% geschlagen wird :banana:
 
Es geht aber eben darum, dass DLSS 2.0 besser ist als Nativ rendern. Sowohl vom Speed, als auch von der Qualität.
Genau das ist der Sellingpoint davon.
Arbeitest du mit DNNs? Kennst du die Vor- und Nachteile solcher Trainingsmethoden? Fall ja - was macht dich so sicher, dass die Nachteile dieser Methodik nicht auftreten?

Ich kann so ein System mit unendlich hochskalierten Texturauflösungen trainieren, so lange mir der Speicher nicht ausgeht. Und das funktioniert so lange, bis dieses übertrainierte Konstrukt auf Datensätze trifft, die für ein DNN kaum bis gar nicht verarbeitbar sind. (aka Randomisierte Daten wie zum Bleistift prozedural generierte Daten)
Aber egal - it just works, right?
 
Ich tippe mal auf die 6900.
Dann kann AMD am 28. noch die XT herzeigen und sich auf die 3080 drauf setzen.
Wobei mir das eigentlich ziemlich egal ist. Mir wär's sogar lieber, wenn die AMD im Schnitt ein bisserl langsamer ist, dann muss der Preis nämlich im Rahmen bleiben. ^^
NV lässt sich +10% mit ~800€ bezahlen. Wer weiß was AMD für+10% verlangt, jetzt wo sie auch abheben...
Ne so richtig zwischen die Kronjuwelen :bigok:
3080^3090 das muss so richtig im Kopf knacken wen man die Ergebnisse sieht!
Dieses Larifari kann keiner gebrauchen !
Schöne konstante Leistung !
 
Zuletzt bearbeitet:
:lol: amd fanbois in jedem forum der größte witz
Wirklich eine qualifizierte Aussage die ist mit so viel Weisheit gespickt das man dahinschmelzen kann!
Jetzt bekommst ein Klebchen fein gemacht:poop:
 
Warum ist odch so siehe historie an. Ne am 28 kommt noch ne karte...ja klar. die ist dann schnelelr als eine 3090 hat 20 gb und kostet 200 bei 100 watt verbrauch alle amd fanbois zu jeder gen ever. und wenn die ernühcterung kommt(mal wieder) wird alles schön geredet vega 300 watt ach nicht so schlimm obwohl nvidia mit der 1080 1 jahr früher dran war bei 180 watt :lol: :hust:
 
Machen wir kurzen Prozess mit ihm, ich habe keine Nerven mehr übrig für diese schrecklich vielen neuen Trollaccounts der letzten Wochen.
 
Warum ist odch so siehe historie an. Ne am 28 kommt noch ne karte...ja klar. die ist dann schnelelr als eine 3090 hat 20 gb und kostet 200 bei 100 watt verbrauch alle amd fanbois zu jeder gen ever. und wenn die ernühcterung kommt(mal wieder) wird alles schön geredet vega 300 watt ach nicht so schlimm obwohl nvidia mit der 1080 1 jahr früher dran war bei 180 watt :lol: :hust:
Schau dir an was vor dem Release der NV Karten alles los war die Leute freuen sich einfach !
Das ist von uns allen das Hobby und es macht Spaß auch wen der eine oder andere mal übertreibt!
Da brauch man hier nicht in den Ring steigen und versuchen wild mit Worten um sich zu schlagen!
 
Bei mir wird hier der halbe Thread ausgeblendet.... ständig irgendwelches Geblubber und paddy,david,kevin usw direkt auf Igno.
Anders hält man es nicht mehr aus. Normal über ein Thema unterhalten fast unmöglich bei dem Fanboygetrolle.
 
Schau dir an was vor dem Release der NV Karten alles los war die Leute freuen sich einfach !
Das ist von uns allen das Hobby und es macht Spaß auch wen der eine oder andere mal übertreibt!
Der kann nicht Antworten mehr.

Ist auch besser so.
 
Machen wir kurzen Prozess mit ihm, ich habe keine Nerven mehr übrig für diese schrecklich vielen neuen Trollaccounts der letzten Wochen.
Was soll ich sagen... DANKE. Ist schon schwer, die vielen Posts durch die neuen Trolle zu überfliegen wegen der schieren Masse, aber als MOD hätte ich schon einen Strick an der Decke.
 
Ich tippe mal auf die 6900.
Dann kann AMD am 28. noch die XT herzeigen und sich auf die 3080 drauf setzen.
Wobei mir das eigentlich ziemlich egal ist. Mir wär's sogar lieber, wenn die AMD im Schnitt ein bisserl langsamer ist, dann muss der Preis nämlich im Rahmen bleiben. ^^
NV lässt sich +10% mit ~800€ bezahlen. Wer weiß was AMD für+10% verlangt, jetzt wo sie auch abheben...
Bei den Gpu's war AMD die letzten Jahre ernüchternd, also diese 5-10% hinter der 3080 könnten stimmen, ich hatte mit der 5700 ein halbes Jahr Treiber Probleme, also nicht alles so problemlos
 
ich hatte mit der 5700 ein halbes Jahr Treiber Probleme, also nicht alles so problemlos
Na hoffentlich ist das diesmal nicht so, sonst wird man weiter bei grün Einkaufen selbst wenn AMD 5-10% besser wäre. Treiberprobleme ist das letzte was man sich antun will.
 
DLSS 2.0 sieht aber mega gut aus. Schau es dir bei Wolfenstein Youngblood an und du wirst deine Meinung mit Nativ ist das einzige Wahre mit sicherheit ändern da DLSS da besser aussieht.
Habe ich. Eher ernüchternd (auf DLSS bezogen, das AMD-Generikum kann ich nicht nutzen, da keine AMD-GPU im Einsatz). Bei BF5 ist's noch ekliger.

@hwl-sL: Danke für's Durchfegen. Eine Wohltat. 2020 ist wohl auch das Jahr der Fanboys und Verschwörungstheoretiker. :(
 
Das relevante ist, sie sind nicht left behind bei Grafikkarten, ja Platz 2 in der Performance Krone.

Überlegt mal ein Underdog, der der den Goliath eingeholt hat. Nvidia ist im GPU Segment auch ein Goliath. Du kannst nicht auf allen Ebenen der Beste sein. Aber alleine das Aktuell AMD und die Mitarbeiter danach Streben Platz 1 zu erreichen. Ist doch schon was Wert. Das einzige was die bekannten Größen bisher gebracht haben wie man noch mehr Marge mit möglichst wenig Einsatz machen kann.

Es bewegt sich endlich mal was in der Branche ein knaller jagt den nächsten.
 
Ich kann so ein System mit unendlich hochskalierten Texturauflösungen trainieren, so lange mir der Speicher nicht ausgeht. Und das funktioniert so lange, bis dieses übertrainierte Konstrukt auf Datensätze trifft, die für ein DNN kaum bis gar nicht verarbeitbar sind. (aka Randomisierte Daten wie zum Bleistift prozedural generierte Daten)
Aber egal - it just works, right?

1. Habe ich nie behauptet es gäbe keine potenziellen Probleme.
2. Jedes Bild wird von DLSS 2.0 als randomisiert gewertet und so behandelt.
3. Wird NVidia nen Teufel tun und das nicht auf alles trainieren, dass es supported aktuell und wenn es über TAA läuft in 3.0 haben sie das Problem wohl auch gelöst.
 
Ich hab mal einen Artikel rausgesucht, der das aus mehreren Blickwinkeln auch mit der Konkurrenz vergleicht (die meisten gucken nur auf DLSS 2.0 und das wars - leider)
Link

Jede Technologie hat ihre Vor- und Nachteile. Vorteil: DLSS kann Objekte in Ruhe wunderbar hochskalieren. Nachteil: Es zeigt Artefakte in Bewegung. FidelityFX zeigt keine Artefakte in Bewegung, hat aber bei zu starker Schärfe-Einstellung irgendwann Überschärfe-Halos. Für mich sehen beide Technologien gleichwertig mächtig aus, mit den jeweiligen Trade-offs. In Zukunft soll mit Microsofts ML-Lösung auch ne DX12-Lösung rauskommen, wo es dann egal ist ob AMD oder Nvidia.

Du sagtest, für dich sei DLSS ein Selling-Point. Meine Frage an der Stelle wäre dann: Hast du die Alternativen damit komplett ausgeschlossen? Und wenn ja, warum?

PS: Mit randomisierten Inhalten meinte ich nicht die Zeitinvarianz, sondern die Abhängigkeit des Systems von gelernten Inhalten. Meine Frage ob du dich mit DNNs auskennst, hatte einen Grund. Denn diese Dinger können - wenn sie übertrainiert werden (was 16k Trainingsdaten nun mal sind) durchaus kollabieren:
Evtl. merkst du diese Artefakte noch nicht einmal, wenn ein Objekt durch ein anderes ersetzt wird und per Style-transfer einfach in der Farbe angepaßt wird.

Da kannst du jetzt natürlich drauf sagen: "Wenn ich es nicht bemerke, warum sollte es mich interessieren?" Das Problem dabei ist aber der logische Umkehrschluss.

Dazu kommt, dass 95% der Spieler im Doppel-Blind Test zwischen Ultra und Max durchfallen würden. Aber jeder möchte den Balken ganz weit rechts haben. Auch hier kann man sich dann gewisse Fragen zur Sinnhaftigkeit des Ganzen stellen.
 
Zuletzt bearbeitet:
Aber Ja, wenn Igor Schwallersack ins antigruene Horn stoesst und Schauergeschichten von fehldesignten Karten auftischt, verfaengt das bei einer ganz bestimmten Zielgruppe eben und laesst die sich auch vom Faktencheck nicht postmortal die Laune verhageln. Es ist gruen, es muss boese sein.
Hast du überhaupt die Aritkel von ihm dazu gelesen?
Oder willst du einfach nur Müll labern weil du ihn nicht magst?
Die Caps können ein MÖGLICHES Problem für die Abstürze sein.
Im Endeffekt war das nichtmal komplett falsch, die Lastspitzen waren mit dem Releasetreiber einfach zu hoch.
Aber hey, so wie du hier auftrittst kannst du das sicher besser als er ;)

Mann Mann Mann, Kindergarten.

Ich bin gespannt wie gut Big Navi am Ende wird, am Ende werden sowieso die Preise entscheiden.
Kann sich denn keiner mehr an die Fermi Ära erinnern?
Ist ja auch nicht mehr lange hin, bis man mit Cyberpunk 2077 benchen kann.

@Shevchen interessante Lektüre + Video.
 
Zuletzt bearbeitet:
Du sagtest, für dich sei DLSS ein Selling-Point. Meine Frage an der Stelle wäre dann: Hast du die Alternativen damit komplett ausgeschlossen? Und wenn ja, warum?

Habe ich nicht komplett ausgeschlossen. FidelityFX kann ja auch mal ne Version 2.0 bekommen.
Aktuell ist das aber wie DLSS 1.0, kein Argument für mich. Genau wie DLSS 1.0 ist es klar schwächer als Nativ und dann gehe ich mit denen konform, die sagen: Bei dem Preis will ich nativ und nicht irgendwie schlechter. Sobald eine Technologie gut genug ist, dass ich den Unterschied wirklich nicht merke, bzw. es nachweislich sogar besser ist (nur DLSS 2.0 aktuell), empfinde ich das als Pluspunkt.

Einfach nur ne Technologie zu haben, reicht mir nicht, nein. Das Ergebnis muss stimmen.
Aber wie gesagt: Ich schließe andere Ansätze nicht aus, solange sie auch ein derartiges Ergebnis liefern.

Die Caps können ein MÖGLICHES Problem für die Abstürze sein.
Im Endeffekt war das nichtmal komplett falsch, die Lastspitzen waren mit dem Releasetreiber einfach zu hoch.

Naja, das ist schon stark geschönt dargestellt. ;-)
Nach der Logik kann es alles am Stromkreislauf sein, weil es ja mit Strom zu tun hat das Problem. Also liegt es evtl. an den schlechten Netzteilen der Kunden.

Im Endeffekt hat NVidia das Problem softwareseitig gelöst in weit unter 7 Tagen, ohne Performanceverlust.
Also würde ich da mal nen Deckel drauf machen und es gut sein lassen. Ein Fehler im Releasetreiber ist jetzt nicht unbedingt etwas, das man auf ewig vorhalten muss. Vor allem bei der schnellen Reaktion und Lösung des Problems.
Wenn alle Firmen ihre Treiber so fix updaten würden, wäre das sehr geil.

Was Igor angeht: Ist halt typisch sein Content. Dafür wird er doch abboniert, oder? Er versucht überall technische Aluhüte zu finden mit seinem Arsenal an Messgeräten. Hat er wenigstens ein "Sorry NVidia, ich hatte Unrecht!" Video released, nachdem er die ganze Branche auf ein Problem hingewiesen hat, dass so gar nicht existiert hat? War bei Turing ja ähnlich damals. Da waren auch die wildesten Theorien zu Problem und Fehler Seitens NVidia,... und am Ende war es einfach Micron, die ein Batch verkackt hatten.
 
Zuletzt bearbeitet:
Aber es wurde doch FidelityFX mit DLSS 2.0 verglichen? Deswegen verwundert mich deine Aussage etwas. (Oder meinst du, dass du DLSS 2.0 besser findest als FidelityFX?)
 
Ja, deutlich sogar.
 
Preise hatte ich gestern zum Kollege (Freund welcher gleich neben mir wohnt)
Beim RyZen 3 5800XT bereits prognostiziert
449 Dollar / Euro und hatte vollkommen Recht.

Big Navi denke wird so aufgestellt werden.
3 Karten zum Launch!

XL 16 GB 529 Dollar
XT 649 Dollar
XTX 829 bis 849 Dollar

XTX kommt der 3090 Gewaltig Nahe
XL Gute 10% unter der 3080
und die XT einmal Minimal Besser, einmal knapp unter der 3080 von Nvidia

Und die Speichermengen immer zu 16GB
und dann hat NV schon verloren!

225 Watt
zu 275 Watt
zu 340 Watt
 
Naja, das ist schon stark geschönt dargestellt. ;-)
Nach der Logik kann es alles am Stromkreislauf sein, weil es ja mit Strom zu tun hat das Problem. Also liegt es evtl. an den schlechten Netzteilen der Kunden.
Schau dir den Artikel dazu an, es wird alles schön erklärt.
Die Caps sind sozusagen dazu da, um Stromspitzen auch abzufangen, die 3090 FE hat sogar geschafft ein ein 1200/1500 Watt Seasonic Platin Netzteil abzuschalten, da die Schutzschaltung getriggered wurde.
Im Endeffekt hat NVidia das Problem softwareseitig gelöst in weit unter 7 Tagen, ohne Performanceverlust.
Ja, aber ein Problem war dennoch vorhanden und einige Boardpartner haben auch explizit erwähnt, die Cap Bestückung geändert zu haben, u.a. EVGA, muss also was dran sein.
Was Igor angeht: Ist halt typisch sein Content. Dafür wird er doch abboniert, oder? Er versucht überall technische Aluhüte zu finden mit seinem Arsenal an Messgeräten. Hat er wenigstens ein "Sorry NVidia, ich hatte Unrecht!" Video released, nachdem er die ganze Branche auf ein Problem hingewiesen hat, dass so gar nicht existiert hat? War bei Turing ja ähnlich damals. Da waren auch die wildesten Theorien zu Problem und Fehler Seitens NVidia,... und am Ende war es einfach Micron, die ein Batch verkackt hatten.
Leider Bullshit, sorry muss ich so ausdrücken.
Sein Content ist extrem detailliert, ungefähr so wie Gamers Nexus, etwas anders verpackt aber sicher kein Bildzeitungs oder Aluhutniveau.
Hier scheinen einige wirklich Probleme mit Wörtern zu haben.
In seinem Artikel + Video war doch ganz deutlich ein MÖGLICH drin, er hat doch nicht behauptet, dass es DIE Ursache ist.
Nvidia hats verkackt und gewisse Menschen suchen da nach einer Lösung. Igor hat durch Messungen eben die Caps hinter der GPU als MÖGLICH Ursache identifiziert, das haben auch Boardpartner so bestätigt. EVGA:
During our mass production QC testing we discovered a full 6 POSCAPs solution cannot pass the real world applications testing. It took almost a week of R&D effort to find the cause and reduce the POSCAPs to 4 and add 20 MLCC caps prior to shipping production boards, this is why the EVGA GeForce RTX 3080 FTW3 series was delayed at launch.
ASUS:
All retail ROG Strix and TUF Gaming GeForce RTX 3080 and 3090 graphics cards use only MLCC capacitors for decoupling close to the GPU.
During development, we discovered the improvement this makes to RTX 3090 and 3080 overclocking headroom, so we made specification changes before we started shipping cards to reviewers and customers. Please note that some of the product images used on etail sites and our product pages were from early development samples, so are not final. All images will be updated soon.
Please bear with us!
Sind das jetzt auch alles Aluhutträger? Oder hat sie Igor mit seinen Jeditricks manipuliert?

So jetzt kommst du, aber bitte verschone mich mit haltlosen Behauptungen, nur weil du Igor nicht magst, das Thema hatten wir schonmal! :hmm:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh