Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
HotChips32: AMD gibt Ausblick auf RDNA 2 mit Raytracing-Beschleunigung
Das Problem ist eben, dass auch eine 1500 € GPU nicht happy macht. Außer die kommenden kommen über 100 FPS in jedem Spiel und in 4K. Da die 2080 Ti da eher bei 40 FPS rumdümpelt kann man schon zufrieden sein wenn 60 stabil gehen. Von 144 Hz ist man immer noch weit weg.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Deswegen halte ich immernoch Abstand vor 4K. Und, habe mir immer noch keine neue GPU gekauft.
Allerdings wird das bitter nötig wenn 2021 Stalker2 kommt. Und das dann weiterhin in 2K
4K geht eigentlich schon sehr gut zumindest mit ner 2080Ti@OC
Es kommt natürlich auch immer aufs spiel an.
Ein RDR2@Ultra ist halt nur mit zwei 2080Ti im SLI@60FPS machbar aber dennoch bekommt man es gut auf 60FPS eingestellt ohne groß abstriche in der Bildqualität zu machen.
60FPS geht aber schon recht gut nur eben mehr ist nicht oft machbar.
Für 4K ist freesync aber zwingend erforderlich
Edit: Big Navi wird sicherlich schon eine sehr gute 4K karte werden und sollte auch fast alles locker in 4K@60FPS stemmen
Was nützt mir 144 Hz, oder 120 Hz,- da reden wir in 2 - 4 Jahren nochmals unter 4K
Big Navi wird um die 60+ fps stemmen in 4K
aber da muss mein FreeSync Monitor VA Panel mit 48 - 60 Hz FreeSync getauscht werden, und erst seit April 20 bei mir auf dem Tisch stehen.
Da kommt ja von Philips ein 120/144 HZ - 32 Zoll 4K Gerät unter 1000 Euro mit HDR 600 / oder gar 1000 Ende Jahr, Anfang 21 daher.
@Igor bezeichnet RTX 30x0 als Game Changer, aber wohl wegen DLSS 3.0
oder aber da die NV Karte diesesmal nach hinten gestellt wird, was noch nie seit Jahren der Fall war.
Kann Beides bedeuten...
Fakt ist, die Besseren Features besitzt wohl nochmals NV aber AMD ist ihnen diesesmal hautnah an den Fersen.
Da AMD zudem über den Preis kommt,- wird sich da ein wilder Schlagabtausch abzeichnen.
Thema das NV angeblich die besseren Features hat
Ich finde AMD FidelityFX jetzt auch nicht so schlecht nur müssen sie dafür sorgen das die entwickler das auch nutzen.
DLSS 1.0 ist ne katastrophe aber DLSS2.0 ist wirklich mega gut keine frage.
Bei DX11 sehe ich das auch nicht. Bei DX12/Vulkan hingegen schon. Aber daran werden wieder die Haare gespalten - wie es bei Star Craft mit der Sngle Thread Performance bei AMD vs Intel war. Da kann man nur hoffen, dass die Leute es mit der Zeit verstehen - aber ich glaub nicht dran.
Ich denke weiterhin, dass schlecht programmierte Spiele nicht noch durch einen Kauf in ihrem Verhalten belohnt werden sollten. Ich musste da aber auch erst mal voll in den Fettnapf treten, damit ich das gelernt hab.
@Shevchen Da die nextgen Konsolen beide nen Ryzen 3000 bekommen könnte ich mir sogar da vorteile für AMD vorstellen
DX11 ist ja eigentlich nichtmehr der rede wert und Vulkan sowie DX12 setzen sich durch und da sieht es bei AMD ja gut aus
Es werden weiterhin Spiele wie GTA V durch den Parkours getreten und auch wenn es wohl ne bittere Pille wird und ich Cyberpunk zocken werde - erwarte ich da leider ne Menge Gameworks Exklusivtretminen. Wie bei Final Fantasy XV. Bei sowas hab ich dann echt Probleme noch von einem "fairen Vergleich" auszugehen. Da muss ich mich wohl einfach gedulden und auf Community fixes warten. Dieses Verhalten wird aber nicht noch durch den Kauf der GPU des Verursachers belohnt - auch wenn da die Meinungen mal wieder auseinander gehen.
Ich finde, dass Nvidia mit RT angefangen hat gut. Ich finde auch deren DLSS Ansatz gut, wenn dann schwächere Hardware weiterhin ein annehmbares Bild erzeugt. Leider nutzt Nvidia diese Features aber nicht sehr kundenfreundlich und koppelt die richtig guten Sprünge nach vorne halt mit den fettesten Karten. So bleibt ne schwache Karte schwach und ne Starke wird noch stärker - und das geht so ein wenig gegen das Grund Prinzip der Idee. Die Firma hat tolle Ingenieure, aber da hört meine Bewunderung dann auch wieder auf.
Naja so läuft das doch aber auch überall ab. die machen das nicht aus nächstenliebe sondern um die konkurrenz auszustechen.
Sony hat doch auch bei allen großen Entwicklern Angebote gemacht um Exklusivität zu bekommen und sich auch bei epic eingekauft
AMD sollte auch eine offensive starten so das FidelityFX rein kommt weil das hat echt potenzial und DirectML sollte DLSS auch bald ablösen wie auch PhysX damals kaum mehr der rede wert war
Ich finde, dass Nvidia mit RT angefangen hat gut. Ich finde auch deren DLSS Ansatz gut, wenn dann schwächere Hardware weiterhin ein annehmbares Bild erzeugt. Leider nutzt Nvidia diese Features aber nicht sehr kundenfreundlich und koppelt die richtig guten Sprünge nach vorne halt mit den fettesten Karten. So bleibt ne schwache Karte schwach und ne Starke wird noch stärker - und das geht so ein wenig gegen das Grund Prinzip der Idee. Die Firma hat tolle Ingenieure, aber da hört meine Bewunderung dann auch wieder auf.
Na gut, aber das steckt ja auch im Namen und die Karten darunter sind entweder von der Generation vor RT, oder in einem Preissegment, in dem RT Cores mehr kosten würden als die ganze GPU.
Bisserl realistisch muss man da schon bleiben.
Aber alles ab 2060 hat doch RT und bei Ampere soll auch jedes Modell RT haben. Da sogar unabhängig vom Preis.
Der Sprung den die 2080Ti gegenüber der 2060 macht ist größer. (Jetzt kann man natürlich relativ vergleichen, aber da sind wir auch bei Speicher limitiert und das ist etwas unfair bei der 2060 und 4K ) - was wohl an den zusätzlichen Tensor-Cores liegt (oder was auch immer hier DLSS berechnet)
Es würde bei den lütten Karten also Sinn machen, das Upscaling zu pushen - während die fetten bereits "gut" sind. Im Vergleich mit FidelityFX https://www.computerbase.de/2020-07/death-stranding-benchmark-test/3/ haben wir also zwei Dinge:
1) FidelityFX läuft agnostisch auf AMD und Nvidia Karten
2) und ist von der Performance her gleichauch/marginal besser
Das ist meine Kritik. Es geht auch ohne Daumenschraube - man machts aber immer mit.
RT läuft auch nur auf RTX-Karten - das bezahlt man halt mit. Aber wenn die Chipfläche für RT angeblich nur ganz ganz klein ist, komm ich nicht drum herum das auch als Daumenschraube anzusehen, um künstlich zu segmentieren. An den quartalszahlen sieht man ja auch, dass das hervorragend funkltioniert.
Es gibt einen Unterschied zwischen Exklusivtitel der ein Jahr später kommt vs "Wir jagen Tesselation auf Faktor 128 damit wir in Benchmarks besser aussehen". Das ist waschechte Sabotage.
So sieht es aus, letztlich komme ich auch mit der 5700 XT aktuell gut zurecht. Hohe Details gehen da durchgehend. Allerdings würde ich mir keine exorbitant Karte holen wollen um dann noch Sachen runterstellen zu müssen. Wenn ich einen Kompromiss in der Leistung eingehen muss, dann darf der Hersteller auch den Kompromiss im Preis hinnehmen.
Ich finde, dass Nvidia mit RT angefangen hat gut. Ich finde auch deren DLSS Ansatz gut, wenn dann schwächere Hardware weiterhin ein annehmbares Bild erzeugt. Leider nutzt Nvidia diese Features aber nicht sehr kundenfreundlich und koppelt die richtig guten Sprünge nach vorne halt mit den fettesten Karten.
Und auch da ist das Problem, denn wer hunderte oder gar tausende zu investieren bereit ist erwartet auch ein natives Rendererlebnis. Das DLSS sieht optisch gar nicht mal schlecht aus, funktioniert aber nur in wenigen Spielen überhaupt - Wie auch das RT, welches performancetechnisch aber ohnehin eine Katastrophe ist. Derweil frage ich mich welche GPU Mass Effect Andromeda schaffen würde... Ob es so eine überhaupt noch geben wird?
Es gibt einen Unterschied zwischen Exklusivtitel der ein Jahr später kommt vs "Wir jagen Tesselation auf Faktor 128 damit wir in Benchmarks besser aussehen". Das ist waschechte Sabotage.
Ja da hatte ich zu der zeit auch eine HD7970 und weiß wie das bei Crysis 2 war aber man konnte ja einfach tessalation per treiber beschränken und hatte mehr FPS als Nvidia
Ja da hatte ich zu der zeit auch eine HD7970 und weiß wie das bei Crysis 2 war aber man konnte ja einfach tessalation per treiber beschränken und hatte mehr FPS als Nvidia
Der Schaden war aber schon angerichtet und jeder glaubte, Nvidia hätte die bessere Karte (was vor allem bei Crysis einen fetten PR Effekt hat) - dabei war das alles nur Schall und Rauch. Die 1% der Leute die es gemerkt haben waren nicht genug. Und die mediale Resonanz war auch nur "Öhm - ach komm, sind wir ja gewöhnt."
Das beste ist aber da du das grade ansprichst, Crytek hat es vor garnicht so lange zeit zugegeben mit der Tessalation bei Crysis 2
natürlich ist das kacke weil hier mit unfairen mittel gearbeitet wird. Genauso wie Intel damals seine vormacht missbraucht hat und die Hersteller sanktionieren wollte wenn sie AMD CPU mit aufnehmen.
Das neue Doom ist halt so ein Titel der zeigt das auch in 4K maxout über 100FPS gehen mit einer 2080Ti OC .
Wie Powerplay auch schon meinte es kommt auf die Spiele an !
Das Call of Duty lief auch Top schnell in 4K im MP !
4K 120HZ geht heute schon teils klar!
Aufwendig Openworld Titel sind natürlich was anderes .
Auch Feature wie DLSS können da grossartiges leisten um 100FPS+ zu gehen ohne RT!
Bei AMD sind ja in dem Fidelety Paket auch solche Feature vorgesehen .
Ja da hatte ich zu der zeit auch eine HD7970 und weiß wie das bei Crysis 2 war aber man konnte ja einfach tessalation per treiber beschränken und hatte mehr FPS als Nvidia
Das hilft auch bei Witcher 3 sehr gut. Und so Titel wie DOOM laufen vermutlich selbst in 8K noch spielbar, bei No Mans Sky brachte der Sprung zu Vulkan letztlich auch die nötige Flüssigkeit, da das Spiel zuvor auf jedem High-End-Gerät nicht flüssig lief. Jetzt könnte man das theoretisch mit einem Dual-Core spielen. Auch beeindruckend: Spielbare FPS bei einer CPU von 2006. Bei anderen Spielen wäre das undenkbar, da viele moderne Spiele inzwischen schon Probleme mit Phenoms der 2010-Ära haben.
Deine Kritik ist, dass NVidia ein allgemeines Feature auf dickeren Karten nicht mit einer künstlichen Handbremse versieht?
Ne, das verstehe ich so nicht. Ein Feature das prozentual die Rechenaufwände reduziert, wird auch prozentual die Leistung steigern. Bei einer GPU mit mehr Rohleistung, führt das halt ganz natürlich zu mehr Ergebnis.
Das zu kritisieren ist komisch. Du kritisiert doch auch nicht, dass eine 2080 schneller ist als eine 2060, oder? So ala "Es ist unfair, dass die high-end GPUs schneller sind als die billigen!"
Du suggerierst hier Absicht, aber wie sollen sie ein derartiges Feature den umsetzen, ohne das prozentuale Ersparnis nicht mehr Auswirkung auf eine schnellere GPU hat?
Und weil AMD das nun rausgebracht hat als Antwort, soll Nvidia die Option für DLSS entfernen?
Hab jetzt keinen Vergleich zu hand, meine aber Reviews gesehen zu haben, dass FidelityFX besser als DLSS1.0 ist, aber der 2.0 Variante deutlich unterlegen ist.
Wäre es da für die Kunden nicht besser, wenn AMD auch einfach DLSS 2.0 supportet`?
Klar - wenn Nvidia die Tensor Kerne frei zugänglich macht und die Software veröffentlicht wäre das möglich. Und wir beide wissen, wie wahrscheinlich das ist. Undf wir beide wissen auch, dass es völlig egal ist, was AMD rausbringt, wie schnell sie sein werden, wie gut ihre Software läuft - das selbst wenn sie alles perfekt machen würden, es nie genug für gewisse Leute sein würde.
Stockholm ist ne schöne Stadt und nach ihr wurden auch einige schöne Dinge benannt.
DLSS in der V2 ist ne richtig feine Sache imho und es ist auch absolut keine Schande das zu nutzen, um in 4k anständige bildraten Hinzubekommen. Bin gespannt wie es um DLSS 3 auf den alten bestellt sein wird. Ist auf jeden Fall ein großes pro grünes Argument nach meiner Bewertung. Für mich ist mittlerweile auch das game streaming auf den shield tv noch ein Feature, dass ich so momentan nur von Nvidia geboten bekomme. Daher sehe ich so schnell keine AMD Karte in den rechner wandern. Wobei ich vermutlich auch die 3000er Serie skippen werde.
Mit der DirectML Implementierung für RDNA2 wird AMD eine zumindest vergleichbare Lösung zur Verfügung stellen, sodass ich für Nvidia dort wenig Angriffsfläche bieten wird.
Es zählt nur das Ultra-Setting, alles andere ist Kindergeburtstag. ^^
Ausnahmen gibt es, die nur 5% Sichtbares bringen, aber 20% Leistung fressen. Der große hervorragend aussehende Rest, den hätte ich aber schon gerne in Ultra bei 80-100FPS (ohne drops nach unten) in min 3440x1440 oder gleich 4K.
Klar - wenn Nvidia die Tensor Kerne frei zugänglich macht und die Software veröffentlicht wäre das möglich. Und wir beide wissen, wie wahrscheinlich das ist. Undf wir beide wissen auch, dass es völlig egal ist, was AMD rausbringt, wie schnell sie sein werden, wie gut ihre Software läuft - das selbst wenn sie alles perfekt machen würden, es nie genug für gewisse Leute sein würde.
Stockholm ist ne schöne Stadt und nach ihr wurden auch einige schöne Dinge benannt.
Naja, Tensorkerne sind ja nun nicht patentierbar. Die machen doch nur stur Matrizenmultiplikation (stark überspitzt und vereinfacht ausgedrückt).
AMD kann das ohne Problem nutzen, wenn sie es auf die Karten bauen.
Bei NVidia läuft es ja auch nur auf den GPUs mit Tensor (was zugegeben alle aktuellen sind natürlich).
Jetzt hat NVidia halt einen echt soliden Sellingpoint mit DLSS.
Da die Tensorkerne auch andere Sachen befeuern und sicher nicht auf einmal verschwinden, wäre es aber ohne Frage eine sinnlose Verschwendung, wenn sie DLSS einstellen würden. Ich sehe das auch nicht als Kundenfreundlich an, sondern eher im Gegenteil. Das ist ein Feature, dass einen Wert hat und das Leute durchaus direkt oder indirekt mitgekauft haben. Das nu zu löschen, nur weil AMD etwas Softwareseitiges hat (das gut, aber nicht so gut läuft),... keine Ahnung.
Kann mich mit der Idee nicht anfreunden, da eine kundenunfreundliche Sache draus zu machen.
RT ist ja auch nicht kundenunfreundlich. Wobei das natürlich, zugegeben, auch ohne RT Kerne laufen würde. Nur halt schlecht. ;-)
Tensor wird man aber auch simulieren können nehme ich an. Ob dann noch ein Performance-Gewinn bleibt, kann ich nicht sagen allerdings.
Mit der DirectML Implementierung für RDNA2 wird AMD eine zumindest vergleichbare Lösung zur Verfügung stellen, sodass ich für Nvidia dort wenig Angriffsfläche bieten wird.
Sie Planen das, aber ist die DirectML Sache wirklich vergleichbar gut, oder hoffen wir das bisher nur?
Wenn es ähnlich DLSS ist, dann würde ich aber auch unterstützen, dass Nvidia das mit pusht. Muss dann aber auch echt innerhalb von 1-3 % sein und nicht nur "irgendwie, so ganz grob etwas Ähnliches machen".
Was genau DLSS 3.0 sein wird, bin ich allerdings gespannt. Wurde ja als Gamechanger beworben. 2.0 sieht schon echt beeindruckend aus und ich konnte mit bloßem Auge nicht erkennen, wo Upscaled wurde und wo nicht. Inwiefern 3.0 da noch eine spürbare Ecke drauflegen kann, ist mir nicht ganz klar.