Gerüchte um Big Navi mit 24 GB HBM2e

Kauf halt nen G-Sync Comatiblen FreeSync Monitor und hab das Problem nicht? Das ist doch mittlerweile echt entspannt, seit NV sich da geöffnet hat... Klar wenn man jetzt den falschen Monitor hat, ists doof, aber G-Sync als Argument ggü. FreeSync zieht in 2020 nicht mehr so richtig ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also m.M.n zieht das schon, mal geschaut welche Monitore nVidia da zulässt? Die sind preislich alle jenseits von gut und Böse für 80%der Spieler, das ist und war doch bei freesync immer ein meeega Vorteil, das man SYNC bekommt für wenig Moppen. habe 2018 ein 34er Lg gekauft z.b. für 330€ neu mit freesync. mein schwester hat ein Samung Curved 27 Zoll mit Freesync 131€... Das sind halt so die sachen, die Freesync so Attraktiv gemacht haben.
 
@xXx-Eagleone-xXx
Es funktionieren doch weit mehr Monitore als offiziell in der NV Liste stehen? Wo ist denn da das Problem?
Es gehen halt nicht alle, das mag sein, aber genau so gibts bei AMD auch hier und dort Probleme - NV schiebt es auf die Monitor Hersteller und die Spezifikationen oder so, meine ich gelesen zu haben. Aber das sind am Ende doch Details und stehen der Aussage, dass G-Sync vs. FreeSync in 2020 einfach nicht mehr das Thema ist, nicht wirklich im Weg.

@Elmario
Bitte mehr Themenbezug...
 
Laut Berichten läuft das auch nicht zu 100 %. Der nächste Fernseher soll auf jeden Fall Sync haben und ~90 Hz. Aber erstmal muss die Grafikleistung dafür her. Mittlerweile glaube ich aber auch nicht mehr so daran dass es 2020 noch was wird.
 
Habe ja gerade den Umstieg von AMD auf NV gemacht und habe 3 Freesync Monitore im Einsatz, laufen zu meiner positiven Überraschung alle einwandfrei mit G-Sync und das waren verhältnismäßig günstige Geräte.
 
Meiner lg 34um69g-b, funktioniert auch mit Gsync an einer 1070Ti, einzige Problem, statt bis auf 40Hz runter wie bei meiner Vega64, geht er nur bis 48hz runter, darunter fängt Tearing an. Ansonsten läuft es
 
da könnte es ein Kopf an Kopf rennen geben mit Big Navi und NV
Beitrag automatisch zusammengeführt:

Meiner lg 34um69g-b, funktioniert auch mit Gsync an einer 1070Ti, einzige Problem, statt bis auf 40Hz runter wie bei meiner Vega64, geht er nur bis 48hz runter, darunter fängt Tearing an. Ansonsten läuft es
Das kannste mit dem Programm CRU fixen dann geht es auch bis auf 24hz runter wie bei mir
 
Besonders Krass finde ich halt den GPU Takt der PS5 weil es ist ja bekannt das die Konsolen deutlich niedriger Takten.
Wer weiß was da dann mit Wakü geht bei RDNA2.
also 2230Mhz wird mindestens laufen und ich denke 2300+ wird kein problem sein und dann ist so ein Teil ein Monster.
Angenommen Navi 21 skalliert 1:1 mit dem takt so wie Navi 10 dann wird das teil Heftig abgehen.

PS5 GPU als Beispiel: 36CUs x 2230Mhz ergibt 10,28Tflops
Navi 21= 10,28TFlops / 36CU x 80CUs = 22,84Tflop@2230Mhz was wirklich Krank heftig wäre
RTX3080Ti soll ja 40% schneller sein als die 2080TI
2080Ti@1635Mhz=14,2TFlops +40% =RTX3080Ti=19,88Tflops@????Mhz
Big Navi müsst Theoretisch mit 1940Mhz takten um auch 19,88Tflops zu erreichen.

Ist natürlich alles Theoretisch aber als Anhaltspunkte nicht verkehrt

Edit: AMD hatte ja gesagt das man bei RDNA 2 @300Watt die Doppelt Leistung der 5700Xt erreicht.
Demnach müsste man 19,6Tflop erreichen @300Watt was ca.1920Mhz entspricht.
 
Zuletzt bearbeitet:
erstens boostet die gpu der ps5 sicher nicht dauerhaft mit 2200 Mhz, zweitens muß das auch bei dann 72 oder 80 Cus in einer dezidierten Graka erstmal weggekühlt werden (auch wenn dort die Kühlung wesentlich größer und besser aussfällt) und selbst wenn das alles halbwegs hinkommt (auch 2000 Mhz bei 80 Cus wäre für mich schon ein sehr respektabler Wert) und am Ende ~ 20 Tflops für Big N am Tacho stehen - heisst das leider bei Amd noch lange nicht das diese Leistung auch in Gaming Fps umgelegt werden kann

Auch die Rohleistung von Fuji/Fury und Vega waren größer oder zumindest gleich groß wie die ihrer Nvidia Pendants trotzdem war man in der Gaming Leistung immer unterlegen - leider...
 
Zuletzt bearbeitet:
Ja das ist ein anderes Thema das die Leistung erstmal umgesetzt werden muss aber was den Takt angeht mache ich mir da weniger sorgen.
Mit ner Wakü kühlt man auch problemlos 400Watt weg
 
heisst das leider bei Amd noch lange nicht das diese Leistung auch in Gaming Fps umgelegt werden kann

Auch die Rohleistung von Fuji/Fury und Vega waren größer oder zumindest gleich groß wie die ihrer Nvidia Pendants trotzdem war man in der Gaming Leistung immer unterlegen - leider...

das mag bisher ja vielleicht so gewesen sein.
aber der Vergleich ist ja nur bedingt zu führen, die Architektur ist ja doch angepasst und neuer.

also schau doch lieber was Navi an Rohleistung bringt und was an fps auf den Bildschirm bringt.
dann kannst du immer noch schwarzmalen 😉
 
das hat nichts mit schwarzmalen zu tun, das ist einfach die Realität, das man bei Amd diesbezüglich vorsichtig sein muß mit den Erwartungen,

das es mit Navi bereits etwas besser hingehauen hat, macht mich in der Hinsicht etwas hoffnungsfroher, trotzdem bleibe ich vorsichtig (auch wenn das für manche schwarzmalen ist)
 
Sehe ich genauso
 
@ilovebytes : Muss man wirklich sagen. Genau dieses Problem ist man mit RDNA angegangen und geht es mit RNDA2 noch mehr an. Aber nach Fiji und Vega sollte man da wirklich vorsichtig mit Vorschusslorbeeren sein. Bis Kepler und Hawaii hat es ja noch einigermaßen gepasst mit der Anzahl der Shader, aber seit Fiji und dann v.a. bei Polaris und Vega hatte AMD auch mit massiv mehr Shadern das Nachsehen.
 
Das kannste mit dem Programm CRU fixen dann geht es auch bis auf 24hz runter wie bei mir

alles schon probiert, alles unter 48Hz mit Gsync bzw einer nVidia karte verursacht ein verschwommenes bild, Why ever -.- Aber selbt mit der Vega ist bei 39hz schluss, dannach unscharfe schrift ![/URL]
 
Nun, Big Navi - RDNA 2 sollte bereits mit 80 CU und moderaten 1750 Mhz die RTX 2080 TI um etwa gute 20% hinter sich lassen,- und dies wären in etwa die Taktraten einer RX 5700 Stock.
Da sind noch keine Verbesserungen miteinberechnet und die Primitiv Shader sind noch das Große, Unbekannte Fragezeichen,- da diese nun fix miteingebunden sind.

40 bis gar 50% über RTX 2080TI denke wäre machbar.
 
Ach was. Doppelt so schnell und halb so teuer! Bei eBay wurden auch schon gebrauchte Lederjacken gesichtet. Panikverkaeufe?

Die Weltherrschaft, sie ist mal wieder zum Greifen nah.
 
Brauchst ja nur mal in den Benchmarks schauen wo die 5700XT @ 4K gegenüber einer 2080Ti steht und legst 100% auf die 5700XT drauf dann kommt man so auf ca.40%
Vorteil für die Big Navi.
Wenn man mit OC aber wirklich so weit nach oben kommen wird mit 2300Mhz@Wakü dann wird Big Navi in sachen 4K Gaming bestimmt alles in 60FPS locker stemmen.
Ist dann halt interessant wie das mit Raytracing aussieht

Das ganze ist halt immer Theoretisch denn NV holt meistens über ihre Treiber deutlich mehr FPS heraus.

Ist auch die Frage ob AMD es schafft 5120Shader nur ansatzweise auszulasten oder ob da nicht wieder ein flaschenhals drin steckt
 
Brauchst ja nur mal in den Benchmarks schauen wo die 5700XT @ 4K gegenüber einer 2080Ti steht und legst 100% auf die 5700XT drauf dann kommt man so auf ca.40%
Vorteil für die Big Navi.
Dem aktuellen Performance Index von CB zur Folge ist eine 5700XT ~35% langsamer als die 2080TI FE und 40% langsamer als die TitanRTX. Navi 10 x2 mit 100% Skalierung wäre bei ca. um die 20-25% über einer 2080TI, OHNE irgendwelche Architektur Anpassungen. Lass es gegen 30% gehen. Und da muss das dann schon 100% skalieren, wo das, was @ilovebytes ansprach möglicherweise wieder mit rein spielen wird. BigN wird wohl kaum Navi 10 in komplett doppelter Form. Doppelte ALUs, oder mehr als doppelte ALUs, vllt aber der ganze Rest?
Keine Ahnung wie flexibel AMD Navi da mittlerweile aufgestellt hat, bei GCN war das ja recht schwer - ein 8x breites FrontEnd haben wir nie gesehen. Und das hat die Karten, je nach Anforderung und Spiel teils nicht gut skalieren lassen. Vor allem die, wo viele ALUs auf ein nicht gerade breites FrontEnd treffen.


Wir werden sehen was raus kommt - den Takt würde ich aktuell auch nicht überbewerten. Sony spricht von Boost. Und Boost und AMD? (4,75GHz *hust*) No hate, aber Boost der nicht anliegt, bringt keinen weiter. Im Vergleich dazu funktioniert der Boost bei NV andersrum, es gibt ne Angabe und die Karte agiert für gewöhnlich drüber, wenn die Bedinungen passen. Vor allem Temperatur und Leistungsaufnahme. Bei der PS5 sprach man auch davon, dass da eine Abhängigkeit zur Leistungsaufnahme steht - was ich ehrlich gesagt immer etwas "komisch" finde, weil an den Stellen wo die meiste Last anliegt, braucht man eigentlich den höchsten Takt -> da hat es aber die im Schnitt höchste Leistungsaufnahme, also eher tendentiel weniger Takt.
Das wurde schon x-fach kritisiert bei Intels Turbo Boost bei den CPUs, zumindest anfangs. Mittlerweile ist es eh Wurst im Retailmarkt, weil die Boards nicht deckeln. Aber dGPUs werden wieder/weiter deckeln... Mal sehen was wird.

Aber vllt brauchen wir auch keine Grafikkarten mehr in Zukunft, so wie sich Cora Corinna gerade entwickelt ;)
 
Navi 10 hat ja nur eine sehr kleine GPU mit wenig shadern. interessant wäre da eine RDNA1 karte gewesen mit ca 3840shadern weil dann hätte man auch gesehen wie die shader skallieren.
AMD selbst hatte ja nur zu RDNA 2 gesagt das man 100% mehr Leistung gegenüber der 5700XT im bereich von 300Watt problemlos erreicht.
Ist halt die frage ob das auch in Games so erreicht wird.
 
weil an den Stellen wo die meiste Last anliegt, braucht man eigentlich den höchsten Takt -> da hat es aber die im Schnitt höchste Leistungsaufnahme, also eher tendenziell weniger Takt.
Das wurde schon x-fach kritisiert bei Intels Turbo Boost bei den CPUs, zumindest anfangs.

Ich fand den Turbo Boost nie kontraproduktiv. Besonders bei den moderneren Notebook CPUs können wir dank des Turbos enorm hohe Single Thread Takte fahren, das resultiert in einem erheblichen Geschwindigkeitsvorteil gegenüber starren Taktraten. Und Multicore haben wir zumindest kurzzeitig Vollgas, das kann im Alltag auch stark die wahrgenommene Arbeitsgeschwindigkeit erhöhen.

Und dass es anfangs anders war kann ich so direkt nicht sagen. Das war eher darin begründet, dass die CPUs früher keine so hohen Taktraten bei Notebook verträglichen TDPs erreichen konnten, somit kann der Turbomodus heute sein Potential stärker ausspielen.
 
Ich fand den Turbo Boost nie kontraproduktiv. Besonders bei den moderneren Notebook CPUs können wir dank des Turbos enorm hohe Single Thread Takte fahren, das resultiert in einem erheblichen Geschwindigkeitsvorteil gegenüber starren Taktraten. Und Multicore haben wir zumindest kurzzeitig Vollgas, das kann im Alltag auch stark die wahrgenommene Arbeitsgeschwindigkeit erhöhen.
Wir sprechen hier aber nicht vom Mobile Einsatz - dort ergibt das durchaus Sinn, eben weil man kurze Lastpeaks mit viel höheren Taktraten fahren kann. Vor allem auf der CPU. Aber beim Zocken gehts nicht um kurze Peaks, sondern um Minuten bis Stunden Last. Die Hardware wird heiß(er) mit der Zeit und verliert Takt, der Verbrauch steigt und auch das kostet Takt usw.
Weiterhin ist ein Notebook mit Multithread-Volllast eher ein schlechter Kompromiss, da bringt auch kein Boost mehr was. Das Ding ist so schnell wie es kann unter den Bedingungen. Die sind aber eben weit unter den max. Angaben.
Umgemünzt auf den PS5 Boost Takt von 2230 oder wie viel das waren -> unter Last erreicht das Ding damit selten diesen Takt. Real wird das drunter liegen, unter anhaltender Belastung sogar recht deutlich. DAs Kurriose an den Boosts ist aber eben, dass Szenen mit höherer Belastung mehr Verbrauch bedeuten sollten. Und Boost, der nach Aussage in der Präsi am Verbrauch hängt und wenn ich das richtig verstanden habe, für gleichbleibenden Verbrauch (also das was maximal zugelassen ist) sorgt, bedeutet im Höchstfall der Belastung eben weniger anstatt mehr Takt.

Würde man die Basis hoch ziehen, bedeutet das im diesen komplexen Szenen im Zweifel einen Übertritt der Spezifikationen. Also dreht man den Spaß um und lässt die Hardware möglichst optimal höchst zugelassen arbeiten. Dann kann man aber eben nicht mit dem Takt rechnen der max. steht, sondern muss damit rechnen, was avg. drauf steht. Kommt dann noch die Unbekannte der Takterreichbarkeit dazu, wie bei Ryzen, dann muss man sowas nichtmal zwangsweise via OC erreichen können.


MMn war es klar, dass Microsoft dieses mal das Rennen macht, nach all der Prügel, die sie letzte Runde eingesteckt haben. Dass es sooo deutlich wird, hätte ich zwar nicht vermutet, aber 20% sind 20%. Vllt sogar mehr, wenn der avg. Boost der PS5 mit steigender Belastung, im Sommer oder sonstwo unter die 2GHz rutschen könnte... Könnte mir vorstellen, Sony schiebt recht zeitnah ne Pro Version oder sowas nach um den Umstand auszugleichen ;)

Und dass es anfangs anders war kann ich so direkt nicht sagen. Das war eher darin begründet, dass die CPUs früher keine so hohen Taktraten bei Notebook verträglichen TDPs erreichen konnten, somit kann der Turbomodus heute sein Potential stärker ausspielen.
Das eine hat mit dem anderen nix zu tun. Heute takten CPUs viel viel schneller als früher. Features wie Speedshift (AMDs aktueller Boost sogar noch viel schneller) sind in der Lage schnell die Taktraten durchzuschalten. Der Prozessor brennt nicht von jetzt auf gleich ab, die Kühlung ist "träge" - sowohl in die eine, als auch andere Richtung. Den Umstand kann man mit Übertritt über die Limits ausnutzen. Das funktioniert mobile natürlich heute sehr gut. Früher wäre das technisch auch gegangen, wenn man hätte die Option schnell zu agieren. Die Boost Mechanismen am Anfang waren aber ebenso träge. Vor allem waren sie auch noch mehr an Limits gebunden. Strikte 1C Boost mit fixem Multi. Oder fixer Multi bei Allcore... Da konntest du TDP Spielraum haben wie du willst, das wird nicht mehr.
 
Dass sich die Preise der Mittelklasse irgendwann noch mal auf ein normales Niveau absenken ist aktuell nicht absehbar nehme ich mal an?

Ich meine RX5600 für 290€... :stupid:
 
naja vielleicht jetzt wenn die Nachfrage sinkt, wobei das halt einen doch einen recht strengen Beigeschmack hätte, wenn wir im Zuge von Corona unsere Wirtschaft so weit runterfahren (müssen) das dann viele Menschen arbeitslos werden und sich solche Nebensächlickeiten wie Grakas fürs Hobby nicht mehr leisten können ...
 
Ich würde andersherum eher fragen, ob die Hersteller aktuell produzieren können und ob Millionen von Zockern daheim jetzt nicht eher die Preise steigen lassen.
 
100 % Skalierung bei doppelter Shaderanzahl gibt es wahrscheinlich nicht, die 5700 XT legt aber bereits jetzt vor was Navi an FPS auf die Straße bringen kann. Eine doppelte 5700 XT dürfte locker 80 % Mehrleistung schaffen und das wäre eher eine pessimistische Einschätzung.

Preislich sieht es allerdings düster aus, die Wirtschaftskrise ist im Kommen. Wenn das so weiter geht sind neue Grafikkarten nächstes Jahr unser geringstes Problem und dabei ist es in Deutschland bislang geradezu ruhig verglichen mit den Nachbarländern.
 

:LOL::rofl:1. April ist immer schön.
AMD Radeon RX Gamma XT-GPU: Ein 26-TFLOP-Monster mit 1,5 TB / s Bandbreite und 21,2 Gigarays Ray Tracing-Unterstützung
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh