Big Navi: AMD präsentiert die Radeon-RX-6000-Serie

Summieren sich eigentlich verschiedene getrennte Speicherbereiche und deren Leistung? Bei der viel kritisierten GTX 970 waren 225Bit + 32Bit eben nicht gleich 'effektive' 256Bit samt Leistung. Sind die von AMD angegebenen 2,17 fache Speicherbandbreite dann nicht ebenso ein alter bekannter Marketing Gag in der Folie? Müsste das nicht real wie unten aufgeführt aussehen? :unsure:

Radeon-RX-6000-Series-Launch-Presentation-9-pcgh.jpg

Orginal:
Radeon-RX-6000-Series-Launch-Presentation-9-pcgh (1).jpg
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nvidia hat genau genommen nichts freigegeben.
G-sync ist weiterhin proprietär. G-sync compatible ist genau wie Amds Freesync: Adaptive Sync ohne die Hardware.
Oder habe ich die Aussage missverstanden? ;D
 
Das ist mir bewusst. Aber das liegt auch eher daran, dass dafür eine neue Firmware benötigt wird. Ändert aber nichts daran, dass deine Aussage - Nvidia könnte doch einfach GSync für AMD Karten freigeben - hmm? So wie es AMD für Nvidia gemacht hat - schlicht falsch ist, da Nvidia dies freigegeben hat und AMD nichts für Nvidia freigegeben hat.
Wie bitte?
Was hat Nvidia freigegeben?
 
Die neuen Karten klingen erst mal interessant. Mal unabhängige Benchmarks abwarten wo sie wirklich liegen. Für mich klingt die 6800 XT aber wie eine Alternative zur RTX 2080, vor allem wegen den 16GB VRAM und VR wäre das interessanter.
 
Was geht denn jetzt ab, Kreide ich hier irgendwo AMD an das die kein gsync können?
Ne, aber die können halt natürlich kein G-Sync weil das proprietärer Mist ist.
NVidia hat für alles ihre eigene geschlossene Technik.

welchen du ja auch mit freesync füttern kannst. sehe da das problem nicht wirklich.
Nein, geht nicht
Öhm, hab ich was verpasst ? NVIDIA unterstützt afaik seit Anfang 2019 und ab der GTX 1050 Freesync.
Jaein
Können nur neue Monitore mit G-Sync, aber alte G-Sync Monitore eben nicht.

Ich bin sowas von froh dass ich diesen ganzen proprietären Krempel nicht unterstütze und ich hab selbst ne GTX 1080.
Die nächste Karte könnte aber sehr gut wieder ne AMD Karte werden. Die 6800 wird ein richtig schönes Upgrade für meinen WQHD Monitor.
 
G-Sync ist Mist? Warum das, wenn man eine Nvidia Graka hat? Hatte einige Freesync Monitore. Es gibt sehr wenige die einwandfrei funktionieren.

Variable overdrive hat von denen auch keiner. Von daher, wenn es geht, dann G-Sync. Leider haben die neuen Module meistens einen Lüfter (gibt nur ein passives Modell, den Asus PG mit 360 Hz). Der Lüfter ist ein gravierender Nachteil. Das stimmt.

Jedoch kann man diese auch mit adaptive sync (auch als Freesync bekannt) betreiben.
 
Summieren sich eigentlich verschiedene getrennte Speicherbereiche und deren Leistung? Bei der viel kritisierten GTX 970 waren 225Bit + 32Bit eben nicht gleich 'effektive' 256Bit samt Leistung. Sind die von AMD angegebenen 2,17 fache Speicherbandbreite dann nicht ebenso ein alter bekannter Marketing Gag in der Folie? Müsste das nicht real wie unten aufgeführt aussehen? :unsure:
Ja der Faktor von 2,17 bezieht sich nur auf den Infinity Cache bzw. um wie viel schneller der ist. Das der aber nur 128 MB groß ist und nur eine gewisse Hit Rate erreicht, sollte man auch bedenken. Ich glaube AMD schreibt irgendwo was von einer Hit Rate von 59 % in Spielen.
 
Jau. Amds Freesync, also als Endprodukt, ist genauso proprietär wie g-sync.
Amd gibt nichts "frei". Beim Endpordukt ist alles patentiert und nach rechtlichem blabla abgesichert.
WAS??? AMDs Freesnch ist soweit ich mich erinnere nur ein Werbewort für für die AMD Hardware die den VESA Adaptive Synch Standart unterstüzt ... AMD Grafikarten können doch auch Adaptive Synch auf Ferneshern nutzen, oder? Der einzige der meines Wissen eine proprietär Technik eingeführt hat war Nvidia.

Geht jetzt die QAnon, Corona-Leugner Krankheit, sich irgend was auszudenken und als Tatsache hinzustellen auch durch die Hardwareforen?
 
Zuletzt bearbeitet:
Nein kann er nicht, genau so wenig wie ich es kann, aufgrund von Halbwissen andere User anzugreifen ist echt mal lächerlich. G-Synch Monitor die auch Freesnych können sind erst in den letzte Monaten auf dem Markt gekommen, alle älteren Modele können nur G-Synch. Und wer jetzt schon einige Jahre irgend ein Adaptives Synch hat will nicht mehr drauf verzichten. Ein Monitor wechsel auf der selben Qualitäts Stufe kostet bei mir noch mal mehre 100 Teuronen oben drauf. Bin aber auch selber Schuld den Nvidia Properitär Mist mitgemacht zu haben ... Wobei mein Monitor auch ein Austelungsstück war und damit richtig günstig.

ruhig blut. habe ihn nicht "angegriffen" und mich auch schon bei ihm für mein missverständnis entschuldigt. alles gut.
 
G-Sync ist Mist? Warum das, wenn man eine Nvidia Graka hat?
Genau, wenn man eine NVidia Karte hat und dann will man ne AMD Karte haben und kann mit dem Monitor nichts mehr Anfangen. Was ein Vorteil :lol::lol::lol:
 
@SFVogt
Jau, eben bei der gtx 970. Ist aber ein krummes manipulatives Ding ^^ https://www.hardwareluxx.de/communi...nsolen-am-markt.1271495/page-89#post-27756203

Infinity Steine
Mit rdna2 macht man es laut Folie doch genau so: Man addiert die Speicherdatenrate des L3$ Infinity Caches mit der Speicherdatenrate (512 GB/S) des 16 GB Vram.
Die Folie spricht von x 2,17 mehr Datenrate im Vergleich zum alternativen 384-Bit Ausbau.
936 GB/s *2,17 macht 2,031 TB/s.
Die Zahl kann man so für den Infinity Cache aber so nicht verwenden, da laut Präsentation 58 % cache-hitrate. Macht also ~ 1180 TB/s für den Infinity Gauntlet, ähhm. Cache.
Addiere die restlichen 512 GB/s dazu, und man ist bei 1,7 TB/s.
Amds Alternative ist also 1,7 TB/s schnell, somit deutlich vor rtx 3090 - sogar ganz ohne dicken hbm2e Speicher 8-)

Nachprüfen ob es wirklich "2,17" mehr Datenrate sind (also simulieren wie nvidias Speicheralternative mit 256-Bit aussehen würde: 384 sind 50 % mehr als 256.
2,17 + 50 % = 3,255. Nun simpel 384 * 3,255 = 1250 GB/s für den Infinity Cache allein. Bisschen verrechnet zu 1180 GB/s.
+ 512 GB/s sind es wieder ~ 1760 GB/s. Passt soweit.
 
@L_uk_e
Stimmt nicht. Kommt aufs Modul an. Hat man ein G-Sync Modul mit DP 1.4, geht damit auch Freesync. Es gibt G-Sync Monitore mit Alleinstellungsmerkmalen, wie HDR 1000 und 384 - 512 Zonen Fullarraylocaldimming oder das 360 Hz Modell. Die sind auch für AMD Nutzer interessant.
 
Geht jetzt die QAnon, Corona-Leugner Krankheit, sich irgend was auszudenken und als Tatsache hinzustellen auch durch die Hardwareforen?
Deine Blödheit geht durch die Hardwareforen. Zurück zu Spiegel, Tagesschau und co. mit dir :haha:

Lies noch einmal, dann verstehst du was ich geschrieben habe, Wenn nicht, dreimal ;)
Amds Freesync bei Fernsehern ist eine andere Angelegenheit, da dies über HDMIs VRR realisiert wird.
Hdmis VRR basiert auch auf dem freien Adaptive Sync Standard.
 
@bibi99
Quelle?
Seit wann sollen denn bitte G-Sync Monitore mit Freesync laufen?
 
Gabs eigentlich schon Hinweise zu passenden Wakülösungen bzw welcher Hersteller schon was in Arbeit hat?!
 
@SFVogt
Jau, eben bei der gtx 970. Ist aber ein krummes manipulatives Ding ^^ https://www.hardwareluxx.de/community/threads/amd-spricht-erneut-über-big-navi-desktop-karten-vor-den-konsolen-am-markt.1271495/page-89#post-27756203

Infinity Steine
Mit rdna2 macht man es laut Folie doch genau so: Man addiert die Speicherdatenrate des L3$ Infinity Caches mit der Speicherdatenrate (512 GB/S) des 16 GB Vram.
Die Folie spricht von x 2,17 mehr Datenrate im Vergleich zum alternativen 384-Bit Ausbau.
936 GB/s *2,17 macht 2,031 TB/s.
Die Zahl kann man so für den Infinity Cache aber so nicht verwenden, da laut Präsentation 58 % cache-hitrate. Macht also ~ 1180 TB/s für den Infinity Gauntlet, ähhm. Cache.
Addiere die restlichen 512 GB/s dazu, und man ist bei 1,7 TB/s.
Amds Alternative ist also 1,7 TB/s schnell, somit deutlich vor rtx 3090 - sogar ganz ohne dicken hbm2e Speicher 8-)

Nachprüfen ob es wirklich "2,17" mehr Datenrate sind (also simulieren wie nvidias Speicheralternative mit 256-Bit aussehen würde: 384 sind 50 % mehr als 256.
2,17 + 50 % = 3,255. Nun simpel 384 * 3,255 = 1250 GB/s für den Infinity Cache allein. Bisschen verrechnet zu 1180 GB/s.
+ 512 GB/s sind es wieder ~ 1760 GB/s. Passt soweit.
und @Don
Das war ja die Frage ob das überhaupt so richtig ist das sich die beiden Speicherbereiche addieren (ingesamt 2,17x 384Bit Bandbreite)?! Wenn ich aus dem VRAM laden muss, tu ich das eben nicht mit 1,7TB/s, sondern mit maximal 448GB/s wie das 256Bit 14Gbps Interface hergibt.
 
Ja, Was-auch-immer-sync ist Schnee von gestern.

Wakulösungen müssten diesmal, kann man bereits an dem PCB erkennen, gar nicht so schwer umzusetzen sein wie bei Ampere.
Würde mit Dezember/Januar rechnen.
 
Deine Blödheit geht durch die Hardwareforen. Zurück zu Spiegel, Tagesschau und co. mit dir :haha:

Lies noch einmal, dann verstehst du was ich geschrieben habe, Wenn nicht, dreimal ;)
Amds Freesync bei Fernsehern ist eine andere Angelegenheit, da dies über HDMIs VRR realisiert wird.
Hdmis VRR basiert auch auf dem freien Adaptive Sync Standard.
Hier https://www.heise.de/ct/artikel/G-S...ync-Mehr-Wunsch-als-Wirklichkeit-2195186.html ein mal lesen und verstehen und nicht Scheisse die man sich aus dem Arsch zeiht als Tatsachen hinstellen und den noch beleidigent werden. Von solchen Spinnern haben wir 2020 schon genug.
 
Jedoch kann man diese auch mit adaptive sync (auch als Freesync bekannt) betreiben.
Ist das so? Ich hab einen PG349Q hier. Nach allem, was ich bis dato gelesen habe, funktioniert das bei dem nicht.
 
Der hat auch das alte G-Syncmodul mit nur DP 1.2. Das funktioniert nur bei denen, die HDMI mit VRR haben. Erst bei denen wird VRR auch über den DP verfügbar.
 
Und was hier im Forum loswaere, wenn Nvidia etwas wie "Smart Access Memory" haette, male ich mir lieber nicht aus.
Wer kann der kann. ;) Für mich ist das lediglich die logische Konsequenz, dass Synergieeffekte der eigenen Produkte auch ausgeschöpft werden. Und vermutlich ist das erst der Anfang. Man macht die Produkte der Konkurrenz dadurch ja nicht bewusst schlechter. So wie das Intel gerne mal mit dem eigenen Compiler macht, wo Befehlssatzerweiterungen bei Nicht-Intel CPUs nicht genutzt werden, obwohl sie vorhanden sind. Oder Nvidia, die den SSE Code für PhysX mit älterem und langsamerem x87 Code ersetzt hatten, damit GPU-PhysX, was halt nur mit einer Geforce möglich war, besser dasteht als CPU-PhysX. Oder sinnlose Über-Tessellation in Spiele hat implementieren lassen, damit die Konkurrenz mit weniger Tessellation Rohleistung zusätzlich fps verliert. SAM hingegen stärkt nur die eigene Plattform. Dadurch wird keine Intel CPU oder Nvidia GPU langsamer.

ohne DX12 Benches und cherrypicked Games, ohne Wissen über DXR Leistung und dem DLSS Gegenspieler ist das etwas verfrüht ;)
Nö, kann man schon so stehen lassen. Nvidia wurde mit herunter gezogener Hose erwischt. Andernfalls kann man sich den absurden Preis der 3090 nicht erklären. Nvidia wusste mit Sicherheit, dass AMD einen Gegenspieler für die 3080 hat. Deshalb hat Nvidia die Preise der Vorgänger übernommen und nicht erhöht. Bei der 3090 schaut's anders aus. Im Vergleich zur 2080 Ti wurde der Launchpreis um satte 50% erhöht ($999 vs $1499). Da hat Nvidia wohl nicht mit einem Gegenspieler gerechnet. :fresse:
 
Zuletzt bearbeitet:
Bin da nicht vom Fach. Bei der xbox sx müssen die Entwickler die beiden Speicherbereiche explizit ansprechen.
Was von was zu was adressiert, geladen, gespeichert wird.

Amd hat ja mit huma vor Jahren was ähnlich im Desktop versucht.
Der Ansatz mit dem Infinity Cache hört sich nach Erklärung jedenfalls nicht nach einer Lösung an die in Software umgesetzt werden muss, sondern automatisch autonom mitläuft.
 
G-sync ist weiterhin proprietär. G-sync compatible ist genau wie Amds Freesync: Adaptive Sync ohne die Hardware.

Nicht ganz, wenn man es genau nimmt. FreeSync basiert auf Adaptive Sync. Es erweitert es aber afaik auch, ist also in welchen belangen auch immer mehr als "nur" Adaptive Sync.
Und das "G-Sync-compatible" von Nvidia ist nur, das deren Karten jetzt auch reines Adaptive Sync können, aber eben nicht zwangsläufig alles was FreeSync kann.
G-Sync und FreeSync haben also mit AdaptiveSync (das ein Display-Port/HDMI Standard ist und demnach nichts speziell mit AMD oder NVidia zu tun hat) einen gemeinsamen Nenner, aber sind eben nicht zwangsläufig gleich.

Statistiken inwiefern ein Adaptive-Sync-zertifizierter Monitor an "G-Sync-compatible" zuverlässig funktioniert würde mich aber auch interessieren. Diverse Monitore die FreeSync unterstützen und damit eigentlich auch das volle Subset von Adaptive-Sync können sollten, aber Nvidia trotz G-Sync-compatible nicht wirklich funktionieren, gibts ja anscheinend auch.
 
Das waren nun 9 Jahre nach hd 7970, ohne direkt zum Marktstart, ernsthaften, direkten Konkurrenten im High-End/Enthusiasten-Preisbereich.
Endlich 😓Danke an die Beschäftigten und die Unternehmensführung, welche die Preisspirale nach oben nicht in dieser Weise mitmacht.
Als Dankeschön entweder die 6800XT oder die ... nein, 6800XT reicht mir!

Hawaii wurde erst Jahre später mit FineWine richtig gut und zog an gtx 980 vorbei; musste sich zu Beginn mit der günstigeren und deutlich effizienteren gtx 970 messen.
Fiji war gut. Der Ruf war leider schlechter als die Leistung.
@Tigerfox
Nicht ganz so überzeugend wie hd4000/5000 vs gtx 2xx/4xx Zeit, aber an Ati X800 Pro/XT und X850 XT vs geforce 6800, GT und Ultra kommt die Lage heran ;)
War Fiji wirklich so gut? Kaum OC-Potential, relativ teuer und 4 GB als Todesargument. Die waren selbst damals schon knapp.

Freesync ist für mich auch ein Grund der stark für AMD spricht. Natürlich muss erstmal die Leistung für mehr als 60 Hz her, hätte man die sähe es im roten Lager einfach besser aus. 3 K für einen Monitor mit Gsync HDR+++ Ultra Extreme habe ich nicht. Freesync hingegen haben sehr viele Monitore, zumal es auch 4K ~144 mittlerweile in bezahlbar, sprich bis 1 K gibt.
 
Na hoffentlich gibt das nicht noch ein böses Erwachen, mit der Leistungsaufnahme.
Wenn man die Rechnung aus dem Video von der XT auf dies Karte überträgt, kommt man auf ca. 365 Watt.
Schaut euch mal das Video an, da wird der Unterschied zwischen Nvidia TGP und AMD TGP erklärt.
Das wird aber bei den Tests ans Tageslicht kommen aber hoffen wir mal das die wirklich nur 300 W verbraucht.

 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh