VRMark Cyan Room spricht AMDs Vega-Architektur an

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.945
futuremark.jpg
Futuremark hat einen neuen VR-Benchmark veröffentlicht. Dieser ist Teil des VRMark und setzt sich zwischen den bereits vorhandenen Blue Room und Orange Room. Der Cyan Room getaufte Benchmark nutzt die DirectX-12-API und scheint vor allem der Vega-Architektur von AMD entgegen zu kommen. Entsprechend sehen auch die Benchmarks aus, die wir für ein paar Karten ausgeführt haben.Der Cyan Room basiert auf einer von Futurmark entwickelten Engine, die ausschließlich für DirectX 12 vorgesehen ist. Die Engine ist bereits Teil der anderen DirectX-12-Benchmarks von Futuremark – zum Beispiel Time Spy. Laut Futuremark konnte man die Engine auf einige der Hardware-Funktionen der...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn die Spieleengines halt auch mal vernünftig programmiert werden würden...

Artikel schrieb:
Dahinter platzieren sich die anderen Modelle, wobei die Radeon RX 580 und Radeon RX 570 offenbar nicht in der Lage ist, von der Optimierung zu profitieren. Es sieht ganz danach aus, dass Futuremark sich vor allem auf die Vega-Architektur konzentriert hat bzw. die Vega-Architektur mit der DirectX-12-Implementation am besten zurechtkommt.

Wenn sogar die RX 570 vor der 1060 ist, scheinen sie ja doch von den Optimierungen zu profitieren, oder?
 
Zuletzt bearbeitet:
Wieder ein Benchmark ohne jeglichen Bezug zur Realität, sowas brauchen wir.
 
Wunderbar hier sieht man die tatsächliche Rohleistung der Karten. Eine vorbildliche DX12 Implementierung und nicht den Rotz, welche die Spieleschmieden mit einen aufgewerteten DX11 Pfad liefern. Die Skalierung von RX 570 | 580 zu Vega RX 56 | 64 passt zur Shaderanzahl der Karten. Die Polariskarten profitieren sehr wohl von den Optimierungen, sonst würde die RX570 nicht vor der GTX1060 landen und die RX580 sich knapp hinter der GTX1070 einordenen. Man sollte solche Diagramme richtig lesen.
 
Zuletzt bearbeitet von einem Moderator:
Wobei man auch sieht, dass die Vega64 eigentlich wirklich unnütz ist. Für 5% Mehrleistung 25% Aufpreis.
 
Jetzt müsste man diesen Benchmark noch mit echten VR Spielen vergleichen. Nur leider ist es kaum bis unmöglich VR Spiele sinnvoll/ausreichend zu benchmarken.
 
Jetzt kann man das vermeintlich volle Potential der Vega Karten sehen, wo sich die kleine Vega vor das Flaggschiff NVIDIA's setzt und dann muss man so etwas im Artikel lesen:

"Im Hinterkopf behalten werden muss aber auch, dass Futuremark womöglich eng mit AMD zusammengearbeitet hat und es daher zu einer Optimierung in eine bestimmte Richtung gekommen ist. Die Ergebnisse stellen sich aber erst einmal so dar, wie sie sind."

Meint ihr das ernst? Well done, NVIDIALUXX.
 
Großartig :bigok:
 
Wayne ... Bis die Optimierungen bei Games ankommen, vergehen 2-3 Jahre. Bis dorthin gibts min. 1x Refresh & 1x next Gen. :shot:

Endert auch nichts an der erzeugte Hitze :p
 
Wayne ... Bis die Optimierungen bei Games ankommen, vergehen 2-3 Jahre. Bis dorthin gibts min. 1x Refresh & 1x next Gen. :shot:

Endert auch nichts an der erzeugte Hitze :p

Heißt aber Vega wäre in 2-3 Jahren noch brauchbar im Gegensatz zu einer GTX1070.

@[W2k]Shadow
Gute Frage: Wohin ist dein Post verschwunden?
 
Zuletzt bearbeitet:
Hab im Fehlerthread schon geposted, mal sehen, was der Maschinenraum sagt, ist echt lustig, n Zitat ohne Post dazu :)
 
Meint ihr das ernst? Well done, NVIDIALUXX.

Man könnte meinen es geht hier um B...Be..BeBe ******? Ein Wort das auf Luxx nicht erscheint aber unterstellt wird. ^^

Warum darf sich Vega nicht auf VR konzentrieren? Warum muss man sofort Hinterfragen und glauben etwas stinkt an der Sache? Besser wäre es doch... nicht dumm vorlaut zu sein sondern gegenzutesten!

Eine Ausführung wie "Im VRMarkt liegt Vega zwar vorne, in der Praxis jedoch und das beinhaltet folgende 10 Spiele, hat sich herausgestellt das......"

Nein. Man bezichtigt lieber gleich direkt.
 
Spiel xy läuft gut auf Grafikkarten von AMD => gute Programmierung!
Spiel yz lauft schlecht auf Grafikkarten von AMD => schlechte Programmierung!

Woher kommt dieses Gelabber eigentlich?


Verwunderlich ist der Unterschied zwischen einer 1080 und einer 1080ti, denn normalerweise ist die ti im Schnitt 20-25% schneller als eine non-ti, aber in diesem Test hier trennen die beiden Karte gerade einmal ~7%. Irgendetwas scheint hier die Karten zurückzuhalten, eventuell die CPU?
Da hier eine 1080 mit einem 1800X deutlich besser performt und einen Score 7259 erreicht.
Eine 1080ti läuft laut diesem Bench mit einem 7900x auch viel besser und erreicht einen Score von 9250.
Wenn man die Ergebnisse von diesen beiden Benches miteinander vergleicht, kommt man auf einen Unterschied von ~27%, was auch in etwa den eigentlich Unterschied zwischen 1080 und 1080ti entspricht.


Und was auch schon in dem Artikel angesprochen wurde. Handelt es sich hierbei um eine von Futurmark eigen entwickelte Engine, sodass die Ergebnisse nicht repräsentative für andere Engines sind!

overclock3d.net schrieb:


Alles in allem wieder einmal nur irgendein synthetischer Benchmark, der einem aufzeigt, was vielleicht irgendwie mögliche wäre, aber auch nur wenn sich die Entwickler hinsetzten und so stark optimieren. Aber es muss bedacht werden, dass solche Optimierungen auch genauso für Nvidia Karten durchgeführt werden können. Und da Nvidia zurzeit einfach höhere Anteile im Grafikkartenmarkt hat, kann man sich denken, für welchen Hersteller wohl eher optimiert wird.
 
Zuletzt bearbeitet:
manno Paddy92@ das passt aber nicht in mein rotes Universum ............

gut geschrieben +1
 
Spiel xy läuft gut auf Grafikkarten von AMD => gute Programmierung!
Spiel yz lauft schlecht auf Grafikkarten von AMD => schlechte Programmierung!

Woher kommt dieses Gelabber eigentlich?
.....
Und da Nvidia zurzeit einfach höhere Anteile im Grafikkartenmarkt hat, kann man sich denken, für welchen Hersteller wohl eher optimiert wird.
Stehe ich jetzt auf dem Schlauch oder widersprechen sich diese beiden Ausführungen absolut??

Also wird laut der letzten Aussage ja doch für eine Seite schlechter programmiert.
 
Zuletzt bearbeitet:
Kommt halt darauf an wie man schlechte Programmierung definiert oder wo genau man die Abgrenzung setzt zwischen Entscheidungen die von der Programmierabteilung getroffen werden und welche vom Projektmanagement. Aus Kosten- und Zeitgründen macht es nicht immer Sinn auf alle möglichen Grafikkarten und deren spezifischen Features hin zu optimieren.

Ich wollte mit der Aussage nicht sagen, dass die Entwickler derzeit nur für eine Seite optimieren, sondern dass es wahrscheinlicher ist, dass sie eher für Nvidia optimieren würden, wegen der höheren Abdeckung des Marktes durch Karten von Nvidia.
 
Zuletzt bearbeitet:
Wunderbar hier sieht man die tatsächliche Rohleistung der Karten. Eine vorbildliche DX12 Implementierung und nicht den Rotz, welche die Spieleschmieden mit einen aufgewerteten DX11 Pfad liefern. Die Skalierung von RX 570 | 580 zu Vega RX 56 | 64 passt zur Shaderanzahl der Karten. Die Polariskarten profitieren sehr wohl von den Optimierungen, sonst würde die RX570 nicht vor der GTX1060 landen und die RX580 sich knapp hinter der GTX1070 einordenen. Man sollte solche Diagramme richtig lesen.

Z. Bsp. Spielt mal mit HDR = NICE = good Job AMD
Lederjacke eiert da momentan nur rum. (buggy Treiber und Lags ohne Ende = 3,5+05)

Wann bringt der LUXX mal ein HDR Special ?
Bitte den Moni aus dem Artikel verwenden.
Samsung bringt die ersten FreeSync-2-Monitore auf den Markt - Seite 2
 
Zuletzt bearbeitet:
finde ich super für Amd aber nützt am Ende des Tages halt genau nichts wenn das nicht endlich auch mal in ein paar AAA Titeln direkt so umgesetzt wird.

Ich hoffe das sich endlich mal was tut in der Richtung nichts wäre wichtiger als das Nvidia mal wieder ordentlich Konkurrenz bekommt. Sieht man ja an den Cpus was so ein bisschen Nähe beim Leistungsvermögen auslöst.
 
Du bist irgendwie ein bisschen Anno? (bitte nicht persönlich nehmen)
Ich finds nur merkwürdig das Anno immer mit gebencht wird obwohl Alle Fachleute wissen,
daß das AA mit AMD korrupt ist und der Patch vom Dev. nicht kommt.

Reicht BF1+Destiny+F1 2017+Hitman+RE7+Mittellerde etc. als neu genug.
[[Category:Games]] [[high_dynamic_range::true]] OR [[high_dynamic_range::hackable]]

Der größte Witz ist TITAN Star Wars Edition und kann in dem Game nicht Input-lag-frei HDR.
Du kannst mich gern mit einem Youtube Video mit Deiner Ti vom Gegenteil überzeugen falls Du einen HDR-TV hast.

Alle regen sich über Lootboxen auf.
Was ist mit ACO ? Kein HDR für PC !!!
Ist das wieder DX 10.1 ?
Assassin's Creed - Patch entfernt DirectX 10.1-Unterstützung - GameStar

ME Andromeda
Mal bitte HDR Bench mit Half16 = on an einem HDR-Monitor.

Momentan bekommt man als Verbraucher keinen gescheiten Input welche Hardware bei HDR zu empfehlen ist.
Da fehlt mal ganz DRINGEND eine Gesamtbetrachtung.
Es gibt immer nur Meldungen zu Monitor+TV xyz.
Bei den Grafikkarten gar keine Vgl. (nicht nur Benchmark sondern auch Aiming).
Wie siehts mit dem Inputlag bei den TV´s aus ? Für Konsolen scheints ja zu reichen.
 
Zuletzt bearbeitet:
@gerry
mein Post war absolut nicht auf deine Aussage bzw. HDR bezogen :banana: - sondern ganz allgemein wollte ich damit sagen das es schön wäre wenn es mehr AAA Titel gäbe die auch Amds Architektur so gut einbinden, wie dieser Benchmark, damit eben Amd ihre Rohleistung besser auf den Boden bekommt wie zb Wolfenstein wo die Amds gleich von Anfang an gut mit dabei waren. Weil uns das allen zugute kommen würde mit einem ordentlichen Konkurrent von Nvidia.

ich muß mich zwar hier eigentlich nicht rechtfertigen, aber ich hab die Ti nur im Rechner weil es von Amd nichts gibt (weil ihre Architektur eben in den meisten Spielen nicht sogut genützt wird und es wäre schön wenn sich das mal ändern würde) mit dem man in 4k mit halbwegs 60 Fps Spielen kann, hab gute 1,5 Jahre auf ne Custom Vega gewartet und bin beiliebe kein Nvidia Fan. Aber diesmal wollte ich nach dem Vegarelease nicht wieder weiterwarten bis die Spielhersteller mal irgendwann die Architektur von Amd unterstützen damit das klappt, hab das Warten schon mit der Fury hinter mir und ausser Ärgern und auf bessere Ausnützung von Amds Architektur waren hats nicht viel gebracht.

mit HDR hab ich mich bis jetzt noch nicht sonderlich befasst da es derzeit in 4K bis auf einen LG glaube ich mit 30"+ (und das ist mir zu groß) nichts an Gaming-Monitoren inklusive Sync gibt und der Wohnzimmer TV (und wäre mir defintiv auch zu groß) hat zwar 4K HDR aber ist von der Reaktionszeit absolut gaming untauglich (Für Filme jedoch eine Wucht - richtiges Quellmaterial vorausgesetzt).

Also wie du siehst kein Grund hier das Kriegsbeil auszugraben :bigok: :wink:
 
Zuletzt bearbeitet:
@Ilo
Mir ging es genauso. Hab mich dann wegen des Monitors für Cf entschieden. (GSYNC ist ja noch lange bis da HDR kommt.)
Seit Creators Update scheint HDR nicht rund zu laufen bei den Ti´s und ich will natürlich zu Weihnachten gerne HDR nutzen.
Und bei der RX64LC da passt mir P/L nicht so richtig.
Da ich nur gelegentlich spiele kann ich i.d.R. auch auf die Patche für Cf warten bzw. kaufe Spiele erst wenn es rund läuft.
 
ja HDR steht defnitiv auf meiner Agenda fürs Gaming aber da warte ich nun erstmal ab was sich bei den 4K Monitoren tut und was sich bei Amd bei den Grakas tut. von dem her bin ich sogar froh das es aktuell keinen Gsync Monitor mit 4K und HDR gibt sonst wäre der Wunsch das zu probieren doch recht groß und wenn ich dann mal komplett auf Nvidias Gsync umgestiegen bin, ist es sicher schwierig wieder auf Amd umzuschwenken da es dann ja wieder einen neuen Monitor bräuchte. Wäre alles einfacher wenn Nvidia auch adaptive Sync unterstützen würde und nicht diesen proprietären Eigenbau der ausser teuer nicht wesentlich besser ist - schon wieder ein Grund warum ich Nvidia eigentlich nicht mag...
 
ja HDR steht defnitiv auf meiner Agenda fürs Gaming aber da warte ich nun erstmal ab was sich bei den 4K Monitoren tut und was sich bei Amd bei den Grakas tut. von dem her bin ich sogar froh das es aktuell keinen Gsync Monitor mit 4K und HDR gibt sonst wäre der Wunsch das zu probieren doch recht groß und wenn ich dann mal komplett auf Nvidias Gsync umgestiegen bin, ist es sicher schwierig wieder auf Amd umzuschwenken da es dann ja wieder einen neuen Monitor bräuchte. Wäre alles einfacher wenn Nvidia auch adaptive Sync unterstützen würde und nicht diesen proprietären Eigenbau der ausser teuer nicht wesentlich besser ist - schon wieder ein Grund warum ich Nvidia eigentlich nicht mag...
4k HDR nativ muß nicht unbedingt sein. Ich sitze 1,00m weg. VSR funzt auch gut.
Da kann man wenigstens diesen MSAA-Quark weglassen.
Und man kann zur Not auf 1440p gehen falls zukünftige Hammerspiele kommen.
Was mir persönlich sehr gut gefällt ist CURVED, weil gerade mit HDR die Immersion toll rüber kommt.
Habe auch noch einen AOC 28"4k der nun leider weniger genutzt wird.
 
Zuletzt bearbeitet:
Nochmal zum Artikel:
Im PCGH-Forum und bei OC3dnet sind die Ti besser.
Da wird auf den Home-PC´s der TR durch Intel ersetzt bei den Usern. (als Ursache ?)
Da scheint wohl ein Patch erf. zu sein. Mal schauen.

Ich finds blöd das bei Grafikbenchmarks die CPU´s so reinspielen.
Kombi I+A vs I+N vs TR+A vs TR+N . Die Reviewer tun mir leid.
Hut ab vor GameGpu mit den ganzen CPU´s.

Bei HWLuxx
Die RX56+TR ist erstaunlich nah an der RX64 dran.
(bremst da was die RX64 ?)

z.Vgl.mit Intel:
VRMARK Cyan Room DX12 Benchmark - AMD VS Nvidia | VRMARK Cyan Room DX12 Benchmarks - AMD VS Nvidia | Software | OC3D Review
Da ist die RX56 normal weg von der RX64, aber auch deutlich langsamer.
1080Ti FE=8567. (mit ner RX64LC OC + Ryzen evtl. 8000+?)


Also momentan für RX die Kombo mit Ryzen zu empfehlen
RX56 = 7450
Alternativ NV+Intel
1080FE = 6918
1070FE = 5422 (oh oh)
(gerade bei AMD nie vergessen, das in den normalen Reviews der Standardspeichertakt viiiiiel zu niedrig ist.)
AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test - Hardwareluxx

wtf - Die RX56 ist der absolute P/L-Hammer !!! (wenn man für 399,-€ fündig wird)
Und da kommen mit den Customs noch geile Teile auf den Markt.
+50,-€ sind da auch angemessen, weil die RX56 <60°C ein UV/OC-Beast ist.
Mal schauen ob da dann auch ein V64-Bios drauf geht.
 
Zuletzt bearbeitet:
Wobei man aber hier einmal ganz klar sagen muß, daß es nicht an NVIDIA liegt.
Wer hier einfach alles bremst ist der Threadripper 16c/32t. Am besten mal 16c/16t o. 8c/16t testen.

Zwei HWBOT Forum Ergebnisse:
VEGA 8656 P
VEGA 8786 P

Auch mit einem Threadripper 16c/16t kann man sehr gute Ergebnisse abliefern
VEGA 8335 P

Wie extrem hier die GTX 1080 ti unter Wert geschlagen wird ( 6868 P ).......lächerlich.
PCGH Forum
GTX 1080 ti 9775 P
GTX 1080 ti 9723 P

Was ich mit meinen Werten auch bestätigen kann
GTX 1080 ti 9767 P

Das der Benchmark nicht generell Probleme mit mehr Kernen hat sieht man hier
i9 7980X 10120P

Ich finde es einfach schade, daß bei so zweifelhaften Ergebnissen kein Gegentest gemacht wird.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh