AMD Radeon RX Vega 64 und RX Vega 56 im Test

Also das es am Limit ist, mag ich jetzt nicht bestreiten! :fresse:
Aber die Kühlung scheint noch nicht aus dem letzten Loch zu pfeifen...
Die richtige Kühlung - Übertaktet und abgekocht: AMD Radeon RX Vega64 wassergekühlt
Die >300W sind einfach kein Pappenstiel mehr für einen 120er Radiator, der Artikel von THG zeigt deutlich dass die Kühlung der Liquid am Limit ist und Wassertemperaturen von >50°C erreicht werden, daher muss der 120er Lüfter dann auch so aufdrehen.
In einem schönen Custom-Loop macht eine wassergekühlte Vega 64 sicher Sinn, keine Frage, aber mMn ist der Aufpreis für Vega Liquid einfach zu hoch
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nö, ich würds einfach als Feature in Overdrive einfügen - dort kannst du ja auch schon "pro Spiel" Settings setzen. Genauso wie du pro Spiel ein FPS-Target/Limit setzen kannst, würde ich da eine Box zum anklicken für HBCC hinsetzen. Natürlich kann AMD da auch noch nachhelfen und ne Art "default" für Spiele anfügen, bei denen sie schon wissen, obs besser oder schlechter wäre.

Eine White/Blacklist klingt zunächst einmal einfach. Allerdings spielt auch der RAM eine Rolle und mit jeder Variablen wird es schwieriger für AMD hier die richtige Einstellung zu finden. Wir werden mal sehen wie sich das entwickelt.
 
Known Issues

Radeon WattMan may not reach applied overclock states.
3DMark®Firestrike may experience an application hang during GT2 test.
The "Reset" option in Radeon Settings Gaming tab may enable the "HBCC Memory Segment" feature instead of setting it to the default disabled state.
A limited number of HDR enabled TV's may experience intermittent HDMI signal loss.
Windows Media Player may experience an application hang during video playback if Radeon ReLive is actively recording desktop.

Schon witzig so einen treiber herauszugeben. Wenn das nur alles wäre.
http://experience.amd.com/redirect?url=http%3A%2F%2Fwww.amdsurveys.com%2Fse.ashx%3Fs%3D5A1E27D25AD12B4F&utm_campaign=radeon_issue_reporting_redirect&utm_medium=redirect&utm_source=301
Die bug report AMD website ist überlastet :hust:

Wichtig wäre jetzt das die einstellungen im treiber auch machbar sind. Was bisher alles nicht funktioniert.
Ich habe immer für jedes game im treiber ein RAM und core OC und Settings profil erstellt das ist in 4K einfach nötig.
Mit der 295X2 war das kein problem.
Sonst wird das nicht wirklich was. Ich hab bei der FE gesehen das es im treiber machbar ist und dann ist die karte mit freesync top.
Man braucht wenn man nen freesync moni hat wirklich keine NV weil die ohne sync schlechter ist.
Meine 1080 hat ohne sync tearing und lagging egal was ich mache in 4k das ist einfach fakt.
Außer beim verbrauch was mich nicht stört bei keiner highendkarte ist vega mit nem freesync moni in4k die bessere karte..
Mit einem fullcover ist das ding aber auch mit OC absolut leise kühlbar.
55° max in OCCT das am meisten heizt ist top mit dem EK.
 
Zuletzt bearbeitet:
Weiß man denn, ab welchem Takt nicht mehr übernommen wird ?
 
Weiß man denn, ab welchem Takt nicht mehr übernommen wird ?

1700 mhz wars bei meiner nach den leistungswerten wohl genau kann man das aber wohl nicht sagen.
Es werden fantasie werte angezeigt wohl auch beim HBM OC.
Auch in den tools stimmen die im wattman gesetzten Vcore werte nicht.
V core einstellung wird auch nicht richtig übernommen in den einzelnen stats wenn die tools richtig anzeigen stimmt die nicht überein mit den im wattman eingestellten.
 
Zuletzt bearbeitet:
Das ist ja ärgerlich, obwohl ich bei 1750mhz Takt zur Zeit immer noch ein Leistungsplus in benches abgelesen habe, naja wird Zeit für einen vernünftigen Treiber... ;)
 
Nö, ich würds einfach als Feature in Overdrive einfügen - dort kannst du ja auch schon "pro Spiel" Settings setzen. Genauso wie du pro Spiel ein FPS-Target/Limit setzen kannst, würde ich da eine Box zum anklicken für HBCC hinsetzen. Natürlich kann AMD da auch noch nachhelfen und ne Art "default" für Spiele anfügen, bei denen sie schon wissen, obs besser oder schlechter wäre.
Ein Feature bei dem man immer erst selbst wie irre testen muss ob es Sinn ergibt es zu aktivieren, ist einfach witzlos. Ich will doch nicht mehr Zeit mit tweaken als mit spielen verbringen. Das funktioniert nur wenn man ganz wenige Spiele spielt.

Hier noch der neue Wert: http://www.abload.de/img/sky_diver-fx-9590-cfxctujp.jpg
~ 10% mehr FPS mit einem neuem Treiber und GPUs die im Doctober 2013 released wurden. :hust:
Ich glaube nicht, dass man das 1:1 miteinander vergleichen kann.
1. Windows hat zwischendurch Updates bekommen
2. 3DMark hat zwischendurch Updates bekommen
3. Hast du auch Single-GPU getestet?

Würden diese beiden Firmen dagegen rein auf Vulkan setzen, hätte Microsoft ein ganz übles Problem am Hals und AMD würde extrem profitieren: Dann könnte man die Hardware direkt auf die API anpassen, andere APIs komplett in den Müll werfen und hätte ein extremes Potenzial in der Umsetzung der API direkt in die Hardware. Zudem gäbe es absolut keine Portierungskosten für Spiele mehr - die würden mit minimalen Anpassungen auf absolut allem laufen, was man sich so vorstellen kann, außer der Xbox, bei der MS dann erzwungenermaßen einlenken müsste. Damit hätte jeder, der mit PC-Spielen zu tun hat, gewonnen, mit Ausnahme von Microsoft, da ihre Marktmacht dann komplett weg wäre.
So einfach ist das nicht. Da werden nicht plötzlich alle Hersteller auf Vulkan umschwenken. Vulkan hat teils dieselben Probleme wie DX12: es überträgt viel Verantwortung auf die Spielehersteller. Und "alte" Spiele werden eh nicht umgestellt.
Das ist eine Zukunftstechnologie bei der man vielleicht bei Navi darüber sprechen könnte. Für Vega halte ich diesen Schritt für fatal, die beiden angesprochenen Firmen hin oder her.

Eine White/Blacklist klingt zunächst einmal einfach. Allerdings spielt auch der RAM eine Rolle und mit jeder Variablen wird es schwieriger für AMD hier die richtige Einstellung zu finden. Wir werden mal sehen wie sich das entwickelt.
Wenn das Ganze so eine Wissenschaft ist, dann ist das Feature für den Popo. Eigentlich nur dann sinnvoll wenn man ins VRAM Limit läuft.
 
joa bnei mir wirds nun ne gtx 1080 - hatte nach dem 290x mal an etwas stromsparendes mit guter leistung gehofft aber kam ja leider nicht, die leistung wie die 1080 aber doppelterstromverbrauch is dann einfach nicht mehr zeigemäß. gtx 1080tileistungf m,it dem verbrauch wäre evtl noch zu verkraften aber so naja....
 
Das ist ja ärgerlich, obwohl ich bei 1750mhz Takt zur Zeit immer noch ein Leistungsplus in benches abgelesen habe, naja wird Zeit für einen vernünftigen Treiber... ;)

Hast du auch die bugs reportet auf der AMD seite die geht jetzt wieder.
http://experience.amd.com/redirect?url=http%3A%2F%2Fwww.amdsurveys.com%2Fse.ashx%3Fs%3D5A1E27D25AD12B4F&utm_campaign=radeon_issue_reporting_redirect&utm_medium=redirect&utm_source=301

Mein TV ging auch immer nach kurzer zeit aus wenn ich den bildschirm dupliziert habe HDMI signal lost.
Thomson 65UC6406
 
Zuletzt bearbeitet:
Ich habe selber noch kein bug gehabt bisher,

weiter bin ich mit oc noch nicht gegangen, diese Werte scheinen aber noch übernommen worden zu sein, weil der Score noch angestiegen ist:

zb 1750/1015:


stock:
 
Zuletzt bearbeitet:
Soll ich dir nochmal erklären was ein Port ist? Aber egal, hier mal 2 Ergebnisse der aktuellen Benchmarks mit null-optimierten Vega-OS-Treibern:
https://openbenchmarking.org/prospect/1708134-TY-VEGAPREP296/c8336a26bf1223620dd33bed65d64befbd79154d
https://openbenchmarking.org/prospect/1708134-TY-VEGAPREP296/a9cc53b57ec1a93d1ee41f558d5e521566f8e554

BioShock Infinite ist ein Port - deswegen ist der langsamer als in Windows. Relativ betrachtet siehst du hier aber OS-Treiber vs. CS-Treiber vs Nvidia Treiber. Alles schön in einer Grafik. Und in dieser Grafik hat der OS-Treiber noch kein TBR, noch kein 2 MB Page file und noch keine Optimierung des Treibers hinsichtlich Vegas. (Der AMD CS-Treiber hingegen hat schon einige Features aktiv) Das ist praktisch Polaris Code, der da auf der Vega läuft. Trotzdem schneller - huch?

Und die Ports die in Linux eintrudeln werden von Mal zu Mal besser. Von daher: Denk was du willst, ich bleib dabei.

(Und ja, andere Benchmarks sind langsamer. Warum? Weils Portierungen sind - die schwanken stark in ihrer Qualität. Bio Shock darfst du hier also gerne als "besseren" Vergleich sehen. Ein anderer, besserer Port ist Mad Max, welcher derzeit geschliffen wird und zwischen "doppelt so schnell wie der CS-Treiber und "Regression" tanzt bis er fertig ist. Da kannst du einfach mal gucken, wie der sich in Zukunft verhält wenn er sich stabilisiert hat und dann hat sich der Fisch)

wenn du beweisen willst das deine spiele unter linux besser laufen als unter windows, dann musst du natürlich auch benchmarks raussuchen die unter linux und windows durchgeführt wurden und nicht nur benchmarks welche nur unter linux durchgeführt wurden.

habe dir die arbeit mal abgenommen:
NVIDIA/Radeon Windows 10 vs. Ubuntu Linux Relative Gaming Performance - Phoronix
:wink:
 
Ich habe selber noch kein bug gehabt bisher,

weiter bin ich mit oc noch nicht gegangen, diese Werte scheinen aber noch übernommen worden zu sein, weil der Score noch angestiegen ist:

zb 1750/1015:


stock:


Bei mit steigen die frames nur in der messtoleranz wenn ich von 1700 auf 1750 erhöhe wird wohl nicht übernommen.
Wenn ich 1800 einstelle wird in gpuz 1980 angezeigt die frames steigen aber nicht.

Ich hab mal alle bugs reportet die ich bemekt habe ich hoffe ein besserer treiber kommt bald.
Das mit dem TV ist auch ärgerlich ich schaue gerne 4K filme von Motaorradrennen das geht mit dem bug auch nicht.
Die sollen mal hinnmachen mit ihrem treiber bei dem mining treiber gings ja auch schnell.
 
Zuletzt bearbeitet:
Ich habe selber noch kein bug gehabt bisher,

weiter bin ich mit oc noch nicht gegangen, diese Werte scheinen aber noch übernommen worden zu sein, weil der Score noch angestiegen ist:

zb 1750/1015:


stock:

Kannst du bitte auch mal in Superposition Benchmark testen ? Wer echt nett. :)
 
wenn du beweisen willst das deine spiele unter linux besser laufen als unter windows, dann musst du natürlich auch benchmarks raussuchen die unter linux und windows durchgeführt wurden und nicht nur benchmarks welche nur unter linux durchgeführt wurden.

habe dir die arbeit mal abgenommen:
NVIDIA/Radeon Windows 10 vs. Ubuntu Linux Relative Gaming Performance - Phoronix
:wink:

Jupp, sehr gut. Du vergleichst native DX Spiele mit OpenGL Ports. Das ist super, denn dort kannst du den Effekt der Ports direkt ablesen. :)

(btw, Benchmark vom Februar? Warum nicht gleich von 2006? Aber das Thema hat sich eh bald gegessen, wenn Linux trotz Port Verlust native Windows Spiele frisst - ich geb dem noch 2 bis 3 Monate)
 
Zuletzt bearbeitet:
Kannst du bitte auch mal in Superposition Benchmark testen ? Wer echt nett. :)

Kann ich nachher gerne machen, welches preset?



Mit meinen beiden rx480 hatte ich hier mehr, das ist kurios :confused::
 
Zuletzt bearbeitet:
Jupp, sehr gut. Du vergleichst native DX Spiele mit OpenGL Ports. Das ist super, denn dort kannst du den Effekt der Ports direkt ablesen. :)

dann such halt die vielen benchmarks der vielen nativen spiele raus die unter linux besser laufen als unter windows :rolleyes:
 
Zuletzt bearbeitet:
dann such halt die vielen benchmarks der vielen nativen spiele raus die unter linux besser laufen als unter windows :rolleyes:

Diesen Strohmann hast du zwar schön gebaut, ich esse ihn aber trotzdem nicht. Es geht hier darum, wie gut die Treiber sind und nicht, was Portverluste damit machen. (Denn die gibts von den Studios, nicht von den Linux Devs) Aber auch wenn ich es schon mehrere Male gesagt habe:

a) Ich baue mein System für Star Citizen, welches nativ auf Vulkan für Linux kommen wird - der Rest ist Zugabe
b) Mit Wine auf gallium-9 (und sporadisch auch Spiele die mit exp. Patches auf DX11 laufen) bist du auch auf Linux schneller als auf Windows. Hier kann ich nur mein persönliches Beispiel angeben, wo ich in Mechwarrior online (Windows DX9) von 90-110 FPS unter Linux auf 130 FPS gesprungen bin.
c) Doom hat Treiberseitig einen Fix bekommen, so dass es auch unter Linux läuft. Da könnten wir in den nächsten Wochen mal abwarten, ob da jemand einen Bench zu macht (Ich hab leider keine 20 GPUs zu Hause) Das wäre dann mal ein nativer Titel.
 
Es geht hier darum, wie gut die Treiber sind und nicht, was Portverluste damit machen.

du nimmst dir benchmark A welcher nur unter linux durchgeführt wurde, welcher aufzeigt das amd dort besser abschneidet als nvidia.
schlussfolgerst dann daraus das die linux treiber von amd besser sind als bei nvidia (was ja vllt sogar sein kann!)

ignorierst dann aber das dieser benchmark bei amd wie auch nvidia unter windows besser läuft und schlussfolgerst dann daraus das deine hardware unter linux besser ausgenutzt wird als unter windows.

das ist aber schlicht und einfach die falsche schlussfolgerung, was korrekt wäre: unter linux verlierst du als spieler im schnitt gegenüber windows leistung,sowohl bei amd als auch nvidia.

hier hat sich jemand die mühe gemacht doom auf der hd7970 unter linux und windows zu testen
Doom vulkan: Linux wine (openSUSE 42.2 amdgpu-pro ) vs Windows 8.1 (X-post from r/linux_gaming) : Amd
 
Zuletzt bearbeitet:
@sTOrM41

Ich nehme mir aus Mangel an nativen Spielen Vergleiche, die repräsentativ sind. Es gibt hunderte von Benchmarks mit professionellen Anwendungen mit Linux vs. Windows, wo kein Unterschied zu sehen ist. Bei selbst compilierten Kerneln bist du sogar schneller. Nur bei PORTS siehst du einen Leistungsverlust - den du aber aus Mangel an Vergleichbarkeit nicht direkt vergleichen kannst.

Also vergleichst du indirekt, in dem du Nvidia Treiber mit Nvidia Treiber vergleichst, DX vs. Open GL - die Differenz dieser anschaust und dann selbst ausrechnen kannst, wie viel % Leistungsverlust so ein Port verursacht. Diesen Verlust rechnest du dann (bei gleichen Settings - die Unterschiede schwanken auch hier stark) bei den Ergebnissen wieder rauf um abschätzen zu können, wie schnell der Treiber wirklich ist. Das ist natürlich unsauber und die Abschätzung kann um mehrere % daneben liegen - trotzdem reicht es für eine grobe Abschätzung.

Ich habe es - wie du es bereits gesagt hast - schon vor mehreren Wochen gepostet. Ich vergleiche hier Treiber, nicht Ports.

btw, dein Vulkan Vergleich ist AMD closed Source vs. Windows, nicht der OS-Treiber. Das ist aber okay, denn der OS-Vulkan-Treiber ist noch in der beta und zur Zeit ist es tatsächlich empfehlenswerter den langsameren von AMD zu nehmen.
 
Zuletzt bearbeitet:
das ist aber schlicht und einfach die falsche schlussfolgerung, was korrekt wäre: unter linux verlierst du als spieler im schnitt gegenüber windows leistung,sowohl bei amd als auch nvidia.
Moment - wo hat Shevchen denn behauptet, er hätte im Durchschnitt aus allen Spielen mehr FPS mit Linux? Es geht nur darum, dass das Leistungspotenzial von Linux größer ist und der Open Source-OpenGL-Treiber besser ist, als der proprietäre von AMD für Linux wie für Windows.

Jetzt kannst Du nicht einfach mit DX11-Spielen kommen, die für Linux von einer Fremdfirma nach OpenGL übersetzt wurden. Es ist schon erstaunlich, wie viel Leistung dabei übriggeblieben ist - die Portierer machen einen guten Job.

Wenn Du aber Vergleiche ziehen möchtest, solltest Du Dich nach Programmen richten, die nativ mit OpenGL auf beiden Plattformen laufen. Das ist ab Seite 4 bei diesem Test für alle Benchmarks der Fall - auf den vorhergehenden Seiten sind nur Ports. (Edit: "Linux 4.13 + Mesa Git" ist übrigens die aktuellste Version)
Wie man sehen kann, ist die Grafikleistung mit Linux besser als mit Windows. Die FPS, die bei den Ports fehlen, sind somit Verluste, die durch die Portierung entstanden sind und nicht durch den Treiber.

Wie Shevchen bereits erwähnt hat, sieht es mit Vulkan auf Linux momentan schlechter aus, weil der Open Source-Treiber nur eine Beta ist und noch ein paar Monate reifen muss. Aber man sieht auch in Deinem verlinkten Reddit-Beitrag, das mit dem proprietären Treiber meistens weniger als 1 FPS Unterschied ist und einmal habe ich auf Linux auch mehr FPS gesehen - obwohl es DOOM war, was nativ auf Linux nicht läuft und Wine dazwischen lief.
 
Zuletzt bearbeitet:
Ich nehme mir aus Mangel an nativen Spielen Vergleiche, die repräsentativ sind.
Finde den Fehler. ;)

Es geht nur darum, dass das Leistungspotenzial von Linux größer ist und der Open Source-OpenGL-Treiber besser ist, als der proprietäre von AMD für Linux wie für Windows.

Jetzt kannst Du nicht einfach mit DX11-Spielen kommen, die für Linux von einer Fremdfirma nach OpenGL übersetzt wurden. Es ist schon erstaunlich, wie viel Leistung dabei übriggeblieben ist - die Portierer machen einen guten Job.
Ja, das schöne Potential. Das kennen wir von AMD schon seit vielen Jahren. Jetzt haben wir also festgestellt, dass Linux riesiges Potential hat. Aber was bringt uns dieses riesige Potential, wenn es praktisch eh nie ausgenutzt wird? Und da sind wir wieder beim Problem von Vega.

Selbstverständlich kann er DX11-Spiele nehmen, denn genau diese sind auf dem Markt und nicht irgendwelche "potentiellen" nativen Spiele. Als Spieler interessieren nur die Fakten und was dabei für ihn am Ende rauskommt. Für alles andere gibts Philosophen. ;)
 
Zuletzt bearbeitet:
Kann ich nachher gerne machen, welches preset?



Mit meinen beiden rx480 hatte ich hier mehr, das ist kurios :confused::

Vielen Dank. :) Also ist Vega im Superposition Benchmark auf niveau einer auf 2 Ghz Übertakteten GTX 1080. War der Bench Stock oder Übertaktet ?
 
bei doppelten strom verbrauch... und 100-150 euro m,ehrkosten und extra lauten lüfter.

hab meine retour gresendet und mit nun ne 1080 bestellt
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Super ich kaufe mir ne 600€ graka für ein Spiel ... Super Argumente für bdie Vega

Gesendet von meinem SM-G955F mit Tapatalk
 
... und 2 Joysticks, ein Pedal, einen neuen Monitor und und und. Ja, all das für nur ein Spiel. Für alles andere hätte meine alte 7970 auch noch gereicht.
 
Ahrimaan, wo ist das Problem? Andere kaufen aich nen 1000€ Bohrhammer, nur zum Löcher bohren :)
 
Ich habe selber noch kein bug gehabt bisher,
weiter bin ich mit oc noch nicht gegangen, diese Werte scheinen aber noch übernommen worden zu sein, weil der Score noch angestiegen ist
Du hast von Stock auf 1750/1050 3,3% mehr Graphic Score.
Nehmen wir mal den mittleren Takt aller Reviews der Vega 64 Air, dann kommen die auf max 1550 MHz @Stock, somit hast du mit deinen 1750 MHz 13,3% mehr Takt. (den schnelleren Speicher ignorieren wird mal gutmütig)

Wie realistisch werden dann die 13,3% mehr Takt sein wenn nur 3,3% Mehrleistung im Benchmark ankommen?

Warum kommt die Validation Warning?
 
Moment - wo hat Shevchen denn behauptet, er hätte im Durchschnitt aus allen Spielen mehr FPS mit Linux? Es geht nur darum, dass das Leistungspotenzial von Linux größer ist und der Open Source-OpenGL-Treiber besser ist, als der proprietäre von AMD für Linux wie für Windows.

das steht hier in gefühlt jedem zweiten post :fresse:

Hat sich in den letzten... 2 (?) Jahren drastisch gewandelt. Die Treiber sind aktuell auf Nvidia Niveau - in einigen Spielen sogar besser, der Spiele-Support ist mehr als 3-4 Spiele und es tröpfeln so langsam auch die großen Blockbuster rein und dank zukünftiger Vulkan-Unterstützung in den Engines sollte die Zukunft für Linux auch besser aussehen, was Spiele Support angeht. Wenns trotzdem nicht auf Linux rauskommt, gibts WINE (welches erstaunlich gut läuft mit Gallium-nine - besser als DX unter Windows) und der Support für Input-Geräte ist auch breitflächig und stabil.

Das initiale Einrichten dauert natürlich etwas, aber sobald das fertig ist... gg und RIP Windows. Zocken unter Linux ist - meiner subjektiven Erfahrung nach - stabiler (nach Einrichtung), schneller und ich hab gefühlt weniger Frame-Drops.

Tja Mustis - unter Windows kann man die Treiberentwicklung von AMD nur abwarten und beten, dass es besser wird. Deswegen fange ich auch an unter Linux zu zocken, weil dort die OS-Treiber denen von AMD davonlaufen.

Dort hast du deine Mehrleistung, dort hast du deine gelösten Flaschenhälse und dort kitzelst du das Potential der Karten so langsam voll aus.

Ergebnis: In den Linux Open-GL Spielen hat die RX 480/580 die 1060 überholt und tanzt jetzt mit der 1070.

Poor Windows.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh