Erste belastbare Benchmarks: PCPerspective testet die Radeon Vega Frontier Edition (Update)

Aber damit bist du garantiert ein Einzelfall.
Ja, ich bin mir dieser Tatsache bewusst, weshalb ich auch versuche zu vermeiden meine Ansprüche auf andere zu übertragen. Funktioniert natürlich nicht immer. xD


Wie schlägt sich AMD ggü. Nvidia?

Linux selbst hat keine Performance-Einbuße zu Windows. Das OS ist äquivalent schnell und hat in einigen Benchmarks sogar leichte Vorteile, wenn man Äpfel mit Äpfel vergleicht (Open GL - Nvidia - gleiche Anwendung)

Wenn wir die Birne hinzufügen - aka AMD Treiber mit OS-Treiber austauschen, hat der OS-Treiber bei OpenGL teilweise enorme Leistungsgewinne, wenn man native Anwendungen betrachtet (von denen gibt es aber nur sehr wenige). Die häufigsten OpenGL-Spiele auf Linux sind entweder geportet (was direkt mal ~30% Leistung kostet) oder laufen über Wine (kein offizieller Support und Frickelarbeit für den User)

Trotzdem kommen diese Ports recht nahe an die Windows Performance ran - was für den OS-Treiber spricht. Kurz gesagt ist Linux eigentlich die bessere gaming-Platform, WENN die Spiele OS-agnostisch geschrieben werden würden. Werden sie aber nicht, außer bei ein paar Indie-Titeln und nun ja... Star Citizen. xD

Also kurz gesagt:
Nvidia auf Linux = Nvidia auf Windows (bei nativen OpenGL Anwendungen)
AMD blob auf Linux < AMD-blob auf Windows
AMD OS auf Linux > AMD-blob auf Windows (Open GL nativ)

Gilt noch nicht für Vulkan, da Vulkan auf Linux noch nicht ganz fertig ist. Der Vergleich AMD OS vs. Nvidia auf Linux ist nicht so einfach zu ziehen, aber relativ-Benches zeigen beide auf Augenhöhe zueinander.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bei GPUs wäre der meist großzügigere VRAM von AMD-Karten sehr interessant, denn davon kann man meist nicht genug haben. Allerdings kommt man auch mit 4GB klar und 6GB sollten im Normalfall auch kein Problem darstellen. Mehr ist halt ein schöner Bonus und bietet Sicherheit. Leider war es bisher so, dass die Karten von AMD in X-Plane leistungstechnisch im Vergleich zum jeweiligen Nvidia-Gegenstück deutlich hinterherhinken. Bei v11 soll man das wohl inzwischen etwas in den Griff bekommen haben. Das Problem ist, dass es kaum jemanden gibt, der eine AMD-Karte hat und es daher auch keine direkten Vergleichswerte zu v11 gibt, die ohnehin andauernd allgemeine Performanceverbesserungen bekommt. Und auf Experimente hätte ich keine Lust. Mit Vulkan wird es natürlich sehr interessant werden. Aber bis das vernünftig umgesetzt wird (tw. müssen da auch Addons angepasst werden), wird es noch dauern. Vor Ende 2018 rechne ich nicht damit. Und auch hier ist die Unklarheit, was es am Ende ggü. dem aktuellen Optimum bringen wird. Aber es besteht die realistische Chance, dass man dann endlich eine größere Auswahl hat.

Nun, Bulldozer wurde aufgrund des totalen Fokus' auf Multicore schon irgendwie am gesamten Markt vorbei entwickelt. Das ist heute eine Nische und die war es 2012 erst recht. Der Phenom 2 X6 war ja auch so eine CPU, die nur den Allerwenigsten etwas gebracht hat.
Bei den GPUs ist bei AMD dieser Fokus auf Mantle/Vulkan/DX12 und die Vernachlässigung von DX11/OGL der Punkt, wo in gewisser Weise vorbeientwickelt wird. Sicher hat AMD man die Defizite durch höhere Rohleistung auffangen können, das hat dafür wiederum andere Nachteile gehabt. Am Ende ist für den Kunden das Gesamtkonzept wichtig. Und da hat AMD in einzelnen Punkten doch recht unnötige Defizite, die man durch bessere Treiberoptimierung besser in den Griff bekommen hätte. Die 580 müsste zumindest in Schlagdistanz zur 1070 sein und anstatt 30% "nur" max. 10% hinterherhinken. Gleichzeitig würde das auch die Effizienz verbessern.
Der Fokus nach der 290X bei den Highendmodellen auf HBM(2) war mMn zusammen mit der Vernachlässigung von DX11/OGL der größte Fehler von AMD. Der Schritt ist sicher sinnvoll, war aber zu früh. Man hätte das vielleicht besser für das Profisegment genommen und im Spielermarkt besser auf GDDR5(X) setzen sollen. Das hätte bei der 28nm Generation allerdings nur mit einer deutlich verbesserten Energieeffizienz geklappt, die 390X war schon mehr als am Limit. Hätte man den Fokus auf derartige Verbesserungen gesetzt, würde AMD heute sicher besser dastehen. Natürlich kann man im Nachhinein immer leicht sagen, denn mit der Knappheit von HBM2 hat AMD wohl auch nicht gerechnet. Die Nutzung von HBM1 war aufgrund der Beschränkung von 4GB jedoch ein ziemlich krasser Denkfehler von AMD. Vielleicht hatte man sich von der neuen Technik auch mehr versprochen. Wir wissen es nicht. Müssen wir aber auch nicht, für uns zählt nur das Ergebnis.


@Shevchen
Vielen Dank für die Einschätzung zu Linux! Das hört sich insgesamt sehr gut an und besser als von mir gedacht. Dass es bei den meisten Spielen nur billige Ports gibt ist mir bewusst. Witcher 2 soll als Windowsversion unter WINE sogar besser laufen als die "native" Linuxversion...
Hier bedarf es generell einer besseren Anpassung. Bei X-Plane scheint das immerhin der Fall zu sein. Problem sind halt die anderen Anwendungen und Spiele.
 
Zuletzt bearbeitet:
Hat auch wirklich kaum jmd eine AMD Karte ;) Aber das kann sich ja mit VegaRX noch ändern ... :)
 
Vielen Dank für die Einschätzung zu Linux! Das hört sich insgesamt sehr gut an und besser als von mir gedacht. Dass es bei den meisten Spielen nur billige Ports gibt ist mir bewusst. Witcher 2 soll als Windowsversion unter WINE sogar besser laufen als die "native" Linuxversion...
Hier bedarf es generell einer besseren Anpassung. Bei X-Plane scheint das immerhin der Fall zu sein. Problem sind halt die anderen Anwendungen und Spiele.

Das *hüstel* geile an den OS-Treibern ist, dass die noch nicht das Ende der Fahnenstange erreicht haben - da kommt noch was oben drauf. ^^ Sobald der neue Display Core fertig ist, kannst du Windows eigentlich einpacken. DX9-11 kannst du (wenn dir etwas Basteln nicht fremd ist - gibt auch genügend Tutorials) unter Wine laufen lassen (oder mit dem kommenden Vulkan-über-D3D Projekt) und für alles andere willst du eigentlich nichts anderes als Linux haben. (zu mindest aus AMD-Perspektive)

Wer ne Nvidia-Karte hat, dem kann Windows vs. Linux recht egal sein. Linux hat einen besseren Scheduler als Windows, aber das wars eigentlich schon fast an Performance-relevanten Unterschieden. Ich persönlich finde Linux in Spielen etwas stabiler, da kann ich aber nur von einer begrenzten Testmenge aus urteilen, die durchaus einem bias unterliegen kann. Ansonsten hat Linux halt keine blöde Spyware und 40 Hintergrundprogramme, die du erstmal alle per Hand deaktivieren darfst. Aber das geht schon so langsam weg vom Thema "Gaming".

edit: Und ja, es wäre mehr als wünschenswert, wenn Spiele in Zukunft agnostisch programmiert werden würden - nur leider ist der Marktanteil zu gering, als dass es sich wirtschaftlich lohnen würde. Die Studios stecken ihre Devs lieber ran ein paar DLCs zu basteln, als nativ OpenGL/Vulkan zu bauen.
 
Zuletzt bearbeitet:
4. Durch AC wird versucht die Shaderauslastung hoch zu halten und die Idle Time zu reduzieren.
7. Problem ist halt, da es bei Spielen leider viele Abhängigkeiten gibt, die synchron und sequentiell ablaufen müssen. Und die Programmierung ist definitiv je nach API nicht die selbe. Bei der APP-Programmierung stechen die Möglichkeiten, wo du Asynchronität nutzen kannst, viel stärker heraus.
9. Sie müssen parallel sein und gleichzeigt nicht sequentiell.
4. Es wird versucht, Tasks asynchron zu verarbeiten, um Idle Zeiten zu reduzieren. Das kann die Shaderauslastung erhöhen, hat aber nichts mit der Shaderproblematik bei AMD zu tun. Denn egal ob AC oder nicht, die Vec16 SIMD Einheiten werden bei GCN immer gleich gefüttert. Erst Vega bringt hardwareseitige Neuerungen mit, damit die SIMD Einheiten besser ausgelastet werden können, völlig unabhängig von AC.
7. Und warum soll es diese Abhängigkeiten bei PC Spielen geben, bei Spielen auf mobilen Geräten aber nicht? Ergibt für mich nach wie vor keinen Sinn. Und für letztes hätte ich gerne eine Quelle. Klingt für mich unglaubwürdig.
9. Wie gesagt, sie sind von Natur aus ja parallel.
 
Zuletzt bearbeitet:
7. Und warum soll es diese Abhängigkeiten bei PC Spielen geben, bei Spielen auf mobilen Geräten aber nicht? Ergibt für mich nach wie vor keinen Sinn. Und für letztes hätte ich gerne eine Quelle. Klingt für mich unglaubwürdig.
9. Wie gesagt, sie sind von Natur aus ja parallel.

7. Das würde in der Tat kein Sinn ergeben, nur habe ich dies nicht behauptet. Ich habe von mobile APPs geschrieben und nicht von mobile Games.
9. Ja sie sind parallel, aber dadurch nicht automatisch asynchron. Die Befehle dürfen nicht abhängig von der Reihenfolge sein.
 
7. Das würde in der Tat kein Sinn ergeben, nur habe ich dies nicht behauptet. Ich habe von mobile APPs geschrieben und nicht von mobile Games.
9. Ja sie sind parallel, aber dadurch nicht automatisch asynchron. Die Befehle dürfen nicht abhängig von der Reihenfolge sein.
7. Mobile Games sind letztendlich auch mobile Apps. Aber gut, dann ergeben deine Aussagen für mich überhaupt keinen Sinn. Warum sprichst du auf der einen Seite von Games und auf der anderen Seite von mobilen Apps? Wo genau liegt denn die Vergleichsbasis bzw was willst du uns damit sagen? Entweder vergleichen wir PC Games und mobile Games oder PC Apps und mobile Apps oder Games und Non-Game Apps ohne irgendeine Plattformbeschränkung. Alles andere ist doch Käse und führt zu nichts. Vergleichen wir Games und Non-Game Apps, dann wüsste ich trotzdem nicht, warum bei letztem die "Möglichkeiten, wo du Asynchronität nutzen kannst, viel stärker herausstechen" sollen. Dafür hätte ich gerne mal eine Quelle, die das bestätigt und detaillierter erläutert. Wie gesagt, klingt für mich erstmal unglaubwürdig.
9. Hat ja auch keiner gesagt, dass sie automatisch asynchron verarbeitet werden. Würden sie das, dann bräuchte man keine Techniken wie AC. ;) Die Parallelität vieler Daten bzw Aufgaben bei Grafik- und GPGPU-Anwendungen bedeutet aber automatisch, dass sie voneinander unabhängig und damit für AC geeignet sind. Besser als zB viele typische CPU Aufgaben, die tatsächlich eher serieller Natur sind.
 
Mobile Games sind letztendlich auch mobile Apps. Aber gut, dann ergeben deine Aussagen für mich überhaupt keinen Sinn.

Nicht mein Problem, wenn du nicht in der Lage bist zu abstrahieren.

Warum sprichst du auf der einen Seite von Games und auf der anderen Seite von mobilen Apps?

Ich habe einfach nur ein Beispiel aufgezeigt, wo asynchrone Programmierung häufig genutzt wird und relativ einfach umzusetzten ist.

Vergleichen wir Games und Non-Game Apps, dann wüsste ich trotzdem nicht, warum bei letztem die "Möglichkeiten, wo du Asynchronität nutzen kannst, viel stärker herausstechen" sollen. Dafür hätte ich gerne mal eine Quelle, die das bestätigt und detaillierter erläutert. Wie gesagt, klingt für mich erstmal unglaubwürdig.

Bei der mobile APP Entwicklung ist es wichtig, dass eine App ein gutes Look and Feel hat, also ist es ganz schlecht, wenn die UI dauernd blockiert, wenn irgendein Task etwas länger braucht, z.B. irgendwelche Zugriffe aufs Internet. Ja auch bei Desktopanwendungen ist dies wichtig und auch hier wird immer mehr asynchrone Programmierung genutzt, bei Tasks wo man nicht CPU-gebunden ist. Nur ist es so, dass bei mobilen APPs kaum CPU-gebundene Tasks abgearbeitet werden müssen. Bei mobilen Apps ist man meistens I/O-gebunden. Die meisten Apps, eigentlich fast alle, greifen aufs Internet zu und genau hier eignet sich asynchrone Programmierung. Klar kann man auch durch Multithreading verhindern, dass die UI blockiert, aber Multithreading ist komplex, sehr fehleranfällig und Threads zu initialisieren kostet teilweise mehr Leistung als der Task, der abgearbeitet werden muss. Daher sollte man bei I/O-gebundenen Tasks immer Asynchronität verwenden und bei CPU-gebundenen Tasks Multithreading. Bedenken muss man, dass mobile Verbindungen oft langsam und instabil sind, sodass ein Internetzugriff auch mal etwas länger dauern kann. Ob jetzt z.B. dein Login sofort abgeschlossen wird, 5 Sekunden oder längert dauert ist relativ egal, aber klar all zulange sollte er nicht dauern. Und jetzt kommen wird zu den Grafikanwendungen, denn hier sind Zeiten und Latenzen eben nicht egal, aber das weißt du ja bestimmt :)

Okay ich muss zugeben, ich habe mehr mit App-Entwicklung zu tun, daher fallen mir sofort mehr Möglichkeiten ein, wo man hier Asynchronität nutzen kann.

https://www.heise.de/developer/artikel/async-und-await-fuer-Node-js-3633105.html
async (C# Reference) | Microsoft Docs
Asynchrone Programmierung mit „async“ und „await“ (C#) | Microsoft Docs

Ps: Viele Tutorials für Internetzugriffe in mobilen Apps sind ehr mau und Fehlerhaft. Die berücksichtigen sowas wie Asynchrone Programmierung gar nicht....

Da sieht man oft sowas auf dem Main-Thread, also dem UI-Thread:

WebRequest request = WebRequest.Create ("https://www.hardwareluxx.de");
HttpWebResponse response = (HttpWebResponse)request.GetResponse ();

Aber so wäre es besser:

WebRequest request = WebRequest.Create ("https://www.hardwareluxx.de");
HttpWebResponse response = await (HttpWebResponse)request.GetResponseAsync ();
 
Zuletzt bearbeitet:
Nicht mein Problem, wenn du nicht in der Lage bist zu abstrahieren.
Keine Sorge, ich denke ich kann sehr gut abstrahieren. Da wo ich keinen Sinn entdecke, kann ich aber auch nicht einfach welchen dazudichten. ;)

Bei der mobile APP Entwicklung ist es wichtig, dass eine App ein gutes Look and Feel hat, also ist es ganz schlecht, wenn die UI dauernd blockiert, wenn irgendein Task etwas länger braucht, z.B. irgendwelche Zugriffe aufs Internet. Ja auch bei Desktopanwendungen ist dies wichtig und auch hier wird immer mehr asynchrone Programmierung genutzt, bei Tasks wo man nicht CPU-gebunden ist. Nur ist es so, dass bei mobilen APPs kaum CPU-gebundene Tasks abgearbeitet werden müssen. Bei mobilen Apps ist man meistens I/O-gebunden. Die meisten Apps, eigentlich fast alle, greifen aufs Internet zu und genau hier eignet sich asynchrone Programmierung. Klar kann man auch durch Multithreading verhindern, dass die UI blockiert, aber Multithreading ist komplex, sehr fehleranfällig und Threads zu initialisieren kostet teilweise mehr Leistung als der Task, der abgearbeitet werden muss. Daher sollte man bei I/O-gebundenen Tasks immer Asynchronität verwenden und bei CPU-gebundenen Tasks Multithreading. Bedenken muss man, dass mobile Verbindungen oft langsam und instabil sind, sodass ein Internetzugriff auch mal etwas länger dauern kann. Ob jetzt z.B. dein Login sofort abgeschlossen wird, 5 Sekunden oder längert dauert ist relativ egal, aber klar all zulange sollte er nicht dauern.
Und was hat das jetzt konkret mit GPUs und AC zu tun? Darum geht's doch. Was du hier schreibst, brauchst du mir nicht extra zu erläutern. Die Thematik kenne ich gut genug. Nochmal unmissverständlich, das Thema war GPUs und AC.


Und noch einiges als Ergänzung aufgrund meiner persönlichen Erfahrung, ist also nur meine Meinung, macht deine Aussagen für mich aber nicht plausibler. Gutes "Look and Feel" ist bei Desktop Apps auch nicht verboten. Daher, wie du schon andeutest, ist auch bei Desktop Apps die Entkopplung blockierender Aufgaben wichtig. Wie diese Entkopplung geschieht, ob über Asynchronität oder über Multithreading, ist erstmal zweitrangig. Oft bietet es sich aber an, simple Aufgaben über Asynchronität und komplexere Aufgaben über Multithreading zu lösen.

Dass Multithreading komplex und sehr fehleranfällig sein soll, kann ich zumindest für Windows auch nicht bestätigen. Mittlerweile bieten auch diverse populäre Sprachen wie C++ (ab C++11) offiziellen Support, der es Programmierern plattformübergreifend erleichtert und leider lange Zeit vernachlässigt wurde.

Man kann auch nicht pauschal sagen, für CPU gebundene Tasks sollte man Multithreading nutzen, für I/O gebundene Tasks Asynchronität. Was am besten passt, hängt von der verwendeten Entwicklungsumgebung und wie gesagt von der Komplexität der Aufgaben ab. Der Programmierer kann eh nicht immer abschätzen, was letztendlich CPU und was I/O gebunden ist. Erst recht wenn die App auf allen möglichen Geräten mit unterschiedlichsten Hardwarekonfigurationen laufen soll. Oder im Falle von Spielen, welche Qualitätseinstellungen genutzt werden können.

Dass mobile Apps besser für asynchrone Programmierung geeignet sein sollen, erschliesst sich mir nach wie vor nicht. ZB Message Queues unter Windows sind von Haus aus asynchron aufgebaut. Das bedeutet nicht, dass Windows Desktops Apps für asynchrone Programmierung weniger geeignet sind. Es bedeutet lediglich, dass man als Programmierer nicht so viel beisteuern muss. Oft unterscheidet synchrone und asynchrone Verarbeitung nur zB ein SendMessage oder PostMessage Aufruf. Der einzige Unterschied ist vielleicht, dass mobile Apps mehr auf Zugriffe aufs Internet angewiesen sind. Das ist schon richtig. Nur hat das keine Bedeutung fürs Thema. Ich sehe da weiterhin keinen direkten Zusammenhang zu GPUs und AC. Deine Aussagen ändern daran auch nichts. AC ist ein ganz konkretes Konzept für GPUs, das auf Asynchronität aufbaut. Du hingegen sprichst hier völlig allgemein über Asynchronität. Ich muss also nochmal fragen, was willst du uns damit in Bezug auf Vega sagen?
 
Zuletzt bearbeitet:
Und was hat das jetzt konkret mit GPUs und AC zu tun? Darum geht's doch. Was du hier schreibst, brauchst du mir nicht extra zu erläutern. Die Thematik kenne ich gut genug. Nochmal unmissverständlich, das Thema war GPUs und AC.

Es war nur ein Beispiels abseits von GPUs und AC....

Und noch einiges als Ergänzung aufgrund meiner persönlichen Erfahrung, ist also nur meine Meinung, macht deine Aussagen für mich aber nicht plausibler. Gutes "Look and Feel" ist bei Desktop Apps auch nicht verboten. Daher, wie du schon andeutest, ist auch bei Desktop Apps die Entkopplung blockierender Aufgaben wichtig. Wie diese Entkopplung geschieht, ob über Asynchronität oder über Multithreading, ist erstmal zweitrangig. Oft bietet es sich aber an, simple Aufgaben über Asynchronität und komplexere Aufgaben über Multithreading zu lösen.

Jap, habe ich auch schon geschrieben.

Dass Multithreading komplex und sehr fehleranfällig sein soll, kann ich zumindest für Windows auch nicht bestätigen. Mittlerweile bieten auch diverse populäre Sprachen wie C++ (ab C++11) offiziellen Support, der es Programmierern plattformübergreifend erleichtert und leider lange Zeit vernachlässigt wurde.

Ok, lass es mich so formulieren, es ist komplexer und fehleranfälliger als asynchrone Programmierung. Ändert nichts an dem Punkt, dass es "Bad Practise" ist für kleine für jeden Kleinkram neue Threads zu nutzen.

Man kann auch nicht pauschal sagen, für CPU gebundene Tasks sollte man Multithreading nutzen, für I/O gebundene Tasks Asynchronität. Was am besten passt, hängt von der verwendeten Entwicklungsumgebung und wie gesagt von der Komplexität der Aufgaben ab. Der Programmierer kann eh nicht immer abschätzen, was letztendlich CPU und was I/O gebunden ist. Erst recht wenn die App auf allen möglichen Geräten mit unterschiedlichsten Hardwarekonfigurationen laufen soll. Oder im Falle von Spielen, welche Qualitätseinstellungen genutzt werden können.

Ja ok, ich habs nen bisschen zu drastisch formuliert. So wäre es besser: "Bei I/O-gebundenen Tasks sollte man ehr zu Asynchronität tendieren und bei CPU-gebundenen Tasks ehr zu MultiThreading.

Du hingegen sprichst hier völlig allgemein über Asynchronität

Ach was, weil es ein Beispiel für alllgemeine Asynchronität war.....
DU bist derjenige der es die ganze Zeit versucht auf Spiele, Vega oder AC zu beziehen. Ich verstehe echt nicht wie man das nicht verstehen kann, so was willst du bezwecken?
 
Nun ja - von außen betreachtet wäre es für Vega ein Vorteil, wenn die 4096 Shader-Einheiten effizient ausgelastet werden. Das bekommt man mit asynchronen Tasks hin, welche die Architektur auslasten, ohne jedoch die Pipeline zu verstopfen. Das ordentlich zu balancieren ist zwar möglich, benötigt aber schon etwas Schliff. Da die meisten Spiele-Studios auf Nvidia-Karten programmieren und den Radeon-Support "hinterhers schieben" ist halt doof, deswegen hat AMD mit einer robusten Arch reagiert, welche die Nachteile einer Nvidia-optimierten Spieleumgebung entgegen treten kann.

Der Rest ist Software - will heißen: Treiber, welche diese Features gut nutzen und Spiele, welche darauf zugreifen. Davon gibt es zur Zeit genau null - da der Treiber noch nicht mal da ist.
Generell ist das asynchrone Rendering aber sehr mächtig - vor allem in Verbindung mit dem Tiled-Rasterizer. Eine Spiele-Engine, welche das ausnutzen kann, ist der konkurrenz weit überlegen.

Und da schließt sich der Kreis wieder zu Star Citizen. In den meisten AAA-Spielen kann man das einfach vergessen - allerding habe ich da auch nicht mehr die Hoffung / den Anspruch, dass da überhaupt noch was kommt, Square Enix hat sich mit DX12 versucht, Bethesda/ID wohl mit Vulkan und Ubi/EA bleiben auf DX11 und werfen *vielleicht* DX12 in den Ring, wenn die von M$ bezahlt werden.

Als Nutzer kann man nur folgend drauf reagieren: Entweder man kauft sich ne Nvidia Karte und zahlt sich dumm und dämlich für gierige Publisher - oder man hört auf denen Geld in den Rachen zu werfen und steigt auf Alternativen um. Ich persönlich werde mit Star Citizen mehr als bedient sein und die paar Nebenspiele a la XCom und Battletech schafft auch eine eher unoptimierte Umgebung mehr als locker.

Ich sehe die Zukunft für Vega aus meiner persönlichen Sicht recht positiv.

btw @Hardwareaner
https://www.phoronix.com/scan.php?page=article&item=radeonsi-win10-fury&num=1
Bei den Spielen siehst du, dass obwohl es Ports sind, diese Open-GL Ports sehr nahe an die DX-Windows Versionen rankommen. Vor 2 Jahren war das grad mal 1/3 der heutigen Performance. Wenn das kein Argument für "Gaming on Linux" ist, was sonst? :d
 
Zuletzt bearbeitet:
Da kann ich nur zustimmen, aber wir brauchen leider auch die bessere Performance auf Linux - die irgendwann demnächst Realität wird, um die ganz großen unter den Publishern von Linux als Plattform zu überzeugen, schätze ich. Die haben offenbar heftige Vorbehalte oder Abneigungen, selbst wenn ihnen eine Unterstützung mehr bringen würde - das sieht man beispielsweise an DOOM, was bereits Vulkan-basiert ist, sodass der Portierungsaufwand ein Witz wäre und dennoch nicht nativ auf Linux rausgebracht wurde.
Da bleibt leider als möglicher Grund nur noch übrig, dass man gar nicht möchte, dass Linux als Spieleplattform Erfolg hat (warum auch immer) und deshalb die Hürden zumindest für die eigenen Spiele aufrechterhält. Allerdings wird das langfristig nicht aufgehen, da sich ohnehin immer mehr Menschen Indie-Studios zuwenden, die statt auf Protektionismus zu setzen, innovative Ansätze hervorbringen und gerne die Linuxverkäufe - vor allem auch die Vulkan-API dankend gerne mitnehmen.

Man sieht vor allem bei schlecht optimierten Spielen, genau wie auf Windows auch, mit AMD-Karten aktuell noch größere Probleme als mit Nvidia-Karten. Das TBR mache ich zum großen Teil dafür verantwortlich und bin mir deshalb ziemlich sicher, dass Vega auf Linux sehr viel besser laufen wird, als die bisherigen Karten - vor allem, weil der Markt zum Teil aus Ports besteht, die die Ressourcen bisher nicht voll ausschöpfen, oder aus grafisch weniger aufwändigen Spielen, die ebenfalls häufiger Probleme mit der Shaderauslastung machen.
 
Da kann ich nur zustimmen, aber wir brauchen leider auch die bessere Performance auf Linux - die irgendwann demnächst Realität wird, um die ganz großen unter den Publishern von Linux als Plattform zu überzeugen, schätze ich. Die haben offenbar heftige Vorbehalte oder Abneigungen, selbst wenn ihnen eine Unterstützung mehr bringen würde - das sieht man beispielsweise an DOOM, was bereits Vulkan-basiert ist, sodass der Portierungsaufwand ein Witz wäre und dennoch nicht nativ auf Linux rausgebracht wurde.
Da bleibt leider als möglicher Grund nur noch übrig, dass man gar nicht möchte, dass Linux als Spieleplattform Erfolg hat (warum auch immer) und deshalb die Hürden zumindest für die eigenen Spiele aufrechterhält. Allerdings wird das langfristig nicht aufgehen, da sich ohnehin immer mehr Menschen Indie-Studios zuwenden, die statt auf Protektionismus zu setzen, innovative Ansätze hervorbringen und gerne die Linuxverkäufe - vor allem auch die Vulkan-API dankend gerne mitnehmen.

Man sieht vor allem bei schlecht optimierten Spielen, genau wie auf Windows auch, mit AMD-Karten aktuell noch größere Probleme als mit Nvidia-Karten. Das TBR mache ich zum großen Teil dafür verantwortlich und bin mir deshalb ziemlich sicher, dass Vega auf Linux sehr viel besser laufen wird, als die bisherigen Karten - vor allem, weil der Markt zum Teil aus Ports besteht, die die Ressourcen bisher nicht voll ausschöpfen, oder aus grafisch weniger aufwändigen Spielen, die ebenfalls häufiger Probleme mit der Shaderauslastung machen.

Wir beide (und ein paar andere Seelen) sind damit aber die Ausnahme. Ja, wir können - ordentlich eingestellt - wohl in Zukunft 50% mehr Leistung aus den Spielen rauskitzeln und ja, wir hätten damit auch einen Vorteil. Das interessiert aber den Durchschnitts-Gamer nicht. Wir leben in der Generation "Konsole" bzw. "Smartphone" wo alles mit einem Click gehen muss. Mir gefällt das nicht, dir gefällt das nicht und selbst den Devs gefällt das nicht. Aber leider bezahlen genau diese Kunden ihr Gehalt - ergo müssen sie schlucken.

Mit der Zeit wird sich das ändern - aber so langsam, dass es trotzdem nur die technisch versierten Leute interessiert. Und das wird auf lange, lange Zeit Linux auf unter 5% Marktanteil halten. Der Rest ist Kapitalismus.
 
Es war nur ein Beispiels abseits von GPUs und AC....
Wäre es nicht besser, sowas dann in einem anderen Thread zu diskutieren? Hier nützt das eh keinem was.

Ok, lass es mich so formulieren, es ist komplexer und fehleranfälliger als asynchrone Programmierung.
Komplexer und fehleranfälliger für den Programmierer? Nein, kann ich so definitiv nicht bestätigen.

Ja ok, ich habs nen bisschen zu drastisch formuliert. So wäre es besser: "Bei I/O-gebundenen Tasks sollte man ehr zu Asynchronität tendieren und bei CPU-gebundenen Tasks ehr zu MultiThreading.
Selbst da würde ich nicht zustimmen. Aber lassen wir das. Führt hier zu nichts.

DU bist derjenige der es die ganze Zeit versucht auf Spiele, Vega oder AC zu beziehen.
Vielleicht weil es in diesem Thread ganz konkret um Vega geht? :rolleyes:
 
https://www.phoronix.com/scan.php?page=article&item=radeonsi-win10-fury&num=1
Bei den Spielen siehst du, dass obwohl es Ports sind, diese Open-GL Ports sehr nahe an die DX-Windows Versionen rankommen. Vor 2 Jahren war das grad mal 1/3 der heutigen Performance. Wenn das kein Argument für "Gaming on Linux" ist, was sonst? :d
Das sieht schon verdammt vielversprechend aus. Zwei Dinge stören mich an dem Test: Erstens die Fury, die unter Windows eh nichts mehr groß reißt (mangelnde Optimierung?) und dass keine entsprechende Karte von Nvidia ebenfalls getestet wurde. Erst dann hätte es mMn ein wirklich aussagekräftiges Bild gegeben. Aber wie gesagt, sehr erfreulich, dass sich da gewaltig etwas zu tun scheint.
Als Argument für Linux würde ich es dennoch nicht sehen. Einerseits weil ich es eher so formulieren würde, dass die Performance nicht mehr das große Hindernis ist, andererseits weil am Ende doch mehr Frickelarbeit dahinter steckt und man nicht alles einfach durch eine Linux-Anwendung ersetzen kann. Auch bei aktuellen Spielen fast immer WINE zu verwenden kann nicht die Lösung sein und gerade hier erwarte ich es so einfach wie möglich für mein Geld. Bei alten Spielen ist das was anderes, unter Windows gibts schließlich auch Kompatibilitätsprobleme.

Da bleibt leider als möglicher Grund nur noch übrig, dass man gar nicht möchte, dass Linux als Spieleplattform Erfolg hat (warum auch immer) und deshalb die Hürden zumindest für die eigenen Spiele aufrechterhält.
Ich denke das liegt auch an den zig Distributionen. GOG unterstützt offiziell nur Ubuntu 14.4 und 16.4, der Support für andere Distris wäre wohl zu aufwendig und somit zu teuer. Hier hat Windows trotz des WaaS klare Vorteile.
 
Das sieht schon verdammt vielversprechend aus. Zwei Dinge stören mich an dem Test: Erstens die Fury, die unter Windows eh nichts mehr groß reißt (mangelnde Optimierung?) und dass keine entsprechende Karte von Nvidia ebenfalls getestet wurde. Erst dann hätte es mMn ein wirklich aussagekräftiges Bild gegeben. Aber wie gesagt, sehr erfreulich, dass sich da gewaltig etwas zu tun scheint.
Als Argument für Linux würde ich es dennoch nicht sehen. Einerseits weil ich es eher so formulieren würde, dass die Performance nicht mehr das große Hindernis ist, andererseits weil am Ende doch mehr Frickelarbeit dahinter steckt und man nicht alles einfach durch eine Linux-Anwendung ersetzen kann. Auch bei aktuellen Spielen fast immer WINE zu verwenden kann nicht die Lösung sein und gerade hier erwarte ich es so einfach wie möglich für mein Geld. Bei alten Spielen ist das was anderes, unter Windows gibts schließlich auch Kompatibilitätsprobleme.

Das wird jetzt recht speziell:

Ich baue mein System praktisch nur noch für das kommende Star Citizen - der Rest wird einfach "mitgenommen". In diesem Licht wird es schwer, überhaupt noch ein Argument für Windows zu finden. Linux wird nicht nur eine bessere Performance haben, sondern auch direkten Support für Star Citizen geben. Die Community scharrt mit den Hufen - um es bildlich auszudrücken.

Ähnliches ist auch mit anderen AAA-Spielen wie Deus Ex oder Metro passiert. Was am Ende bleibt, ist Kompatibilität "mit dem Rest der Windows Welt". Hier muss Linux gegen künstliche Restriktionen von M$ kämpfen, die ihr *eigenes* Produkt beschneiden und die "Kunden" verlangen dann einen Ausgleich von "Linux". Das klingt nicht nur dämlich, es ist dämlich. Aber so sieht der Markt halt aus.

Für mich persönlich gibts ab dem Release von Star Citizen kein Zurück mehr. Aber da sind wir wieder beim 99%/1% Problem. ^^

btw - die Fury hat unter den OS-Treibern einen anderen Support als unter den CS-Treibern. Für relativ-Performance muss man sich natürlich wieder andere Benchmarks ranziehen - aber so ist das bei Phoronix. Es ist alles da, man muss nur selbst "Hand anlegen"... wie bei Linux selbst. xD
 
Zuletzt bearbeitet:
belastbare drops bei 1080(ti) während Vega FE das glatt wegbügelt :)

witcher3_3840x2160_drjjshy.png

fallout4_3840x2160_ftphsm8.png

fallout4_3840x2160_drl3ksp.png

hitman_2560x1440_drop1pscn.png
 
Zuletzt bearbeitet:
Und im drop immer noch mehr fps als die fe. Kramst du wieder in der pseudoargumenten grabbelkiste?

Davon abgesehen dropt die fe dort genauso. Nix von wegen glatt wegbügeln.
 
Zuletzt bearbeitet:
Ich weiß. Aber man muss sowas auch grade rücken. So Scheinargumente fallen ja leider nicht jedem auf und werden dann gern als Fakten wiederverwendet.
 
Ich sehe da gar kein Argument, nur eine Faktendarstellung und ich finde sie sehr interessant. Denn birgt sie Hinweise, dass die Vega FE deutlich konstantere Bildraten bringt. Wenn man dann noch davon ausgeht, dass diese Bildraten durch Aktivierung aller Gaming-Features im Treiber steigen, und ähnlich wie die 1080 Ti sein werden, kann das doch am Ende der entscheidende Vorteil sein.

Letztlich könnte es am Ende darauf hinauslaufen, dass man sich zwischen Karten mit durchschnittlich ungefähr gleich vielen FPS entscheiden kann, wobei die eine der beiden dann keine Mikroruckler erzeugt. Falls AMD tatsächlich eine Karte darauf optimiert hat, ein möglichst ruhiges Bild zu liefern, statt einfach nur viele AVG-FPS zu bringen, würde ich definitiv meinen Hut ziehen, denn am Ende interessiert die Leute ja keine Zahl am Bildschirmrand, sondern wie flüssig das Spiel läuft.
 
Hätte Hätte Fahrradkette.

Aber mit dem anschauen und verstehen isses dann nicht so oder wie? Wenn jemand schreibt "belastbare Drops bei der TI, die FE bügelt die weg", impliziert vor allem, dass die FE nicht dropt. Tut sie aber. Nachweislich. Auf den selben Screens. Und sie liegt dabei immer noch unter der TI. Was beweist das also faktisch? Das die TI schneller ist. Das die FE zar etwas weniger dropt, dafür aber teils massiv hinter der TI liegt. Wenn Fakten, dann richtig und nicht Fakten wies passt und dann mit Wünschen und Träumereien würzen und das Fanboy Wunschkonzert dann am Ende als Fakt darstellen.

Und welche Mikroruckler? XD Die TI liefert selbst in den Drops Frames mit höherer Frametime als die TI...
 
Zuletzt bearbeitet:
impliziert vor allem, dass die FE nicht dropt. Tut sie aber. Nachweislich. Auf den selben Screens.
Die Vega FE schwankt ganz normal, wie zuvor auch - die Kurve geht auch nicht wesentlich unter ihr Normalniveau. Bei den Nvidia-Karten ist dagegen in den Diagrammen ganz klar ein Knick in der Kurve und der Einbruch sehr deutlich. Ein Knick in der Kurve ist auch ein mathematischer Fachbegriff - man kann sich also auch die Vega-Kurve rational nicht so schlechtreden, dass man dort irgendwelche Knicke drin sieht, wo keine sind.

Und welche Mikroruckler? XD Die TI liefert selbst in den Drops Frames mit höherer Frametime als die TI...
Ohne Adaptive Sync oder vergleichbare Techniken entstehen Mikroruckler bei stark schwankenden Frametimes. Mikroruckler heißen sie, weil es kein echtes Stottern ist, sondern trotz flüssigem Bild, die Bildrate aber komisch unregelmäßig Bilder macht - fühlt sich so ähnlich an, wie wenn man auf einem Boot bei heftigem Wellengang ist. Abhilfe schafft nur eine Begrenzung auf die schlechteste Frametime(Wenn die Karte also jemals auf Vega-Niveau droppt, bringt sie einem dann praktisch auch nicht mehr als die Vega), oder eben eine Synchronisierung mit dem Bildschirm, und eine Begrenzung innerhalb seiner Sync-Rate.
 
Vielleicht sollte man sich auch einmal fragen, warum alle Karten denn an genau dieser Stelle auf ähnliche FPS absinken? Könnte es evtl. sein, dass hier etwas anderes limitiert als die Graka? Es besteht durchaus die Möglichkeit eines CPU-Limits an dieser Stelle. Dazu wäre es natürlich hilfreich den gleichen Bench in einer niedrigeren Auflösung zu haben, in welcher die Grafikkarten entlastet werden, aber aus irgendwelchen Gründen wird genau dieser Bench aus dem PCPER Review hier von dem User vinacis_vivids nicht gepostet :rolleyes:

Witcher3_2560x1440_OFPS.png



Wie zu erkennen ist, droppen die Grafikkarten auch in 1440p auf ähnliche FPS und dies, obwohl die Grafikkarten weniger belastet werden, sodass man darauf schließen kann, dass diese Drops nicht von den Grafikkarten ausgehen, sondern von etwas anderem. Da die 1080 Ti deutlich mehr FPS liefert, sehen die Drops hier natürlich viel krasser aus.
 
Es besteht durchaus die Möglichkeit eines CPU-Limits an dieser Stelle.
Bei dem Bild stimmt das, weist eher auf suboptimale Programmierung hin als auf Probleme mit den Grafikkarten. Allerdings ist ein CPU-Limit bei den Bildern von vinacis_vivids deutlich unwahrscheinlicher. Fury X und Vega haben als Unterschied vor allem den HBM-Speicher, und möglicherweise könnte somit die unterschiedliche Konstanz zwischen den beiden Nvidia-Karten und den AMD-Karten bei seinen Schaubildern möglicherweise darauf zurückzuführen sein. Leider ist keine RX 480 dabei, sodass man keinen Vergleich hat - ich könnte mir aber vorstellen, dass dort die Framerate ähnlich wie bei der 1080(Ti) aussieht. (Nur mit niedrigeren Bildraten insgesamt versteht sich.)
 
Zuletzt bearbeitet:
Mikroruckler entstehen, wenn die Frametime von einem bild zum nächsten in den merkbaren Bereich rutscht. Auf dem Screen stiegt bei der TI zwar die Frametime einmal an, ist dabei aber IMMER NOCH unter der der FE. Wie sollen da bitte Mikroruckler entstehen? Statt schlau daher zu babbeln und Allgemeinwissen zu erklären vll mal die Screens genau ansehen? Dann fallen die die Knicke im FE GRaph an der selben Stelle wo die FE einknickt vll auch noch auf.
 
Mikroruckler entstehen, wenn die Framtetimes massiv variieren.
Wobei sich das Wort Mikroruckler auf SLI/Crossfire und deren Kommunikation zwischen 2+ GPUs bezieht.
Auf FE Benchmarks geb ich eh nix, da dort noch kein einziges Vega Feature aktiv ist (bis auf Prosumer Benchmarks wo Vega deutlich schneller ist als Fury trotz gleichem Takt)
 
Zuletzt bearbeitet:
Sie müssen dabei aber immer noch in einem Bereich variieren, die der Mensch wahrnehmen kann. Das liegt hier nicht vor. Wie gesagt, die höchste Frametime der TI liegt immer noch unterhalb der durchschnittlichen der FE.
 
@oooverclocker

Dann schau dir doch einmal bitte das komplette Review bei PcPer an und vergleiche beide Auflösungen miteinander. Auffälligkeiten entstehen immer dort, wo es zu diesen extra in rot markierten Drops kommt. Bei The Witcher 3 fallen alle Grafikkarten auf ungefähr die gleichen FPS, bei beiden Auflösungen. Bei 1440p ist dies deutlicher zu erkennen, da alle Grafikkarten in der Lage sind deutlich mehr FPS als 40 zu liefern.
Dann bei Hitman 2016, wo er ganz zufällig den 1440p Bench nimmt statt wie bei beiden Benches zuvor den 4k Bench, denn bei dem 4k Bench gibt es diese Drops nicht, da keine Grafikkarte es schafft stabil über 80 FPS zu bleiben. Bei 1440p ist zu erkennen, dass alle Grafikkarten an der markierten Stelle auf ~80 FPS droppen. Da die 1080TI als einzige Karte bei 1440p in der Lage ist deutlich mehr als 80 FPS zu liefern, sind die Drops hier extremer.

Dies spiegelt sich auch in den Frametimeverläufen wieder.

BTW ein CPU-Limit ist nur eine mögliche Option für diese Drops. Es könnte auch ein API-Limit vorliegen oder es wird in eine Cutszene gewechselt, nur um noch weitere Möglichkeiten zu nennen. Dies auf eine supoptimale Programmierung zu schieben ist etwas meh. :wink:
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh