AMD und die bescheidene Performance im DX11 CPU Limit

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gibt es zu den Bildern auch eine Erklärung? GPUs scheinen ja identisch zu sein. Hast du den FX endlich ausgetauscht? :X
 
Die Bilder sind doch Selbsterklärend: FX mit 7970 CF unter dx11 im Performance summery, mehr Topic geht nicht. :p
 
Zuletzt bearbeitet:
Ja aber das sind doch 2 Screenshots. Beide DX11, beide mit 2 GPUs. Woher kommt der Unterschied bei den fps? Oder sind das zwei verschiedene Szenen. Habe die Grab Räuberin nicht installiert.
 
Gibt es zu den Bildern auch eine Erklärung? GPUs scheinen ja identisch zu sein. Hast du den FX endlich ausgetauscht? :X
Einmal FXAA und einmal 4x SSAA wie der verlinkte Test von CB, selbe TombRaider Version und alles mit Standard Takt.
Der I7 4770K ist scheinbar auf 4.4GHz übertaktet, peinlich! :cool:

Ich werde mich hüten irgendeine Hardware zu tauschen, mal sehen was da noch für Ergebnisse entstehen.
Grundsätzlich kann ich bestätigen, dass DX11 ähnliche Frametimes erreicht wie Mantle, aber eben noch nicht perfekt, dazu braucht es DX12 und Vulkan. :)
 
dabei redest du aber auch nur auf Grundlage deines 7970-CF. was dein CF für fps raushaut, scheint irgendwie sinnfrei ohne Vergleichwerte.
ich schmeiß jetz mal Spiel x an, nehm nen screenshot auf und poste den hier, weil irgendwer wirds schon meinen zu verstehen ...
 
Ja offenbar nicht ;) Deiner Aussage zur Folge -> mit dem Link zu einem Post, der die Werte 1:1 vergleicht, hast du eben NICHT mitgedacht. Oder wer hat da in Roter Schrift 280X CF eingemalt in die Bilder!? Sicher nicht CB...
Aber ich merke schon, ist zwecklos... Lass gut sein.

Die Aussage von wegen DEIN FX wäre ST schneller wie ein 4770k ist ebenso unwahr.


Übrigens sind/wären MGPU vs. SGPU Vergleiche auch nicht wirklich taugend. Denn auch für AMD sollte es ein leichtes sein, Teile der CPU Berechnungen für die zweite GPU in einem zweiten Thread auszulagern. Es ist immernoch AFR und zu Blöd ist AMD ganz gewiss nicht!
 
Zuletzt bearbeitet:
Ja offenbar nicht ;) Deiner Aussage zur Folge -> mit dem Link zu einem Post, der die Werte 1:1 vergleicht, hast du eben NICHT mitgedacht. Oder wer hat da in Roter Schrift 280X CF eingemalt in die Bilder!? Sicher nicht CB...
Aber ich merke schon, ist zwecklos... Lass gut sein.

Die Aussage von wegen DEIN FX wäre ST schneller wie ein 4770k ist ebenso unwahr.


Übrigens sind/wären MGPU vs. SGPU Vergleiche auch nicht wirklich taugend. Denn auch für AMD sollte es ein leichtes sein, Teile der CPU Berechnungen für die zweite GPU in einem zweiten Thread auszulagern. Es ist immernoch AFR und zu Blöd ist AMD ganz gewiss nicht!
:fresse:
Immerhin schaust dir die Bilder auch an.

Ein 4770K ist inzwischen 4 Generationen zurück, wenn der FX-8350 den nicht schlägt hat AMD wirklich nicht mit gedacht. ;)
 
OK, um noch mal auf das thread Thema zu kommen, ist die besagte AMD dx11 Schwächte den nun eine Hardware oder eine Softwareproblem eigendlich aus heutiger Sicht und auch als Ergebnis dieses threads?
Ich habe es bis jetzt nicht nachvollziehen könne. Mit einem Fx 6300 und einer 7770 läuft Gta V bei den Benchmarks mit durchschnittlich 60 Fps. LOL lade ich gerade runter und teste es.
 
So, mal meinen alten Fx entstaubt und LoL auf höchster Stufe ohne AA getestet. Bei 5 vs 5 sind es 120 FPS. Also ich merke nichts von der angeblichen Schwäche, trotz langsamer CPU und eienr Karte von AMD.
 
OK, um noch mal auf das thread Thema zu kommen, ist die besagte AMD dx11 Schwächte den nun eine Hardware oder eine Softwareproblem eigendlich aus heutiger Sicht und auch als Ergebnis dieses threads?

Hierzu hilft folgendes Video:
AMD vs NV Drivers: A Brief History and Understanding Scheduling CPU Overhead - YouTube

Kurz gesagt: Nvidia setzt seit Kepler auf einen Software-Sheduler, welcher die Probleme von Dx11 angeht und die Threads in Software aufteilt und so den Mainthread entlastet. Dies hilft für höhere drawcalls. Da es jedoch eine Softwarelösungen ist und es das Aufteilen der Threads nicht umsonst gibt, verursacht diese Lösung mehr CPU-Last. Da nicht alle Spiele perfekt skalieren und häufig CPU-Leistung in der Breite brach liegt, sorgt dies in den meisten Fällen für mehr drawcalls. In einem Titel der bereits sehr gut skaliert, oder wenn die CPU zu 100% ausgelastet ist, kann das auch ein Nachteil sein. (Per Definition verursacht also der Nvidia Treiber einen höheren Overhead und nicht der AMD Treiber. Nvidias Lösung entlastet dafür jedoch den Mainthread)

AMD hingegen setzt auf einen Hardwaresheduler (ACE), welcher dies effizienter macht als es ein Software-Sheduler je könnte. Dies benötigt jedoch zwingend eine LowLevel-API, da dieser nicht mit dem Featureset von DX11 umgehen kann. Durch die Hardwarelösung kann AMD dies auch nicht per Software Mal eben wieder ändern.

Mit LL (LowLevel) hat AMD das Problem komplett gelöst, während nvidias Lösung nur ein Workaround für die Probleme einer veralteten API wie DX11 ist. Zudem kommt hinzu, dass bei nvidias Lösung derjenige gewinnt, der am Ende mehr "Menpower" bzw Geld in sein Treiberteam steckt. Wie alle Lösungen von Nvidia also wieder ein proprietärer Ansatz.

Die Entwickler sind also gefangen zwischen dem Marktführer, welcher am liebsten in der Vergangenheit bleibt und dem Underdog, welcher bereits die Lösung bereit hält an der alle ohnehin nicht vorbei kommen.

Keiner der beiden wird von seiner Strategie abweichen da es automatisch eine Stärkung des anderen wäre. Durch die ungleichen Marktanteile ist jedoch der Kunde der Leidtragende, da so Fortschritt zurückgehalten wird.
 
Zuletzt bearbeitet:
AMD ist also ein Underdog mit einem Nettoumsatz von 1,22 Milliarden US Dollar im Q2/17. Aha.
AMD ist eher ein Milliardenkonzern, der ein Produkt herstellt, das zwar nicht schlecht ist, aber eben schlechter als das des direkten Konkurrenten.

Gesendet von meinem E6653 mit Tapatalk
 
Im direkten Vergleich? Ja. Das weißt du aber auch selbst.
 
AMD hat einen Jahresumsatz von von ~5 Mrd. $, das Underdog-Geschwurbel bei einem solchen Konzern ist sowas von lächerlich.
Der jetzige Underdog war vor knapp 10 Jahren noch größer als NV
 
Euch ist schon klar das "Underdog" in Relation zur Konkurrenz zu sehen ist ? Manchmal kann man hier echt nur mit dem Kopf schütteln.
 
Vergleicht ihr hier gerade ernsthaft den gesamten AMD-Umsatz (CPU- und GPU-Sparte) mit nVidia um zu belegen, dass AMD im Vergleich zu nVidia kein Underdog ist?
Wenn, dann müsst ihr schon den Umsatz der GPU-Sparte von AMD mit nVidia vergleichen oder AMD vs nVidia+Intel begutachten.

Ob man AMD jetzt Underdog nennt oder nicht, sei mal dahin gestellt - aber AMD kämpft an zwei Fronten gegen Firmen, welche ihre Marktposition auf Teufel-komm-raus verteidigen. In der Vergangenheit (und Gegenwart?) auch schon mal mit sehr fragwürdigen Stategien.
Was AMD mit Ryzen aber auch Polaris in der Mittelklasse leistet, ist phänomenal unter den gegebenen Umständen. Vega ist eigentlich das, was man unter normalen Umständen von Firmen in solchen Marktpositionen erwarten kann...Aber ist eigentlich schon zu sehr Off-Topic...
 
Zuletzt bearbeitet:
Viele ignorieren ein weiteres Problem an nvidias Lösung, nämlich, dass diese nur solange gut funktioniert, wie einer der beiden Hersteller diese einsetzt. Wie gesagt ist der Software-Sheduler von nvidia eine Verbesserung der Drawcall-Problematik auf dem Mainthread unter DX11, aber es ist und bleibt eben nur ein Workaround, - ein Tropfen auf den heißen Stein und keine komplette Lösung des Problems. Angenommen AMD würde ebenfalls statt eines Hardware-Shedulers das ganze in Software umsetzen, dann würde dies aller höchstens 1 Jahr Verbesserung versprechen. Danach tuen die Entwickler das, was sie jeher getan haben. Nämlich die Performance von beiden an die Wand fahren. Und man sieht es ja jetzt bereits. Es gibt immer wieder genug Titel die dennoch auch bei Nvidia im CPU-Limit landen. Da sind wir also immernoch weit weit entfernt von den 30k Drawcalls die man aktuell unter Vulkan herraushaut. Wolfenstein 2: The New Colossus - 30 Mal mehr Draw-Calls als in Doom
 
Die Werte für deinen FX gehen schon ok, du solltest ihn aber mal richtig Takten, 4,2 sind keine artgerechte Haltung ;)
:cool: Liegt am neuen GPU Treiber, wenn ich den update gehe ich auf @ Standard Takt zurück und beobachte das System bei der Nutzung eine weile.
Es sind inzwischen über 100W an der Steckdose mehr bei Furmark (openGL) selbst mit Standard Takt und allen EnergieSparOptionen. (Nur durch einen neuen Treiber Crimson 16.x.x. vs. 17.10.x)

Beim Drawcall test von 3DMark sind es mit der DX11 API knapp 1 Million egal ob Single oder Multi-Threaded, also eher Entry Level. :fresse:
 
Viele ignorieren ein weiteres Problem an nvidias Lösung, nämlich, dass diese nur solange gut funktioniert, wie einer der beiden Hersteller diese einsetzt. Wie gesagt ist der Software-Sheduler von nvidia eine Verbesserung der Drawcall-Problematik auf dem Mainthread unter DX11, aber es ist und bleibt eben nur ein Workaround, - ein Tropfen auf den heißen Stein und keine komplette Lösung des Problems. Angenommen AMD würde ebenfalls statt eines Hardware-Shedulers das ganze in Software umsetzen, dann würde dies aller höchstens 1 Jahr Verbesserung versprechen. Danach tuen die Entwickler das, was sie jeher getan haben. Nämlich die Performance von beiden an die Wand fahren. Und man sieht es ja jetzt bereits. Es gibt immer wieder genug Titel die dennoch auch bei Nvidia im CPU-Limit landen. Da sind wir also immernoch weit weit entfernt von den 30k Drawcalls die man aktuell unter Vulkan herraushaut. Wolfenstein 2: The New Colossus - 30 Mal mehr Draw-Calls als in Doom


und einige wenige ignorieren das es seit einiger Zeit kaum Titel gibt die davon profitieren ... es kommen gefühlt nur wenige dazu. Wenn das mal umschwenkt und man hat mal mehr als nur 2 Spiele wie doom oder WS2 die davon spürbar profitieren, dann wird sich der Markt von ganz alleine regulieren -->

a) Weil die Käufer das honorieren werden
b) weil nvidia dann nachziehen muss
 
Der Markt reguliert sich eben nicht mehr von alleine. Die Marktanteile lagen teilweise bei 20/80. Aktuell muss nvidia garnichts, sie sitzen es eben aus solange es geht. Nennt sich Gewinnmaximierung. Gäbe es mehr Marktteilnehmer, wären neue Standards viel schneller umgesetzt und man würde nicht die DX11-Kuh melken bis sie umfällt.

Das Äquivalent hat du bei den CPUs gehabt. 10 Jahre QuadCores für 250€.
 
Zuletzt bearbeitet:
:fresse: genau - kommen noch mehr titel wie Doom,WS2 oder das neue Forza wird das umschwenken - und klar sitzt nvidia das aus ... die sind auch nicht doof ....
 
:fresse: genau - kommen noch mehr titel wie Doom,WS2 oder das neue Forza wird das umschwenken - und klar sitzt nvidia das aus ... die sind auch nicht doof ....

Du verstehst es nicht. Das ist ein "Henne Ei Problem" auf grund der aktuellen Marktanteile. Da gibt es auch nichts zu "honorieren", dass wir eine Monopolsituation im Garfikkarten-Markt haben mit proprietären Lösungen und fragwürdigen Methoden des Markführers. Einziger Wermutstropfen. Vulkan scheint aktuell gefühlt mehr Anklang zufinden als Microsofts DX12.
 
Der Markt reguliert sich eben nicht mehr von alleine. Die Marktanteile lagen teilweise bei 20/80. Aktuell muss nvidia garnichts, sie sitzen es eben aus solange es geht. Nennt sich Gewinnmaximierung. Gäbe es mehr Marktteilnehmer, wären neue Standards viel schneller umgesetzt und man würde nicht die DX11-Kuh melken bis sie umfällt.

Das Äquivalent hat du bei den CPUs gehabt. 10 Jahre QuadCores für 250€.

Richtig.
Trotzdem kaufen jetzt wieder die meisten Coffee-Lake statt mal ein gutes und sinnvolles Ryzen-System zusammen zu bauen.
Und in 3 Jahren wird wieder rumgeheult, dass bei jeder neuen Intel-Generation ja nur 2-5% Zuwachs kommt.
Fleissig bei AMD für die Etablierung von SixCores bedankt und dann zu Intel gegriffen... es ist weniger ein Henne-Ei-Problem als ein User-versteht-nicht-seine-Marktmacht-Problem.

Wie viele Leute haben zu einer 1060 statt einer RX480/RX580 gegriffen? Auch schon bevor das Mining-Thema los ging.
Gefühlt haben 80% der Käufer in der Mittelklasse lieber die 1060 bevorzugt. Endlose Threads hier oder Kommentare zu den Tests der Grafikkarten gehen auch in die Richtung - nur weil der Balken 3-5fps mehr angezeigt hat in diversen Tests. Die aktuelle Marktsituation, mehr VRAM, FreeSync-Monitore vs. GSync, etc. wurden völlig ignoriert.
"Ich hol mir die 1060 weil sie mehr FPS bringt und ich beim Stromverbrauch auch noch Geld spare" - und im gleichen Atemzug die 1060 und einen 100€ teureren Monitor im Vergleich zum FreeSync-Modell in den Einkaufskorb gepackt. Glückwunsch.

Ganz ehrlich:
Ich würde auch eher zu einer 1080 als zu einer Vega64 greifen - ganz klar. Aber wenn sich beide Karten nichts nennenswertes geben, greif ich aktuell zu AMD. Alleine aus Marktregulierungsgründen und weil ich auch mal 3 Meter voraus denken kann.
Wenn AMD aufhört Grafikkarten für den PC zu produzieren können wir alle auf Konsolen umsteigen, so viel ist mal klar.
 
Zuletzt bearbeitet:
Du verstehst es nicht. Das ist ein "Henne Ei Problem" auf grund der aktuellen Marktanteile. Da gibt es auch nichts zu "honorieren", dass wir eine Monopolsituation im Garfikkarten-Markt haben mit proprietären Lösungen und fragwürdigen Methoden des Markführers. Einziger Wermutstropfen. Vulkan scheint aktuell gefühlt mehr Anklang zufinden als Microsofts DX12.

Alte Leier - "Du verstehst es nicht" - aber mach ruhig kauf du das was du für richtig hältst und ich kaufe das was ich für richtig halte ....

Und dann endet die Diskussion wieder mit dem totschlagargument "siehst du Vega ist in BF/Frostbytenegine besser - Ja!!11!!!"


... doof, nur das ich zu dem Zeitpunkt da schon ein Jahr die 1070 besitze und BF1 gar nicht mehr zocke :fresse:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh