AMD VGA´s haben immer mehr Tflops als Nvidia Karten

Status
Für weitere Antworten geschlossen.
Vor allem wenn Karte B, trotz geringerer Leistung eh schon mehr Verbraucht. Aber wie repräsentativ die Grafik war, sei auch mal dahin gestellt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
is Nvidia deswegen Marktführer + die 5 schnellsten GraKas (980Ti, Titan Maxwell, 1070, 1080, Titan Pascal)?
3 davon stammen aus der aktuellen Generation. Dagegen wird ja Vega gestellt. Ausserdem ist eine Fury X etwa gleichauf mit 980 Ti und Titan Maxwell. Manche Reviews sehen sie mittlerweile sogar leicht vorn.

NV liegt mit Abstand vorne
Nö, tun sie nicht. Du verstehst nur einfach nicht, dass es weit mehr als nur Desktop dGPUs gibt. Wo liegt denn Nvidia zB bei Konsolen vorne? Oder wo liegen sie bei SoCs vorne? Wo liegen sie beim Gesamtabsatz von GPUs vorn? Wo liegen sie bei Supercomputern vorn? Wo liegen sie bei Softwareunterstützung vorn? Etc.pp. Richtig formuliert müsste dein Satz lauten, Nvidia hängt mit Abstand überall hinterher, ausser bei dGPUs.

was hatn AMD von den ach so tollen zukunftsschwangeren Standbeinen so in echt?
GCN, Zen und embedded. Nur um mal 3 zu nennen. Das sind immerhin 2 mehr als Nvidia. Darüber hinaus gibt's auch noch mMn weitaus interessantere Projekte, wie zB die HPC APU.

mir gings eben, um mr. dudes Gerüchte
Ich habe zuvor kein Wort über Gerüchte geschrieben.


Ich verstehe zu oft deine Ansätze nicht! Du schreibst als, als wenn Nvidia pleite sein müsste, bzw. das nur ein Frage, von kurzer Zeit wäre.
Nein, tue ich nicht. Ich gebe den Nvidia Hypern nur ganz reale Fakten zu bedenken, die langfristig wenig Gründe zum Hypen von Nvidia erkennen lassen.

ich gehe ganz klar auf den dGPU Markt ein und du verzerrst das Bild, bis es für dich passt.
Ich habe nur die offiziellen Zahlen herangezogen. Verzerrt habe ich da überhaupt nichts. Anscheinend kennst du nur die offiziellen Zahlen nicht.

Immer wieder ist zu lesen, das die DX12 Performance im Durchschnitt bei AMD genau so mau ist, wie bei Nvidia.
Davon sehe ich nichts. Erst deine Behauptung mit miesen Frametimes, jetzt miese Performance. Zähle doch mal alle DX12 Spiele auf, wo das angeblich bei AMD so sein soll!
 
Zuletzt bearbeitet:
is nur noch peinlicher für AMD, dass selbst der olle Maxwell keinen nennenswerten Konkurrenten von AMD hat. FuryX mit 4GB? :haha:

was hatn AMD von den ach so tollen zukunftsschwangeren Standbeinen so in echt?
... GCN, Zen und embedded. Nur um mal 3 zu nennen. Das sind immerhin 2 mehr als Nvidia. Darüber hinaus gibt's auch noch mMn weitaus interessantere Projekte, wie zB die HPC APU....
meine Frage war nicht, welche das sind, sondern was AMD aktuell davon hat. so in ganz echt. heute. was hat AMD von GCN heute was NV wo welche Konkurrenz macht?
6,99 USD vs 70,74 USD sind ne oberdeutliche Ansage, die GCN sowas von verhöhnt. Nvidia baut nicht mal CPUs und kommt auf 70 USD, AMD baut CPUs und is immer noch im einstelligen Bereich vorm Komma.

und ganz allgemein, beziehe ich als PC-spielender HWLX-user meine posts nie auf Konsolen. das erwähne ich dann schon gesondert.
 
GCN, Zen und embedded. Nur um mal 3 zu nennen. Das sind immerhin 2 mehr als Nvidia. Darüber hinaus gibt's auch noch mMn weitaus interessantere Projekte, wie zB die HPC APU.

Embedded kannst du gleich mal streichen. Bei den meisten Autoherstellern kommen NV embedded Devices zum Einsatz. Leistung/Watt ist da halt x-mal besser als bei den AMD Gurken, welche nur über den Preis punkten können.

Du drehst dir die Faktenlage auch immer so, dass es für AMD top aussieht. Mir ist das egal, meine AMD und NV Aktien sind dieses Jahr massiv gestiegen und haben einen dickes Plus generiert.
 
Aktuell gewinnt AMD Quartal für Quartal Marktanteile von Nvidia im diskreten Markt zurück

Das ist auch nicht besonders schwer, wenn man quasi von 2013 bis 2016 im Mittelklassemarkt keine neue Hardware herausgebracht hat und Nvidia dazwischen eine zusätzliche Generation herausgebracht hat, irgendwann ist der Punkt erreicht wo man nicht mehr Marktanteile mehr generieren kann, die letzten 20% zu holen ist unrealistisch.

Zudem kann Nvidia nicht im Konsolenmarkt anstinken, hat die schlechtere Hardwarebasis für professionelle Bereiche,

Schlechtere Hardwarebasis?:shot: Von was redest du? Der professionelle Bereich und der HPC Bereich sind seit Jahren schon in Nvidia Hand.
Wenn überhaupt haben sie ne vergleichbare Hardwarebasis und AMD hinkt einfach bei den Treibern hinterher. Oder was reißt AMD im HPC Markt? Nichts.

hinkt wie immer bei der Speichertechnologie hinterher

Die Speichertechnologie ist aber nunmal gar nicht ausschlaggebend, man kann das auch mit GDDR5x lösen oder einer bessere Kompression, sowie einfach später HBM nutzen wie mit GP100 der an ausgewählte Kunden schon lange ausgeliefert wird. GP102 ist übrigens auch schon draußen, mit GDDR5x. Also was bringt AMD die Speichertechnologie?? Welche HBM Karte hat AMD für den HPC oder prefessionellen Markt? Eigentlich gar keine, da mit nur 4GB nichts zu reißen ist.:lol:

bei Vulkan / DX12 / OpenCL sowieso, hat keine konkurrenzfähigen SoCs mit iGPU und auch sonst keine nennenswerte Zukunftstechnologien.

Vulkan? Directx12`? Was soll den das heißen? Was hat denn AMD außer ein paar Prozentchen die durch async Cmpute gewonnen werden für Directx12 großartig zu bieten? Oh und Pascal unterstützt FL12_1 mit CR Tier 2, Tiled Ressources Tier 3 und auch ROV.
Ich glaube da überschätzt jemand async Compute massiv und verwechselt es sogar noch mit einem CPU Limit das bei Directx12 desöfteren bei AMD gelockert wird.

Das ist aber sehr wohlwollend formuliert. Tests irgendwelcher mehr oder weniger seriöser Hardwareseiten decken nicht nur nicht alles ab, sie decken praktisch nur einen verschwindend kleinen Teil aller möglichen Szenarien ab.

Userberichte über asynccompute oder was willst du da hören? Die Userberichte kann man sich in die Haare schmieren, weil die garkeine Expertise haben, im Vergleich zu Menschen die das andauernd tun.

"Offensichtlich" lässt aber keine faktischen Rückschlüsse zu. Mal davon abgesehen kann ich diese Meinung nicht nachvollziehen. Offensichtlich ist das für mich keineswegs.

Na dann soll der Lügenonkel doch mal konkrete Belege dafür zeigen, dass riesige Gewinne von 50% in niedrigen Auflösungen mit Directx12 an async Compute hängen, jeder der mit dem Thema schon halbwegs in Berührung gekommen ist, zeigt dir bei soviel Halbwissen und Dummheit den Vogel.


Und AMD ist unangefochtener Marktführer bei Konsolen und Intel bei den gesamten GPU Absätzen

Interessiert nur keinen, wenn AMD immer nur Miese macht mit ihren zweifelhaften Geschäftsfeldern. Das sind alles Standbeine die keinen Gewinn abwerfen, während Intel und Nvidia in deren Bereichen super verdienen und das schon seit Jahren.

Was nützt es Nvidia wenn sie Marktführer in einem schrumpfenden Markt sind?
Und wie lange dauert es bis der Markt soweit geschrumpft ist, dass er nicht mehr lohnenswert ist? 100 Jahre?

Hast du dir mal die Absatzrückgänge bei dGPUs angeschaut?
Hast du dir mal AMD´s kaputte Margen angeschaut?

Und Mondpreise kann man auch nicht immer verlangen bei entsprechenden Konkurrenzprodukten.

Die GTX 1070 hat fast das bessere P/L als eine rx480, Nvidia verlangt genau die Preise die angemessen sind.

Nvidia macht im Moment fast ausschliesslich mit einem Marktbereich Kohle, und das sind dGPUs.

Schuster bleib bei deinen Leisten. Die machen das seit Jahren erfolgreich und haben jetzt mit Tegra einen Konsolendeal geangelt bei der nächsten Nintendo Konsole. Auch nicht gerade verkehrt was die so machen.

Deren Markt wird immer mehr von unten durch SoCs aufgefressen.

Deswegen macht Nvidia also immer mehr Gewinn und hat neue Rekordeinnahmen? Weil jemandl irgendwelche Märchen erzählt und zudem nichts von BWL versteht?

Wer eins und eins zusammenzählen kann, kann da einfach nicht das Gefahrenpotenzial für Nvidia wegreden.

AMD steht kurz vor der Pleite, Nvidia verdient ausgesprochen gut und du faselst von einem Gefahrenpotenzial. HAst du se noch alle?

Denn im Gegensatz zu denen haben Unternehmen wie Intel oder AMD mehr etablierte Standbeine.

AMD hat ein etabliertes Standbein? Welches? Der Custom Soc Bereich ist das einzige Standbein das Kohle abwirft und wenn Nvidia bei den nächsten Konsolen AMD das wieder wegnimmt? Was ist dann? Gibt ja nicht unendlich viele Konsolenhersteller die immer nur zu AMD greifen werden.
Also keine Ahnung wo das ein sichereres Standbein sein soll. Viel sicherer sind GPU´s die man im Endeffekt sowohl im HPC, Consumer und Profimarkt veräußern kann mit einem Marktanteil von nahe 80% was dedizierte Lösungen angeht, mit denen man auch am meisten verdient.

Umso bedenklicher für Nvidia, dass deren DX12 Performance trotzdem so mau ausfällt.

Du meinst weil im Schnitt die 1060 3oder 4% unter Directx12 langsamer rechnet, macht das den Kohl fett?
98% der Spiele sind Directx11 Spiele, sobald die Entwickler die Qualität des Directx11 Treibers von Nvidia erreichen wird da unter Directx12 die RX480 auch nicht schneller sein. Es gibt da mitterlweile gut optimierte Beispiele.


unbenannt3qs6d.png


Nur noch 2% Punkte zwischen Nvidias Directx11 und Directx12. Die AMD rechnet 2bis 3% schneller. Ist das deine Maue Directx12/11 Performance von Nvidia? Wenn AMD 5% aufholen kann? Von was träumst du nachts eigentlich?

Wenn zum Teufel ineressiert so ein Pups an Verbesserung?

unbenanntgxsc1.png


Wahnsinn wie die Directx12 rx480 die Directx11 GTX 1060 deutlich schlägt. Not.
Du kapierst einfach nicht, dass unter Directx12 die Spielehersteller für die Implementierung zuständig sind und es dauert und es Optimierung bedarf bis außer bei async Compute ( das 0 bis 7% auf ner rx480 bringt ) die 1060 das Level unter Directx11 wieder erreicht, wie gesehen in Deus Ex wo es fast schon erreicht wird.

unbenanntw6r3k.png


Ja das Directx12 das du hier so breittrittst ist schon wirklich megatoll. Langsamer als Directx11, oft mit schlechten Frametimes versehen und es dauert quasi ewig bis die Entwickler so optimieren dass Directx12 auf Nvidia schneller läuft als deren klasse Treiber.
Wo man hier Fortschritt erkennen will, frag ich mich schon länger.

unbenannt63sxq.png


dddk2sl4.png


unbenannthnsjy.png


unbenanntn3sfn.png


unbenanntugkkr.png


Uhh Directx12 Async Compute... meine Güte, man kann sich auch viel einreden wenn der Tag lang wird.
 
Zuletzt bearbeitet:
https://msdn.microsoft.com/en-us/library/windows/desktop/mt733232(v=vs.85).aspx
So und nun die Frage an diese ganzen Spezis da oben. Wie soll denn async voll ausgereizt werden, wenn selbst Microsoft angibt, dass das nicht geht? Lane ist nun wirklich nicht sonderlich vorteilhaft für async oder seht ihr das anders?
Hat Vulkan ein wave ähnliches Feature schon implementiert und verfügbare Compiler, die das schon unterstützen? Würde mich mal interessieren. Vielleicht gibt es ja auch schon irgendwelche alpha Compiler die Shader Model 6.0 können? Anderseits ist die Spezifikation ja auch noch nicht final. Würde mich nicht wundern wenn dank NVIDIA der Fortschritt mal wieder aufgehalten wird. Wäre ja nicht das erste mal.
 
@mr.dude Keiner hypt Nvidia! Aber dieses Gelaber, das Nvidia bald am Ende ist? Es gibt nun mal den Markt für dGPUs, dann braucht man nicht mir anderen Marktzahlen argumentieren.
Gears of War 4
Deus Ex MD
BF1

Dazu noch, für mich sind so miese Frametimes, das man es sehen kann = schlechte Performance.

@neuli Ich stecke nicht zu tief in der Materie um da wirklich eine Antwort geben zu können. Da warte ich doch noch mal lieber, bis ein echter Spezi was sagt ;).
Ich bin mir aber nicht sicher, ob du das ganz richtig siehst.
 
@neuli
Es gibt im Programm (x86) Ordner einen Vulkan Unterordner, dort gibt es die Datei Vulkaninfo.exe (sollte das selbe wie clinfo oder glinfo sein)
würde dir das weiter helfen wenn ich die VK Strings auslese?

Laut James McLaren tunen sie die "wavefront" Anzahl mit "SetComputeShaderControl()"
http://fumufumu.q-games.com/archives/TheTechnologyOfTomorrowsChildrenFinal.pdf

@derneuemann
Frame Times hin oder her, mit einer GPU ruckelt es schlimmer als mit zwei im CrossfireX, bei den meisten Spiele die ich habe. (Überwiegend DX11)
 
@derneuemann
Frame Times hin oder her, mit einer GPU ruckelt es schlimmer als mit zwei im CrossfireX, bei den meisten Spiele die ich habe. (Überwiegend DX11)

Soll heißen? Bei dir ruckelt es immer, nur mit zwei GPUs weniger? ;) Sorry dafür, die Vorlage konnte ich nicht aussetzen. Ich hoffe du nimmst es mir nicht krumm.

Im Vergleich sind die Frametimes schlechter, als unter DX11, darum ging es bei meiner Aussage. Bei der RX480!!
 
@Phantomias danke für das Angebot allerdings werde ich da: https://www.khronos.org/registry/vulkan/ schon selber fündig. Außerdem helfen Funktionsnamen ohne Beschreibung mir vermutlich nicht weiter.
Außerdem wäre vermutlich in dem Fall die Dokumentation zu SPIR-V die richtige. https://www.khronos.org/registry/spir-v/ Wie sich die Hersteller immer in Funktionsnamen und Strukturnamen verewigen müssen. Aber das hat mich schon im Linuxkernel amüsiert und scheint wohl gängige Praxis zu sein.

Im Nachhinein ist das Shadermodel vermutlich auch ziemlich wurscht, wenn der Grafikkartenhersteller genug Programmierer hat, die Shader für jedes Spiel durch Hand-optimierte Shader auszutauschen, die der Compiler so nie hinbekäme. Nur gibt es sicher auch Spiele bei denen der Hersteller nicht zu solchen Mitteln greifen will und dann ist dieses Shader Model 6.0 für gcn vermutlich geeigneter.
 
meine Frage war nicht, welche das sind, sondern was AMD aktuell davon hat.
Genau das habe ich geschrieben. Nenne du mir doch mal eine ganz reale Konkurrenz von Nvidia zu zB Bristol Ridge! Also so ganz in echt. Heute.


Embedded kannst du gleich mal streichen.
Nö. War etwas knapp von mir formuliert. Ich meinte Embedded / Semi-Ciustom. Da sind zB auch die Konsolen enthalten. Da kam Nvidia mit ihrer veralteten Gurkenarchitektur halt nie in Frage. Und bei Autoherstellern kommt Nvidia auch nur in wenigen Modellen zum Einsatz. Mit Effizienz hat das aber nichts zu tun. Nvidias Effizienz in solchen Teilen ist eigentlich recht grottig. Wie Tegra Tests oft gezeigt haben.


@mr.dude Keiner hypt Nvidia!
Nein, natürlich nicht. :rolleyes: Und was sind dann so Aussagen wie
Und dort zeigt sich oft genug, dass NV egal ob DX11 oder 12 am Ende bis dato oftmals oben steht
oder
aktuell sieht AMD nach wie vor nur NVs Rücklichter
Natürlich ist das Hypen. Da zeigt sich aber auch, wer nicht objektiv ist. Jeder der so undifferenziert solchen Unsinn schreibt, kann einfach nicht objektiv sein. Das Problem ist auch nicht mal das Hypen, sondern dass solche Aussagen maximal Halbwahrheiten sind.

Aber dieses Gelaber, das Nvidia bald am Ende ist?
Das hat keiner gesagt. Bleibe bei den getätigten Aussagen und erfinde nicht einfach irgendwas.

Es gibt nun mal den Markt für dGPUs, dann braucht man nicht mir anderen Marktzahlen argumentieren.
Doch, muss man, wenn dGPUs nicht der einzige Markt für GPUs ist. Und er ist nicht der einzige Markt.

Gears of War 4
Deus Ex MD
BF1
Von schlechter Performance oder schlechten Frametimes kann ich bei GoW4 nichts lesen. Wenn ich CB mal zitieren darf:
Die gemessenen Frametimes bestätigen die Beobachtungen. So lange die native Auflösung des Monitors genutzt wird, läuft Gears of War 4 sowohl auf einer AMD- als auch auf einer Nvidia-Grafikkarte quasi perfekt.
Als Massstab für DX12 kann das Spiel aber natürlich nicht gelten, da es in Zusammenarbeit mit Nvidia entstanden ist.
An Deus Ex MD wird weiterhin gearbeitet. Es gab schon Patches, die Besserung brachten. Da sollte man sich also mit voreiligen Schlussfolgerungen zurückhalten. Gestern wurde übrigens auch der mGPU Support für AMD freigeschaltet.
Ähnliches gilt für BF1. Das Spiel ist noch viel zu jung, als dass schon alles optimal laufen könnte. Aber selbst aktuell kann ich nichts von schlechter Performance oder schlechten Frametimes bezogen auf AMD lesen. CB schreibt:
Schlussendlich gibt es nur eine Kombination, mit der DirectX 12 nicht weniger rund spielbar ist: Der Einzelspielermodus mit Grafikkarten von AMD.
Wenn es Probleme mit Frametimes gibt, dann liegt das entweder an Nvidia oder am MP und nicht an DX12 ansich.
Irgendwie habe ich das Gefühl du kannst nicht differenzieren und bescheinigst DX12 deswegen ein schlechtes Urteil, obwohl DX12 meist Vorteile mitbringt, zumindest auf einer Radeon.
 
@mr.dude Keiner hypt Nvidia!
Nein, natürlich nicht. Und was sind dann so Aussagen wie
Und dort zeigt sich oft genug, dass NV egal ob DX11 oder 12 am Ende bis dato oftmals oben steht
Natürlich ist das Hypen. Da zeigt sich aber auch, wer nicht objektiv ist. Jeder der so undifferenziert solchen Unsinn schreibt, kann einfach nicht objektiv sein. Das Problem ist auch nicht mal das Hypen, sondern dass solche Aussagen maximal Halbwahrheiten sind.

Wie kann es angehen, dass du meine Aussage derart aus dem Kontext reißt und dann noch derartigen Unsinn unterstellst?

Die Aussage war und ist getroffen wurden unter dem Kontext der Sinnhaftigkeit bei der Diskusion über Tendenzen und Leistungszuwäche. Nicht mehr und nicht weniger!
Noch dazu kommt, wenn zu mich zitierst, dann hat das vollständig zu erfolgen! Das vollständige Zitat sagt was völlig anderes aus. Mach mich nicht für deine Unfähigkeit, Zusammenhänge zu verstehen, verantwortlich. Vor allem wird auch der Zusammenhang ersichtlich, den du hier und jetzt scheinbar absichtlich unterschlägst um mir irgendwie an die Karre zu fahren!

"Eigentlich sind die Tendenzen völlig irrelevant... Wen interessiert bitte ernsthaft, wer da wo wie viel in einer anderen API zulegt?
Was hinten bei rum kommt, ist entscheidend... Und dort zeigt sich oft genug, dass NV egal ob DX11 oder 12 am Ende bis dato oftmals oben steht. Muss nicht ewig so bleiben und irgendwann wird wohl die geringere Rohleistung bei NV ihren Tribut fordern. Zum Release der jeweiligen Modelle und ganz paar Monate oder Jahre danach, ist das aber kein wirkliches Problem.
"


Ich verbitte mir an der Stelle ein aller letztes Mal diesen Unsinn aus deiner Feder. Das geht über keine Kuhhaut, was du hier abziehst.

Auch fordere ich dich hiermit auf, dieses permanente Drängen der Diskusion ins OffTopic zu unterlassen.
OT hier ist unter anderem:
- deine Ausführungen zu Embedded / Semi-Custom Produkten, Konsolen, HPC Hardware usw.
- deine Ausführungen zu anderen Märkten außer dem dGPU Geschäft von AMD und NVidia
WENN! du dich ernsthaft über derartige Thematiken unterhalten willst, mach dazu einen eigene Thread auf... HIER! ist es OT, denn HIER! gibt der TE das Thema vor. Und da steht nichts dergleichen.
:btt:
 
Genau das habe ich geschrieben. Nenne du mir doch mal eine ganz reale Konkurrenz von Nvidia zu zB Bristol Ridge! Also so ganz in echt. Heute.



Nö. War etwas knapp von mir formuliert. Ich meinte Embedded / Semi-Ciustom. Da sind zB auch die Konsolen enthalten. Da kam Nvidia mit ihrer veralteten Gurkenarchitektur halt nie in Frage. Und bei Autoherstellern kommt Nvidia auch nur in wenigen Modellen zum Einsatz. Mit Effizienz hat das aber nichts zu tun. Nvidias Effizienz in solchen Teilen ist eigentlich recht grottig. Wie Tegra Tests oft gezeigt haben.



Nein, natürlich nicht. :rolleyes: Und was sind dann so Aussagen wie

oder

Natürlich ist das Hypen. Da zeigt sich aber auch, wer nicht objektiv ist. Jeder der so undifferenziert solchen Unsinn schreibt, kann einfach nicht objektiv sein. Das Problem ist auch nicht mal das Hypen, sondern dass solche Aussagen maximal Halbwahrheiten sind.


Das hat keiner gesagt. Bleibe bei den getätigten Aussagen und erfinde nicht einfach irgendwas.


Doch, muss man, wenn dGPUs nicht der einzige Markt für GPUs ist. Und er ist nicht der einzige Markt.


Von schlechter Performance oder schlechten Frametimes kann ich bei GoW4 nichts lesen. Wenn ich CB mal zitieren darf:

Als Massstab für DX12 kann das Spiel aber natürlich nicht gelten, da es in Zusammenarbeit mit Nvidia entstanden ist.
An Deus Ex MD wird weiterhin gearbeitet. Es gab schon Patches, die Besserung brachten. Da sollte man sich also mit voreiligen Schlussfolgerungen zurückhalten. Gestern wurde übrigens auch der mGPU Support für AMD freigeschaltet.
Ähnliches gilt für BF1. Das Spiel ist noch viel zu jung, als dass schon alles optimal laufen könnte. Aber selbst aktuell kann ich nichts von schlechter Performance oder schlechten Frametimes bezogen auf AMD lesen. CB schreibt:

Wenn es Probleme mit Frametimes gibt, dann liegt das entweder an Nvidia oder am MP und nicht an DX12 ansich.
Irgendwie habe ich das Gefühl du kannst nicht differenzieren und bescheinigst DX12 deswegen ein schlechtes Urteil, obwohl DX12 meist Vorteile mitbringt, zumindest auf einer Radeon.

Ich habe es versucht, aber du gibst dir wirklich Mühe, wie ein gehirnamputierter Troll zu wirken. Du verdrehst Aussagen bis die dir passen. Sorry, aber jetzt hab ich keinen Bock mehr drauf.
Ich habe nirgends gesagt das die Performance unter DX12 mau bleibt. Auch habe ich nicht behauptet, das Deus EX MD mit weiteren Patches weiter so läuft. Beim Gears of War muss ich gestehen, da habe ich nur einen Bench gesehen, der mal eben fast vier Wochen alt ist. Da könnte schon per Patch verbessert worden sein. Aber auch jetzt läuft da nix besser, als bei Nvidia.

Man kann wirklich nicht sagen, das ich es nicht über ein paar Tage versucht habe, mit dir ernsthaft zu argumentieren, aber mit dir hat das echt keinen Sinn. Es tut mir wirklich leid, aber einzelne Aussagen sind nicht nur verdreht, sondern im Umgangston beinahe kindisch. Ich könnte jetzt zwar weiter auf deine Einzelnen Aussagen reagieren, aber du drehst es dir eh passend und darauf habe ich keinen Bock mehr.

Du bist der erste der echt ein Kandidat für meine Ignorliste werden könnte. Es tut mir wirklich leid, aber es nervt. Such dir ein anderes Hobby (nur zusätzlich als Ausgleich / oder Freunde) ;)

- - - Updated - - -

1. Das hat keiner gesagt. Bleibe bei den getätigten Aussagen und erfinde nicht einfach irgendwas.

2. Doch, muss man, wenn dGPUs nicht der einzige Markt für GPUs ist. Und er ist nicht der einzige Markt.

3. Von schlechter Performance oder schlechten Frametimes kann ich bei GoW4 nichts lesen. Wenn ich CB mal zitieren darf:

4. Als Massstab für DX12 kann das Spiel aber natürlich nicht gelten, da es in Zusammenarbeit mit Nvidia entstanden ist.

5. Ähnliches gilt für BF1. Das Spiel ist noch viel zu jung, als dass schon alles optimal laufen könnte. Aber selbst aktuell kann ich nichts von schlechter Performance oder schlechten Frametimes bezogen auf AMD lesen. CB schreibt:

6. Wenn es Probleme mit Frametimes gibt, dann liegt das entweder an Nvidia oder am MP und nicht an DX12 ansich.
Irgendwie habe ich das Gefühl du kannst nicht differenzieren und bescheinigst DX12 deswegen ein schlechtes Urteil, obwohl DX12 meist Vorteile mitbringt, zumindest auf einer Radeon.

So du Vogel (nett gemeint)
1. du verstehst selber nicht was du schreibst ? das wäre übrigens sehr traurig!
2. was muss man da? Bist du zu hart ins Kissen gefallen? Gut, es gibt ja keinen Markt für Sportwagen, sondern nur für Automobile... Kannst du selber merken, oder?
3. Bin ich schon drauf eingegangen, das ich hier nicht weiß, ob es in den letzten 3-4 Wochen Patches gab, die da Besserungne brachten.
4. Die Aussage ist ein echter Höhepunkt! ;) Kannst du das näher erklären? Troll, oder wie... Was du von Nvidia hältst, ist dafür nicht von Bedeutung. Genau so muss sich das dann auch verhalten, wenn AMD mitwirkt! Alles andere wäre auch traurig!
5. Ich habe nicht behauptet, das es nicht noch patches für BF1 geben wird, die die Situation ändern. Aktuell rät PCGH ( als Beispiel) von der Verwendung von DX12 abzusehen. Da es bei beiden Herstellern unter DX11 besser läuft.
6. müsste ich noch aufteilen ;) Interessante Meinung die du da hast, die auch schon wieder alles sagt. Ach die tollen Vorteile die es für AMD bringt, sind meistnes auf bisherige CPU Limits zurück zu führen...

Und ja, auch ich sehe, das AMD bisher minimal besser weg kommt, unter DX12. Aber worauf ich hinaus will, ist das die ganzen blinden AMD Hyper sich auf DX12 eingeschossen haben, als das Ggroße ZUgpferd für AMD, in eine neue, große und glorreiche Zukunft! DX12 ist noch zu jung um etwas daraus ableiten zu können.

Auch freue ich mich, das die CPU Limits bei AMD wohl wegfallen, bei neuen Titeln unter DX12. Auch will ich mir einen ZEN zulegen und sogar vielleicht eine VEGA GPU, aber als das auch nur wenn AMD auch punktet.
ZEN muss mindestens mit einem I7 6800K mitziehen, ohne teurer zu sein (wenn mehr Leistung, dann auch teurer) und Vega muss endlich mal wieder auf Augenhöhe landen, ohne an der Kotzgrenze zu laufen. Also ohne absurden Verbrauch.


Sorry an alle, dür OT, aber da ist mir mal der Kragen geplatzt. Bin jetzt hier raus. Wenn einer zu einem dieser Themen weiter debattieren möchte, gerne per PN!

Und nochmal, ich freue mich über jedes bisschen, das AMD aufholen kann! Egal, ob auf Nvidia, oder auf Intel.
 
Zuletzt bearbeitet:
mr.dude: bei Hashcat bringt AMD die Rohleistung auch nicht rüber.
Für eine anständige Cracking-Station verwendet man 1080 oder die neue Titan.

Selbst dir 2xx Version von AMD schneidet besser ab als die halbgare RX480.
 
Unspielbar ist DirectX 12 im Mehrspielermodus mit Grafikkarten von AMD. Hier ruckelt das Spiel ohne Pause, die Frametimes verdeutlichen das. Vom Vorteil bei den FPS haben Spieler an dieser Stelle deshalb nichts.
(2. Absatz unter dem Frametime-Bild zur RX 480)
immer wieder faszinierend, wie es AMD schafft, sich selber zu einzubremsen. bezüglich mehr TFlops, oder sonstwelchen möchtegern garndiosen Techniken.
Grandiose Tech-Nick!

1080p@1440P (VSR) @ 200% DS ingame: http://abload.de/img/screenshotwin32-0103i4r4z.png
 
Unspielbar ist DirectX 12 im Mehrspielermodus mit Grafikkarten von AMD. Hier ruckelt das Spiel ohne Pause, die Frametimes verdeutlichen das. Vom Vorteil bei den FPS haben Spieler an dieser Stelle deshalb nichts.
(2. Absatz unter dem Frametime-Bild zur RX 480)
immer wieder faszinierend, wie es AMD schafft, sich selber zu einzubremsen. bezüglich mehr TFlops, oder sonstwelchen möchtegern garndiosen Techniken.

Wenn der DX12 Modus im Multiplayer schlecht spielbar ist in BF1, liegt es doch nicht am AMD sondern der Implementierung von Dice, die anscheinend nicht richtig zündet. Wenn man sich die GTX1060 ansieht, funktioniert die Karte weder im Single noch im Multiplayer mit DX12. Was ich bisher von DX12 in Zusammenhang mit Pascal Karten gesehen habe, stimmt mich nicht positiv in die Zukunft blickend. Aber momentan ist DX12 in den meisten Fällen für beide Hersteller unbrauchbar und ob die AMD Karten (deutlich) mehr Leistung auf die Straße bringen als ihre derzeitigen Nvidia Counterparts, wird sich erst in paar Jahren zeigen, wenn die Technik richtig läuft.

  • Wie es momentan aussieht, kann keine Spieleschmiede bisher DX12 richtig. Bis es richtig funktioniert vergehen mitnichten noch paar Jahre.
  • ID Soft kann Vulcan und ich hoffe es kommen noch mehr Spiele mit der id Tech 6 engine.
@Phantomias88
  • Sind dies Frametimes or Frames in dem Screenshot?
  • Ich kann aus dem Bild keine eindeutige Schlussfolgerung ziehen, ob das Spiel in Echzeit flüssig läuft. Wenn ich nur anhand der Zahlen gehen würde, wäre es für mich nicht angenehm spielbar.
 
Zuletzt bearbeitet:
is doch egal worans liegt, mit AMD-Karten ruckelts.

das sind fps im screenshot von Phantomias88. soll der screenshot eigentlich irgendwas aussagen oder nur auflockern oder was genau?
 
Zuletzt bearbeitet:
Die Aussage war und ist getroffen wurden unter dem Kontext der Sinnhaftigkeit bei der Diskusion über Tendenzen und Leistungszuwäche.
Auch in diesem Kontext ist diese Aussage völlig falsch und unsinniges Nvidia Hypen. Wenn man unter DX12 an Performance verliert, dann verliert AMD meist wenig bis gar nichts. Bei Nvidia schauts anders aus, die verlieren öfters deutlich und fallen dann sichtbar hinter ihre jeweiligen Konkurrenzmodelle zurück. Wie kann man da behaupten, dass Nvidia mit "DX12 am Ende bis dato oftmals oben steht"? :stupid:

Aber es zeigt wieder mal, dass deine Eignung als Moderator ziemlich fragwürdig ist. Du bist einfach nicht neutral. Weder gegenüber dem Thema, noch den Forenmitgliedern. Was machst du mich denn wegen Offtopic an? Ich glaube ich war der erste, der dem TE eine sinnvolle Antwort gegeben hat. Danach kamen Beleidigungen, Diskreditierungen und Offtopic vor allem von Leuten wie dem Puppenaccount Numerobis55 und slot108. Wende dich mit deinen Beschwerden über Offtopic bitte an diese User und nicht an mich! Kennt die Moderation eigentlich die Forenregeln bzw den Verhaltenscodex des Forums? Da stehen klare Richtlinien zu Beleidigungen und Puppenaccounts. Nur so zur Info.


bei Hashcat bringt AMD die Rohleistung auch nicht rüber.

Selbst dir 2xx Version von AMD schneidet besser ab als die halbgare RX480.
Laut dieser Tabelle schneidet die RX 480 besser als alle 2xx Karten ab. Mal abgesehen von der X2 logischerweise. Im Endeffekt ist da nur die R9 390X schneller. Die hat aber auch geringfügig mehr TFLOPS und 50% mehr Bandbreite. Gerade letztes sollte man auch nicht vergessen. Wie hier schon eingangs im Thread erwähnt wurde, TFLOPS ist nicht alles für die letztendliche Performance. Hast du denn bis hierhin gar nichts gelernt? Mal davon abgesehen hat AMD die RX 480 nie als Crunching-Monster beworben. Die muss da auch keine Rekorde brechen. Gemessen an ihrer Ausstattung sehe ich nicht, dass sie bei Hashcat ihre Rohleistung gegenüber anderen Radeons nicht rüberbringen würde.


Beim Gears of War muss ich gestehen, da habe ich nur einen Bench gesehen, der mal eben fast vier Wochen alt ist.
Ja, das scheint generell dein Problem zu sein. Du siehst einen frühen Test und pauschalisierst dann damit.

Man kann wirklich nicht sagen, das ich es nicht über ein paar Tage versucht habe, mit dir ernsthaft zu argumentieren
Doch, kann man. Wenn du immer wieder Gegenargumenten resistent gegenüber bist, unlogische und fragwürdige Behauptungen in die Runde wirfst und Fragen ausweichst, dann hat das herzlich wenig mit Diskussionskultur zu tun. Und nein, Beleidigungen bleiben Beleidigungen. Auch wenn man in Klammern schreibt es wäre nett gemeint. Das ist es eben nicht und kannst du dir sparen. An solchen Kleinigkeiten merkt man aber auch immer wieder, wer einfach nie gelernt hat, sachlich und vernünftig zu argumentieren.

1. du verstehst selber nicht was du schreibst ? das wäre übrigens sehr traurig!
2. was muss man da? Bist du zu hart ins Kissen gefallen? Gut, es gibt ja keinen Markt für Sportwagen, sondern nur für Automobile... Kannst du selber merken, oder?
3. Bin ich schon drauf eingegangen, das ich hier nicht weiß, ob es in den letzten 3-4 Wochen Patches gab, die da Besserungne brachten.
4. Die Aussage ist ein echter Höhepunkt! ;) Kannst du das näher erklären? Troll, oder wie... Was du von Nvidia hältst, ist dafür nicht von Bedeutung. Genau so muss sich das dann auch verhalten, wenn AMD mitwirkt! Alles andere wäre auch traurig!
5. Ich habe nicht behauptet, das es nicht noch patches für BF1 geben wird, die die Situation ändern. Aktuell rät PCGH ( als Beispiel) von der Verwendung von DX12 abzusehen. Da es bei beiden Herstellern unter DX11 besser läuft.
6. müsste ich noch aufteilen ;) Interessante Meinung die du da hast, die auch schon wieder alles sagt. Ach die tollen Vorteile die es für AMD bringt, sind meistnes auf bisherige CPU Limits zurück zu führen...

1. Im Gegensatz zu manch anderem habe ich keine Verständnisprobleme mit meinen eigenen Aussagen. Du erfindest nur einfach Sachen, üblicherweise geschuldet einer nicht neutralen Haltung, die nie gesagt wurden. Du behauptest zB es wurde gesagt, dass Nvidia bald am Ende ist. Dann zeige mir doch mal die Aussage wo das getan wurde!
2. Es war nicht meine Idee zu Marktanteilen und ähnlichem Gesülze abzuschweifen. Wie ich auch schon fdsonne sagte, wende dich bitte an die Personen die das getan haben. Wer sich auf solch kindisches Niveau begibt, sollte sich nicht über entsprechende Antworten wundern. Das Thema ist (T)FLOPS. Und diese kann nun mal jede GPU liefern, egal ob iGPU oder dGPU, egal ob Mobile, Desktop, embedded, Semi-Custom oder was auch immer.
4. Jeder kann doch sehen, dass Nvidia einige Defizite unter den neuen Grafik-APIs hat. Also sollte man auch von denen nicht erwarten, alles machbare aus den neuen Grafik-APIs rauszuholen. Was soll das mit trollen zu tun haben? Das ist einfach nur Realismus.
5. Ist sich seine eigene Meinung zu bilden verboten? Warum musst du dir alles so vorkauen lassen? Ist das Testsystem von PCGH (oder welcher Seite auch immer) so repräsentativ? Es kann doch jeder selber das Spiel unter DX11 und DX12 ausprobieren und entscheiden. So würde ich es zumindest machen, wenn mich sowas interessieren würde. ;)
6. Was ist daran nicht zu verstehen, wenn SP gut unter DX12 auf einer Radeon läuft und MP nicht? Wo würde man die Fehlersuche beginnen? Bei DX12 oder bei MP? Denk nochmal genau darüber nach.

Aber worauf ich hinaus will, ist das die ganzen blinden AMD Hyper sich auf DX12 eingeschossen haben, als das Ggroße ZUgpferd für AMD, in eine neue, große und glorreiche Zukunft! DX12 ist noch zu jung um etwas daraus ableiten zu können.
"Keiner hypt DX12!" ;) Dass AMDs Architektur im Moment einige Vorteile für die neuen Grafik-APIs mitbringt, sollte aber mittlerweile jeder erkannt haben. Entwickler tun das, Testseiten tun das, Hardwareexperten tun das. Niemand mit klarem Verstand leugnet es. Dass es einige Nvidia Hyper trotzdem tun, ist völlig unverständlich und deswegen müssen sie sich auch Kritik gefallen lassen. Wie es mal in 2-3 Jahren ausschaut, kann sowieso keiner von uns sagen. Und dass die neuen Grafik-APIs noch einiges an Reifezeit brauchen, sollte auch klar sein.
 
Funny

Du hast es noch nicht mal geschafft das letzte Zitat zu verstehen ;) Der Lacher, da steht nix, was mit einem DX 12 Hype zu tun hat...
 
Zuletzt bearbeitet:
Auch in diesem Kontext ist diese Aussage völlig falsch und unsinniges Nvidia Hypen. Wenn man unter DX12 an Performance verliert, dann verliert AMD meist wenig bis gar nichts. Bei Nvidia schauts anders aus, die verlieren öfters deutlich und fallen dann sichtbar hinter ihre jeweiligen Konkurrenzmodelle zurück. Wie kann man da behaupten, dass Nvidia mit "DX12 am Ende bis dato oftmals oben steht"? :stupid:

Möglicherweise kannst du "völlig falsch" ja auch irgendwie mit Zahlen untermauern???

BF1 SP, 1060 vor 480, BF1 MP, 1060 und 480 effektiv gleich schnell: https://www.computerbase.de/2016-10...schnitt_benchmarks_auf_dem_intel_core_i76700k
GoW4, 1060 vor 480 https://www.computerbase.de/2016-10...schnitt_benchmarks_auf_dem_intel_core_i76700k
QB, 1060 vor 480 https://www.computerbase.de/2016-09/quantum-break-steam-benchmark/3/
Deus Ex, 1060 und 480 effektiv gleich schnell https://www.computerbase.de/2016-09/deus-ex-patch-dx12/ (in 720p 1060 sogar vor 480)
TR 2016, 970 vor FuryX https://www.computerbase.de/2016-03/rise-of-the-tomb-raider-directx-12-benchmark/2/
Hitman, 980TI vor FuryX Hitman (2016) Episode 2: DX12 mit bis zu 60 Prozent Leistungsplus - und Problemen (dafür weniger Details unter DX12!!!)
AotS, AMD deutlich vor NV https://www.computerbase.de/2016-02...e-singularity-beta-2-1920-1080-extreme-preset

Vier von sieben DX12 Titeln, die mir spontan einfallen reichen mir für diese Aussage völlig aus, vor allem gepaart mit dem Wörtchen "oft". Und der TE fragt, warum die auf dem Papier leistungstechnisch deutlich stärkere 480er nicht in Front liegt??
Auf dem Papier müsste die 480r schon fast der 1070er in den Arsch treten. Macht sie aber eben nur auf dem Papier.

Welchen DX12 Titel hab ich vergessen?? Doom? -> kein DX12 -> selbst wenn man es mit aufnimmt, sinds eben 2x, wo AMD deutlich vor NV agiert.

Zum Markierten: Hör doch einfach mal auf mit deiner Interpretation.
Das markierte steht dort gelinde gesagt einfach NICHT. Was meinst du wohl, warum ich schrieb, dass es völlig egal ist, ob DX11 oder 12? Du hast den Kontext schon wieder vergessen... Der Kontext (wie angesprochen) ist immernoch, "was am Ende bei rum kommt, ist entscheidend". Dem NV User ists wohl völlig egal, ob er DX11 oder 12 nutzt. Es gibt (stand heute) keine optischen Unterschiede pro DX12. Er hat also die Wahl und nutzt das schnellere, wie der AMD User die Wahl hat und das schnellere nutzt (idR dort DX12). Eigentlich sollten damit alle Nutzer glücklich sein und das beste aus ihrer Hardware zum Gegenwertigen Zeitpunkt rausholen können. DIR scheint das aber irgendwie nicht zu reichen??

Aber es zeigt wieder mal, dass deine Eignung als Moderator ziemlich fragwürdig ist. Du bist einfach nicht neutral. Weder gegenüber dem Thema, noch den Forenmitgliedern. Was machst du mich denn wegen Offtopic an?

Ich mache dich weder an, noch ist meine persönliche Präferenz ggü der Wahl des GPU Hersteller, welcher meinen Bedarf zu decken im Stande ist und welchem ich mein Geld gebe hier von Relevanz. Ganz sicher kann ich nichts dafür, wenn das AMD Produkt nicht in Frage kommt, weil bspw. AMDs schnellste GPU im aktuellen Portfolio nur in etwa so schnell ist, wie Hardware, die ich vor 3 Jahren schon verbaut hatte. Oder AMD mit Blender unter OpenCL erst seit ca. 2 Jahren geht. Von anderen Sachen, die hier nicht von Relevanz sein sollen, ganz zu schweigen. Oder willst du mir das auch ankreiden??

Ich habe dich ziemlich nüchtern auf dein Fehlverhalten hingewiesen. Das OT ist dabei nur der kleine Part. Deine Art, Zitate zu verfälschen ist schlicht und ergreifend Fehl am Platze. Und du wunderst dich ernsthaft, warum gerade DIR diese Ansage zuteil wird? Ganz ehrlich, ich habe keine Lust, mich auf diesem Niveau mit dir rumzuärgern und werde mich diesbzgl. mit den Kollegen beraten.
 
Ich bitte auf die Wortwahl zu achten! Vielen Dank.
 
Ich möchte mich nur kurz zu dem besagten Video äußern : ich sehe, dass bei der AMD Karte die Triebwerksflammen sehr schön dargestellt werden,bei Nvidia fehlen diese fast vollständig und bei den Waffen wird das abfeuern mit etwas intensiveren Lichteffekte dargestellt, letzteres ist aber nicht ganz so deutlich zu sehen (ich hab im fhd vollbildmodus bei youtube genau hingeschaut mit der Nase fast auf dem Bildschirm :-) ).Bei der Nvidiakarte sind die Triebwerksflammen kaum zu sehen.
 
Zuletzt bearbeitet:
endlich mal jemand, der wirklich versucht hinzugucken.
ich geb aufs Video nichts, sind mir zu viele Ungereimtheiten. die Einstellungen werden auf nur einem screen gezeigt, der ingame-"Vergleich" dann aber nebeneinander auf 2 screens, welche natürlich kleiner geraten und somit Details verloren gehen. das wäre auch weiterhin auf einem screen gegangen, den man hätte splitten können. warum wurde das so nicht gemacht? wer sagt mir, dass das beides die selben Einstellungen waren, insb. da es massig ungereimte Unterschiede gibt, wie die Bodendarstellung, die insgesamte Helligkeit/Gamma?
für mich isn anständiges Vergleichsvideo anders.
würde NV damit die fehlenden TFlops ausgleichen, warum gibt es da nicht mehr Videos, mit mehr Spielen, zB alle, bei denen NV schneller ist? Beispiele dafür müsste es dann ja massenhaft geben.
 
@Phantomias88
  • Sind dies Frametimes or Frames in dem Screenshot?
  • Ich kann aus dem Bild keine eindeutige Schlussfolgerung ziehen, ob das Spiel in Echzeit flüssig läuft. Wenn ich nur anhand der Zahlen gehen würde, wäre es für mich nicht angenehm spielbar.
1. Es sind Sowohl Frames als auch Frametimes zu sehen, wobei die Grafik unten die Renderzeiten in ms für GPU und CPU darstellt.
2. Es sind zwischen 40 und 60 FPS mit Treiber Downsampling und ingame 200% auf 1440p Downsampling, also eine interne Auflösung von 5120x2880.
Der VRAM ist hoffnungslos überfüllt mit 3.4GByte das gilt pro GPU da die Daten doppelt vorhanden sind.
Der Input Lag ist deutlich spürbar, ohne ingame DS (1440p) sind es um die 100FPS und Super flink zu bedienen.

Hier noch eins, der hohe Peak bei den Frametimes kommt vom Bild erstellen (.png): http://abload.de/img/screenshotwin32-0102swsp2.png


is doch egal worans liegt, mit AMD-Karten ruckelts.

das sind fps im screenshot von Phantomias88. soll der screenshot eigentlich irgendwas aussagen oder nur auflockern oder was genau?
Allgemeine Unterhaltung...
 
Zuletzt bearbeitet:
Ich hab im übrigen noch nie (ausser onboard Lösung) Ati/AMD Karten gehabt.Seit meiner ersten Graka (eine 4200ti mit 64Mb ram) immer nvidia gehabt.Das kam aber nur dadurch, dass ich es früher immer verwirrend fand, dass es bei ati zwei Treiber gab (Omega und Catalyst??). Deswegen blieb ich immer bei der 1-treiber Politik von Nvidia ;)
Für mich zäht nur das Preis/Leistungsverhältnis "Was bekomme ich von den Herstellern für jeweils die gleiche Summe".
Sehe ich 7 oder 11 FPS mehr mit bloßem Auge wenn beide Karten z.B die 100FPS Grenze knacken bei jener Einstellung?Wärme/Stromverbrauch? Minimal oder gravierende Unterschiede?
Ist wie AUdi und BMW Oberklasse vergleichen....Schwierig.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh