Ashes of the Singularity mit DirectX 12 und Asynchronous Shaders im Benchmark-Vergleich

glauben mag zwar richtig sein, war in diesem fall aber evtl die falsche wortwahl. wie wahrscheinlich ist es, das in kommenden games die auf DX12 setzen, eine 390x auf GTX 980 Ti niveau arbeitet ?

ich bin zwar nv fan, versuche aber das thema irgendwie neutral zu verfolgen. trotzdem kann ich nicht ganz glauben, dass benches kommender games in ca. 6 - 12 monaten genau das zeigen.

sollte das wirklich so kommen und eine popelige 390x vernascht dann eine 980 TI, wäre das ungeheuerlich (egal ob dann ein pascal ähnlich gut zu den AMDs performt unter DX12).

aber ob das wirklich so kommt, kann man aktuell doch nur schwer sagen. ja, es gibt diese tendenz aufgrund dieser tech demo. wie immer aber wird alles brutal heiß gekocht, letztendlich aber lauwarm gegessen.

sollte in einem jahr eine 390x wirklich eine 980 TI verblasen in den dann auf DX12 basierten games, werde auch ich nv auslachen. aber wie wahrscheinlich ist es, dass es so kommt ?

Und was juckt die Nutzer aktuell noch DX11, wenn man nicht für heute, sondern auch für morgen kauft?
Die Faktenlage HEUTE ist doch klar, es geht um morgen und die nächsten Jahre.
Ich kaufe heute keine GPU für DX11 mehr, sondern warte auf DX12 GPUs oder nehme heute eine, die DX12 beherrscht und zu großer Wahrscheinlichkeit auch in Zukunft bei DX12 gut dasteht.

größter bullshit hier im thread. DX11 interessiert keinen? hast du nicht mehr alle latten am zaun? wie viele der spiele, die ein jeder hier heute spielt, basieren auf DX11 und wie viele auf DX12? von wie vielen spielen die wir in einem jahr spielen, kannst du heute schon sagen, dass sie DX12 supporten und wie viele spiele, spielen wir dann noch auf DX11 zu diesem zeitpunkt? sorry, aber egal ob nv es hinbekmmt mit DX12 und wer nun die schnellere gpu hat, das ist bullshit. ich kauf mir doch heute keine gpu damit ich in 12 monaten gut spielen kann, ich kauf mir heute eine gpu damit ich heute gut spielen kann...
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Letzten Endes wird die Zeit es zeigen.

Ich bin gespannt, was uns alle erwartet, aber bin ebenso einer der jenigen der schmunzeln wird, wenn nVidia ins nächste Fettnäpfchen tritt.

Ich hab mich gefreut, als ich anstatt einer 970er eine 980er genommen hab, weil die kleine Karte nicht verfügbar war - hat sich bei diversen Games jetzt schon als gute Entscheidung herausgestellt.

Seit dem liest man aber auch nicht Gutes mehr.
 
Nvidia hat erst verkackt, wenn Pascal denn auch von DX12 nicht pofitiert. Ist ja nicht so, das die kommenden DX12-Games bis zum Pascal Release jetzt keine spielbaren FPS mehr auf NV Karten liefern, da sind wir ja noch weit von entfernt. Wenn die nächste Generation dann auch weniger Performance liefert und man 90fps für Virtual Reality braucht, dann wird es erst wieder interessant. Solange GSync und min. 50fps laufen, reicht mir das vollkommen, besonders bei Strategiespielen.
 
Nvidia hat erst verkackt, wenn Pascal denn auch von DX12 nicht pofitiert.

nv hat auch verkackt, wenn maxwell in DX12 games nicht auf augenhöhe von AMD ist.

es gibt aber meiner meinung nach aktuell zu wenig vergleiche.
 
Nvidia hat erst verkackt, wenn Pascal denn auch von DX12 nicht pofitiert. Ist ja nicht so, das die kommenden DX12-Games bis zum Pascal Release jetzt keine spielbaren FPS mehr auf NV Karten liefern, da sind wir ja noch weit von entfernt. Wenn die nächste Generation dann auch weniger Performance liefert und man 90fps für Virtual Reality braucht, dann wird es erst wieder interessant. Solange GSync und min. 50fps laufen, reicht mir das vollkommen, besonders bei Strategiespielen.

Irgendeiner meinte hier mal, dass mit dem Mischbetrieben von AMD/nVidia kein Sync mehr benötigt wird, da die damit behobenen Symptome nicht auftreten. Aber wer nutzt dann schon 2 GPUs. Ottonormalo nicht.
 
Ist ein nachvollziehbarer Punkt und wir haben die Anstrengungen von AMD schon oft gelobt und tun dies auch in diesem Fall: Aber es ist doch schwer zu glauben, dass wir hier für Fury vs. GM200 für alle DX12-Spiele einen Unterschied von 20-30 Prozent sehen werden. Wenn es so kommt, dann ist es eben so und NVIDIA ist von Pascal abhängig was das betrifft, aber irgendwie mag ich das nicht so recht glauben.
In Doom sieht es nicht gut aus für GM200. Warum sollte AoS eine Ausnahme sein? Es müssen auch nicht 20-30% sein. Überhaupt schneller zu sein ist ja auch was, besonders wenn man günstiger ist.
 
Ist ein nachvollziehbarer Punkt und wir haben die Anstrengungen von AMD schon oft gelobt und tun dies auch in diesem Fall: Aber es ist doch schwer zu glauben, dass wir hier für Fury vs. GM200 für alle DX12-Spiele einen Unterschied von 20-30 Prozent sehen werden. Wenn es so kommt, dann ist es eben so und NVIDIA ist von Pascal abhängig was das betrifft, aber irgendwie mag ich das nicht so recht glauben.

Lustig ist allerdings auch, wie die The Division (ja, ist noch nicht draußen) und die existierenden Far Cry Primal (DX11) Benchmarks aussehen – da können sich alle AMD doch deutlich von den gleich gepreisten Nvidia absetzen (vllt. liegt's auch daran, dass der Shader-Compiler nicht vom Gameworks-Team optimiert wurde...)

EDIT: gleich Engine: http://www.pcgameshardware.de/Far-Cry-4-Spiel-23145/Specials/Technik-Test-Benchmark-1143026/ (Gameworks) vs. http://www.computerbase.de/2016-02/far-cry-primal-benchmarks/3/ (kein Gameworks)
 
Zuletzt bearbeitet:
2% (1.5 FPS) würde ich nicht als "deutlich absetzen" bezeichnen :d
 
optisch identisch würde ich sagen
Dito

Im ersten Demovergleich, wabberten graue Streifen über die grüne Landschaft ,auf AMD Seite. Man sollte mal die selbe Landschaft vergleichen. Den im HWL Video war nix davon zu sehen. mfg

- - - Updated - - -

Mein Kaufverhalten ist nach den 2-3 Dingen die sich nV geleistet hat schon in Richtung AMD tendierend. Ich brauch die GTX980 nur noch wegen streamen und Skyrim.

Spätestens Zen könnte für eine reinen AMD 2.PC sorgen.

Ja dann sollte AMD dann auch Ihre DX12Gpu auf AMD Rechnern testen(Vulkan Artikel) und nicht mit Intel-Systemen! Das allein sagt alles aus! mfg

- - - Updated - - -

Thx Don , iwi war das ja klar, möchte mal die Benches mit einer AMD-Plattform sehen :eek:
 
Coldheart - Zen ist in der Pipeline als neue highend-CPU und man wird sicher sehen, was die leistet oder nicht.
Dank der Mitarbeit des Herrn Keller erwarte ich aber ein ähnliches Endergebnis wie damals beim AMD Athlon 64 und FX, welche Intel gut das Wasser reichen konnte.

Wie du hier Vulkan reinwirfst, ist mir schleierhaft. Eine API, die noch nicht mal Alphastatus hat, nichts kann und es keinen Content gibt. Erkläre mir das bitte.
 
nv hat auch verkackt, wenn maxwell in DX12 games nicht auf augenhöhe von AMD ist.

Das sehe ich aktuell nicht so. Bloß weil der neue Standard nicht die Bestwerte liefert für 2 Spiele, ist es ja immer noch gut/sehr gut spielbar. Wir sind ja nicht bei der Formel 1, die man gewinnen muss, dabei sein reicht auch. Die meisten Spiele lassen sich ja auch mit NVidia dank sehr gutem DX11 wesentlich besser spielen mit AMD. Hier hätte AMD ja schon seit langer Zeit "verkackt" und ist auch weiterhin noch am Markt vertreten. DX12 ist da einfach noch zu neu und mit ggf. neuen Karten im April auf beiden Seiten interessiert das doch eh keinen mehr. Ist doch schön, das AMD Käufer ggf. nicht eine neue Grafikkarte kaufen müssen und mit DX12 nochmal gut zulegen. Für AMD aber irgendwie doof, denn die hätten gern lieber mehr Geld verdient, indem man neue Karten verkauft, statt wieder ein "reicht doch" von seinen treuen Käufern zu hören.
 
nv hat auch verkackt, wenn maxwell in DX12 games nicht auf augenhöhe von AMD ist.

es gibt aber meiner meinung nach aktuell zu wenig vergleiche.

Warten wir noch ein paar Tage ab, dann haben wir 4 Directx12 Games die wir zum Vergleichen benutzen können.
Wenn man auf Spezifikationen der Grafikbeschleuniger schaut bietet eine 390x 1050mhz Takt 2816 Shader.
Eine GTX 980 Ti 3072 1075mhz Takt, nur mal so als kleine Info. Sollte AMD schaffen alle ihre Einheiten inkl. Async Compute auszulasten, was haben wir dann wohl für ein Ergebnis?

Ich denke es ist offensichtlich.
 
Wo kann man denn nachlesen, dass Maxwell bereits gut ausgelastet wird? Ich würde sagen, dass das eher eine grobe Spekulation ist, als denn ein Argument gegen AsyncCompute.

Definiere gut...
Ich würde es eher "ausreichend" nennen... Oder wie erklärt man sich, dass eine Karte in Form einer 980TI/TitanX trotz nur unwesentlich mehr Rohleistung auf einmal bedeutend schneller als eine alte GK110 GPU in Form der 780TI/TitanBE agieren kann? Es sind viele Unbekannte in der Thematik drin. Vieles spricht allerdings dafür, dass die NV GPU recht stark ausgelastet ist. Vor allem in den meisten Benches. Zumal dort die Skalierung über die verschiedenen Modelle hinweg recht gleichbleibend ist. Hingegen im Vergleich bei AMD, wenn ne FuryX sich nur unwesentlich von einer Hawaii GPU absetzen kann, obwohl da 40% mehr Rohpower vorhanden ist -> da stellen sich zumindest mal fragen ;)
Im Endeffekt ist es auch völlig egal, wie hoch die Auslastung am Ende ausfällt. Denn es zählt, was hinten bei raus kommt... Kein Schwein interessiert sich dafür, warum Maxwell offenbar schneller als Kepler agiert. Es reicht zu wissen, dass es so ist. Zumindest in der Community. Und im Endeffekt kann da auch niemand was dran ändern.

Ich würde eher sagen, es liegt schlicht und einfach daran, dass Maxwell Asynccompute einfach nicht kann, denn Async Compute hat nichts mit einem TReiber oder CPU Overhead zu tun, sondern es ist eine Art "Interrupt".
Ein laufendes Programm zum Beispiel eine Wavefront eines Shaders wird ohne sein eigenes Zutun per Signal unterbrochen, während seine Daten dann im Chache bereit gestellt werden und die vom ihm genutzten Resourcen danach für etwas Anderes zur Verfügung stehen, bevor dann irgendwann später der Originalzustand wiederhergestellt wird.

Ähnlich dem CPU Hyperthreading, das auch ungenutzte Ressourcen nutzbar macht und das funktioniert sogut wie bei jedem workload und jeder software.
Deswegen sind die Entwickler von PS4 ja darauf auch so geil und sprechen von 20 bis 30% mehr Leistung.

Unsinn, Hyperthreading funktioniert keineswegs in sogut wie JEDEM Workload. Wie kommst du darauf?
Und zum anderen, keine Ahnung ob dir bekannt ist, was Async Compute ist, macht teils nämlich nicht den Eindruck, wie du es uns hier verkaufen willst... ;) Aber es geht dort grundsätzlich erstmal um die Möglichkeit, dass aufgrund des Workloads ungenutzte Ressourcen mit anderen Aufgaben betraut werden. Klingt auf dem Papier gut, in der Praxis stehen da aber ganz paar Baustellen. Bspw. was ist, wenn du nix in Sachen GPGPU Berechnungen ausführen musst? Die NV GPUs verstehen es offenbar recht gut, ihre Arbeit, die man ihnen gibt, so effizient aufzuteilen, dass am Ende recht wenig Leerlauf bei rum kommt... Im Worstcase von 3D + Compute Load bedient man sich allerdings dem Context Switching, sodass die Arbeit eben nicht gleichzeitig sondern eher hintereinander -> mal das eine, mal das andere, ausgeführt wird.
Das ist aber keine Philosophiefrage ob das Eine besser als das Andere ist oder nicht. Sondern es MUSS am Ende der Speed stimmen. Wenn nun AMD offenbar den Anderen weg geht und so viele Ressourcen ungenutzt sind, sodass durch dieses ASync Feature da bedeutend mehr Speed bei rum kommt, ist das ne tolle Sache und für den Endkunden am Ende auch gut, dass es diese Möglichkeit gibt. Aber wie gesagt, im Endeffekt muss das Endergebnis stimmen und nix anderes...
Das Ganze an

Dies gilt es erstmal logisch zu belegen, warum dies so ist und die Frage zu klären, ob Maxwell nicht genauso zulegen könnte.
Ich habe das GEfühl dass es bei Maxwell genauso möglich ist und Nvdiai derzeit unter Directx11 einfach nur ein bisschen besser die CPU entlasten kann und das war es auch schon.
Wie gesagt, Mücke wird zu Elefant. Die 10-15% irgendwas an Zuwachs durch das ASync Feature machen den Kohl nicht fett... Ob da nun NV zulegt oder nicht und wenn nicht, warum, spielt doch weniger eine Rolle, wo doch offenbar DX12 bei AMD auch 1A ohne ASync funktioniert. Zumal noch ziemlich offen ist, wie sich der Spaß in anderen Titeln auswirkt. Ashes bietet sich quasi als Paradebeispiel an, wie Problemfelder von DX11 mit einer neueren API zu lösen. Was in der Natur der Sache eines solchen Spielprinzips liegt.

Naja ich weiß nicht. Sollte es so sein dass Directx12 und Async eine 390 oder 390x auf GTX 980 Ti NIveau anheben, was ja durchaus der Fall ist, dann ist das keine Mücke, sondern mal der Sprung über zwei Leistungsstufen nach oben.
Warum? Ne Hawaii GPU hat fast so viele Shader wie ne GM200 GPU. Die Rohpower ist nun nicht so ultra viel höher bei letzterem... Es stellt sich eher die Frage, warum GM200 in DirectX11 und kleiner dann doch so deutlich schneller agiert?

Ich kaufe heute keine GPU für DX11 mehr, sondern warte auf DX12 GPUs oder nehme heute eine, die DX12 beherrscht und zu großer Wahrscheinlichkeit auch in Zukunft bei DX12 gut dasteht.
Aktuell steht da AMD einfach besser da mit der Fury X und der Rest von nVidias aktuellen Karten schaut in die Röhre.
Normal kauft man Hardware dann, wenn man die Leistung benötigt. Hardware für die Zukunft zu kaufen, war schon immer unsinnig. Und das ändert sich mit DX12 genau NULL ;)
Zumal, Softwaresupport hin oder her, weder NV noch AMD beherschen die komplette Featurepalette von DX12. Von der Hardwareseite mal ganz abgesehen. Oder kann AMD SM6.0? Ich seh davon nix...
Willst du also DX12 für die Zukunft, kaufst du heute nichts, da nix DX12 vollumfänglich kann.

nVidia bekommt zum ersten Mal seit langer Zeit eine Leistungsklatsche auf einem Gebiet, bei dem mal vollmundig versprach bei Release, dass Maxwell DX12 kann und danach noch sagte, dass Async ebenfalls unterstützt wird und was passiert? Das genaue Gegenteil und im gleichen Zug schreien alle nV-Fanboys "Aber AMD ist bei DX11 immernoch schlechter!". Das ist erbärmlich.

Was willst du mit der Fanboy Kacke? Bleibt doch mal nüchtern... Kann doch nicht so schwer sein.
Aber wie du die beiden Teile des ersten Satzes miteinander unter einen Hut bringen willst, ist mir nicht ganz klar... Was hat die marketingtechnische Ankündigung mit DX12 Support in Software, die Möglichkeit, das ASync Feature grundsätzlich erstmal nutzen zu können bitte mit dem gezeigten Endergebnis, also der Leistungsklatsche zu tun? Wenn die Hardware es nun einfach nicht besser kann, dann ist das eben so, da gibts weder was zu beschönigen noch was runterzuputzen. Dennoch ist/bleibt der Part mit DX11 zumindest für die Generation Maxwell/GCN das Hauptaugenmerk.
Schau dir doch einfach mal die Vergangenheit an. 2012 im Jan. also unmittelbar nach Release der ersten Tahiti GPUs lag der Anteil an DX11 fähigen Systemen laut Steam Hardware Umfrage bei gerade mal popligen ~32% und dass, obwohl es fast seit 2,5 Jahren schon DX11 fähige Hardware am Markt gab. Heute liegt der Anteil zwar ebenso "schon" bei über 30% (also Win10 und eine GPU mit Software DX12 support) -> der Part mit der Hardware kommt aber noch. Was meinst du wie lange das dauern wird? Und was meinst du, wie "aktuell" dann noch eine GPU vom Schlage Hawaii, Fiji, GM200 oder GM204 sein wird?
Lass da mal noch 1-2 Jahre ins Land gehen, dann wird sich zeigen, wer bei DX12 die Nase vorn hat. Wenn es AMD ist, ists gut für AMD, wenn es NV ist, wirds wieder "schlecht" für den Endkunden :fresse:
 
Die meisten Spiele lassen sich ja auch mit NVidia dank sehr gutem DX11 wesentlich besser spielen mit AMD. Hier hätte AMD ja schon seit langer Zeit "verkackt" und ist auch weiterhin noch am Markt vertreten.

Ich habe mir die r9 390 statt der GTX 970 gekauft weil sie in den Directx11 Games laut Tests meistens schneller rechnet.?
Wie kommst du bitte darauf es lassen sich Directx11 Titel wesentlich besser spielen? WTF?

fdsonne; schrieb:
Unsinn, Hyperthreading funktioniert keineswegs in sogut wie JEDEM Workload. Wie kommst du darauf?

Indem man sich Tests eines i3 Prozessors von Intel zu Gemüte führt und feststellt dass Hyperthreading durch die Bank eine Menge Leistung herausholt. Zum einen in Spielen zum anderen in syntethischen Leistungstests.

Oder wie erklärt man sich, dass eine Karte in Form einer 980TI/TitanX trotz nur unwesentlich mehr Rohleistung auf einmal bedeutend schneller als eine alte GK110 GPU in Form der 780TI/TitanBE agieren kann?

Bedeutend schneller? Wirklich?

http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-titan-x

42% gerundet Zunahme der Endleistung. Leistungsindex 530 zu 750 TitanX vs. 780 Ti

Die Zunahme resultiert leicht über die Hälfte aus einem höheren Takt 928 mhz zu 1075mhz und des größeren Aufgebots an Shadern.
15% mehr Takt
6,66% mehr Shader

Nebeneffekte des größeren Speichers im Vergleich zu einer 780 Ti unberücksichtigt.
Ingsesamt stieg die Menge der Transistoren um 12,7% an.

Auffallend ist die verdoppelte Rasterizing Geschwindigkeit.
Verdoppelte ROP`s, verdoppelter level 2 Cache.

Wenn das ganze grob analysiert fallen auf eine womöglich bessere Auslastung die du ja als Vorteil von Maxwell vorgibst, weniger als 15%, eher 10%.

Als weiteren Grund können ebenso verbesserte Treiber angeführt werden, welche für vorherige Generationen zurückgehalten werden.

Eine viel bessere Auslastung sehe ich da keinewegs. Man baut seit Jahrzehnten Grafikkarten und auf einmal hat man den Dreh einer besseren Auslastung auf Hardwareebene drauf? Unwahrscheinlich.

Viel eher lässt sich das mit steigenden TRansistoren, mehr Cache, mehr RAM, mehr Takt und etwas besseren Treibern erklären, viele weniger mit einer besseren Auslastung auch wenn dahingehend sicherlich etwas gemacht wurde, gebracht hat das relativ wenig.

fdsonne schrieb:
Hingegen im Vergleich bei AMD, wenn ne FuryX sich nur unwesentlich von einer Hawaii GPU absetzen kann, obwohl da 40% mehr Rohpower vorhanden ist -> da stellen sich zumindest mal fragen

Es sind 40% mehr Shader vorhanden, ja vielleicht, das hat aber noch lange nichts mit der Rohpower zu tun.
Man muss es auch schaffen die Shader zu beschäftigen und arbeiten zu lassen, das kann vielleicht Nvidia ein kleines bisschen besser.

Das ist aber überhaupt kein Beleg dafür dass Async Compute bringe bei Nvidia nichts, denn sie Auslastung hat Nvidia wenig bis gar nicht verbessert, das zeigt doch alleine meine kleine Rechnung recht deutlich.

Es wird nur eines recht deutlich: Nvidia unterstützt Async Compute mit der derzeitigen Graphic IP nicht.

Aber es geht dort grundsätzlich erstmal um die Möglichkeit, dass aufgrund des Workloads ungenutzte Ressourcen mit anderen Aufgaben betraut werden.

Wenn du die arbeitsweise von asynccompute besser erklären kannst, dann tu es aber auch, bisher hast du nichts anderes gesagt als ich.

http://www.golem.de/news/asynchronous-shading-nvidias-grafikkarten-soll-eine-wichtige-dx12-funktion-fehlen-1509-116107.html

Asynchronous Shader sind eine optionale Komponente von DX12, bei der Grafik- und Compute-Aufgaben parallel statt nacheinander abgearbeitet werden können. Statt Befehlsschlangen mit gemischten Grafik- und Compute-Befehlen mit einem sehr zeitaufwendigen und damit leistungssenkenden Context-Switch durchzuführen, werden die Aufgaben quasi im Reißverschlussverfahren in ein- und derselben Befehlsschlange abgearbeitet.
 
Zuletzt bearbeitet:
Ja ja dat, hatte ich auch schon in meiner Sig. hatte aber keinen interessiert, kaum clickraten gehabt :d

Risitas :d
 
Besonders den Teil "Wenn es halt bei Nvidia nichts bringt, sorgen wir dafür dass es kein Entwickler nutzt" finde ich zum einen Lustig aber auch besorgniserregend, da es gar nicht mal so abwegig ist. Passiert ist es ja schon einmal...
 
Ich sehe da für mich persönlich kein Problem es kommt so oder so jedes Jahr ne neue Karte in den Rechner wen AMD nen besseren Job macht als NV (schneller ist)kommt halt nach längerer Abszinenz halt wieder ne AMD in Rechner sind beide auf einem Level macht die Ausstattung das rennen ist das auch gleich dan eben der Preis .
 
Kann wer sagen, was an der Grafik ausm Overclock-Forum dran ist? Entspricht das der Realität?

2576521
 
Indem man sich Tests eines i3 Prozessors von Intel zu Gemüte führt und feststellt dass Hyperthreading durch die Bank eine Menge Leistung herausholt. Zum einen in Spielen zum anderen in syntethischen Leistungstests.
Dann hast du offenbar erkannt, dass Software viel Potential liegen lässt, wenn man nicht anständig optimiert. Du sprachst aber davon, dass HT in sogut wie JEDEM Workload und Software funktioniert. Das ist aber nunmal quatsch. Ob ich bei mir HT an oder aus hab, es ändert an den FPS in Games gar nix, zumindest in der Regel nicht. Also Argument wiederlegt. Nimms mir nicht übel. Aber nicht immer so viel reininterprätieren in die eigenen Ansichten...
HT bringt idR einen Performancevorteil. Aber so wie du hier auf die angeblich nicht belegte Maxwellauslastung rumpochst willst du hier mit HT das völlige Gegenteil annehmen. Indem einfach mal pauschal an irgend einer beliebigen CPU eine Pauschaussage aufgehangen wird. Ich nenne das Messen mit zweierlei Maß. Entweder du willst Belege, dann bring diese bitte auch selbst für die eigenen Aussagen oder wir bleiben hier bei Spekulationen und Annahmen, dann wäre es aber ratsam, dies auch anderen zuzugestehen!

Bedeutend schneller? Wirklich?
Ja wirklich... Schau Abseits der Releaseartikel. Man könnte pauschal in den Raum stellen, um so neuer die Games, desto besser funktioniert Maxwell. Frag mal G3cko hier im Forum, der alle Nase lang mit CoD:BO3 um die Ecke kommt und wie extrem Maxwell dort den alten Kepler verbläßt ;)
Wo damals noch die 780TI im Schnitt in etwa GTX980 Performance +- etwas erreicht, so reicht es heute idR in neueren Titeln nur noch für die 970er, teils nichtmal das... Da stehen 50% und manchmal auch mehr auf der Uhr als Unterschied, der keineswegs vom Mehrtakt der GM200 GPU kommt. Gerade wenn man Ref. Modelle vergleicht bzw. die Taktraten mit angibt. Auch bringt es nix einfach mal xx% für VRAM oder Treiber anzuziehen... -> du machst es dir zu einfach. Verlangst aber wieder von anderen Belege für die Aussagen. :rolleyes:

Eine viel bessere Auslastung sehe ich da keinewegs. Man baut seit Jahrzehnten Grafikkarten und auf einmal hat man den Dreh einer besseren Auslastung auf Hardwareebene drauf? Unwahrscheinlich.
Wo nimmst du das her? Hat doch niemand davon gesprochen... Maxwell ist Effizienter als Kepler. Nach NVs Aussage in etwa 30% mehr. Wenn nun die Releaseartikel gerade der 970/980 Maxwell bescheinigen, dass sie mit der GK110 mithalten kann, nun, Monate später dort aber ganz paar Prozent Unterschied auf dem Papier stehen, trotz deutlich geringerer Rohpower, wo kommt das also her? Wieso wandelt sich das Bild mit der Zeit? Liegts am VRAM? -> ne frag die Hardliner, die 970er ist ein VRAM Krüppel -> für die 780TI zu schlagen reichts idR aus. Selbst ne Titan oder TitanBE machts nicht primär besser.

Es sind 40% mehr Shader vorhanden, ja vielleicht, das hat aber noch lange nichts mit der Rohpower zu tun.
Man muss es auch schaffen die Shader zu beschäftigen und arbeiten zu lassen, das kann vielleicht Nvidia ein kleines bisschen besser.
Zusammenhang?
Bei mir IST das eine Form der Auslastung... Oder was ist es sonst? Wenn man Shader nicht beschäftigt bekommt bzw. nicht arbeiten lassen kann um es mit deinen Worten auszudrücken, ist die Auslastung geringer. Aber danke für die Bestätigung ;)

Wenn du die arbeitsweise von asynccompute besser erklären kannst, dann tu es aber auch, bisher hast du nichts anderes gesagt als ich.

Asynchronous Shader: Nvidias Grafikkarten soll eine wichtige DX12-Funktion fehlen - Golem.de

Asynchronous Shader sind eine optionale Komponente von DX12, bei der Grafik- und Compute-Aufgaben parallel statt nacheinander abgearbeitet werden können. Statt Befehlsschlangen mit gemischten Grafik- und Compute-Befehlen mit einem sehr zeitaufwendigen und damit leistungssenkenden Context-Switch durchzuführen, werden die Aufgaben quasi im Reißverschlussverfahren in ein- und derselben Befehlsschlange abgearbeitet.

Hier liegt der Knackpunkt. Bei NV scheint es zumindest aktuell egal, ob das an oder aus ist. Die Performance ist mehr oder weniger gleich. Heist im Umkehrschluss, die Performance, selbst wenn es aus ist, ist derart hoch, dass die Hardware offenbar ziemlich gut mit diesem Kontextswitching klar kommt. Bei AMD liegt dort mehr Potential, wie man offenbar sieht. Das kann nun zwei Gründe haben, entweder AMD kommt mit dem Kontextswitching weit weniger gut klar oder aber NV kommt ohne Kontextswitching weit weniger gut klar. Schaut man sich die Werte von Ashes mal detailierter an, so sind die Angaben innerhalb der Hersteller durchaus schlüssig. Nur das NV gut weniger performt als AMD. -> ob das nun an ASync liegt? Unwarscheinlich. Ob es vielleicht eher daran liegt, dass der Titel auf NV Hardware aktuell eher bescheiden läuft -> durchaus warscheinlich. Ob das für ALLE DX12 Titel exakt im gleichen Maße gelten wird? -> eher nicht. Was bleibt also über? Wir debattieren über nen Betabench von einem recht unbekannten Studio, welcher nativ mit AMD zusammen arbeitet über die (noch) lahmen NV FPS in der nagelneuesten API von Microsoft. Ich weis ja nicht. Als ob sich die Welt aufhören würde zu drehen, wenn NV mal in einem Titel das Nachsehen hat.
Bspw. scheint Far Cry Primal auch weit bescheidener auf Maxwell zu laufen. So ist Kepler nach Benches recht stark (stärker also in anderen Titeln der jüngeren Vergangenheit) -> und komischerweise AMD ebenso... Nanu?
 
soooooorry aber das find ich grad sehr passend unpassend :fresse2: https://www.youtube.com/watch?v=Dnn0rgDaSro&feature=youtu.be

:-[
Das ist eigentlich nicht mehr lustig. Wir haben uns alle schon so an dieses Video gewöhnt, das wir nicht mehr darüber lachen können.

Aber das ist ja egal. Bei über 80% Marktanteil, geben die User NVIDIA mit ihrem Erfolgsmodell recht.
Also, alles richtig gemacht. ;)

Ich hoffe nur, AMD erlaubt sich nicht nochmal so eine unüberlegte "Overclockdream" Aussage, sonnst sind sie komplett weg vom Fenster. Aber bis jetzt haben sie nichts verlautbaren lassen, was irgendwie negative ausgelegt werden könnte. Daumen drück ! :bigok:
 
Aber das ist ja egal. Bei über 80% Marktanteil, geben die User NVIDIA mit ihrem Erfolgsmodell recht.
Also, alles richtig gemacht. ;)

Das kann sich aber auch recht schnell ändern... Die meist verkaufte AMD Karte dürfte immernoch die HD4870 gewesen sein. Damals zu Zeiten, wo die Dinger spott billig über den Ladentisch gingen. Da gab es Steamumfrageergebnisse von ~15% für das eine Modell. Da punktet selbst die 970er als aktuell meist verkaufteste dGPU Gamerkarte nicht (mit ihren popligen ~5%).

Man muss sich halt einfach nur mal wieder auf die Basis zurück orientieren. Ich denke immernoch, dass es vielen Kunden sauer aufstößt, wenn man Performance durch hohen Stromverbrauch erkauft. Das hat vielen NV Modellen vor Kepler klar negative Presse eingebracht. Und mittlerweile ist das 1:1 auf AMD übergegangen. Ändert sich das mit Polaris, dazu noch saubere Performance in DX12, vielleicht nochmal ne letzte Ansträngung, DX11 etwas zu puschen und die Welt könnte ziemlich rot werden ;) Viele Punkte auf der absolut pro NV Liste sind nämlich so nicht mehr vorhanden... Und mit Polaris werden weitere Punkte davon streichbar sein.
 
:-[
Das ist eigentlich nicht mehr lustig. Wir haben uns alle schon so an dieses Video gewöhnt, das wir nicht mehr darüber lachen können.

Aber das ist ja egal. Bei über 80% Marktanteil, geben die User NVIDIA mit ihrem Erfolgsmodell recht.
Also, alles richtig gemacht. ;)

Ich hoffe nur, AMD erlaubt sich nicht nochmal so eine unüberlegte "Overclockdream" Aussage, sonnst sind sie komplett weg vom Fenster. Aber bis jetzt haben sie nichts verlautbaren lassen, was irgendwie negative ausgelegt werden könnte. Daumen drück ! :bigok:

Ach AMD sagt "overclocking dream" wobei OC eh immer individuell von den Bauteilen und deren Güte abhängt und stark variiert ?!

Aber nVidia präsentiert nen Holzdummy, nen VRam-Krüppel und bekommt bei DX12 garnicht mehr den Mund auf?

Mach dich doch nicht lächerlich. AMD hat zumindest mal gezeigt, was mit Polaris zu erwarten ist und funktionierende Hardware gezeigt.

Zudem hat AMD die komplette Konsolenwelt als Kunde und stets zahlungswillige Investoren in der Hinterhand. Da wird niemand weg vom Fenster sein.

Man man man.
 
fdsonne schrieb:
Ja wirklich... Schau Abseits der Releaseartikel. Man könnte pauschal in den Raum stellen, um so neuer die Games, desto besser funktioniert Maxwell.

Ich schaue auf die Releaseartikel und nicht auf spätere, denn dass Kepler das alte Ross nicht mehr treiberseitig gepflegt wird, das ist ja offensichtlich.
Es sind 42% Unterschied zwischen Titan X und 780Ti die man größenteils mit mehr Takt, mehr Shadern und vergrößerung des L2 Caches und Verdoppelung der ROPs erzielt hat.
Da du nicht auf meine Rechnung eingehst, nehme ich an du gibst mir recht?;)

Da stehen 50% und manchmal auch mehr auf der Uhr als Unterschied, der keineswegs vom Mehrtakt der GM200 GPU kommt.

Ja weil die Treiber nicht gepflegt werden.
Und natürlich spielt der Mehrtakt eine große Rolle, vor allem bei den kleineren Karten wie GTX 970 und GTX 980.
Ich hab doch die Rechnung bei GM200 vs GK110 aufgemacht, das sind 15% Mehrtakt. Spielt keineswegs eine Rolle?
Nur dieser Mehrtakt bringt die Karten überhaupt vor eine 780 Ti.

Also bitte rechne mal nach, das sind Kindergartenrechnungen.
Maxwell profitiert nicht von einer besseren Auslastung, sondern zum größten Teil von mehr Takt, mehr ROPs, mehr Speicher, mehr Transistoren und einem besseren Verhältnis der EInheiten zueinander. Diese ominöse bessere Auslastung, die wenn überhaupt im Bereich von 10% liegen mag, ist eher im besseren Verhältnis der Einheiten zueinander zu suchen.

Und der niedrigere Verbrauch in einem feinfülig abgestimmten Powermanagement. ( Siehe Leistungsaufnahme mit Powerviren oder Compute )

Die Argumentation auf deiner Seite ist ziemlich löchrig und ich finde es auch etwas schade, dass gerade die Punkte um die es geht dann ausgespaart werden, einfach nur mit recht kindischen Widerworten.

dass HT in sogut wie JEDEM Workload und Software funktioniert.

Ja das tut es, da es nicht so sehr abhängig von der Software ist, sondern auch abhängig von der Chiparchitektur und der Pipeline.
Schau einfach mal die LEistungstests der C´T an oder eines anderen Magazins.

Beispielhaft von mir aus hier:

http://www.computerbase.de/2014-07/intel-pentium-g3258-anniversary-uebertakten-test/

Pentium vs i3. Außer dem kleinen Taktunterschied und des Hyperthreadings sind die Dinger recht ähnlich.
Die riesigen Unterschiede im Gesamtraiting sollten als Beleg für meine Aussage bestens ausreichen, dass insgesamt bei der verwendeten Software Hyperthreading ein Muss ist.

Abschließendes Rating i3 4330 42% vor Pentium G3258. Damit gehen auf jeden Fall >20% aufs KOnto des Hyperthreadings.

Dann hast du offenbar erkannt, dass Software viel Potential liegen lässt, wenn man nicht anständig optimiert.
http://www.computerbase.de/2014-07/intel-pentium-g3258-anniversary-uebertakten-test/2/#diagramm-winrar-real

Winrar ist also nicht anständig optimiert? Oder .net usw.. usf?
Du hast nicht mal den Ansatz einer Ahnung wie Hyperthreading überhaupt funktioniert, wenn du sagst Hyperthreading bringe nur etwas wenn die Software nicht optimiert ist.:haha:

HT bringt idR einen Performancevorteil.

Und wo ist nun der Unterschied zu meiner Aussage?

Aber so wie du hier auf die angeblich nicht belegte Maxwellauslastung rumpochst willst du hier mit HT das völlige Gegenteil annehmen.

Nein, ich nehme bei beiden Vorgängen das gleiche an, da grob gesagt bei beiden Vorgängen sehr ähnliches passiert.
Und das hilft genauso Maxwell GPU´s, da deren bessere Auslastung die du spekulierst wenn überhaupt extrem gering ist.
Nur MAxwell GPU´s können kein Async Compute, das dürfte doch jetzt mittlerweile klar sein, jedenfalls bezweifelt das mittlerweile niemand mehr.

Entweder du willst Belege, dann bring diese bitte auch selbst für die eigenen Aussagen oder wir bleiben hier bei Spekulationen und Annahmen, dann wäre es aber ratsam, dies auch anderen zuzugestehen!

Nur wo bleiben dann die Erklärungen und Erläuterungen für deine These?
Grob 40% liegt Maxwell vor Kepler, mit mehr Takt und mehr Transistoren.
Der Takt stieg um 15% und die TRansistoren von 7,1 MIlliarden auf 8 MIlliarden, was 12,1 Prozent entspricht, genauso steig die RAM Menge, sowie die Bandbreite, weil man ein Verfahren entwickelte zur Kompression selbiger.

Das ergibt 27% Punkte.

Und du redest immernoch von Auslastung? Maxwell ist ein Kepler done right, mehr aber auch nicht.

Nach NVs Aussage in etwa 30% mehr. Wenn nun die Releaseartikel gerade der 970/980 Maxwell bescheinigen, dass sie mit der GK110 mithalten kann, nun, Monate später dort aber ganz paar Prozent Unterschied auf dem Papier stehen, trotz deutlich geringerer Rohpower, wo kommt das also her?

Von der Taktung und den Treibern. Bitte sei doch so nett und rechne selbst ein bisschen.
Eine 980 hat 2048 Shader, etwas mehr ROPS und etwas mehr Chache als eine 780TI, sowie ein verbessertes Power Management, zudem hat ma den Chip bezüglich der Double Precision abgespeckt.

928 mhz der 780 Ti vs 1200 bis 1300 je nach Boostverhalten der GTX 980.
Irgendwie schon komisch dass eine GPU die 30 bis 40% höher taktet bei Release etwa 5% vor einer niedrig getakteten 780 TI liegt die auf der Habenseite 40,625% mehr Shader besitzt und insgesamt einen viel niedrigeren Takt sowie einen etwas schwächen Tesselator und weniger ROP´s und 1GB weniger Speicher besitzt, sowie keine so gute Speicherkompression und vielleicht den ein oder anderen besseren Treiber nicht bekommt.

Das ist doch völlig im Rahmen des erwartbaren und dass eine olle GTX 970 nun desöfteren vor einer GTX 780 Ti liegt, nunja, ich komme nicht nochmal auf die Treiberliebe zu sprechen, das hatten wir ja schon.
Das soll also das große Mysterium der höheren Auslastung sein? Ich bin beeindruckt von deinem Scharfsinn.:d

Mein KOllege spielt mit einer auf 1300mhz übertakteten GTX 780 Ti und die ist so schnell wie eine Stock GTX 980 Ti, solange Kepler treiberseitig supportet wird.

Wieso wandelt sich das Bild mit der Zeit? Liegts am VRAM?

Die Treiber haben den Vorsprung der MAxwell Chips um 5% anwachsen lassen, mehr aber auch nicht.


Gibt es bei dir nur Shader zur Ermittlung der "Rohpower"?
Was soll denn Rohpower überhaupt heißen? Für mich gehören da deutlich mehr Faktoren hinzu, als nur die grobe Shaderanzahl.
 
Zuletzt bearbeitet:
Irgendwie hat der Artikel einen grünen Touch verliehen bekommen.

Ich sehe es langsam als erwiesen dass AMD schon lange im Voraus auf Technologien gebaut hat, die sich erst jetzt langsam aber vielleicht fast Bahnbrechend durchsetzen,
und Nvidia die letzten Jahre einfach Karten fürs Fanboy und Öko Quartett gebaut hat.
Dafür spricht hohe Leistung in Benchmarks und Games kurz nach Release (vorallem in Gameworks Titel) und tiefer Stromverbrauch beim grünen Riesen.

Jetzt scheint aber die Luft bei Nvidia raus zu sein.
Schlechte News zu DX12 und dann noch die Preise...
Ich finde schon dass eine High-End Karte 2-3 Jahre ihren Dienst gut verrichten sollte. Wenn der Maxwell in DX12 wirklich so schlecht performt, dann ist das noch ein grösserer Skandal als die 3.5GB der GTX 970.

Schön zu sehen wie meine anfangs 2014 gekaufte R9 290 plötzlich auftrumpft.
Wenn aus alter Hardware noch mal richtig Leistungschub für die Zukunft kommt :popcorn:

Diese Video finde ich noch super, erklärt die "Grafikkarten-Quartett" Manier von Nvidia noch etwas besser:
https://www.youtube.com/watch?v=ZcF36_qMd8M
 
Zuletzt bearbeitet:
Keine sorge leute, Nvidia wid schon einen funktionierenden Treiber nachreichen.
Haben ja auch bei der 970 den fix geschafft, was alle für unmöglich hielten.
 
Wenn bei nem Kumpel mehr als 3,5 Gb geschrieben werden, fängt die 970 immernoch an Kasperletheater zu spielen - was wurde da gefixt?!

Bei dem Profilbild liegt Jucks und Trollerei nahe.
 
Ich sehe da für mich persönlich kein Problem es kommt so oder so jedes Jahr ne neue Karte in den Rechner wen AMD nen besseren Job macht als NV (schneller ist)kommt halt nach längerer Abszinenz halt wieder ne AMD in Rechner sind beide auf einem Level macht die Ausstattung das rennen ist das auch gleich dan eben der Preis .

Kannst ja auch bei DX12 deine alte Karte (1 Jahr ist ja noch ok) drin lassen und beide nutzen... ich zögere noch wegen win10 und hoffe auf gute Spiele mit Vulkan unter Win7 ;-)

ach ja:

Das Spiel sieht interessant aus... mal gucken ob es an Supreme Commander ran kommt.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh