Oxide: NVIDIA-GPUs unterstützen Asynchronous Compute/Shaders unter DX12 nicht

i
aber wenn da echt an die 30% Leistnungsunterschied sind, ... denk ich dann evtl übern Herstellerwechsel nach.
gnnnnnnnnnnnnnnnnnnnnnnnnnnn :/

Sind nicht nur 30% Leistungsunterschied sondern auch bessere VR-Latency:

https://www.reddit.com/r/pcgaming/comments/3j1916/get_your_popcorn_ready_nv_gpus_do_not_support/

"Async Shaders are vital for a good VR experience, as it helps lower latency of head movement to visual/photon output. I posted on this topic awhile ago:

https://www.reddit.com/r/nvidia/comments/3i6dks/maxwell_cant_do_vr_well_an_issue_of_latency/ "
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Aber nur bei Post-Processing (Off vs On vs On mit Async), nicht overall Performance.
Man sollte die verlinkten Berichte schon selber lesen.
 
Lustig, Nvidia listet Features die garnicht geboten werden, und meckert dann wenn Games langsam sind weil die Entwickler davon ausgehen dass die Dokumentation der Wahrheit entspricht.

@burninghey
War bestimmt nur ein Kommunikationsproblem zwischen der Marketingabteilung und den Entwicklern. Kann doch mal passieren, oder?

Sollte die Situation sich so Bewahrheiten wie es im Moment aussieht, dann sind mal wieder die Nvidia-Kunden die Blöden.
Viele hier im Forum haben die 6GB oder gar 12GB VRAM der GTX980Ti /Titan als zukunftssicher proklamiert und zugleich die 4GB der Fury's als nicht zukunftssicher kritisiert.
Sollte Nvidia bei den Async Shaders tatsächlich falsche Angaben gemacht zu haben, sind diese Karten, was Zukunftssicherheit bei DX12 Spielen angeht, eine "lame duck" .

Ohne klare, belastbare Informationen von Nvidia würde ich persönlich einen Teufel tun mir für über 700€ eine NV-Karte holen.
Und ausserdem werden die bereits verkauften Karten auf dem Gebrauchtmarkt sicher nicht mehr so gesucht sein wie bisher.

Cunhell
 
gut, daß meine bestellte 980TI im DHL Bermudadreieck verschollen ist, dann spar ich mir das Thema 980TI gleich ganz und warte auf die nächste Generation.
 
Stellt sich nur die Frage ob es auf der CPU dann auf einem CORE läuft oder auf mehreren berechnet wird? :lol:
 
Hoch interessant.
Die Zeiger schlagen nach langer Zeit mal wieder deutlich richtung AMD aus.

Das tun sie eigentlich schon seit pitcairn und bonair in ps4 und xbox1 stecken.
Da braucht man sich nicht wundern das so eine "Gurke" wie Pitcairn immer noch gut abgeht und deswegen zig mal rebranded wurde.

Und die GCN 1.1/1.2 GPUs werden da sicher dank DX12 auch noch den ein oder anderen Vorteil bekommen.

schade das die AMD GPUs so stromhungrig sind.
 
Oder ne dickere GPU, dafür keine Wakü :d
Unter der Annahme, der Fokus liegt auf Gaming natürlich ;) Er ist nicht der einzige mit einer "Budget Karte" hier.

Ohne Gaming reicht oft auch die iGPU. Gewisse CAD Programme ausgenommen, aber da wird man auch keine Consumer-GPU einsetzen.

@john: dann müsste ich ein Quad-SLI aus Titan GPUs haben. Nur komischerweise passt das nicht in ein 12l Gehäuse, sonst hätte ich natürlich sofort zugeschlagen.

Betreffend günstig:
4670K plus H81 Board?
Mit der Wakü zusammen weit entfernt von ausgewogen/gut abgestimmt.
Falls du die CPU Leistung brauchst, wäre eine CPU mit HT sinnvoller gewesen.
Und bei Gaming Ansprüchen passt die GPU einfach überhaupt nicht zur CPU.
 
Also wenn man die ganzen Benchmarks sich genauer an sieht, dann stellt man fest, daß die " Katastrophe" teilweise eher der Balkenskalierung als der Wirklichkeit geschuldet ist. Wenn man die Werte vom Async-Comp bei Amd und die Nicht Async-comp bei nvidia mit der alternativen Methode betrachtet, dann sind bei den Frames kaum wirkliche Unterschiede. ( zwischen 1-5% im Schnitt, je nach Auflösung )

Was bei Amd im Moment noch nicht wirklich absehbar ist, was real an Mehrleistung rauskommen wird.
Wer im Grunde wahrscheinlich der Dumme sein wird ist aber klar: der Kunde ( egal bei welchem Hersteller er gekauft hat )

Jeder Programmierer der ein bißchen wirtschaftlich denkt, bzw ein funktionierendes Controlling hat, wird einen Teufel tun und Feature Sets benutzen, welche einen der beiden großen dec. GPU Hersteller extrem benachteiligen.
Vielleicht gerade so programmieren, daß der eine oder andere ( je nachdem wer besser zahlt ) ein paar % Vorsprung auf den anderen hat.

Aber daß das ganze unspielbar wird ? wäre für 90% der Spielehersteller der wirtschaftliche Ruin.

Die Gefahr sehe ich für uns als Kunden nur darin, daß sinnvolle Feature Sets gar nicht benutzt werden, da ein Teil vom Hersteller A und ein Teil vom Hersteller B nicht genutzt wird. Der Programmierer läßt dann halt aus Zeit, Geld und Kundenreichweite alle betroffenen Features weg.

Ich bin seit 3 Jahren auf einer 7970 unterwegs, hatte mir letzte Woche allerdings eine 980Ti bestellt ( welche durch Dhl verschlampt wurde ) und habe mir jetzt eine 629 euro Fury X bei Amazon geschossen.

Ich wechsle seit Jahren zwischen Amd/Ati und Nivida, aber dieses massive und teilweise doch sehr aggressive Niedermachen und Hochloben nervt doch etwas. Ich kenn nur noch eine andere Branche in der viele Käufer "ihren" Hersteller noch aggressiver verteidigen ( meist aber doch schon im Schnitt älter sind als im PC Bereich), und zwar den der Paraglider.
 
*aufgeräumt*
 
.... ich warte nur drauf, dass Intel irgendwann (wieder) ne dedicated Grafikkarte (oder evtl "Intel Gaming Accelerator") im Consumerbereich herstellt :)

seit Einführung der iGPUs haben sie viel gelernt und sind bei der DX12 Unterstützung sogar führend (nicht in der Leistung, aber im Umfang)

Intel könnte der lachende Dritte werden und die Erfahrungen der Phi´s, der IGPs, und evtl etwas Know How von extern mal kombinieren .... wäre dann der letzte Schritt zur Intel AIO Lösung :)

... wie gut deren IGPs schon geworden sind zeigen ja die Iris Pro 6200 - http://www.tomshardware.com/reviews/intel-core-i7-5775c-i5-5675c-broadwell,4169-6.html


rumspinn: man nehme die DIE Fläche des 2011-3 und packe da nen 4Core + 4*Iris Pro 6200 im "Quad-Intel-Cross-SLI-Fire-Whatever" oder man macht einfach nen 2. Sockel neben die CPU ^^ (gabs ja schonmal für CO Prozessoren)
mit HBM könnte man denen dann auch eigenes Ram spendieren
 
Zuletzt bearbeitet:
@ Pumuckel, bitte nicht!

Intel und nVidia sind schon fast monopolisten... wenn AMD das genickt gebrochen bekommt, dann halleluja in der IT...
Sollte ZEN nur annähernd genug Leistung im Vergleich zum Verbrauch bringen wie mein 4930K im Moment, werde ich auf Zen wechseln, einfach um den Underdog zu unterstützen!
 
Es wird sich eh in den nächsten Monaten zeigen wohin das ganze steuert, für Pascal hoffe ich das NV da etwas geändert hat weil das Tape Out bereits erfolgt ist oder?.

Bei den Konsolen wird sich auch zeigen ob dieses zusätzliche Feature zum Zuge kommen wird oder nicht, es gäbe, bis auf das es NV derzeit nicht schmeckt eigentlich keinen wirklichen Grund es nicht einzusetzen und da die meisten Games ja Konsolen Ports sind, warum sollte sich da das Entwicklerstudio noch mehr Arbeit machen diese wieder zu entfernen/deaktivieren/umzuschreiben?

Klar wenn die Kohle stimmt dann würde ich es auch entfernen/deaktivieren/umschreiben, Geld regiert die Welt, der PC ist auch nicht mehr die Leadplattform, also, wayne interessiert es? Sicher nicht die Erbsenzähler der Spielindustrie.... (sehe ich halt so)

Edit:
Das ganze ist jetzt aus keiner technischen Sicht, dazu kenne ich mich zu wenig aus aber müsste das nicht von der Engine aus her angetriggert werden?
 
Zuletzt bearbeitet:
Bei den Konsolen wird sich auch zeigen ob dieses zusätzliche Feature zum Zuge kommen wird oder nicht, es gäbe, bis auf das es NV derzeit nicht schmeckt eigentlich keinen wirklichen Grund es nicht einzusetzen und da die meisten Games ja Konsolen Ports sind, warum sollte sich da das Entwicklerstudio noch mehr Arbeit machen diese wieder zu entfernen/deaktivieren/umzuschreiben?

da die Konsolen eh schon rumkranken 1080p bei hohen frameraten zu liefern werden die Entwickler auf der XBox (dann mit DX12) sicherlich das Feature nutzen wollen

und PC games sind ja eh nun (leider) zumeist Konsolen Ports (da bei Konsolen das wirkliche Geld gemacht wird)

- - - Updated - - -

@ Pumuckel, bitte nicht!

Intel und nVidia sind schon fast monopolisten... wenn AMD das genickt gebrochen bekommt, dann halleluja in der IT...
Sollte ZEN nur annähernd genug Leistung im Vergleich zum Verbrauch bringen wie mein 4930K im Moment, werde ich auf Zen wechseln, einfach um den Underdog zu unterstützen!

AMD ist doch schon mehrmals gebrochen .... wurden doch schon einmal gerettet (das hat nix mit Fanboytum zu tun ... einfach börsenwerte angucken)
Lieber wäre mir eh 3DFX gäbe es noch ^^
der PC Grafikkarten Markt ist einfach zu klein um zu interessieren .... darum gehen ja alle auf nun Smartphones/Embedded
Intel machte mit den Iris Pro fast alles Richtig ...

NVidia wäre ohne die Grid/Quaddro/Mobile Lösungen auch schon nicht so aufgestellt wie sie noch sind
 
Zuletzt bearbeitet:
rumspinn: man nehme die DIE Fläche des 2011-3 und packe da nen 4Core + 4*Iris Pro 6200 im "Quad-Intel-Cross-SLI-Fire-Whatever" oder man macht einfach nen 2. Sockel neben die CPU ^^ (gabs ja schonmal für CO Prozessoren)
mit HBM könnte man denen dann auch eigenes Ram spendieren
Du würdest echt solch eine CPU zu gesalzenen Intel Preise (>400 dann) kaufen? o_O
Wofür? Damit der Grafikpart doch wieder brachliegt, wenn die dedizierten Karten diese IGP die selbst mit 4x Iris pro wahrscheinlich kaum an eine R9 390 käme, ablösen?
Und wofür nen sekundären Sockel, wenn es PCIe Slots gibt?

wurden doch schon einmal gerettet (das hat nix mit Fanboytum zu tun ... einfach börsenwerte angucken)
Jein, sie haben die Fabs verkauft. Oder was meinst du genau?
 
Zuletzt bearbeitet:
Du würdest echt solch eine CPU zu gesalzenen Intel Preise (>400 dann) kaufen? o_O
Wofür? Damit der Grafikpart doch wieder brachliegt, wenn die dedizierten Karten diese IGP die selbst mit 4x Iris pro wahrscheinlich kaum an eine R9 390 käme, ablösen?
Und wofür nen sekundären Sockel, wenn es PCIe Slots gibt?


Jein, sie haben die Fabs verkauft. Oder was meinst du genau?

das war rumgespinne, es ging nur darum, dass Intel locker in der Lage wäre z.B. eine 1080p locker mit mehr Leistung zu versorgen als es AMD grad kann und 4K evtl durch "stacking"

AMD wurde durch arabische Investitionen schonmal kurz vor dem bankrott gerettet, aber das kannste Googlen

vergleich doch z.B. den derzeitigen Wert von AMD mit der Summe, welche Sie für ATI damals zahlten :)
http://news.softpedia.com/news/amd-is-worth-today-a-quarter-of-what-it-paid-for-ati-487173.shtml

zu beachten: billion = milliarde (nicht Billion) - https://de.wikipedia.org/wiki/Billion

Apple: $700 billion (als Remarketer) ... wird sogar höher eingeschätzt (1-1,4 trillion)
Intel: $140.8 billion
NVidia: $10.7 billion
AMD: $1.53 billion (kauften ATI für $5.60 billion)

wir vergleichen das mal mit den Griechenlandhilfen der 3. Runde $100 billion oder den angenommenen Kosten der Flüchtlinge in DE $3,5 billion (nur um mal Größenordnungen zu zeigen, bitte nicht falsch verstehen !)

wären die "Anti Thrust" sachen nicht wäre AMD ein Taschengeld Einkauf
 
Zuletzt bearbeitet:
[...] rumspinn: man nehme die DIE Fläche des 2011-3 und packe da nen 4Core + 4*Iris Pro 6200 im "Quad-Intel-Cross-SLI-Fire-Whatever" oder man macht einfach nen 2. Sockel neben die CPU ^^ (gabs ja schonmal für CO Prozessoren)
mit HBM könnte man denen dann auch eigenes Ram spendieren

rummspinn: man nehme die DIE fläche, die aktuell für die igpu verschwendet wird und benutze sie für zusätzliche cores.
extremes rumspinn: man erhöhe die preise nicht und verkaufe den neuen i5 mit 6 oder 8 kernen.
 
rummspinn: man nehme die DIE fläche, die aktuell für die igpu verschwendet wird und benutze sie für zusätzliche cores.
extremes rumspinn: man erhöhe die preise nicht und verkaufe den neuen i5 mit 6 oder 8 kernen.

wäre mir auch lieber ^^

aber auch Intel hat erkannt (wenn auch fast zu spät) dass integrated Lösungen (grad im LowEnergy Bereich aka SOCs) die Zukunft gehört und man entwickelt ungern viele Linien (und dafür gibts ja Xeons bzw die 2011er Serie)
https://geizhals.de/?cat=cpuppro&xf=820_2011-3~25_18#xf_top (16 Kerne / 32 Threads auf dem DIE)

ohne das wären Sie nicht so einfach mit Apple ins Geschäft gekommen (welche z.B. die Iris Pro lieben)

Intel holt auch bei der OS Unterstützung kräftiger auf .... liegt auch daran, dass OSX /MaC OS ja aus der *nix Riege stammt und viel mit BSD gemein hat. Was letztendlich auch Linux nutzt.


+ mit DX12 (und früher mit einigen prop Lösungen) kann man ja die IGP Leistung durchaus nutzen als Compute (noch besser wird es evtl mit Vulkan https://en.wikipedia.org/wiki/Vulkan_(API) ... darauf hoffe ICH ^^, wobei Apple mit dem prop. Metal https://en.wikipedia.org/wiki/Metal_(API) noch quer treibt)



Sinnfrage : warum kaufte ich mir diese Woche eine GTX 960
da diese alle Features, welche derzeit erhältlich sind unterstützt INKL HDMI 2.0 mit HDCP 2.2. Sie ist knapp an den 970/980 mit Effizenz/Watt/Dollar (die aber kein HDCP 2.2 haben) . Sie wird in Linux gut unterstützt (leider noch durch closed blob) und ist leise/Stomsparend unter Video/Multimonitor (betreibe 2 Monitore+ 1 TV dran) - https://www.phoronix.com/scan.php?page=article&item=nvidia-geforce-gtx960&num=1
... lieber stelle ich die Auflösung oder Details in Spielen runter (nichtmal nötig in Mobas/MMOs wie ich sie spiele), als auf Features zu verzichten oder unnötig Strom zu brauchen (was z.B. AMD schnell ab schon Dual Moni macht)

leider ist die Iris Pro noch nicht ausreichend für 1440p :) und die CPU müßte ich mir extra kaufen - da hier nur I5-4690s, I7-4970k "rumliegen"

meine geliebte GTX 660 mußte leider weichen, da ihr der UEFI boot fehlte den ich später für KVM brauche
 
Zuletzt bearbeitet:
rummspinn: man nehme die DIE fläche, die aktuell für die igpu verschwendet wird und benutze sie für zusätzliche cores.

Mach doch -> Schimpft sich aktuell 5820k und gibts für nen schmalen Taler zu kaufen... Wo ist das Problem?

rumspinn: man nehme die DIE Fläche des 2011-3 und packe da nen 4Core + 4*Iris Pro 6200 im "Quad-Intel-Cross-SLI-Fire-Whatever" oder man macht einfach nen 2. Sockel neben die CPU ^^ (gabs ja schonmal für CO Prozessoren)
mit HBM könnte man denen dann auch eigenes Ram spendieren

Und was versprichst du dir daraus?
Irgendwie hat das keinen Sinn... So eine Lösung wäre wohl massiv im Bandbreitenlimit. Man müsste den Cache aufbohren in der Größe, die 128MB (irgendwie spekuliert man ja nun für Skylake, dass es auch 64MB Modelle geben soll?) sind heute schon arg knapp. Auch Intel kann hier nicht zaubern... Sie können im Endeffekt nur das gleiche machen, wie AMD es auch macht mit den APUs, nämlich das aktuelle Optimum aus dem Bandbreitenflaschenhals rausholen.
Schau dir ne HD7770 an, die ist gute 50% schneller als die AMD APU und das trotz quasi gleichem Aufbau bei deutlich mehr Bandbreite als quasi einziger richtiger Unterschied...

Verschwindet der Bandbreitenflaschenhals, gehts mit den APUs massiv bergauf, da somit auf einen Schlag die GPU in der ALU Anzahl stark nach oben skalierbar ist. Bei AMD steht das faktisch auf dem Fahrplan. -> auch wenn es noch ein Stück hin ist, bis wir das sehen werden. Heute ist das einfach nicht drin bei der lahmen Bandbreite... Da kann man noch so viel GPU verbauen, es wird nicht besser...
Eine Zwischenlösung mit kleinem Cache wäre für AMD genau so denkbar. Stichwort XBoxOne -> die machts imho vor. Allerdings denke ich nicht, dass AMD auf zu vielen Baustellen tanzen wird. Einfach des lieben Geldes wegens...
 
Man müsste den Cache aufbohren in der Größe, die 128MB (irgendwie spekuliert man ja nun für Skylake, dass es auch 64MB Modelle geben soll?) sind heute schon arg knapp.

Es gilt mittlerweile als gesichert, dass (vorerst) nur einige Skylake-U CPUs mit 15W/28W TDP den 64MB eDRAM bekommen werden. Dieser soll dann auch etwas flexibler in der Architektur angebunden sein, als noch bei den Vorgängern. In Ultrabooks, wo diese CPUs hauptsächlich ihre Verwendung finden werden, dürfte dies sicher für einen willkommenen Leistungsschub sorgen.
 
Da hast Du aber vergessen noch etwas zu zitieren:
Extra point: all of the NVidia cards show a linear increase in time when you increase the number of compute kernels, stepping up every 32 kernels since Maxwell has 32 thread blocks. The 980Ti took 10ms~ for 1-31 kernels, 21ms~ for 32-63 kernels, 32ms~ for 64-95 kernels, and 44ms~ for 96-127 kernels.
The Fury X took 49ms~ for all 1...128 kernel runs, didn't even budge. It looks like the 49ms is some kind of fixed system overhead and we haven't even seen it being strained by the compute calls at all yet.


Schauen wir mal was die Geschichte in Zukunft für Auswirkungen hat, wenn AMD ein neues TopSelling-Argument hat würde es Ihnen auf keinen Fall schaden :)


So ... wir streiten uns also darum das eine 980ti (trotz angeblich nicht unterstützem Feature) schneller ist als eine Fury X die es unterstützt? Ich glaube hier erstmal gar nichts mehr, bevor DX12 massenmarkttauglich ist und es genug Spiele dafür gibt um ein angemessenes Fazit zu ziehen. Diese Schnellschüsse langweilen ...
 
So ... wir streiten uns also darum das eine 980ti (trotz angeblich nicht unterstützem Feature) schneller ist als eine Fury X die es unterstützt? Ich glaube hier erstmal gar nichts mehr, bevor DX12 massenmarkttauglich ist und es genug Spiele dafür gibt um ein angemessenes Fazit zu ziehen. Diese Schnellschüsse langweilen ...

Wir streiten nicht, wir diskutieren :fresse: und wir wissen so gut wie alle das es noch zu früh ist um Schlussendlich ein Urteil zu fällen und NV unterstützt das Feature, nur wird es halt anders ab/verarbeitet, oder gibt es dazu neue Erkenntnisse?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh