DirectX 12 soll AMD- mit NVIDIA-Grafikkarten miteinander kombinieren können

So abwegig ist das nicht, so kannst du die Funktionen der jeweiligen Karten nutzen. Zum Beispiel kannst du von der Nvidia Karte Physx berechnen lassen und bei AMD mit Mantle spielen.
Das geht nicht... Physx (nVidia) funktioniert unter Mantle nicht, geschweige denn, es gibt Spiele, die beides unterstützen. Oder ein Spiel nutzt beide APIs parallel :fresse
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also den letzten Teil halte ich für extrem spekulativ. Denn mir wäre nicht bekannt, das TrueAudio sowie PhysX in irgend einer Weise irgendetwas mit DX12 zu tun haben würden... Es sind und bleiben exklusive Features von jeweils einem Hersteller, der schlicht und ergreifend ein Stück (Treiber)Software zur Ansteuerung der Hardware dem OS Bereit stellt. -> die Nutzung geschieht über den Treiber und nichts über DX... Bei DX wird bestenfalls mit dem Ergebnis gearbeitet.

Naja, eigentlich steht es ja schon da wie in etwa das ganze funktionieren wird:
So lässt sich beispielsweise AMDs TrueAudio in Kombination mit einer NVIDIA-Karte nutzen. Die Radeon-Grafikkarte fungiert dabei als Master-GPU, während das NVIDIA-Modell lediglich seine Rechenpower bereitstellt.
Bedeutet, dass immer nur die exklusiven Features der Master-GPU genutzt werden können. Der Titel "PhysX und TrueAudio nutzen" suggeriert wie hier üblich vermutlich wieder mal etwas anderes.
 
Stellt Euch doch nur mal vor, man könnte auf den VRam der zweiten Karte zugreifen und so quasi den VRam für die primäre Karte nutzen. Oder es gibt PCIe Module, die nur zusätzlichen VRam anbieten. So könnte man kostengünstig mehr VRam zur Verfügung stellen.

Ich jedenfalls sehe der ganzen DX12 Geschichte mit Spannung entgegen.
 
Stellt Euch doch nur mal vor, man könnte auf den VRam der zweiten Karte zugreifen und so quasi den VRam für die primäre Karte nutzen. Oder es gibt PCIe Module, die nur zusätzlichen VRam anbieten. So könnte man kostengünstig mehr VRam zur Verfügung stellen.
Leider macht die Bandbreite und die Zugriffszeit einen Strich durch diese Idee...
 
NVidia und AMD Grafikkarten kombinieren so wie es beim SLI oder CrossFire gemacht wird ?
Niemals. Nicht. Nein.

DX12 wird zwar von beiden unterstützt werden, aber einen Kombinationsmodus ?
Ganz sicher nicht.

Selbst wenn DX12 und zukünftige DX versionen dieses feature bieten werden,
so werden beide Hersteller das in ihren Treibern aktiv unterbinden.
Soviel ist sicher.

NVidia und AMD wollen schliesslich soviele Kunden wie möglich für sich gewinnen,
da passt so etwas ganz und gar nicht........

Mal ganz davon abgesehen das die Spiele Entwickler da sicher nicht mitmachen werden.



p.s.: bis zum 1. April ist es aber noch eine weile hin... :d
 
NVidia und AMD Grafikkarten kombinieren so wie es beim SLI oder CrossFire gemacht wird ?
Niemals. Nicht. Nein.

DX12 wird zwar von beiden unterstützt werden, aber einen Kombinationsmodus ?
Ganz sicher nicht.

Selbst wenn DX12 und zukünftige DX versionen dieses feature bieten werden,
so werden beide Hersteller das in ihren Treibern aktiv unterbinden.
Soviel ist sicher.

NVidia und AMD wollen schliesslich soviele Kunden wie möglich für sich gewinnen,
da passt so etwas ganz und gar nicht........

Mal ganz davon abgesehen das die Spiele Entwickler da sicher nicht mitmachen werden.
Äh, also ganz so extrem sehe ich das nicht.
Man kann das sogar anders sehen: Durch die Möglichkeit bei einer Aufrüstung die alte Graka zu behalten, egal von welchem Hersteller die Neue ist, wird der Kunde offener die Wahl haben und sich vieleicht doch für das Konkurenzprodukt entscheiden, etc.
Die Entwickler werden - wenn das so funktioniert wie ich das vermute - heirfür nichts zusätzlich machen müssen, sondern nur SFR einbauen (was sie sowieso machen würden um normales CF oder SLI zu unterstützen), die werden sich bei AAA Titeln sicher nicht querstellen (Gameworks-Games ausgenommen...)
 
Zuletzt bearbeitet:
Und Mantel wird mit DX12 wohl eher nebensächlich da es ja auch um eine Low Level API handelt die den CPU Overhead stark vermindern soll, was ja der einzige Vorteil von Mantel ist.
Nein so Oberflächlich ist Mantle nicht, da steckt schon ordentlich Hirnschmalz drin.
Auf Wiki in Englisch gibt es z.B. noch diese Angaben:

Easier to port from Mantle to Direct3D 12 than from Direct3D 11 to Direct3D 12[22]
- At GDC 14 Oxide Games employee Dan Baker stated that Mantle would address fundamental development challenges that could not be addressed by a retrofit of an existing API. It is hard to optimize for the graphics device driver.[23][24][25]
- At the AMD Developer Summit (APU) in November 2013 Johan Andersson, technical director of the Frostbite engine at DICE praised Mantle for making development easier and enabling developers to innovate.[26]
- Mantle targets 100K[27]
- Monolithic Pipeline[4]
- Pipeline saving and loading[28]
- Hybrid Resource Model
- Generalized Resources
- Control over resource preparation
- Dynamic flow control without CPU intervention
- Direct GPU control
- Reduced runtime shader compilation overhead
- Better control over the hardware.[11]
- "All hardware capabilities are exposed through the API."[11]
- Reduction of command buffer submissions
- Data formats optimizations via flexible buffer/image access
- Explicit control of resource compression, expansion, and synchronization
- Asynchronous DMA queue for data uploads independent from the graphics engine
- Asynchronous compute queue for overlapping of compute and graphics workloads
- New rendering techniques
Quelle: Mantle (API) - Wikipedia, the free encyclopedia

Im großen und ganzen einfach HSA ummantelt.
 
Äh, also ganz so extrem sehe ich das nicht.
Man kann das sogar anders sehen: Durch die Möglichkeit bei einer Aufrüstung die alte Graka zu behalten, egal von welchem Hersteller die Neue ist, wird der Kunde offener die Wahl haben und sich vieleicht doch für das Konkurenzprodukt entscheiden, etc.
Die Entwickler werden - wenn das so funktioniert wie ich das vermute - heirfür nichts zusätzlich machen müssen, sondern nur SFR einbauen (was sie sowieso machen würden um normales CF oder SLI zu unterstützen), die werden sich bei AAA Titeln sicher nicht querstellen (Gameworks-Games ausgenommen...)

Naja,
kann, muss aber nicht.

Und wenn dann höchstens vielleicht so :

Intel iGPU + AMD GPU : sehr wahrscheinlich.
Intel iGPU + NVidia GPU : sehr wahrscheinlich.
AMD iGPU + AMD GPU : höchstwahrscheinlich.
AMD iGPU + NVidia GPU : möglicherweise.
AMD GPU + NVidia GPU : eher unwahrscheinlich.

Abwarten und Tee trinken und sehen was draus wird.
Mehr kann man sowiso nicht machen.
 
@Phantomias88
Ich schau mal in meine Glaskugel und behaupte, Mantel wird mit DX12 eine Nebensache, ähnlich wie PhysX Beschleunigung per GPU. Es ist doch ganz einfach. Mantel wird aktuell nur von AMD genutzt, das ist recht einseitig. DX12 wird wohl ähnliches leisten, warum dann noch Zeit und Geld für die implementierung von Mantel verschwenden? Das wäre ja schon aus wirtschaftlicher Sicht unsinnig. Das werden wieder nur einige Entwickler verwenden die von AMD gesponsert werden... wie auch bei PhysX.
Die Zeit wird es zeigen... aber ich bin mir ziemlich Sicher, dass ich recht behalten werde.
 
Joa... Problem ist dabei das AMD das u.a. für die Gamingindustrie gemacht hatte laut offiziellen Angaben... nun kommt Microsoft und "kopiert" es... AMD bekommt nen Tritt in den Hintern... -.-
 
Joa... Problem ist dabei das AMD das u.a. für die Gamingindustrie gemacht hatte laut offiziellen Angaben... nun kommt Microsoft und "kopiert" es... AMD bekommt nen Tritt in den Hintern... -.-
 
Naaaja, für die "Gamingindustrie" wohl eher nicht - mehr für den eigenen Gewinn ;)
Und in der Hinsicht war ein Großteil der Motivation wohl auch die eigenen, schwachbrüstigen CPUs besser aussehen zu lassen...
 
@Phantomias88
Ich schau mal in meine Glaskugel und behaupte, Mantel wird mit DX12 eine Nebensache, ähnlich wie PhysX Beschleunigung per GPU. Es ist doch ganz einfach. Mantel wird aktuell nur von AMD genutzt, das ist recht einseitig. DX12 wird wohl ähnliches leisten, warum dann noch Zeit und Geld für die implementierung von Mantel verschwenden? Das wäre ja schon aus wirtschaftlicher Sicht unsinnig. Das werden wieder nur einige Entwickler verwenden die von AMD gesponsert werden... wie auch bei PhysX.
Die Zeit wird es zeigen... aber ich bin mir ziemlich Sicher, dass ich recht behalten werde.
Ja Mantle wird zur Zeit nur von AMD genutzt, das hält die API schlank und bläht sie nicht so auf aus Kompatibilität Gründen.
Jedes Entwickler Studio das mit Mantle arbeitet wird DX12 Spiele schneller fertig haben als diejenigen die mit DX11 auf DX12 warten.
Somit wird nicht Mantle implementiert, sondern DX12. ;)

Joa... Problem ist dabei das AMD das u.a. für die Gamingindustrie gemacht hatte laut offiziellen Angaben... nun kommt Microsoft und "kopiert" es... AMD bekommt nen Tritt in den Hintern... -.-
Auch wenn DX12 da ist, wird Mantle weiterhin verfügbar sein, der Tritt geht nach hinten los.
Naaaja, für die "Gamingindustrie" wohl eher nicht - mehr für den eigenen Gewinn ;)
Und in der Hinsicht war ein Großteil der Motivation wohl auch die eigenen, schwachbrüstigen CPUs besser aussehen zu lassen...
Besser aussehen lassen kannst jedes System im dem die max FPS erhöhst, dafür braucht man keine Mantle API.
 
Besser aussehen lassen kannst jedes System im dem die max FPS erhöhst, dafür braucht man keine Mantle API.
Wie meinst du das, bzw. was hat das mit meinem Gesagten zutun?
Sache ist, AMD's "high end" CPUs (und die APUs) profitieren deutlich mehr von mantle als Intel's High End chips.


Ich bin auch der Meinung dass Mantle nach dem Verbreiten von DX12, eher bald verschwinden wird. Allerdings dauert es bis dahin noch mindestens ein Jahr, eher mehr. Also durchaus noch Zeit für AMD draus Profit zu schlagen.
 
Die bisher notwendigen SLI- und Crossfire-Brücken könnten mit DirectX 12 ebenfalls der Vergangenheit angehören.

Crossfire kann doch sowieso schon gestrichen werden oder? Die r9 280(x) war die letzte Karte mit dieser Technologie. r9 285 und r9 290(x) besitzen die Ports doch schon gar nicht mehr.
 
Crossfire kann doch sowieso schon gestrichen werden oder? Die r9 280(x) war die letzte Karte mit dieser Technologie. r9 285 und r9 290(x) besitzen die Ports doch schon gar nicht mehr.

AMD hat die CrossFire-Brücke bei Hawaii und Tonga durch ein anderes Verfahren genannt DMA ersetzt. Nun erfolgt die Kommunikation der Karten über den PCIe-Bus und nicht mehr über eine anfällige separate Brücke.
11.jpg

CrossFire bzw. CrossFireX gibt es auch weiterhin, nur eben ohne Brücke und das dann so sogar besser. :)
 
Der AMD Treiber lässt Nvidiakarten trotz installiertem Treiber im System, ohne die Funktionen zu sperren.

Geht TrueAudio, wenn du eine NV GPU als Main GPU nutzt und nur irgend so ne mini AMD GPU (oder ggf. APU) dazu hast, die TrueAudio supportet?
Wäre ich mir gar nicht mal so 100% sicher... Hab ich selbst aber nie probiert, muss ich gestehen.

Ansonsten, es werden ja auch keine Funktionen ausgesperrt. Das klingt immer so, als würde die Karte gar nicht mehr gehen. Die Karten beider Hersteller supporten aktuell DX11.x, je nach Hardwarebasis. Und das geht auch weiterhin mit steckenden zwei Modellen gleichzeitig. -> einzig Hersteller only Features gehen idR nicht. Und das ist schlicht des Herstellers gutes Recht ihre eigene Technik so zu vermarkten, wie man es gern hätte.
-> gerade bei NV ist das zu 99% auch ein Grund, warum sich GPU PhysX nicht durchsetzen kann, obwohl es im Grunde die aktuell einzig am Markt verfügbare vollständig nutzbare PhysX Bibliothek mit GPU Beschleunigung ist. (nein, TressFX ist kein Vergleich, da es nur einen Bruchteil der Möglichkeiten abdecken kann und mit der aktuellen Version auch nur soll) :wink:

Das ist aber klare Benachteiligung eines Konkurenten, denn die Karten könnten technisch unabhängig voneinander funktionieren -> Absichtliche Wettbewerbsverzerrung!

Ihr habt manchmal echt eine komische Sichtweise... Es geht um Features, die vom Hersteller der Hardware als Exklusivfeatures angeboten werden. Da hängen sogar teils Lizenzvereinbarungen mit dran. Jeder Hersteller der Welt hat (zumindest ohne Monopolstellung) das Recht, seine Sachen so zu vermarkten, wie er es gern wünscht. Und wenn er da als Funktionsvorraussetzung definiert, dass es nur bei Hardware aus dem eigenen Haus geht, dann ist das schlicht so.
Warum zur verdammten Hölle will man sich bitte immer über geltendes Recht hinwegsetzen? Ich hab das Gefühl, dass hier immer alle nur wollen ohne mal drüber nachzudenken, ob das überhaupt wirtschaftlich sinnvoll für den Produzenten ist. :(

Zumal es in dem Fall nichtmal eine "Benachteiligung eines Konkurenten" wäre. Denn eher ist es so, dass man der eigenen Hardware das Feature abstellt. (bspw. bei PhysX per GPU und steckender AMD GPU) Da wird also keineswegs der Konkurent benachteiligt, wenn der User die Vorraussetzungen für den Betrieb von GPU PhysX nicht einhält. :wink:

Naja, eigentlich steht es ja schon da wie in etwa das ganze funktionieren wird:

Nein, steht es nicht... Ich erwähnte bereits, das Exklusivfeatures der/des Herstellers auch exklusiven Vorraussetzungen unterliegen... Und wenn der Hersteller das nicht will, dann gehts halt einfach nicht. Mit DX12 ändert sich daran gelinde gesagt, einfach mal überhaupt nichts, da die Exklusivfeatures NICHT! Bestandteil der Vorraussetzungen für eine DX12 Kompatibilität sind bzw. sein werden.
Man vergleicht hier Äpfel mir Birnen... DX12 ist von MS und somit von einem Dritten! Der definiert die Verraussetzungen für die Kompatibilität von Hardware auf eben diese API. Und genau solche Vorraussetzungen definiert jeder andere Entwickler von Features für seine eigenen Techniken ebenso.
MS könnte sich nun hinstellen und sagen, OK, wenn DX12 drin sein soll, muss auf der Hardware Microsoft stehen -> was reichlich unklug wäre, da MS stand heute keinerlei Hardware produziert, was dem gerecht werden könnte... Also bedient man sich Hardware von Dritten und definiert Auflagen zur Einhaltung der Kompatibilität...

Stellt Euch doch nur mal vor, man könnte auf den VRam der zweiten Karte zugreifen und so quasi den VRam für die primäre Karte nutzen. Oder es gibt PCIe Module, die nur zusätzlichen VRam anbieten. So könnte man kostengünstig mehr VRam zur Verfügung stellen.

Was im Grunde keiner braucht ;) Denn die Verbindung über PCIe 16x 3.0 ist einfach viel viel viel zu lahm... Nicht umsonst werden GPUs dedizierte VRAMs daneben gestellt. Wäre es anders möglich, könnte man sich das sparen...

Joa... Problem ist dabei das AMD das u.a. für die Gamingindustrie gemacht hatte laut offiziellen Angaben... nun kommt Microsoft und "kopiert" es... AMD bekommt nen Tritt in den Hintern... -.-

Mantle hat aber ganz andere Probleme um gegen ein neues DX12 zu bestehen... MS definiert nämlich wie in der Vergangenheit mit jeder DX Version zu sehen auch neue "Features". So wird DX12 wohl SM6 bieten bspw. -> das kann Mantle schlicht und ergreifend nicht.
Wenn man so will, hat Mantle im Grunde sogar das Featurelevel von DX11 1:1 übernommen... -> das Problem dabei ist, geht die DX Basis einen Schritt weiter, muss Mantle nachziehen. Was 1:1 aber auch den Nachteil mitbringt, das höchstwarscheinlich alte Mantle Hardware (also heutige GCN GPUs) diesen Sprung nicht unterstützten werden. Genau so wie DX11 GPUs kein DX12 in Hardware unterstützten werden. -> bitte nicht verwechseln mit der besseren Nutzung der CPU, welche ebenso von DX11 GPUs Vorteile bringen soll (nach aktuellen Messungen)

Mantle wäre bspw. klar von Vorteil, wenn man hätte dem Mantle Paket Features mitgegeben, die unter DX11 nicht gehen. Wie bspw. eine Art SM6 Umsetzung. Oder sowas, wie Tesselation damals mit DX11 getätigt hat. (also was völlig neues) Das ist/wäre ein Mehrwert gewesen. So wie man es aber gemacht hat, nämlich den 1:1 Umsetzen der Features + lediglich der besseren CPU Umsetzung ist der Erfolg auf lange Sicht eher fraglich. :wink: Und schon allein deswegen, weil die AMD DX11 Umsetzung eben häufig (gerade in Mantle Titeln) einfach nur langsamer ist, als man denken würde...
 
wird NIEMALS so kommen.

AMD mag offiziell kein NVIDIA.
NVIDIA mag offiziell kein AMD.

inoffiziell gehen beide Hersteller Hand in Hand.


wie auch immer, das wird ja so schon nicht funktionieren.
zb. ist Lappen PhysX eine lizenzierte Funktion.

wäre ja so als würde man ne AMD CPU auf einem Intel Socket stecken.
damals ging es noch. wie beim Sockel 7 wo sich AMD und intel den Sockel teilten.

Naja Acer is ja so irre und verbaut bei einigen kleinen Rechner nen AMD Prozessor (AM3) aber die Kühlerhalterung ist die gleiche wie bei Sockel 775 :fresse:
 
Was im Grunde keiner braucht ;) Denn die Verbindung über PCIe 16x 3.0 ist einfach viel viel viel zu lahm... Nicht umsonst werden GPUs dedizierte VRAMs daneben gestellt. Wäre es anders möglich, könnte man sich das sparen...

Achtung, Ironie:

PCIe 3.0 x16 schafft 32GB/s
Nvidia ist mit der 970 der Meinung, es würde reichen. :d
 
PCIe 3.0 x16 schafft 32GB/s
Nvidia ist mit der 970 der Meinung, es würde reichen. :d

Pustekuchen... PCIe 16x 3.0 überträgt ca. 16GB/sec... Und das ist immernoch weniger als das, was NV mit dem letzten 512MB der GTX 970 abliefert... Weswegen auch das Verhalten im Problemfall VRAM Limit durch unzureichende Größe identisch ist zu jeder anderen Karte!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh