Keine Kompromisse!

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bei dem Video geht es um die 390X?
 
390 und 390x sind doch nur 3-5% Unterschied. Das ist dann ein Frage des Preises.
 
Würde eher zur 390 greifen. AMD hat viel mit den neuen 15. er Treibern wett gemacht und setzt zum überholen bei Nvidia an. Gerade in neuen Spielen wie StarWars Battlefront kann AMD glänzen:

Star Wars Battlefront Open Beta gespielt: Benchmarks von 20 Grafikkarten, CPU-Skalierung, 8 vs. 16 GiB RAM, VRAM-Auslastung [Test der Woche]

Mit DX12 dürfte AMD dann noch weiter voranschreiten. Ashes of Singularity zeigt ja wo die Reise hingeht und dabei hat das Spiel noch nicht mall volle Async Compute Unterstützung

Von der GTX 970 kann ich dich nur warnend abraten aus folgenden gründen:
- 3,5 GB +0,5 bug. Das braucht viel Zuwendung im Treiber. Sobald Nvidia den Treibersupport runterfährt bricht wahrscheinlich die GTX 970 völligst weg.
- Karte ist nur in Gameworkstiteln gut (warum wohl?) /Ironie OFF
- Das war jetzt gerade mit dem Game Ready Treiber abgeht.
- Vermutlich kein richtiges Async Compute. Da braucht man dann später eine starke CPU um da mithalten zu können da viel auf die CPU ausgelagert wird.
 
Zuletzt bearbeitet:
Der Vorteil einer GTX 970 gegenüber der R9 380 und R9 390 ist auch: sie braucht deutlich weniger Strom. Da holst du ggü. der R9 380 den Mehrpreis wahrscheinlich über Zeit wieder rein. Von daher, wenn es nicht die 390 sein soll, würde ich die 380 wirklich zurückschicken und eine GTX 970 nehmen. Und das sage ich als, ich sag mal, treuer AMD-Anhänger!

Ich habe aktuell eine ganz ähnliche Situation wie du: i7 4790K, R9 290X, 1440p Monitor mit 144Hz. Die 290X kann viele Spiele auf Ultra flüssig darstellen, aber nicht alles. "Keine Kompromisse" geht auch damit sicher nicht. Heutzutage sind manche Spiele einfach so schlecht optimiert ... da kannst gar gegen aufrüsten.

Seit Kurzem habe ich eine zweite 290X drin, also Crossfire, und selbst dann laufen z.B. Project Cars, The Crew, Asssasin's Creed 4 und Ark nicht völlig flüssig auf Ultra. Das liegt aber fast immer an schlechter Optimierung des Spiels und nicht an der Hardware.
 
Deutlch? laut HWLX Test Drei Modelle der Radeon R9 380 im Test

Hat die MSI 380 20W mehr Verbrauch unter Last als die 970. Die Sapphire verbraucht 4W weniger.
Selbt bei den 20W mehr unter Last.
Die 390 etwa 60.
Soviel zocken kannst du nicht um den Aufpreis der 380 aufzuholen.
Bei der 390 je nach Modell, kann man die 20-30€ wieder reinholen, aber wird eher eine Break Even Geschichte und kein Vorteil
 
Würde eher zur 390 greifen. AMD hat viel mit den neuen 15. er Treibern wett gemacht und setzt zum überholen bei Nvidia an. Gerade in neuen Spielen wie StarWars Battlefront kann AMD glänzen:

Star Wars Battlefront Open Beta gespielt: Benchmarks von 20 Grafikkarten, CPU-Skalierung, 8 vs. 16 GiB RAM, VRAM-Auslastung [Test der Woche]

Mit DX12 dürfte AMD dann noch weiter voranschreiten. Ashes of Singularity zeigt ja wo die Reise hingeht und dabei hat das Spiel noch nicht mall volle Async Compute Unterstützung

Von der GTX 970 kann ich dich nur warnend abraten aus folgenden gründen:
- 3,5 GB +0,5 bug. Das braucht viel Zuwendung im Treiber. Sobald Nvidia den Treibersupport runterfährt bricht wahrscheinlich die GTX 970 völligst weg.
- Karte ist nur in Gameworkstiteln gut (warum wohl?) /Ironie OFF
- Das war jetzt gerade mit dem Game Ready Treiber abgeht.
- Vermutlich kein richtiges Async Compute. Da braucht man dann später eine starke CPU um da mithalten zu können da viel auf die CPU ausgelagert wird.

Ich sag es jetzt zum letzten Mal - hört auf mit euren wirren Zukunftsvorraussagen - es KOTZT MICH AN!

Hier wird so viel Bullsh*t zum Thema DX12 abgelassen, dass es mittlerweile peinlich ist sowas noch Kaufberatung zu nennen. Du beziehst dich hier auf einen Test in einer Beta, der sogar wissentlich keinen Support von nVidia hatte und schon etwas zurückliegt. Bereits 2x wurde in diesem Thread der NEUE Test verlinkt indem nVidia die ach so tollen AMD Karten hinter sich lässt - wenn auch nur knapp. Das Teil haben die allerdings in nur 2 Wochen zusammengebastelt ...

Zum Thema async blah verweise ich dann gerne auf die seitenlange Diskussion auf reddit - dort wirst du dann auch irgendwo den Part finden in dem getestet wird das eine 980ti die Fury X in ALLEN Bereichen des async Compute hinter sich lässt - und das bisweilen deutlich. Also auch da ... keine Ahnung ... keine Beweise aber drauflospoltern.

Weiterhin hast du überlesen das der TE sich schon eine 390 zugelegt hat und zwar von Powercolor, und dann noch dieser 970 Mist am Ende deines Postings ...

Die 0,5 GB sind kein Bug! Das mal zu allererst. Die Karte ist auch in Titeln ohne Gameworks gut und was du mit dem Treiber meinst kann ich nicht nachvollziehen. Viel heiße Luft um nix aber bitte - jedem das seine. Auch wenn ich dich dann nochmals enttäuschen muss, auch nVidia wird "richtiges" Async Compute haben (sofern es überhaupt flächendeckend zum Einsatz kommt *hust* Mantle *hust* Vulcan *hust*) nur nicht auf der GPU, sondern der CPU. Da braucht man auch keine "starke" CPU denn ein Mittelklasse i5 langweilt sich derzeit in Spielen zu Tode.

Vielen Dank für deine Aufmerksamkeit.


btt: Viel Spaß mit der neuen Karte an den TE :)
 
Danke,

ich werde hier berichten wie es dann aussieht.

Momentan laufen die Spiele mit Intel GPU mit 5 FPS :)
 
Ähm ja hast Recht :)

Klar lebt Mantle - aber der riesen Erfolg den sich AMD daraus erhofft hat ist ausgeblieben.
 
@Alashondra
Es nennt sich async shader, async compute ist wieder was anderes.
Mantle lebt noch, auch unter Windows 10 läuft es wie gewohnt von Win 7, super!

Keine Kompromisse gibt es nur mit Multi-GPU Adapter: http://community.amd.com/community/...ectx-12-for-enthusiasts-explicit-multiadapter

Hierzu ist zu erwähnen, dass dies von den Entwickler auch genutzt werden muss. Eine Aufgabe, die nicht einfach ist.
Ich bin äußerst skeptisch, dass der multi-GPU Support dadurch besser wird.
Mit meine zwei R9 290er hatte ich guten Support bei Blockbustertiteln und praktisch keinen Support bei Indie-titeln. Ziemlich genau so wird es wohl auch bei DX 12 multi-GPU sein, da die Indie-Devs nicht die Zeit oder das Geld haben, das vernünftig umzusetzen.

Soweit meine Vermutung. Sollte es anders kommen, ist die 2. Karte fix im System eingeplant.
 
die 980 hat halt nach wie vor ein völlig schwachsinnig P/L. Die kann man eigentlich nicht guten gewissens empfehlen.
Aber mit ner 980 GTX kann man seine aufgezählten Spiele schon sehr gut spielen, mit GSync auch recht geschmeidig. Grade das 970er Spulenfiepen bei den Modellen die ich hatte nervte. Vielleicht kann er ja güngstig eine Gebrauchte schießen, muss ja nicht immer alles neu sein.
 
Zuletzt bearbeitet:
Ich sag es jetzt zum letzten Mal - hört auf mit euren wirren Zukunftsvorraussagen - es KOTZT MICH AN!

Aber es stimmt doch, der TE sucht eine Karte, die keine Kompromisse haben soll und ihm wird die Karte empfohlen, bei der nach aktuellem Stand das meiste ungewiss ist.

Wie sieht es in einem Jahr mit den 3,5 GB aus? Wird da der Treiber noch optimiert (siehe GTX 700er), oder fangen dann alle Spiele an zu ruckeln?

Ihr fehlt ein wichtiges DX12 feature.

Das einzige, was für die 970 Spricht ist der Verbrauch, bei allem anderen muss man Kompromisse eingehen....

Und was haben wir auf der AMD seite? 60W mehr verbrauch. Das war es.
Treiber sind aktuell besser als bei den grünen und die "veraltete Architektur", die gerne genannt wird, funktioniert trotz ihres alters verdammt gut und liefert ein Bild an den Monitor, also wo ist das Problem?
 
Keine Kompromisse ist 980ti oder Fury X und nichts anderes.
Die wurden ganz zu Anfang genannt. Alles andere danach ist nur Glaskugelwissen ohne haltbare Beweise bisher.

Es ist noch nicht 1 Titel mit DX12 auf dem Markt und schon wissen alle welche Karten in welchen Bereichen besser sind ... das halte ich für äußerst fragwürdig.
 
wie sieht es in nem Jahr mit den 2 Jahre alten Rebrands aus? wird AMD die Treiber endlich mal um ein paar vernünftige Features erweitern?
wird AMD den nun nicht mehr vorhandenen DX12 Vorsprung wieder zurück gewinnen?
wieviel machen die 60W innerhalb eines Jahres aus?
 
Welche Features fehlen dir denn?
Die 390 ist AMDs aktuelle Generation (auch wenn Rebranded), da wird der Support so schnell nicht eingestellt. Zumindest spricht nix dafür.
Wieviel 60W ausmachen kann sich jeder nach seinem Nutzerverhalten ausrechnen.
Wenn du 8 Stunden am Tag unter Last spielst hättest du in 312 Tagen 30€ gespart.
 
Ich sag es jetzt zum letzten Mal - hört auf mit euren wirren Zukunftsvorraussagen - es KOTZT MICH AN!

Hier wird so viel Bullsh*t zum Thema DX12 abgelassen, dass es mittlerweile peinlich ist sowas noch Kaufberatung zu nennen. Du beziehst dich hier auf einen Test in einer Beta, der sogar wissentlich keinen Support von nVidia hatte und schon etwas zurückliegt. Bereits 2x wurde in diesem Thread der NEUE Test verlinkt indem nVidia die ach so tollen AMD Karten hinter sich lässt - wenn auch nur knapp. Das Teil haben die allerdings in nur 2 Wochen zusammengebastelt ...

Zum Thema async blah verweise ich dann gerne auf die seitenlange Diskussion auf reddit - dort wirst du dann auch irgendwo den Part finden in dem getestet wird das eine 980ti die Fury X in ALLEN Bereichen des async Compute hinter sich lässt - und das bisweilen deutlich. Also auch da ... keine Ahnung ... keine Beweise aber drauflospoltern.

Weiterhin hast du überlesen das der TE sich schon eine 390 zugelegt hat und zwar von Powercolor, und dann noch dieser 970 Mist am Ende deines Postings ...

Die 0,5 GB sind kein Bug! Das mal zu allererst. Die Karte ist auch in Titeln ohne Gameworks gut und was du mit dem Treiber meinst kann ich nicht nachvollziehen. Viel heiße Luft um nix aber bitte - jedem das seine. Auch wenn ich dich dann nochmals enttäuschen muss, auch nVidia wird "richtiges" Async Compute haben (sofern es überhaupt flächendeckend zum Einsatz kommt *hust* Mantle *hust* Vulcan *hust*) nur nicht auf der GPU, sondern der CPU. Da braucht man auch keine "starke" CPU denn ein Mittelklasse i5 langweilt sich derzeit in Spielen zu Tode.

Vielen Dank für deine Aufmerksamkeit.


btt: Viel Spaß mit der neuen Karte an den TE :)


Da hab ich wohl einen Wunden Punkt bei dir getroffen. Dann zeig doch mal den Link von Reddit her wo die 980ti so gnadenlos AMD in Asnc Compute platt macht :)

Wer besser informiert sein will schaut hier mal rein:
https://forum.beyond3d.com/threads/dx12-performance-discussion-and-analysis-thread.57188/page-46
Auch interessant und von NVIDA selbst:
https://developer.nvidia.com/dx12-dos-and-donts
•Check carefully if the use of a separate compute command queues really is advantageous
◦Even for compute tasks that can in theory run in parallel with graphics tasks, the actual scheduling details of the parallel work on the GPU may not generate the results you hope for
◦Be conscious of which asynchronous compute and graphics workloads can be scheduled together

Und ja die 3,5GB sind in meinen Augen ein Bug. Den Nvidia muss dafür sorge tragen das nicht Dateien in den langsamen Speicher geladen wird. Das heißt Nvidia muss bei jedem Spiel schauen ob nicht doch irgend was, was schnell benötigt wird in den langsamen Speicher transferiert wird. Deshalb wird hier eine extra Treiberpflege für die GTX 970 benötigt.
 
Zuletzt bearbeitet:
geh mal mit der zeit und guck dir die neuen hier schon verlinkten benches an
 
Ähm ja hast Recht :)

Klar lebt Mantle - aber der riesen Erfolg den sich AMD daraus erhofft hat ist ausgeblieben.
Es ging ja nicht primär um Erfolg in Form von cash, sondern eher um die Verbreitung der programmier Art.
Je mehr es nutzen, desto eher hat man einen Nenner und muß nicht zig Abstriche machen für alte Architekturen.
GCN ist eine der besten Architekturen m.M.n. die jemals die Masse erreicht hat, da sie für mehrere Jahre im vor raus geplant/entwickelt wurde.

Hierzu ist zu erwähnen, dass dies von den Entwickler auch genutzt werden muss. Eine Aufgabe, die nicht einfach ist.
Ich bin äußerst skeptisch, dass der multi-GPU Support dadurch besser wird.
Mit meine zwei R9 290er hatte ich guten Support bei Blockbustertiteln und praktisch keinen Support bei Indie-titeln. Ziemlich genau so wird es wohl auch bei DX 12 multi-GPU sein, da die Indie-Devs nicht die Zeit oder das Geld haben, das vernünftig umzusetzen.

Soweit meine Vermutung. Sollte es anders kommen, ist die 2. Karte fix im System eingeplant.
Ein Indie Spiele braucht auch keine 100FPS, das läuft selbst mit 25FPS sehr gut, da schickst die zusätzlichen Adapter besser in ZCP/ULPS (Tiefschlaf Modus).
Mach ich nicht anders, sobald CrossfireX nicht greift und das Spiel subjektiv gut läuft, schalte ich die zweite Karte ab via 3D Profil im Catalyst (CCC)
Übringes im verlinkten Text findet sich auch das hier:
For other applications not participating in the AMD Gaming Evolved program, AMD has talented software engineers that can still add AMD CrossFire™ support through a driver update.
Sprich sie können den Crossfire Support nachträglich hinzufügen, war bei Mantle nicht anders, Thief kam zuerst ohne Multi-GPU dann gab es ein Spiel Patch und ein neuen Treiber schon wurden beide Karten genutzt.
MS hat für nächstes Jahr über 20 Spiele angekündigt, die Grafisch alles abverlangen werden.
Das GPU Limit wächst mit DX12 wieder, welches Dank Mantle angestoßen wurde. ;)
 
Da hab ich wohl einen Wunden Punkt bei dir getroffen. Dann zeig doch mal den Link von Reddit her wo die 980ti so gnadenlos AMD in Asnc Compute platt macht :)

Ja den "Ich bin es leid mit Ignoranten zu diskutieren" Punkt hast du erwischt. Wie von Slot und mir gesagt - schau dir die neuen Benchmarks an und verkriech dich bitte wieder in deine Trollecke. Ich werde dir hier sicher keinen ellenlangen reddit Text verlinken - das bißchen Aufwand kannst du dir dann auch selbst machen.

Was soll dein englischer Text? Da steht eindeutig nichts zur Leistung sondern ob es sinnvoll ist etwas separat laufen zu lassen. Ich lehne mich jetzt mal weit aus dem Fenster und behaupte einfach mal stumpf (so wie du auch immer): AMDs Karten sind so ein billiger Technikschrott, dass separate Berechnungen notwendig sind!!11elf!

Nur weil es ein neues Feature gibt, heißt das nicht automatisch das es a) Standard wird und b) für alle von Vorteil ist. Schonmal daran gedacht, dass nVidia Karten dies gar nicht brauchen? Weil sie auch so schnell genug sind? Warum ist das hochgelobte HBM auf der Fury nicht potenter als das luschige GDDR5 auf einer 980ti? Immer dieses undifferenzierte drauflosplappern.

Und zur extra Treiberpflege der 970 - macht nVidia alles geheim und schreibt es nicht in die Logs des Treibers ne? Wie kann man dann eigentlich ohne aktuellen Treiber die neuesten Spiele spielen? Ich mein GTA V in 4k auf einer 970 z.B. läuft - aber das kann ja nicht sein wegen den "nur" 3.5 GB. Ich nehme einfach mal an das du diese Karte nie selbst im Einsatz hattest, und werde dein weiteres geplapper dazu ignorieren.

@Phantomias: Ja so meinte ich das auch - wirklich in vielen Spielen kommt Mantle im Vergleich zum Rest nun nicht vor - oder habe ich da in letzter Zeit was verpasst?
 
Ja den "Ich bin es leid mit Ignoranten zu diskutieren" Punkt hast du erwischt. Wie von Slot und mir gesagt - schau dir die neuen Benchmarks an und verkriech dich bitte wieder in deine Trollecke. Ich werde dir hier sicher keinen ellenlangen reddit Text verlinken - das bißchen Aufwand kannst du dir dann auch selbst machen.

Was soll dein englischer Text? Da steht eindeutig nichts zur Leistung sondern ob es sinnvoll ist etwas separat laufen zu lassen. Ich lehne mich jetzt mal weit aus dem Fenster und behaupte einfach mal stumpf (so wie du auch immer): AMDs Karten sind so ein billiger Technikschrott, dass separate Berechnungen notwendig sind!!11elf!

Nur weil es ein neues Feature gibt, heißt das nicht automatisch das es a) Standard wird und b) für alle von Vorteil ist. Schonmal daran gedacht, dass nVidia Karten dies gar nicht brauchen? Weil sie auch so schnell genug sind? Warum ist das hochgelobte HBM auf der Fury nicht potenter als das luschige GDDR5 auf einer 980ti? Immer dieses undifferenzierte drauflosplappern.

Und zur extra Treiberpflege der 970 - macht nVidia alles geheim und schreibt es nicht in die Logs des Treibers ne? Wie kann man dann eigentlich ohne aktuellen Treiber die neuesten Spiele spielen? Ich mein GTA V in 4k auf einer 970 z.B. läuft - aber das kann ja nicht sein wegen den "nur" 3.5 GB. Ich nehme einfach mal an das du diese Karte nie selbst im Einsatz hattest, und werde dein weiteres geplapper dazu ignorieren.

@Phantomias: Ja so meinte ich das auch - wirklich in vielen Spielen kommt Mantle im Vergleich zum Rest nun nicht vor - oder habe ich da in letzter Zeit was verpasst?

Von Dir kommt nur heiße Luft. Den Link postest du nicht weil du ganz genau weist das dort nichts Produktives steht.

Zum Text von Nvidia. Die schreiben dort das Async Compute nicht die gewünschte Leistung bringt, wie sich das vielleicht einige Entwickler erhoffen. Warum hat dann Nvidia Async Compute? Es ist ein reines Leistungsfeature, wenn es aber keine Leistung bringt was nutzt dann das Feature? Darum geht es in der ganzen Diskussion bei Nvidia!


Und ja Async Compute ist schon Standard und zwar auf den Konsolen. Dahin entwickelt sich ja auch DX12. Ein Zugeständnisse von Microsoft an den PC um mehr Markanteile zu gewinnen. Mit DX12 wird es noch mal einfacher werden Konsolen Spiele (was mitlerweile gut 80% der Spiele sein dürften) auf den PC zu portieren und da wird Async Compute schon rege genutzt!

Nein sowas schreibt Nvidia nicht in die Treiberlogs! Meinst du der verein sagt dir wirklich alles über die 3,5GB Afähre? Das wäre ja dann ein Eingeständnis was man super vor Gericht verwenden könnte!

Der Ignorant in diesem Froum den du so sehr Hasst bist du selbst! Sieh es ein Nvidia hat auf vielen Ebenen verloren. Wenn im eigenem Geforce Forum schon mit diesen Dingen überschwemmt wird und du das nicht siehst dann bist du derjenige der Ignorant ist!

Im übrigen was man bei Oculus Rift über NVIDIA denkt:
https://www.youtube.com/watch?v=tTVeZlwn9W8&feature=youtu.be&t=1h21m35s

"Nvidia was possibly catastrophic"
"This is realy greate for your PowerPoint Slide Show" lol
 
Zuletzt bearbeitet:
@Phantomias: Ja so meinte ich das auch - wirklich in vielen Spielen kommt Mantle im Vergleich zum Rest nun nicht vor - oder habe ich da in letzter Zeit was verpasst?
Es gibt leider keine Vollständige Liste der Mantle Spiele, da es immer noch als Werkzeug bei der Spiele Entwicklung genutzt wird.
Hier ein kleine Übersicht:

Battlefield 4[29]
Battlefield Hardline
Thief
Star Citizen[30][31]
Plants vs. Zombies: Garden Warfare
Civilization: Beyond Earth[32]
Dragon Age: Inquisition
Mirror's Edge Catalyst
Sniper Elite III[33]
Star Wars Battlefront[34]
Alien: Isolation
Ashes of the Singularity: RTS Ashes of the Singularity mit Mantle: Spektakuläre Massenschlachten im Video
 
Zuletzt bearbeitet:
Ampre - du bist ein witziger Kerl. Es wurde hier schon mehrfach diskutiert und den Link findest du im dazugehörigen Thread im GPU Forum. Warum ich den hier nicht poste? Ganz einfach - weil reddit hier gesperrt ist aber das übersteigt womöglich deine Vorstellungskraft. Ich will hier auch keine erneute Diskussion vom Zaun brechen, aber dieses auf waagen Vermutungen rumreiten geht mir halt gegen den Strich.

Oh und Oculus Rift ist ein gutes Beispiel ... diese VR scheiße die niemand braucht und kaum einer haben will ... die 3x aufgekauft und verändert wurde? Ja, daran lässt sich sehr gut festmachen, wie gut ein Hersteller ist oder nicht.

Schau dir dann bitte nochmal die Marktanteile von rot und grün an und dann überleg nochmal welcher Verein hier wo verkackt hat.

---

Zum Thema Mantle: Hui das sind ja doch mittlerweile mehr als gedacht. Ich meine mir ist das relativ egal, ich sehe es eigentlich nur kritisch, dass etwas mit Mantle programmiert werden muss, damit die AMD Karten ihr volles Potenzial ausschöpfen. Hat immer nen etwas komischen Beigeschmack. Der GPU Markt ist gerade eh generell im Eimer finde ich. Entweder man wirft ne Münze oder sehr viele Euros aus dem Fenster :P

- - - Updated - - -

Als Update mal ein Auszug aus einem anderen Test zum Thema Async whatever:

Allerdings muß auch klar gesagt werden, daß sich selbst unter Ashes of the Singularity damit nicht die Situation ergibt, daß die AMD-Hardware der nVidia-Hardware dann maßlos davonzieht – auch wenn die relativen Performancegewinne dies auf den ersten Blick vermuten lassen würden. Vielmehr ist es jedoch so, daß die AMD-Hardware durch diesen großen Performancesprung unter DirectX 12 überhaupt erst einmal in der Lage ist, deren wirklich monströs zurückhängende Performance unter DirectX 11 zu egalisieren.

[...]Der ganze Test unter Ashes of the Singularity kommt letztlich der AMD-Hardware und ihrer besonders hohen Shader-Power überaus deutlich entgegen, dies muß auch herausgestellt werden. Es darf daher (zum derzeitigen Stand) noch leicht bezweifelt werden, daß dies der Normalzustand unter DirectX 12 sein wird.
 
Zuletzt bearbeitet:
Zum Thema Mantle: Hui das sind ja doch mittlerweile mehr als gedacht. Ich meine mir ist das relativ egal, ich sehe es eigentlich nur kritisch, dass etwas mit Mantle programmiert werden muss, damit die AMD Karten ihr volles Potenzial ausschöpfen. Hat immer nen etwas komischen Beigeschmack. Der GPU Markt ist gerade eh generell im Eimer finde ich. Entweder man wirft ne Münze oder sehr viele Euros aus dem Fenster :P
Im Link vom PCGH wird erwähnt warum man Mantle nutzt:
Ashes of the Singularity nutzt in diesem Video die Mantle-API, wird aber auch DirectX 11/DirectX 12 (und durch Mantle auch Vulcan) unterstützen.
Ohne Mantle sind die Entwickler bei Zero, müssen also DX12 neu schreiben.
Mit Mantle können sie OS unabhängig portieren in welche Richtung auch immer und müssen den DX11 Code Pfad nicht ändern. ;)

Noch mal was wegen Multi-Adapter: The DirectX 12 Multiadapter Concept Isn't Really New... | PC Perspective
Depending on what you want to do with secondary GPUs, game developers could have used them for years. Years!

Das wird schon! :)
 
Ja Multi GPU - fast schon der Heilige Gral beim Thema PC. Aber da bin ich zu wenig Fachmann um zu wissen wie aufwändig oder eben nicht das ganze ist wenn es ans implementieren geht.
 
Oh und Oculus Rift ist ein gutes Beispiel ... diese VR scheiße die niemand braucht und kaum einer haben will ... die 3x aufgekauft und verändert wurde? Ja, daran lässt sich sehr gut festmachen, wie gut ein Hersteller ist oder nicht.

Das muss ich nicht kommentieren. Ich lasse deine geistigen Ergüsse einfach nochmals für sich selbst sprechen!
 
Ja Multi GPU - fast schon der Heilige Gral beim Thema PC. Aber da bin ich zu wenig Fachmann um zu wissen wie aufwändig oder eben nicht das ganze ist wenn es ans implementieren geht.
Syncron Multi-GPU gibt es ja schon länger, asyncron Multi-GPU ist neu.
Hier kann auch die iGPU der CPU mitgenutzt werden, Intel macht das auch schon länger und nutzt heimlich die iGPU mit, daher stehen sie auch bei vielen 3D Benchmarks an der Spitze.
Viel wichtiger ist es die Frame times glatt/gleichmäßig zu halten! :cool:
 
Das muss ich nicht kommentieren. Ich lasse deine geistigen Ergüsse einfach nochmals für sich selbst sprechen!

Ach klar - harte Fakten werden dann einfach wegignoriert :) so hat man es immer schön einfach. Oculus Rift sollte schon vor mehr als ienem Jahr auf dem Markt sein und VR revolutionieren - sehe ich jetzt nichts von aber gut. Belassen wir es dabei.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh