MSI Radeon R9 390 8GB oder MSI GTX GeForce 970?

Status
Für weitere Antworten geschlossen.
Es gibt zwei Tests, soweit mir bekannt. Einmal AotS, bei dem einiges geändert wurde, danke DX12 überhaupt auf NVIDIA lauft. Z.B. AS deaktiviert.
Und dann noch der AsyncShader test, der wusch nur prüft ob es läuft. Dabei wird die GPU mit einem gemischten workload belastet. Und diesen Test meine ich.


Ob das ganze Zukunftsmusik ist oder nicht ist doch egal. Die Mängel sind bekannt und sollten erwähnt werden, da sie zu Problemen führen können, in absehbarer Zeit. Sonst hat es keine Beratung, sondern Verarsche. Es ist das gleiche mit den Stromverbrauch bei den AMD Karten. Der wird ja auch nicht ohne Grund jedes mal erwähnt... Am Ende muss es der TE entscheiden und dann sollte man wohl auch auf evtl. auftretende Probleme hinweisen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Für mich sind das keine Argumente wenn widerlegt ist das die nVidia Karte schneller rechnet als das AMD Flagschiff aber das mag jeder anders sehen :)

Ja, am Ende entscheidet der TE und das ist auch gut so. Nachher wird man noch verklagt weil man nVidia empfohlen hat ...
 
Kannst du den Test mal verlinken, der das widerlegt, danke.
 
Es gibt zwei Tests, soweit mir bekannt. Einmal AotS, bei dem einiges geändert wurde, danke DX12 überhaupt auf NVIDIA lauft. Z.B. AS deaktiviert.
Und dann noch der AsyncShader test, der wusch nur prüft ob es läuft. Dabei wird die GPU mit einem gemischten workload belastet. Und diesen Test meine ich.


Ob das ganze Zukunftsmusik ist oder nicht ist doch egal. Die Mängel sind bekannt und sollten erwähnt werden, da sie zu Problemen führen können, in absehbarer Zeit. Sonst hat es keine Beratung, sondern Verarsche. Es ist das gleiche mit den Stromverbrauch bei den AMD Karten. Der wird ja auch nicht ohne Grund jedes mal erwähnt... Am Ende muss es der TE entscheiden und dann sollte man wohl auch auf evtl. auftretende Probleme hinweisen.

Weil ich das hier nun auch schon zum x-ten mal lese:

https://www.reddit.com/r/nvidia/comments/3j5e9b/analysis_async_compute_is_it_true_nvidia_cant_do/

Der Test widerlegt ganz eindeutig und ohne irgendeinen Interpretationsspielraum die Annahme, dass Nvidia dieses Feature nicht unterstützen würde. Da hat sich nämlich endlich mal jemand die Mühe gemacht, sich dem Problem praktisch zu nähern abseits von dem ganzen Theoriegelabere.
 
Dankesehr - habe hier leider keinen Zugriff auf reddit :) vielleicht merken die roten dann endlich mal das sie außer den 3,5GB kein einziges Argument haben :d
 
Haha, der war gut. Der Test ist genau so fürn Popo, wie der Benchmark des Spiels. Da wird gar nichts widerlegt.
Eine Stellungsnahme von nV gibts bis heute nicht....hmm, warum wohl ;)

Ich nix Rot, hab ich GTX980
 
Du kannst das sicherlich auch begründen warum die fürn Popo sind?

Ich sehe da nichts weiter als nVidia gebashe auf Grund von Annahmen und Zukunftsmusik :)
 
Das ganze DX12 gelaber geht mir auch auf den Sack, erst die Zeit wird zeigen wie sich die Karten beider Hersteller schlagen.
 
Haha, der war gut. Der Test ist genau so fürn Popo, wie der Benchmark des Spiels. Da wird gar nichts widerlegt.
Eine Stellungsnahme von nV gibts bis heute nicht....hmm, warum wohl ;)

Ich nix Rot, hab ich GTX980

Diese Aussage ist dann auch was für den Ablagestapel mit der Bezeichnung "Hauptsache was gesagt..."
Mal im Ernst, was sagt denn bisher der Test von Ashes of Singularity aus? Dass die Nvidia und AMD Karten unter DX 12 genauso schnell arbeiten wie es sonst auch immer gewohnt war und zwar im gleichen Verhältnis zueinander. Lediglich in DX 11 schneiden die AMD-Karten aus welchem Grund auch immer deutlich schlechter ab. Was sagt er noch aus? Der Benchmark soll angeblich nicht auf die Asynchronic Shader zurückgegriffen haben. Es wird lediglich von dem Entwicklerstudio behauptet worden sein, dass Nvidia dieses Feature nicht anstänig bzw. gar nicht unterstützen soll. Gibt es bisher einen handfesten Beweis, der dieses belegt? Ich habe bisher keinen gesehen. Und hat sich schon mal jemand hinterfragt, wer diese Behauptung aufgestellt hat? Robert Hallock, AMDs Chef fürs weltweite technische Marketing.

Quelle: http://www.heise.de/newsticker/meld...karten-ein-vollkommenes-Desaster-2801497.html

Das man natürlich versucht die Konkurenz mit allen möglichen Mitteln ins schlechte Licht zu rücken ist mir nichts neues. Das wurde schon seit eh und je so handgehabt.
Ich warte nach wie vor auf einen Benchmark, der diese Problematik darstellt. Denn der Ashes of Singularity sagt über dieses Problem bisher rein gar nichts aus, denn bei diesem Benchmark wurden die AS angeblich nicht angesprochen.
 
Zuletzt bearbeitet:
Genau das meine ich auch... Es gibt derzeit noch keine genauen Informationen dazu.

- - - Updated - - -

Genau das meine ich auch... Es gibt derzeit noch keine genauen Informationen dazu.

Jetzt haben alle wieder was gesagt, jetzt kann es hier doch wieder sachlicher zu gehen, oder?
 
klare Sache, die 390!
die ist neuer als die 970! Verbraucht mehr! hat doppelt so viel (vollstens angebundenen!) Speicher, für den die Rechenleistung gar nicht reicht!
und wird unschlagbar mit DX12, Mantle und Vulcan performen; worauf man (Achtung, jetzt kommt DER Hammer!: hoffen und warten darf! Waaahnsinn!). zudem hat die 390 die dezent schlechtere DX11 Leistung! UND!: is schon an der Kotzgrenze des Taktes.
sowie sie beim Heitzen im Winter hilft.

die 970 hingegen würd ich nicht nehmen. die hat nur 3,%GB VRAM, massig OC-Potential, verbraucht weniger, wird nicht mal so heiß und wird mit DX12, Mantle und Vulcan rein gar nichts reißen, außer die Stimmung runter.
außerdem muss man bei NV den Treiber nicht studieren, um was einstellen zu können. das is ja langweilig so. Null Herausforderung ...
 
Du kannst das sicherlich auch begründen warum die fürn Popo sind?

Ich sehe da nichts weiter als nVidia gebashe auf Grund von Annahmen und Zukunftsmusik :)

Begründung?
Du hast den Link doch gelesen, oder?
Ein User schreibt ein Programm, das Berechnungen ausführt unter DX12......das ist jetzt ein Beweis ???


@Klemens
Also gehst du von einer Hetzkampagne aus.
Warum meldet sich nV nicht direkt dazu. Ach warte mal, sie haben doch geschrieben, dass sie AS nachträglich per Treiber aktivieren wollen. Komisch, denn du sagst, in dem Test wurden die AS gar nicht angesprochen.
 
@Klemens
Also gehst du von einer Hetzkampagne aus.
Warum meldet sich nV nicht direkt dazu. Ach warte mal, sie haben doch geschrieben, dass sie AS nachträglich per Treiber aktivieren wollen. Komisch, denn du sagst, in dem Test wurden die AS gar nicht angesprochen.

Natürlich wurde das Thema AS angesprochen, aber sie wurden im Benchmark leider nicht per Software abgesprochen und blieben daher untätig. Dementsprechend macht der Benchmark halt auch leider keine Aussage über die Problematik mit den angeblich fehlenden AS. Hetzkampagne hin oder her, solange es keine handfesten Fakten gibt, ist es ziemlich sinnlos darüber zu spekulieren und es als Kaufargument zu verwenden.
 
Zuletzt bearbeitet:
...
Also gehst du von einer Hetzkampagne aus.
Warum meldet sich nV nicht direkt dazu. Ach warte mal, sie haben doch geschrieben, dass sie AS nachträglich per Treiber aktivieren wollen. Komisch, denn du sagst, in dem Test wurden die AS gar nicht angesprochen.

redeste von nem echt kaufbaren Spiel oder nur von vagen benchmarks für ne API, die noch gar nich von Spielen unterstützt wird?
 
@klemens
Das mit den Fakten wird schon kommen. Nur hab ich das Gefühl, es scheint nV nicht wirklich zu interessieren was gerade abgeht.

@slot108
ich rede von dem Link, der hier gepostet wurde und den Test von dem Spiel und beides erachte ich "fürn Popo"

Nicht alles was Backen hat, ist ein Gesicht ;)
 
Zuletzt bearbeitet:
@Bergbube
Es ist nur eine 290er, ohne X
Die 390x schneidet dort aber super ab. So langsam rechnet sich der hohe Verbrauch der Roten :fresse:
 
Oha da hab ich aber eine krasse diskussion ausgelöst. Schande über mein Haupt .. hoffentlich weis der TE noch was er zutun hat :d

Zur DX12 Thematik hier mal ein Link von PCGH und Fable Legends mit DX 12. Die Radeon 290x ist 13% schneller als die 970
DirectX 12 im Spiele-Benchmark: Fable Legends mit aktuellen Grafikkarten geprüft

Warten bis das Spiel und DX12 fertig ist, die Treiber auf beiden Seiten dafür da sind und die richtigen Benchmarks drausen. Dann nochmal son quatsch von sich geben.. Aber ich denke AMD wird da wie Nvidia auch einiges drehen im Hintergrund. AMD ist in letzter Zeit auch nichtmehr glaubwürdig und treibt viel schlechtes im Hintergrund. Denn am Ende kochen alle beide mit Wasser. Sowas begreift der normale AMD Nerd aber nicht.

So langsam rechnet sich der hohe Verbrauch der Roten :fresse:

Der wird sich niemals rechnen. Wer so denkt im aktuellen Jahr 2015 hat vieles nicht verstanden.

Ich denke es wird zeit das Reaver mal durchwischt oder gar das Thema dicht macht. Hier gibts kaum Kaufberatung mehr. Eure Fights könnt ihr euch auch gerne sparen.
 
Zuletzt bearbeitet:
Ist eigentlich ganz einfach. Die reine Rohleistung ist bei der AMD höher - zudem ist sie, wenn man Grafikmods nutzt, mit 8GiB immer auf der sicheren Seite. Such ein schönes Custom-Modell mit Spiele-Dreingabe oder sogar Cash-Back. Vielleicht bringt AMD ja nochmal einen Treiber, der die Fußfesseln löst. Hat schonmal geklappt.

MfG
 
AMDs Rohleistung reicht selbst mit doppelt so viel VRAM und doppelter Bandbreite nicht. die brauchen das, um aufzuschließen.
sicher wird die Rechenleistung einer 980 nicht für vollgestopfte 8GB reichen. niemand zockt mit 15fps.
aber bei der 390 is das was gAAAnz anderes. da reicht die Power.

zum Thema Stromaufnahmen:
is wirklich egal ob da 50W mehr oder weniger. das multipliziert sich auch nicht weltweit und zudem haben wir Rohstoffe ohne Ende. die können wir rücksichtslos verbraten. "Effizienz" is auch so´n Witz wie minimum fps, braucht niemand.

Ihr würdet Euch auch ne 4870 mit 16GB holen ...

- - - Updated - - -

...
@slot108
ich rede von dem Link, der hier gepostet wurde und den Test von dem Spiel und beides erachte ich "fürn Popo"

Nicht alles was Backen hat, ist ein Gesicht ;)

der war gut! :d
 
Weil ich das hier nun auch schon zum x-ten mal lese:

https://www.reddit.com/r/nvidia/comments/3j5e9b/analysis_async_compute_is_it_true_nvidia_cant_do/

Der Test widerlegt ganz eindeutig und ohne irgendeinen Interpretationsspielraum die Annahme, dass Nvidia dieses Feature nicht unterstützen würde. Da hat sich nämlich endlich mal jemand die Mühe gemacht, sich dem Problem praktisch zu nähern abseits von dem ganzen Theoriegelabere.

Du hast das genauso wie der Kerl auf reddit nicht begriffen!
Nvidia kann kein Async shader und der Beweis ist sogar in dem Redit post verlinkt!
Oder hast du nur die Überschrift gelesen?

Was macht Async Shader?
Es erlaubt das parallele abarbeiten eines Grafik-tasks und mehrerer Compute-tasks (bei GCN bis zu 64)

Was ist dadurch zu erwarten?
Da die GPU nie dauerhaft zu 100% ausgelastet ist, bleibt immer ein paar Shader übrig, die mit Computeaufgaben gefüttert werden können. Ist genug Luft vorhanden, können die Compute-Tasks abgearbeitet werden, bevor der Grafik-task zu ende ist. Die Zeiten für die beiden Aufgaben addieren sich also nicht und man bekommt mehr FPS.

Und genau dieses Verhalten zeigt der Test auf:
Während es bei Nvidia eben Grafik-Zeit + Compute-Zeit ist, bleibt bei AMD nur noch die Grafik-Zeit oder Compute-Zeit (je nach dem was länger dauert) übrig.

Soll der Test zeigen, dass ein GTX960 schneller als ein FuryX ist?
Nein! Der Code ist kein bisschen optimiert und dient lediglich dazu zu zeigen, dass die Tasks parallel abgearbeitet werden können oder eben nicht.

Kann Nvidia also Async Shader?
Nein, und das haben sie auch so zugegeben (vor 3 Wochen). Aktuell arbeiten sie wohl daran es im Treiber irgendwie hin zu biegen, das ganze ist aber im Gegensatz zu AMDs Hardwarelösung ein Softwarelösung ist. Vorteile bietet die nicht, eher Nachteile, da von außen (CPU) die Tasks verteilt werden müssen und das ist mit Latenzen verbunden.
 
und?
sollen deswegen jetz alle NV user schreiend im Kreis rennen?
Wem gehört zum Löwenteil die Leistungskrone?
wessen Karten sind mit weniger Rohleistung, kleinerem SI und weniger VRAM genauso schnell wie AMDs SI-Monster?
wer hat AMD gezeigt, dass man nur mit Treiber ähnliche Leistungssteigerungen erhält, wie AMD mit ihrer LowLevel-API?
wer lässt seine Kunden immerzu warten und hoffen? (Mantle, DX12 ... hust ...)?
wessen Kunden berufen sich immer, darauf, dass BALD alles toller und schneller wird?
selbst wenn AMD async-shader viel toller und Mantle überhaupt mitm Monster-4096er SI kann und NV nicht, AMD konnte schon immer mehr für in etwa die selbe Leistung.
und das is toll?
 
Ich werde mit dir sicher keinen Krieg anfangen, dafür ist mir meine Zeit einfach zu schade... Vor allem nicht mit so niveauloser scheiße :wink:

Ich wollte lediglich so frei sein und erklären was Async-Shader ist und zeigen, dass der Beweis, dass Nvida Async-Shader unsterstützt, den Klemens aufgeführt hat eben genau das Gegenteil ist und der Schreiber des Reddit-posts keine Ahnung hat.
 
Bisher liest es sich in jedem Thrad, das eine Nvidia Karte keine Asynchronous Shader unterstützt und damit in DX12 deutlich hinter AMD Karten fallen würden. Klar sind diese Shader optional, aber das ineressiert hier ja keinen. Daher meine Annahme, das dann ja keine Karte von Nvidia mithalten kann in DX 12.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh