MSI Radeon R9 390 8GB oder MSI GTX GeForce 970?

Status
Für weitere Antworten geschlossen.
Na ja, du hast eine 290@OC mit einer 970Stock verglichen... Aber ich sehe schon, das sind mehr als 40 Watt.
Im Luxxtest sind es ein bisschen mehr als 60 Watt, aber da wird ja auch Referenz mit OC verglichen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Würde auch eher dir anraten zu einer besseren Intel CPU zu wechseln.
 
Na ja, du hast eine 290@OC mit einer 970Stock verglichen...

bei der 970exoc aber nicht ignorieren das die ab werk schon 20% höher taktet als nvidia das für die 970 vorgibt^^
die 290 pcs+ ist selbst mit meinem zusätzlichen OC nur 10% höher getaktet als die amd referenz.
 
Zuletzt bearbeitet:
Da habe ich aber andere Werte gesehen...
Zum Beispiel hier

Letztes mal zur 970/390 wegen Verbrauch. Ich möchte allen zweiflern doch mal ans Herz legen mal die letzte PCGH Print zu kaufen. So ausführlich und genau untersucht hat das schon lange keiner mehr.

Da waren es im Schnitt über 20 Spiele rund 100W, wenn die Karten voll beansprucht wurden. MSI GTX970 und Sapphire r9 390.
 
Ok, danke für die Info! Warum HWLUXX so einen "geringen" Unterschied rausbekommt, weiß ich allerdings nicht...
 
Da waren es im Schnitt über 20 Spiele rund 100W, wenn die Karten voll beansprucht wurden. MSI GTX970 und Sapphire r9 390.

Ich habe das Flugblättchen gekauft , das ein AMD mehr aus der Steckdose zieht war nun nicht neu. Erstaunlich ist sind die ermittelten werte, das erscheint teilweise zu extrem im Vergleich zu anderen Test.
 
Nicht wirklich, wenn man vergleicht was da getestet wurde. Das Flugblättchen sortiere ich klar höher ein, als viele Internetweisheiten... ;)
 
in kombination mit dem verhältnismäßig langsamen fx6300 wird die gtx 970 in summe vermutlich bessere fps produzieren als die r9 390.

Hmm, ist dem so? Wenn ja, wieso? Nur aus Interesse...

@TE: würde auch ganz klar die 390 empfehlen!
 
Zuletzt bearbeitet:
Was hast du auszusetzen? Er meint, unterm Strich kommt bei beiden Karten, etwa die gleiche Leistung raus. Nur das die R9 390 mehr Speicher hat.

Ich hab das vor kurzem erst getestet. Hab eine GTX 970 gehabt und wollte auch auf eine r9 390 gehen. Allerdings auf das Topmodel Sapphire R9 390 Nitro. Was soll ich groß sagen.. Die Leistung war mehr als schlecht von der R9 390 (in meinen spielen die ich so spiele) und ich war auch mit der Lautstärke sowie der Temperatur nicht zufrieden. Das hier die MSI besser sein soll glaube ich nicht, da wir von triple Slot kühlung gegen dual Slot kühlung reden. Also müsste die MSI sogar noch wärmer werden als die Sapphire. Ich war froh als ich die r9 390 wieder zurückgegeben habe und bin dann lieber auf die gtx 980ti mit stepup. In meinen Augen ist eine R9 390 in keinster weise einer GTX 970 vorzuziehen. Das sieht man auch ganz klar hier im Beitrag. Schau dir doch mal solche aussagen hier an

du meinst vollperformante 8gb vs 3,5 gb, das kommt ja noch dazu das man da einen 970er-marketingpfusch unterstützen würde ;)

da kann man weder diskutieren noch versuchen was grad zu biegen. Sowas endet "wie immer" nur im Streit. Und wenn jetzt auch noch Schaffe ankommt ist sowieso ganz aus.

@TE: ich würde dir empfehlen überleg dir was du willst und worauf du wert legst.. mehr vram? schlag zu bei der r9 390 .. mehr Leistung und weniger Lautstärke sowie Wärmeentwicklung ? Dann ist die GTX 970 deine Karte. Über das 3,5GB Gerede kannst du getrost wegsehen da sowas nur von AMD Nerds als Negativbeispiel ausgeschlachtet wird. Hat aber nichts geändert am Abverkauf der GTX 970.

Es wundert mich das noch kein AMD Jüngling angekommen ist und von DX12 geredet hat und dem Gerücht bzgl dx12 und Nvidia. Mich würde es wirklich nerven wenn ich Wochen und Monate in einem Forum aktiv sein würde und ständig versuchen würde den leuten eine AMD Karte zu empfehlen und sie dann bei einer Nvidia landen. Ein 80% zu 20% Marktanteil kommt auch nicht einfach so und das es AMD nicht grad gut geht ist auch nicht unverschuldet. Ich selbst habe AMD 5 versuche gegeben und war nie zufrieden. Vielleicht bringt die Zukunft ja was neues bei AMD und ich wechsel wirklich mal. Und ja, ich weis .. es liegt natürlich an mir das ich nicht zufrieden war und nicht an AMD :)
 
Zuletzt bearbeitet:
Über das 3,5 Teil kannst du getrost wegsehen da sowas nur von AMD Nerds als Negativbeispiel ausgeschlachtet wird. Hat aber nichts geändert am Abverkauf der GTX 970

Sorry, aber wenn du als NV Käufer über ein Defizit einfach hinwegsiehst und dafür AMD Nerds anführst, führst du deine Aussage selbst ad absurdum.

Und nur weil die Mehrheit eine 970 gekauft hat (da es zu der Zeit auch kaum direkte Konkurrenten gab) macht es das auch nicht besser.
 
Inreressant ist nur, die die Frametimes bei R9 290 trotz des "voll" angebundenen Speichers in einigen Spielen höhere Ausschläge aufwiesen, wie die des 970er "Krüppels". Also kommt es nicht nur auf die Anbindung an.
 
Nein, es kommt eben auf viele Faktoren drauf an, im schlimmsten Fall, sind nur Spiele auf der Platte, die für NV optimiert wurden, dann schaust du voll in die Röhre. Wenn die Spiele aber optimal programmiert wurden, können auch die AMDs ihre Stärke ausspielen.
 
Es gibt Millionen von Tests die bestätigen das die GTX 970 durchaus über 3,5GB kommt, da 4GB vorhanden sind und man KEINE einbusen erlebt in den Spielen. Lediglich auf 4k gibt es Probleme, die es aber lustigerweise auch auch mit 4GB gibt. Das Thema muss man ja nicht immerwieder neu aufrollen. Es ist alles bestätigt und bewiesen und die meisten haben es "Gott sei dank" schon wieder vergessen.

In meinen Augen hat sowas in einer Kaufberatung rein Garnichts zu suchen. Und wenn du mal ehrlich zu dir selbst bist (was du selten bist, deswegen sind wir zwei auch gute freunde) dann wirst du sehen das fast alle die es immerwieder erwähnen eine AMD Karte in der Signatur haben. Sicher nur reiner Zufall. Aber das Thema ist für mich sowieso erledigt :) Der TE wird schon wissen was er kauft.
 
In der Signatur hat das system sowieso nix verloren, das war vllt noch lustig, als die ep**is Zeit im kommen war und du 16 warst.

Aber stimmt ja, du bist ehrlich und hast recht, die Anderen sind unehrlich und haben unrecht. Sehr erwachsen.

Der TE wird schon wissen, was er tut.

Ich persönlich empfehle im übrigen keine Karte, die mit falschen Specs beworben wurde, ganz einfach. Es handelt sich um eine gute Karte, das steht außer Frage.
 
@Tarmal29: Schön das du über fakten redest und dann alles das negativ über Nvidia gesagt wird, mit "fanboy" abstempelst.

Fakt ist stand heute: Die Nvidia karten können kein Async Compute, wie das in der Zukunft genutzt wird und welche Vorteile es am Desktop bietet ist zwar schwer abzuschätzen, aber bei 40% mehrleistung auf den Konsolen, sind 20% auf dem PC nicht unrealistisch, die der 970 dann fehlen.
Die 3,5GB Problematik versucht du mal wieder ins lächerliche zu ziehen, fakt ist aber, dass man dadurch auf die Treiberoptimierungen von Nvidia angewiesen ist und es in einem Jahr vielleicht aber auch garnicht zu starken Rucklern kommen kann.

Und wenn du dann noch schreiben würdest, welche Spiele das genau waren, die du gespielt hast, wäre uns allen wohl besser geholfen, als alle die nicht deiner Meinung sind als fanboy zu bezeichnen. Ist dir eigentlich schonmal aufgefallen, dass die Fanboykeule nur fanboys schwingen? ;)
 
Ich hab das vor kurzem erst getestet. Hab eine GTX 970 gehabt und wollte auch auf eine r9 390 gehen. Allerdings auf das Topmodel Sapphire R9 390 Nitro. Was soll ich groß sagen.. Die Leistung war mehr als schlecht von der R9 390 (in meinen spielen die ich so spiele) und ich war auch mit der Lautstärke sowie der Temperatur nicht zufrieden. Das hier die MSI besser sein soll glaube ich nicht, da wir von triple Slot kühlung gegen dual Slot kühlung reden. Also müsste die MSI sogar noch wärmer werden als die Sapphire. Ich war froh als ich die r9 390 wieder zurückgegeben habe und bin dann lieber auf die gtx 980ti mit stepup. In meinen Augen ist eine R9 390 in keinster weise einer GTX 970 vorzuziehen. Das sieht man auch ganz klar hier im Beitrag.

Also es tut mir sehr leid dir mitteilen zu müssen, dass du offensichtlich niemals eine R9 390 von Sapphire hattest, denn dann wäre dir wohl auch aufgefallen, dass die nur 2 Slots braucht (zumindest vom Platzbedarf her)... – aber du weißt ja wovon du sprichst, Nvidia ist einfach besser :)
 
Zuletzt bearbeitet:
ich würd' da weder das eine noch das andere kaufen, sondern warten...

Dem stimme ich zu.

Mein Schwager hat ein ähnliches System wie du, hat nun lang gespart, und ist nun langsam sehr nervös und willig mehr als 3000 Euro rauszuballern.

Ich für meinen Teil habe soweit nen guten Rechner, möchte aber sau gerne auf einen 34" 21:9 Monitor mit einer neuen potenten Grafikkarte umsteigen.

Aber bei allem was man momentan liest, die Entwicklung Richtung 14 µm Technologie, DirectX 12, und auch neue CPUs sowie GPUs die im nächsten Jahr/die nächsten Monate kommen werden,
Freesync, G-Sync .... all das spricht für uns persönlich einfach nur ein Wort:

WARTEN.

Es bringt nichts nun in *irgendeine* neue Hardware zu investieren, egal welche CPU Plattform, egal welche GPU Marke.
Meiner Meinung nach wird sich die nächsten 4-8 Monate zuviel ändern, als dass man jetzt sagen kann was vernünftig wäre. Man kann nur sagen es ist vernünftig im moment NICHTS zu kaufen.

Was würde ich mich ärgern wenn ich nun ne 980ti und nen neuen Monitor kauf, nur um festzustellen dass im März 2016 eine halb so teuere AMD Karte 30% mehr Leistung bringt. (Achtung, das ist nur eine Idee, ich habe keine Ahnung wie sich alles entwickeln wird)

Am besten wäre bis Mitte 2016 warten, wenn nun alles einigermassen gut und spielbar läuft. Was es z.b. bei mir und meinem Schwager, für die Games die wir grade so spielen auf jeden fall auch macht.
 
Gedacht habe ich es auch. ;)
Das die Leistung der 390 schlechter sein soll, als die der 970 wage ich erst mal zu bezweifeln.
Hat schon einen Grund warum alle Test im Schnitt immer auf einen Gleichstand kommen...
Meine R9 390 ist weder langsamer, noch erwähnenswert lauter als meine GTX970. In Far Cry 3/4, Crysis 3/ BF4 / Metro / Tomb Raider / Ryse / und was ich jetzt noch vergessen habe.
 
Gedacht habe ich es auch. ;)
Das die Leistung der 390 schlechter sein soll, als die der 970 wage ich erst mal zu bezweifeln.
Hat schon einen Grund warum alle Test im Schnitt immer auf einen Gleichstand kommen...
Meine R9 390 ist weder langsamer, noch erwähnenswert lauter als meine GTX970. In Far Cry 3/4, Crysis 3/ BF4 / Metro / Tomb Raider / Ryse / und was ich jetzt noch vergessen habe.

du hast da auch eine reichlich fette intel i7 cpu hinter,
und keinen halb so schnellen 100€ fx6300.
 
@Tarmal29: Schön das du über fakten redest und dann alles das negativ über Nvidia gesagt wird, mit "fanboy" abstempelst.

Fakt ist stand heute: Die Nvidia karten können kein Async Compute, wie das in der Zukunft genutzt wird und welche Vorteile es am Desktop bietet ist zwar schwer abzuschätzen, aber bei 40% mehrleistung auf den Konsolen, sind 20% auf dem PC nicht unrealistisch, die der 970 dann fehlen.

Fakt ist stand jetzt: Du hast keine Ahnung! nVidia Karten können aSync Shader (aber) nur bis 32 Threads voll unterstützt. Es gibt auch schon erste Tests der Fury X gegen eine 980ti. Es wird dich sicherlich verwundern, dass die Karte OHNE offizielle Unterstützung in ALLEN Bereichen bis hoch zu 128 Threads schneller rechnet als die Fury X - also hört bitte auf aSync Shader unter DX12 als Argument für AMD Karten zu nutzen. Es ist schlichtweg falsch.

Wie es bei nVidia gemacht wird - ob auf der Karte oder der CPU ist ziemlich egal so lange sie danach immer noch schneller ist als das AMD Gegenstück mit voller Unterstützung der GPU. Das sagt mir nur, dass da mal wieder tendentiell Schrott zusammengelötet wurde.
 
der fx6300 mag allerdings auch ab und zu eine GTX970 limitieren ;). Ich habe jetzt mal ein Strommeßgerät (PM231E) an den PC gehängt; zusammengefasst (alle Angaben für Gesamtsystem mit Xeon E3-1246 und Sapphire R9 390 – 44W@idle) für den Furmark:
@stock (+13mV): Karte hängt im Powerlimit (taktet nur bis 970MHz) → 360W an der Dose
@-37 mV: Karte hängt nicht mehr im Powerlimit, taktet jetzt bis 1010MHz → immer noch 360W an der Dose
@-37 mV, Powerlimit auf -20%: Karte geht nur noch bis 930 MHz → 300W an der Dose
@-37 mV, Powerlimit auf -40%: iwas mit 700MHz → 240W an der Dose

Betrachtet man die Werte, so sieht man, dass gerade @stock die PCGH-Werte recht realistisch sind: 320W mehr unter Last als im Idle, davon kommen 90% an (Seasonic G550), macht etwa 300W unter Vollast; auch die Tatsache, dass mit 20% Powerlimit (und die Elektronik in der Graka ist sicher recht genau, was das angeht) etwa 60W eingespart werden, deutet auf einen Maximalverbrauch um die 300W hin.
Interessant ist eher, dass man bei einem Taktverlust von ~5% gegenüber Stock-Settings den Stromverbrauch um 20% senken kann, womit man wieder mal sieht, dass die Karte leider nicht am Sweet-Spot (fps/Watt) ausgeliefert wird. Nachdem sich diese 300W Größenordnung doch recht einfach verifizieren lässt (und doch auch primärseitig messbar über den 240W von HWLuxx liegt), kann man sich die stark schwankenden Testergebnisse eigentlich nur dadurch erklären, dass unterschiedliche Redaktionen unterschiedliche BIOS-Versionen auf ihren Samples haben, die sie wohl nicht aus dem normalen Handel beziehen → mit Powerlimit -20% und ein bisschen Undervolting spart man offensichtlich leicht die im HWLuxx-Test ggü. PCGH "fehlenden" 20% Verbrauch ein...
 
Zuletzt bearbeitet:
der fx6300 mag allerdings auch ab und zu eine GTX970 limitieren ;).

ja sicher, aufgrund des geringeren overheads des dx11 treibers aber deutlich weniger oft als mit einer r9 390.
 
Hört doch alle mal auf, mit Schrott hier und da. Das ist sowas von peinlich.
Die R9 390 performt nicht so schlecht, mit dem FX6300. Aber es gibt klar auch Beispiele, bei den der Treiberoverhead unter DX11 negativ auffällt. Das ist aber auch eher selten.

GTX970 und R9 390 sind beides gute Karten die einen normalen Spieler lange erfreuen können.
Ich empfehle eher dir 390, weil mir, für mich der Speicher mehr unsicherheit bedeutet, als das ich mich an den 100W mehr verbrauch störe.
 
@storm: ja, grundsätzlich wollte ich damit nur sachte zum Ausdruck bringen, dass mit einem FX6300 und einer R9 280X @FullHD (?) nicht eine GTX970/R9 390 mein erster Aufrüstgedanke wäre, sondern eher die CPU – mit ordentlichem i7 geht dann ja auch die jetzige GPU nochmal ein bisschen besser :)
 
Ich hab meinen auf 4.2 übertaktet und kann mich nicht beschweren. Grafikkarte hält seine 1405Mhz fast immer stabil.
 
Fakt ist stand jetzt: Du hast keine Ahnung! nVidia Karten können aSync Shader (aber) nur bis 32 Threads voll unterstützt. Es gibt auch schon erste Tests der Fury X gegen eine 980ti. Es wird dich sicherlich verwundern, dass die Karte OHNE offizielle Unterstützung in ALLEN Bereichen bis hoch zu 128 Threads schneller rechnet als die Fury X - also hört bitte auf aSync Shader unter DX12 als Argument für AMD Karten zu nutzen. Es ist schlichtweg falsch.

Versteh erstmal was der benchmark aussagt... Selbst bei einem Compute-task und einem rendertask addieren sich die Zeiten, also können sie es nicht.
Und ein schneller ist langsamer ist total egal bei dem Benchmark, es geht um die Gesamtzeit, die sich nicht addieren darf, wenn AS unterstützt wird.
 
Glaube wir reden hier von unterschiedlichen Tests ... in dem den ich gelesen habe war sehr gut ersichtlich das die 980ti schneller rechnet als die Fury X und damit war das Argument für mich hinfällig.

Das ist eh Zukunftsmusik ohne Spiele die das aktuell unterstützen aber hauptsache stumpf drauf los bashen und unsichere Käufer weiter verunsichern in dem Vermutungen als Fakten dargestellt werden. Leider absoluter Trend hier mittlerweile.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh