Gaming PC upgrade-bundle best preis/leistung september 2015

Also asus du bist wohl aufs Trollen aus, oder kannst dir nicht vorstellen, dass es Leute gibt, die nicht einfach mal 1000€ für eine Grafikkarte ausgeben wollen, sondern einen Preisrahmen haben - und leider fallen Grafikkarten >400€ oft recht zuverlässig aus dem Preisrahmen raus und es bleiben noch die GTX970 (die du ja auch nicht magst...) und die R9 390 als Rebrand übrig – vorausgesetzt, man kauft neu (was u.U. eben auch stressfrei ist), wenn man nämlich gebraucht kauft, ist vielleicht die GTX980 im Preis ok, aber eben gebraucht und daher solltest du sie nicht mit einer R9 390 Neu vergleichen sondern vllt. mit einer R9 290@200€!
Es ist schön, wenn Spielen bei dir erst ab 400€-Grafikkarten geht, weil man sonst "Augenkrebs" kriegt, vielleicht liegt das Problem bei dir aber nicht nur an den Augen :heuldoch: ;) (btw: welchen Monitor hast du?).

Zu den von dir angeführten Punkten:
- Treiber: hatte unter Windows nie Probleme mit den Treibern, update die aber auch nicht regelmäßig – vielleicht ist der Nvidia-Treiber stabiler, wenn der Computer tagelang läuft → mir egal, der Gaming-PC dient zum Gaming; wenn man gerne virtuelles Windows verwendet (wie ich es vllt. plane) zickt auch dein toller Nvidia-Treiber
- Effizienz: gut, da hast du Recht, wie sich das irgendwo auswirkt, außer in der höheren Stromrechnung, weiß ich nicht – hässlich wird es eben beim Gaming, das macht man aber i.d.R. nicht 24/7 und da muss man halt dann individuell abwägen, was auf Dauer billiger kommt GPU 2015 Benchmarks - Compare Products on AnandTech, im Idle 2Watt Unterschied :banana:.
- Übertaktbarkeit: schön, wenn AMD dein Hobby nicht zufriedenstellend unterstützt; X ist auch schlimm, weil ich Y nicht damit machen kann...

Kurz: du bleibst schön im 500€+-Segment, alle anderen suchen sich was zwischen Nvidia (gute Effizient, schlechte Featuregestaltung) und AMD (schlecht Effizienz, alle Features, die möglich auch verfügbar (bis auf 10bit-Farben)) aus und alle sind happy :bigok:

EDIT: noch ein bisschen was zum Thema übertakten: beim Übertakten kann so ziemliche jede Grafikkarte zum Stromverbrauchs-Monster werden und gerade, wenn du extremes Übertakten betreibst und das dann auch im Normalbetrieb einsetzt, solltest du daran denken, dass du da eventuell etwas gar nicht mal so effizientes verwendest ;)
EDIT-EDIT: zum Beispiel ist deine GTX980 dann bei 20% Übertaktung, im Stromverbrauchsbereich einer R9 390 (vgl. hier und hier), ob die 30-40% Mehrleistung in diesem Fall dann die 50% Aufpreis wert sind, sollte jeder selbst entscheiden - umgekehrt kann man natürlich auch, wenn man bereit ist für mehr Speicher und mehr Features den dann effektiv fälligen Aufpreis zu zahlen, aber weniger Stromverbrauch will die AMD-Karte undervolten und untertakten :bigok:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
...alle anderen suchen sich was zwischen Nvidia (gute Effizient, schlechte Featuregestaltung) und AMD (schlecht Effizienz, alle Features, die möglich auch verfügbar (bis auf 10bit-Farben))

Wenn du Bugs als Feature bezeichnest, dann stimmt es das AMD alle unterstützt ;).
 
gut: dann zeig' mir mal einen Bug, der mich beim Gaming so stört, ich weiß ja schon ein Anti-Feature des Nvidia-Treibers, der Full-RGB nur über die Registry setzen konnte, was natürlich niemanden aufgefallen ist und schnell gefixt wurde... – so: erst mal 1:0 für AMD ;)
 
Wen interessiert als Gamer Full RGB? Kaum ein Monitor im normalen Preissegment beherrscht Full RGB.

Und außerdem betrifft das nur HDMI ;).

Viele nutzen DVI oder Displayport. Du suchst die Nadel im Heuhaufen. AMD failt wie weiter oben bereits schon gesagt bei essentiellen Dingen.

Wie z.B.:

- heiß

- wenig OC

- geringe Effizienz der GPUs

- hoher Stromverbrauch unter Last

- diverse in Game Features (u.a. Hairworks, Interactive Paper Debris, Interactive Smoke and Fog) werden nicht unterstützt

- Treiberprobleme bei einigen Spielen

- subjektiv: Die Farbbrillianz ist bei AMD nicht so gut wie bei Nvidia. Spiele wirken blass und haben tlw. eine unreale Farbwiedergabe
 
Zuletzt bearbeitet:
Also wenn man die Farben nicht kalibriert liegen beide Hersteller immer daneben, aber Who cares?
Wenn mir die farbwiedergabe nicht gefällt regulier ich nach.

Wenig oc? Naja ich hab nicht versucht ne 290 zu übertakten, des lohnt vorn wie hinten eh nicht, aber wenn man die Wärme weg bekommt geht ja nach einschlägigen Tests einiges.
Das deine nicht gingen, ist vielleicht genau so n Zufall wie bei jemandem, dessen 960gtx nicht mal 50mhz mehr chip schafft, für so ne aussage müsstest du zig Karten der gleichen Serie selbst testen, sonst ist das immer nur ne aussage zu der einen Karte. Gleichwohl ist ne 290/390 natürlich näher am Limit als ne Maxwell. Hier vergleichen wir aber auch zwei unterschiedliche Strukturbreiten!
 
- als Gamer ist FullRGB schon ganz interessant, da das in der Regel jeder Monitor in jedem Preissegment als Input erwartet ;). Spezifisch zu den Features des Nvidia-Treibers: https://pcmonitors.info/articles/correcting-hdmi-colour-on-nvidia-and-amd-gpus/ – bei AMD war das schon immer eine Option! Und "nur" HDMI, ok, du verwendest also wohl Displayport?; weil NVIDIA ja jahrelang nicht der Meinung war, für mehrere Displayportausgänge tausende Euros zu verlangen: auch hier gibt's seit Jahren schon ordentlich AMD-Karten.
- zu heiß ist etwas dann, wenn die Funktion eingeschränkt wird/es dabei kaputt geht/nicht im Rahmen der Spezifikationen betrieben werden kann: i.d.R. kein Problem
- das wenige OC kommt leider daher, dass AMD um in der Benchmark-Balkenwelt bestehen zu können, werksseitig die Chips gut ausreizt, was allerdings dann auch dazu führt, dass bspw. bei "guten" Bins eine Spannungserniedrigung mit Steigerung der Effizienz möglich sein sollte, genau wie eine Verringerung des Stromverbrauchs durch niedrigeren Takt (und was man so in Mining-Foren liest, können das schon mal 70W sein, womit man dann in 970-OC-Territorium vorstößt, aber immer noch 8GB Speicher hat) – eigentlich solltest gerade du als Overclocker das wissen...
- die Ingame-Features sind proprietäre Softwarebibliotheken, die Spieleentwickler einbinden können, aber u.U. zusätzliche Kosten verursachen – wie wir alle wissen, geht es AMD finanziell nicht so gut, daher hat halt Nvidia einen Vorteil, weil sie deutlich mehr Ressourcen haben, die Entwickler in ihre Richtung zu bringen, damit Trolle wie du schön die Konkurrenz kleinreden (übrigens, schau dir mal TressFX an)! An diesem Punkt sollte man vielleicht auch mal über die DX12-Emulation nachdenken, die Nvidia im Moment am Werk hat, AMD macht das deutlich besser.
- Treiberprobleme bei _einigen_ Spielen? verschwinden die mit neueren Treibern oder hat die Nvidia grundsätzlich nicht – die einzige persönliche Erfahrung, die ich hatte, ist die, dass einige meiner Bekannten Heroes of The Storm mit ihren GTX970ern nach einem Treiberupdate nicht mehr spielen konnten, weil sie nicht über 5fps hinauskamen → Software hat Bugs und das betrifft jeden Softwarehersteller, wer anderer Meinung ist, sollte vielleicht das Fanboy-Troll-Board aufsuchen

Auf den letzten Punkt möchte ich nicht eingehen, das ist ja wirklich Fanboy-Gelabere vom feinsten :shot:
 
Zuletzt bearbeitet:
Gründe die gegen die AMD Karten sprechen habe ich doch angeführt. Siehe oben. Denkst du ich fertige jetzt für alles was ich sage Beweise an?

Ja, denn sonst glaubt dir hier niemand. Liefer doch mal wenigstens Links, damit man sieht was genau du meinst.
 
Viele nutzen DVI oder Displayport. Du suchst die Nadel im Heuhaufen. AMD failt wie weiter oben bereits schon gesagt bei essentiellen Dingen.

Wie z.B.:

- heiß

- wenig OC

- geringe Effizienz der GPUs

- hoher Stromverbrauch unter Last

- diverse in Game Features (u.a. Hairworks, Interactive Paper Debris, Interactive Smoke and Fog) werden nicht unterstützt

- Treiberprobleme bei einigen Spielen

- subjektiv: Die Farbbrillianz ist bei AMD nicht so gut wie bei Nvidia. Spiele wirken blass und haben tlw. eine unreale Farbwiedergabe

Heiß? Die 390er werden nicht wirklich heisser als die 970er, die Abwärme ist nur höher - lässt sich aber abführen.

Und OC will auch nicht jeder User betreiben, zumindest nicht stark. Die Karte reicht auch ohne, von daher gilt das Argument nur für OC-Liebhaber.

Die Effizienz ist auch nicht viel geringer als bei NV, der Unterschied ist jedenfalls kein Argument gegen die Karte.

Der Stromverbrauch unter Last liegt ~ 40 Watt über dem der 970. Das macht vielleicht 5 Euro auf der Stromrechnung..

Hairworks wird unterstützt, weiß gar nicht warum du die ganze Zeit dieses komische Gerücht verbreitest. Die anderen Features werden vielldicht nicht unterstützt, das ist aber auch nicht die Welt.

Treiberprobleme bei einigen Spielen? Mir ist nur ein einziger bekannt, und zwwar startet Metal Gear Solid V mit dem 14.7 beta Treiber nicht, also auch kein Gegenargument.
 
Zuletzt bearbeitet:
Error erspar dir die Mühe, ich Habs gestern doch schon probiert,...
Ergebnis ist bekannt/sichtbar.
 
Ja, aber ich will noch alle seine Argumente widerlegen, damit der TE sieht, was der Typ/das Mädel für nen Quatsch labert...
 
Bis jetzt wurde noch nichts wiederlegt. Sehe hier nur AMD Fanboy Geflame. Sry. Ich bleibe dabei und weiß was ich selbst getestet habe. Ihr habt nicht mal die Grafikkarten persönlich überprüft und meint trotzdem euren Senf dazugeben zu müssen. Nennt sich auch Spam oder Trolling.

Ich habe sowohl Nvidia wie auch AMD getestet und gehöre somit leider nicht zum typischen Fanboysegment von Leuten die nur AMD (390/390x/Fury/Fury X) oder nur Nvidia (GTX 970, GTX 980, 980 Ti, Titan X) hatten.

So long...

BTW finde diesen Thread auch sehr interessant...
 
Zuletzt bearbeitet:
Schön, wenn du sie alle getestet hast, ich habe eine R9 390 und mein gesamter Bekanntenkreis hat GTX970/980 – ich habe die Grafikkarten dort nicht alle persönlich überprüft, das ist auch nicht nötig, um Aussagen über die unterstützten Features zu treffen und auch eine grundsätzliche Einordnung am Markt lässt sich gut ohne persönliches Benchmarking betreiben, der einzige offensichtliche Nachteil bei AMD (von ominösen Treiberproblemen, die ich leider nicht nachvollziehen konnte (unter Windows)) ist eben, dass die Architektur etwa schlechter ist und damit mehr Strom verbraucht um die gleiche Leistung zu erreichen – möchte man aber gerne (aus welchen ir/rationalen Gründen auch immer: bei mir 1440p und die Tatsache, dass mich bei meiner alten hauptsächlich Speicherruckler genervt haben) mehr als 4GB Speicher haben (für weniger als 350€), ist die R9 390 die einzige Wahl.
Mir ist dabei durchaus klar, dass eine GTX970 wesentlich effizienter (ohne Undervolting) und für FHD auch vollkommen ausreichend ist, weshalb ich die auch meinen Bekannten empfohlen habe (die keine Aussagen über's NT treffen wollten); der Typ in dem Thread ist entweder jemand wie du, oder GTA ist halt verbuggt und führt tatsächlich irgendwelche für NV kompilierten Shader auf seiner Radeon aus, wenn man die GraKa wechselt (wie dort vermutet) – Leistungssteigerungen von einer R9 390 zu erwarten ist halt auch ein bisschen meschugge...
 
Bis jetzt wurde noch nichts wiederlegt.

Heiß? Die 390er werden nicht wirklich heisser als die 970er, die Abwärme ist nur höher - lässt sich aber abführen.

Und OC will auch nicht jeder User betreiben, zumindest nicht stark. Die Karte reicht auch ohne, von daher gilt das Argument nur für OC-Liebhaber.

Die Effizienz ist auch nicht viel geringer als bei NV, der Unterschied ist jedenfalls kein Argument gegen die Karte.

Der Stromverbrauch unter Last liegt ~ 40 Watt über dem der 970. Das macht vielleicht 5 Euro auf der Stromrechnung..

Hairworks wird unterstützt, weiß gar nicht warum du die ganze Zeit dieses komische Gerücht verbreitest. Die anderen Features werden vielldicht nicht unterstützt, das ist aber auch nicht die Welt.

Treiberprobleme bei einigen Spielen? Mir ist nur ein einziger bekannt, und zwwar startet Metal Gear Solid V mit dem 14.7 beta Treiber nicht, also auch kein Gegenargument.

Ich frage mich aber was du mit deinem Link ausdrücken willst? Dass es Leite gibt, die nicht mit Grafikeinsteplungen klar kommen? Dass GTA V verbuggt ist?
 
Zuletzt bearbeitet:
40 Watt mehr als GTX 970? Du meinst wohl 130 Watt mehr unter Last.

Es spielt vielleicht auf der Stromrechnung keine große Rolle, jedoch will nicht jeder PC Nutzer im Sommer einen Heizstrahler im Zimmer haben nur weil er dadurch ~50 Euro "gespart" hat.

Hairworks wird untersützt, führt bei AMD aber zu gravierenden Performanceeinbrüchen und ist somit mit AMD Karten praktisch nicht nutzbar ;).

Ich habe leider hier das Gefühl das viele überhaupt keinen Plan haben und nur Postcountpusher sind.
 
Zuletzt bearbeitet:
Dann nehmen wir Hardwareluxx. Ändern tut sich da nicht viel die 390x verbraucht über 100 Watt mehr als eine GTX 970.

Bei OC genehmigt sich so eine ineffiziente AMD Karte erst Mal richtig viel.

Aber einen Vulkan im PC finden AMD Fanboys wohl toll :d.
 
Zuletzt bearbeitet:
Danke für den sehr aussagekräftigen Link, in dem der Stromverbrauch einer Custom-R9 390 kalkuliert und mit dem einer 970 im Refernzdesign verglichen wird.
Bei gleichem Takt ist der Unterschied ~ 40 Watt.
Und zum Heizstrahler wird die Karte wegen 40 Watt sicher nicht...

Und es geht um die 390 ohne X!

Wegen Hairworks: Das kann man teilweise noch optimieren, und im Gegenzug ist es ja auch möglich, andere Grafikeinstellungen runterzuschrauben...
 
Zuletzt bearbeitet:
In hwluxx ist es auch nur 60 Watt, die 390x ist ne klasse höher unterwegs.
 
CUDA funktioniert übrigens auch nicht (und da ist u.U. wirklich wichtig, im Gegensatz zu Hairworks...). Was dein Test dort macht, weiß ich nicht, da die R9 390 dort auch 30Watt über einer R9 390X liegen soll – AMD Radeon R9 390X, 390 und 380 im Test sagt etwas anderes, der GTX 970-Wert ist avg aus dem HWL-Test dieser Karten, die beliebte, werksübertaktete Palit Jetstream liegt bei 360W, macht 40W Unterschied, Tomshardware sagt 70W http://media.bestofmicro.com/1/4/522328/original/92-Overview-Gaming.png - was beides sehr weit weg von den 130W ist, dafür bekommt man eben hoffentlich längerfristig konsistente Performance @WQHD - für FullHD ist die 970 klar besser.
 
Ausser es geht um Skyrim mit Mods :d
Ich würde, gerade wenn Spiele wie Assassins Creed gespielt werden, zur 390 raten - Denn von effektiver Vram-Nutzung hat Ubisoft noch nie was gehalten ^^
 
Zuletzt bearbeitet:
"Nur" 60 Watt unübertaktet :d. Ist ja nur eine stärkere Glühbirne zusätzlich im Computer :d. Interessant finde ich die TDP bei OC. Man sieht einfach das AMD altbackendes Zeug produziert.
 
Zuletzt bearbeitet:
Und wenn die Nvidia Karte übertaktet ist ist sie ja auch kaum schneller als so eine AMD Karte :d. Wenn man die AMD übertaktet dann hat man sofort 150 Watt mehr als zuvor. Also sind es dann 180-190 Watt mehr als bei NV.
 
Zuletzt bearbeitet:
Entweder wir vergleichen werkszustände, sprich Karten wie kaufbar, oder oc-zustände. Beides wird nur bedingt aussagekräftig sein. Eher muss man FPS/Watt vergleichen, wenn man darauf wert legt, aber dann fällt auch ne 980ti durch, da sind 950 und 960 wohl König.
 
Zu den OC-Ergebnissen sei auch mal angemerkt, dass die (wirklich extremen) Temperaturen eben auch noch zum erhöhten Verbrauch beitragen, ein besseres Kühlsystem würde hier Abhilfe schaffen, braucht aber jemand nicht, der die @stock betreiben will und deshalb kauft, weil NVIDIA wesentlich mehr Aufpreis für mehr als 4GB verlangt, als sich auf der Stromrechnung niederschlagen wird (zieht man diese 100-200€ von einer 980Ti ab, landet man ziemlich genau bei einem der Leistungssteigerung angemessenen Aufpreis :)) ...
EDIT: werde mir dann mal die Tage ein Strommessgerät beschaffen und dann mal das undervolting probieren, ich habe jetzt gerade mit dem Afterburner festgestellt, dass meine R9 390 gar nicht bis 1000MHz taktet, sondern bei 950 aufhört, erhöht man das Power-Target um 10%, dann macht sie problemlos die 1000 MHz, standardmäßig sind +13 mV Spannung eingestellt, die reichen auch für 1100 Mhz, (sicher) wenn man das PowerTarget auf 20% erhöht (alles getestet mit FurMark, bisher nur an der Kernspannung gedreht), mit +-0mV hält sie auch noch die 1000MHz, verringert man die Spannung auf -10mV, dann pendelt sich der Takt bei etwa 1050MHz ein, d.h. man kann bei Spannungsabsenkung um 20mV noch um 100MHz übertakten :d.
EDIT-EDIT: das 0%-Powertarget schafft man mit -37mV, dabei wird dann im Fur-Mark ein Takt von 1000 MHz gut gehalten, dreht man den Lüfter manuell voll auf (laut...), dann bleibt die Temperatur leicht unter 70°C
 
Zuletzt bearbeitet:
Wie z.B.:

- heiß

- wenig OC

- geringe Effizienz der GPUs

- hoher Stromverbrauch unter Last

Wenn man Occ betreibt ist einem der Stromverbrauch in der Regel wumpe, da man eh einen höheren in Kauf nimmt. Das eine hebelt das andere Argument irgendwie nen bissl aus.
 
N bissel?

Ich occe gern, mein einer xeon x556 zieht mehr als 350w paek aus der Dose(System, Graka im Idle), und das ist ne cpu.
Bei sowas interessierts null.

Bei meinem Everyday x5560 aus der Sig sieht das anders aus.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh