GPU gebraucht/neu für rund 250€

Vinloc

Experte
Thread Starter
Mitglied seit
05.02.2016
Beiträge
117
Guten Tag,

bin zurzeit im Auftrag von einem Bekannten, der sein System eine neue Graka spendieren will.

System
CPU: i5 4570
RAM: 2x4GB DD3 Ram
MB: Gigabyte GA-H97-HD3
SSD: 120gb sandis (welches modell genau weiß er nicht mehr)
PSU: 430W XFX TS

Er ist auch bereit sein Netzteil entsprechend auf zu rüsten, die Frage ist wieviel ist da wirklich nötig.

Ich hatte jetzt für den Neuwaren Bereich die R9-380 4gb oder die gtx 960 4gb rausgesucht.

Im gebrauchtmarkt wird das ganze ja etwas spannender, da könnte man eine gebrauchte r9 290 oder wenn man glück hat eine gebrauchte 970/390 bekommen, obwohl die ja eher meist für 270-280 rausgehen.

Zu erwähnen sollte sein, das sein Gehäuse laut hersteller nur GPUs bis zu einer länge von 290mm unterstützen

Die Frage ist, ob es sich lohnt jetzt noch eine r9 290 zu kaufen oder ob er nicht eher Polaris/Pascal abwarten sollte und sich dann eine gebrauchte 390/970 kaufen sollte, da sollten diese ja billiger sein.
Bei der 970 bin ich mir nur wegen dem VRAM problem/begrenzung etwas besorgt :/

Sein Ziel mit der GPU ist es, momentane Spiele wie Rise of the Tomb Raider/Witcher 3 und kommende Spiele auf High in 1080p spielen zu können, Ultra muss nicht, wäre aber nett, aber die GPU sollte wenigstens 2-3Jahre auf High bis Mid-High ausreichen.

MFG :)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
eine gebrauchte r9 290 wäre da wohl eher sinvoll
von der 970 rate ich ab
 
Ich würde eine gute 380 mit 4 GB nehmen und dann schauen, was Polaris uns so bringt (ggf. aufrüsten, ohne Not nicht). Da hast du das beste PLV. Von einer 970 rate ich nachdrücklich ab (bei Bedarf gehe ich ins Detail). Eine 960 mit 4GB ist eine Option, aber mal eben ein Fünftel langsamer, was bei Karten der aktuellen oberen Mittelklasse eine ganze Menge fehlender Rechenleistung ist.
Eine der günstigsten und besten mit Zero-Fan Modus: Sapphire Radeon R9 380 Nitro OC, 4GB GDDR5, 2x DVI, HDMI, DisplayPort, lite retail (11242-13-20G) Preisvergleich
Eine der günstigsten und besten ohne Zero-Fan Modus: HIS Radeon R9 380 IceQ X² OC, 4GB GDDR5, 2x DVI, HDMI, DisplayPort (H380QM4GD) Preisvergleich
Sonstige Auswahl: PCIe mit GPU (AMD/ATI): R9 380/R9 380X, Chipanzahl: Single-GPU, Speichergröße: ab 4GB, Länge: bis 280mm Preisvergleich
(Alle mit max. 280mm Länge.)

Bedenke, dass 14nm ein ordentlicher Sprung sein werden und uns sehr lange erhalten bleiben werden, potenziell deutlich länger als 28nm.
 
Aber das netzteil macht eine r9 290 nicht mit oder?

hätte jetzt folgende 2 Netzteile raus gesucht
620 Watt Seasonic S12II Bronze Non-Modular 80+ Bronze
650 Watt XFX TS Series Non-Modular 80+ Gold

wäre jetzt zum XFX Netzteil tendiert(Ich weiß, ist auch ein Seasonic Netzteil), auch wenn es 10€ mehr kostet, die höhere effizienz wäre es denke ich wert und er hätte die nächsten paar jahre in der hinsicht ruhe

das problem bei einer r9 290 ist nur, das die guten modelle(Saphire tri-x/vapor-x) mit einer länge von 305mm etwas zu lang sind :/
 
das netzteil könnte für eine 290 langen aber da ist dann nichts mit gpu und cpu übertakten
besser wäre natürlich ein neues
ich würde eher das hier empfehlen
550 Watt Seasonic G Series Modular 80+ Gold

aber bei der gebrauchten 290 aufpassen nicht die mit einem radiallüfter nehmen sondern nach möglichkeit mit custom kühler
die standard amd kühler waren damals sehr schlecht
 
mhm hatte bisher den r9 290 von msi im auge, da dieser wohl einen guten lüfter hat und nicht länger als 290mm ist
 
kann sein ich kenne nicht alle 290er

das ist der schlechte kühler
290Car_678x452.jpg
 
@te

Wenn 290 dann neues NT und Sapphire tri-× zb

Wobei ich neuware bervorzugen würde sprich 960 oder auch 380 ;)
Zudem du dann dein nt getrost behalten könntest.
 
Zuletzt bearbeitet:
referenz Design kannst du durchaus kaufen :d wenn dir Lautstärke egal ist ... wenn nicht dann kannst du trotzdem kaufen aber dann muss das ding schon sehr günstig sein um dann nen xtreme 4 oder nen morpheus draufzuschnallen
 
Zuletzt bearbeitet:
ich würde auch zur R9 290 tendieren. Ich habe meine R9 290 mit Zubehör für 190€ gekauft (Ebay Kleinanzeigen)
Meine GTX 970 für 230€ ist bei der DHL verschwunden.:grrr: Zumindest habe ich mein Geld gleich wieder bekommen.

Zum Stromverbrauch meine R9 290 braucht deutlich weniger Strom (über 15%) wenn man die minimal Underclockt auf 900 MHz GPU Takt (ca 5%). Das kann aber auch noch mit meinem Kühler zusammenhängen ich komm nicht mehr über 60°C.
 
Brauchst du denn überhaupt UC? Reicht nicht auch UV bei gleich gelassenem Takt?
 
Ich würde ja die 970er empfehlen, oder die 4GB 960er.

Mit beiden kannst du problemlos das Netzteil behalten. (und dafür lege ich meine Hand ins Feuer! Das System wird, wenn man es provoziert, maximal 300W ziehen, damit is man gerade mal an dem Punkt, an dem man das NT optimal auslastet!)

Die 290er sollte sich auch noch knapp ausgehen, die 290X würde ich mit dem NT nicht riskieren. Folglich scheidet auch die 390er aus.
 
Mit einer 970 soll das System max. 300 W ziehen und mit der 290 die 430 W übersteigen oder sogar noch die Reserve, die jedes brauchbare Netzteil hat?! Ist alles okey mit dir?

Und was spricht dann noch gegen die 380, die nunmal deutlich schneller als eine 960 bei gleichem bis leicht niedrigerem Preis ist?
 
gtx960 ja .. dafür brauchst du kein neues netzteil :d allerdings ist das ding auch lam wie sonstwas ... ich würde an deiner stelle einfach noch nen monat sparen und direkt ein neues netzteil dazu holen 500w+ und dann ne r9 290
 
Mit einer 970 soll das System max. 300 W ziehen und mit der 290 die 430 W übersteigen oder sogar noch die Reserve, die jedes brauchbare Netzteil hat?! Ist alles okey mit dir?
Moment, ich habe geschrieben dass ich die 290 genauso wagen würde.
Warum muss man da so Aufregung in deinen Post verdeutlichen? Für den Unsinn den du verzapft würde ich nicht so Vorlaut sein.
Das genannte Netzteil ist nunmal eher im unteren <50€ Mittelklasse Segment einzuordnen, große Wagnisse würde ich nicht eingehen.


Und was spricht dann noch gegen die 380, die nunmal deutlich schneller als eine 960 bei gleichem bis leicht niedrigerem Preis ist?
Hatte ich nicht am Schirm.
Aber niedrigerer Preis? Unsinn, die 4GB 960er bekomm ich im vernünftigen Custom Design für knapp über 200€, für die 380er wirds im CD unter 220€ schwierig.
Benches zeigen auch dass sie im Schnitt äußerst gleich auf sind. Mit höherem AA wird die 380er etwas besser, darunter ist die 960er besser. Die Nvidia Gameworks Vorteile darf man auch nicht vergessen. Weniger Strom zieht die 960er auch, folglich weniger Wärme folglich weniger Lautstärke. 3-5€ im Jahr kann man somit auch sparen ;)
 
Zuletzt bearbeitet:
für die 380er wirds im CD unter 220€ schwierig.
Von der 380 gibt es doch gar kein Referenzdesign? Und wenn man Geizhals fragt: PCIe mit Chiphersteller: AMD, GPU (AMD/ATI): R9 380/R9 380X, Speichergröße: ab 4GB Preisvergleich
5 verschiedene 380 4GBs bei Preisgrenze 200 Euro.

Benches zeigen auch dass sie im Schnitt äußerst gleich auf sind.
Ist halt die Frage, was man unter "Bench" versteht. Und welche Tricksereien von Seiten Benchmark-Macher und Testkandidat-Macher getrieben werden. Nvidia wurde schon so oft bei der "Optimierung" der Benchmarkergebnisse erwischt (ATI oder AMD bestimmt auch mal). Nvidia's GPU Boost ist auch ein Benchmark-Verwischer. Dann ist da noch die Sache mit dem "Reviewer's Guide", das sind Vorgaben wie Nvidia-Produkte zu testen sind (sonst gibbet's Ärger):
Ich habe grade mal Google bemüht da ich mal sehen wollte wie so ein Reviewer's Guide aussieht. Und irgendwie ist da doch eine Liste von "Recommended Games/Benchmarks" drin zumindest in den Reviewer's Guide für die GTX680?
Und es sind noch andere "interessante" Dinge drin wie z.B. dass man bei bestimmten Spielen doch bitte für AMD diese und jene Settings benutzen soll und für Nvidia andere. Falls ich den richtige Reviewer's Guide für die r9 Furry X ist den ich gefunden haben scheint AMD so etwas zumindest nicht in ihre Guides zu schreiben würde mich über Korrektur aber freuen falls ich da falsch liegen sollte. Wenn Leute die diese Guides kennen sich überhaupt dazu Äußern dürfen und nicht unter NDA stehen.
Aber wenn man sich die so anschaut wäre es gut die für die jeweiligen Produkte im Test vorher zu kennen damit man weiß wie man die Resultate zu interpretieren hat.

Die Beiden gefunden Guides nach kurzer Suche:
HARDOCP - Introduction - NVIDIA GeForce GTX 680 Reviewer's Guide
AMD Radeon R9 Fury X Reviewer's Guide | VideoCardz.com
Hat schon einen faden Beigeschmack...

20 Prozent ist die 380 normalerweise schneller.


Die Nvidia Gameworks Vorteile darf man nicht vergessen.
Genau. Nur sprechen die nicht für Nvidia, sondern für jede Art von Konkurrenz. Denn dass neuerdings wichtige Spielelemente nicht von den "Spieleentwicklern", sondern von den Mitarbeitern vom Grafikkartenhersteller programmiert werden, ist ein Skandal. Sollen wir demnächst statt Stiftung Warentest und Co lieber Aldi oder Lidl beauftragen, den günstigsten Supermarkt/Discounter zu ermitteln?
Aber es scheint kaum einen zu stören.
 
Zuletzt bearbeitet:
Zum Netzteil - es wäre leicht riskannt.
Allerdings verbraucht die 290, wenn man kein starkes OC anlegt keinesfalls über 250W.
D.h. es bliebe noch 170W für das Board, CPU, etc. übrig.
Knapp, aber das sollte reichen.
 
@Dickes Fell
Am Ende ist es nunmal so dass die 960er in 50% der Spiele in etwa gleich auf ist, in 25% besser (Witcher und Co), und vielleicht in 25% der Spiele schlechter (meistens eben wegen AA).
Wie das zustande kommt ist ja dem Endkunden normalerweise am Ende egal. "Boosten" tun sie beide, wobei ich aus Erfahrung sagen kann dass die 960er den Maximaltakt locker halten kann. Produziert ja auch kaum Abwärme.
Man sollte aber auch seine Grafikpräferenzen kennen. Der eine kann Treppchen auf Kanten überhaupt gar nicht leiden und fährt extremes AA, dem Anderen ist das weniger wichtig und möchte mehr Details.


Preislich sind sie in etwa gleich auf. Auf Amazon zahlste für die 4GB 380er mehr als für die 4GB 960er. Und Amazon sollte man schon wegen seinem unschlagbaren Support schätzen.
Und bei den wenigen € Preisunterschied darf man tatsächlich nicht vergessen: 30-40W mehrverbrauch kann durchaus zu 3-5€ mehr Stromkosten im Jahr führen. Durch die höhere Abwärme leiden auch die anderen Komponenten.

Ums Netzteil würde ich mir in dem Segment keine Sorgen machen. Nur eine 290X/390/780 usw. würde ich dem Netzteil nicht zumuten, auch wenn es sich durchaus ausgehen würde.
 
Zuletzt bearbeitet:
Zum Netzteil - es wäre leicht riskannt. Allerdings verbraucht die 290, wenn man kein starkes OC anlegt keinesfalls über 250W.
Unbenannt.png

Erstmal stimmt es, dass zum Beispiel meine 290X mit Powerlimit bei 250W dicht gemacht hat. Dabei geht bei Furmark aber der Takt auf ca. 900MHz runter. Zugegeben - im Spiel tritt das natürlich kaum auf, sondern der Durchschnittsverbrauch ist viel niedriger und der Takt bleibt ziemlich konstant, aber ich kann nur ganz klar dazu raten, nicht den maximalen Energieverbrauch zu drosseln, sondern das Powerlimit aufzuheben, weil die Schwankungen im Takt sich direkt als Schwankungen auf die FPS auswirken und immer, wenn VSync oder ein FPS- Limit nicht greift, zu einem sehr unruhigen Spielgeschehen führen.
Wie man aber sehen kann, zieht meine Karte auf 1100Mhz schon über 380W - maximal(Mit 400W Powerlimit). Dabei finde ich die 1,125V Spannung nicht wirklich abartig hoch und auch ohne Übertaktung durch bloßes Erhöhen des Powerlimits wird die Karte wohl deutlich mehr als 250W verbrauchen(Hab's jetzt nicht getestet, weil ich das Bios nicht ändern möchte). Deshalb würde ich für die Hawaii/Grenada GPUs jeweils 400W einrechnen, sodass man noch einen kleinen Spielraum hat. mit zusätzlichen 150W sollte man den Rest gut abdecken, sofern man keinen 6 oder 8- Kerner hat. Macht somit ca. 550W, um auf der sicheren Seite zu sein. Bei der 380 würde ich bis zu 300W einrechnen und bei der 960 ca. 220W.

Somit wäre ich bei ca. 370W bei der GTX 960, 450W bei der R9 380(X) (würde also noch gehen) und bei ca. 550W bei der R9 290/390(X). Natürlich kann man mit Powerlimit auch die 290/390er nehmen, aber da würde ich lieber mit weniger Takt/Leistung als mit der schwankenden Performance leben wollen.
 
Zuletzt bearbeitet:
Wie man aber sehen kann, zieht meine Karte auf 1100Mhz schon über 380W - maximal. Dabei finde ich die 1,125V Spannung nicht wirklich abartig hoch

deine karte hat mehr power out als power in?
du hast das perpetum mobile gefunden

dein screen stimmt nicht
hier ist meine OC 290x

q6jalvmz_gif.htm
 

Anhänge

  • 290x.gif
    290x.gif
    22 KB · Aufrufe: 55
Zuletzt bearbeitet:
Ich dachte bisher, dass mit Power In nur das gemeint ist, was in die GPU geht und Power Out sämtliche Power beschreibt, die die Karte zieht(Und somit auch abgibt).

Wie hast Du Deinen Screen gemacht? Furmark?

Edit: Ich glaube ich habe den Fehler gefunden: GPU-Z liest bei mir bei VDDC Current In maximal 16A aus und geht niemals darüber. Das heißt, wenn es die 16A x 11,38V nimmt, kommt es auf ca. 182W als Input. Bei 182W wäre meine Karte aber definitiv nicht so warm ;) Da ist LM drauf...
Der Output müsste dagegen schon stimmen, weil ich den definitiv durch das Powerlimit im Bios beeinflusst habe.
 
Zuletzt bearbeitet:
Der te hat nun genügend sachliche Informationen bekommen, sollte reichen, sonst kann er sich nochmal melden.
Bitte kein AMD vs NV battle.
 
Ich schätze, dass es der Rendertest von GPU-Z war, da ich da auch auf etwa 200W komme. Für Vollast ist 200W definitiv viel zu wenig. Auch die hohe Spannung trotz der niedrigen Temps weist darauf hin.

Beim verlinkten Test ist halt die Frage, was Vollast ist. Es macht schon einen Unterschied ob du in Prime mit 1300er FFT oder 8 testest. Wenn ich meine CPU richtig vergewaltige, komme ich in HWMonitor auf Maximalwerte von etwa 230W. Macht also zumindest bei mir zusammen etwa 600W - 650W sollten es dann eher schon sein. Natürlich kann man davon ausgehen, dass der normale User nicht ganz so viel braucht.
Wohlgemerkt sind das aber Peak- Werte, die stehen also nur mal kurz da. Zumindest bei der GPU geht es auch locker auf 320 ab und zu wieder runter, selbst bei Vollast. Ich glaube aber, dass die Tools das schon ziemlich genau auslesen. Wenn ich jedenfalls als Powerlimit 300 ins Bios eingebe, ist es auch in GPU-Z ca. 300.
Ich möchte auch anmerken, dass bei 228W einprogrammiertem Powerlimit(wie es bei meinem Bios standardmäßig war) bei einer Erhöhung von maximal 50% per Treiber nur 342W rauskommen. Das heißt, dass es auf die Karte ankommt, ob man überhaupt ohne Biosmodifikationen(wie ich es gemacht habe) darüber hinaus kommt. Zudem habe ich bei der Einschätzung noch Spielraum gelassen, weil teilweise sehr krasse Differenzen zwischen den Karten sein können. Da kann mal eine Karte mit dem gleichen Chip 40W mehr verbraten, evtl. durch eine besonders komplizierte Spannungsversorgung, die zwar eventuell sehr stabile Spannungen liefert, aber dafür deutlich mehr Energie verbrät - man muss den Mehrverbrauch von einer Karte also nicht immer unbedingt negativ betrachten, je nach dem was man mit der Karte für Pläne hat.

Edit: Es fragt sich natürlich, warum ich bei synthetischer Maximallast, die in normalen Anwendungen nie abgerufen wird, eine unlimitierte Stromaufnahme benötige. Das liegt daran, dass ich die Karte mit OCCT stundenlang durchrennen lasse, um 2 Dinge sicherzustellen:
1. Dass die Karte niemals überhitzen wird
2. Dass die Karte sich niemals verrechnen wird.
Das Problem ist, dass die Karte mit Powerlimit den Rechentest natürlich immer bestehen würde, aber wegen des höheren Taktes in Games Bildfehler verursachen könnte. Wenn sie mit dem Maximaltakt aber stundenlang durchläuft, weiß ich zu 100%, dass der aktuelle Chiptakt stabil ist.

Edit2: http://www.tomshardware.de/sapphire-r9-390-nitro-radeon-grafikkarte-gpu,testberichte-241919-4.html
Auch wenn ein Netzteil bei kurzer Überlast wahrscheinlich nicht sofort einknickt, würde ich dann doch lieber bei meiner Einschätzung von 400W Maximalwert für die Hawaii/Grenada bleiben ;)
 
Zuletzt bearbeitet:
man(n) muss aufpassen das man dadurch nicht verarmt, oh weh...
Ich bringe oftmals das Stromkosten Argument, fast immer ist irgendjemanden ein Dorn im Auge.
Aber warum? Wenn ich beim Kauf aufgrund einer 10€ Differenz zu billigeren Karte, die aber mehr verbraucht, tendiere, so muss man im Hinterkopf behalten dass diese im Betrieb wieder "teurer" wird.
Ich finde dass das ein legitimes Argument ist, zumal mehr Abwärme immer die Komponenten mehr belastet, und bei schlechtem Airflow auch der CPU Kühler etwas Wärme abbekommt.
30-40W Mehrverbrauch wird sich auch sicher in der Lautstärke niederschlagen.

Bin mit Sicherheit kein Nvidia Fanboy, aber die 960er ist gegenüber der 380er wesentlich "runder".

Aber ja, die 290er würde ich auf jeden Fall in Betracht ziehen, aber auf alle Fälle gebraucht!
 
Wüsste aber schon gern wie der enorme Unterschied zwischen oooverclocker's und tanuki82's screen zustande kommt o_O


Ich schätze, dass es der Rendertest von GPU-Z war, da ich da auch auf etwa 200W komme. Für Vollast ist 200W definitiv viel zu wenig. Auch die hohe Spannung trotz der niedrigen Temps weist darauf hin.


nein war furmark somit vollast
die temperatur ist der wasserkühlung geschuldet

aus dem netz messe ich 280w (cpu und netzteil wirkungsgrad schon herausgerechnet)
also kommt hin, 210W von dem stromanschluss der graka und der rest aus dem PCIe slot

380W sind es im leben nicht das würde man mit luft nur sehr schwer kühlen können
power in muss höher sein als power out, diese differenz wird an den vrm1 in wärme umgewandelt


Ich finde dass das ein legitimes Argument ist

mein argument das man durch 5eur mehr im jahr nicht verarmt ist doch genauso legitim
die 30-40W abwärme machen einem gut belüfteten gehäuse rein garnichts aus

selbst 80-100W mehr bei der 390x zur 970 sind problemlos abzuführen

die mehrbelastung wird erst zum problem wenn das netzteil es nicht packt
 
Zuletzt bearbeitet:
Nun in der Tat, ich finde das Energiesparargumnet in diesem Zusammenhang auch übertrieben und wenig überzeugend dennoch gilt,

die Energie, die wir benötigen, bekommen wir nur aus dem Strom, gegen den wir schwimmen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh