[Kaufberatung] Grafikkarte kaputt, Rechner von 2016 -- Upgrade auf 4K?

HaSuStyLe

Enthusiast
Thread Starter
Mitglied seit
31.08.2004
Beiträge
301
Leider ist meine Grafikkarte heute abgeraucht und wird vom System nicht mehr erkannt. Es war eine R9 390.

Jetzt suche ich nach Ersatz -- da seit kurzem auch ein LG C9 im Wohnzimmer steht, wäre es vielleicht die passende Gelegenheit mal den Sprung auf 4K zu wagen?
Wie tief muss ich da in die Tasche greifen für 4K, 60Hz? "Lohnt" sich das überhaupt, oder spiel ich im Zweifel lieber mit 1080/1440p und schraub dafür die Settings hoch, zahl die Hälfte für ne neue GPU und hab ähnlich gutes Bild?

Typische etwas anspruchsvollere Games bei mir wären z.B. Path of Exile, Assassin's Creed, Forza, NBA 2k, in Bälde sicher Cyberpunk.

Restliche Specs vom aktuellen System: i7 6700K, MSI Z170A Krait, 16G RAM, Display wahlweise Dell 25"/1440p/60Hz oder eben der C9 den ich bislang beim zocken nur in 1080/1440 genutzt habe.

Danke wie immer für eure Ratschläge!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich finde schon, daß sich der Sprung von FHD zu UHD lohnt. Es ist kein Muß, aber schon echt nett. Für 60 FPS mit vollen Details brauchste ne Nvidia 2070 Super oder höher - oder ne gebrauchte 1080 Ti (geht bei Ebay ab etwa 450 Euro). Von AMD spielt nur die kaum noch erhältliche Radeon VII in dieser Liga mit.
 
Okay, die 5700XT hält da also nicht mit? (Bin nicht unbedingt auf AMD scharf, aber scheint ja ne Ecke günstiger zu sein)
Raytracing haben nur die Nvidia Karten, oder? Nicht dass ich wüsste, ob irgendeins meiner Games RT unterstützt.

Steht denn für die nächsten Monate bzgl. GPU-Neuerscheinungen etwas an? Dann könnte ich ggfs. etwas Zeit überbrücken (mit Konsole oder einer günstigen Übergangskarte) und im Herbst/Winter zuschlagen.
Ich hatte irgendwie im Kopf, dass einen bei 4K selbst die 2070/2080-Generation womöglich nicht rundum glücklich macht, aber ich kann mich auch täuschen(?)..
 
Okay, die 5700XT hält da also nicht mit? (Bin nicht unbedingt auf AMD scharf, aber scheint ja ne Ecke günstiger zu sein)

Jo, da fehlen ein paar Prozent. Wenn man an ein paar Reglern dreht, geht da natürlich trotzdem was.

Raytracing haben nur die Nvidia Karten, oder?

Korrekt. Erst AMDs kommende Generation wird hier nachziehen.

Steht denn für die nächsten Monate bzgl. GPU-Neuerscheinungen etwas an? Dann könnte ich ggfs. etwas Zeit überbrücken (mit Konsole oder einer günstigen Übergangskarte) und im Herbst/Winter zuschlagen.

Ist durchaus ne Möglichkeit. Sowohl bei Nvidia ("Ampere" - ich persönlich erwarte eher nen anderen Namen) als auch bei AMD ("RDNA2" bzw. "Big Navi") wird fürs Weihnachtsgeschäft mit einer neuen Generation gerechnet. Nvidia wird dabei den Sprung auf die sparsamere 7nm-Fertigung machen und die neuen Chips von AMD werden deutlich größer, also leistungsstärker werden. Billig werden die neuen Karten aber nicht werden.

Ich hatte irgendwie im Kopf, dass einen bei 4K selbst die 2070/2080-Generation womöglich nicht rundum glücklich macht, aber ich kann mich auch täuschen(?)..

Für "normales" 4K-Gaming sind die schon gut genug. Vielleicht haste das in Bezug auf das Raytracing gelesen, denn damit kommt auch die 2080 Ti ins Stottern.
 
Mhm, ich tendiere aktuell zur Palit RTX 2070 Super GP für ca. 520€.
Aber wenn ich es richtig sehe gibt es die günstigste 5700XT (Asus) inkl. Cashback gerade für 329€, das ist natürlich ein heftiger Preisunterschied für die paar Prozent Leistung.
Würde aber nach dem Erlebnis mit der kaputten 390 eigentlich auch gerne mal wieder was anderes als AMD nehmen —hmm schwierig..
 
...die billige asus will man nicht haben. Asus AMD Karten will man sowieso nie haben ;)

 
Ok, danke für die Einschätzung. Wäre die günstigste 2070 Super, also die Palit, denn etwas, was man haben will? ;)
Dann würde ich bei der bleiben und vllt. auch mal Minecraft RTX ausprobieren.
Meine letzte Desktop Nvidia-Karte war von 2004... :d
 
Jo, die hatte ich auch schon im Blick - bis mir ein Kumpel von KFA2 abgeraten hat..
Mag ein Einzelfall gewesen sein, aber seine KFA2-GPU hat wohl schon nach 2 Wochen den Geist aufgegeben.
 
Palit, Gainward, Sapphire, MSI, EVGA sind angeblich ganz ok.
 
Ich würde noch ein wenig warten, kommt doch in diesem Herbst/Winter die neue Generation, sowohl von AMD als von Nvidia. Für 4k Gaming ist da auch ein Upgrade zu erwarten...

Ich würde aktuell zu einer RX570 8gb Edition raten zur Überbrückung ~150€+- und Später noch mal zuschlagen, entweder zum Sale von den "highend" karten von Nvidia 2080Super/ti oder mir die neuen dann anschauen was die für Leistung/Preissegment haben werden.

...die billige asus will man nicht haben. Asus AMD Karten will man sowieso nie haben ;)


Ich habe ne Asus STRIX und als RX580, ich sehe keine Probleme mit ASUS und AMD :unsure:
 
Zuletzt bearbeitet:
Für 4K guck dir am besten ein paar Testvideso mit einer 2070S an für Spiele die dich interessieren. Zumindest in hohen Detailstufen knabbert die 2070S in neueren Spielen schon hart an den 60fps bei 4K.
In den Specs zu deinem TV hab ich nichts gesehen, das der x-Sync könnte. Dann hast du halt mit <60fps wieder das Sync-Problem, also entweder Tearing oder Stottern. Soll aber ja auch Leute geben, die das nicht stört, das musst du natürlich selbst wissen.

Ich gehe schwer davon aus, das die 2070S sich mit Cyberpunk schwer tun wird in 4K, und RTX glaube ich kann man da komplett vergessen. Evtl. gehts aber mit DLSS.
 
Was bedeutet für dich "volle Details"? Selbst die 2080ti hat in 4K/UHD Probleme, immer 60 fps zu erreichen.

@HaSuStyLe welcher Teil von Assassin's Creed?

Origins und sobald das durch ist Odyssey.

Mhm, die letzten paar Posts klingen ja dann doch wieder etwas ernüchternd.
Vllt. hole ich mir dann sogar was günstiges gebrauchtes für die Übergangszeit und warte auch mal was sich mit den neuen Konsolen etc. noch tut.

Die RX570 scheint quasi ein 1:1 Sidegrade zur alten R9 390 zu sein und die RX580 nen Ticken schneller?

Puh, schwierig. Von den ganzen genannten Games ist AC:O halt auch tatsächlich das einzige was ich Stand jetzt am TV zocke und mich über 4K freuen würde. Ist vllt. auch n bisschen dünn für ein 500+€ Investment. :d
 
AC Origins läuft natürlich auch mit einer 2070 Super auf 4JK/UHD, du musst dann nur die Regler bedienen, bis es für dich flüssig genug ist. Da kommt es dann auf deine Ansprüche an die Grafikqualität an.
 
Ok, es wird wohl bei der 2070 Super bleiben. Edit: Bestellt.
Wenn ich jetzt sone Zwischenlösung mache, hab ich in nem halben Jahr ohnehin keine Lust mehr auf zusätzlichen Aufwand..
Und ich bin auch keiner der alle Settings auf Ultra haben muss.
Ob 4K oder kleinere Auflösung mit höheren Settings besser aussieht (oder im Zweifel sogar geringere Framerate nicht so sehr stört) werde ich dann einfach herausfinden.

Mein C9-TV unterstützt übrigens offenbar auch G-Sync: https://www.nvidia.com/en-us/geforce/news/g-sync-compatible-2019-lg-tv-available-now/
(Hoffe ich zumindest mal, die genauen Modellbezeichnungen variieren je nach Land.)

Danke für eure Tipps und Anregungen (y)
 
Zuletzt bearbeitet:
Origins und sobald das durch ist Odyssey.

Mhm, die letzten paar Posts klingen ja dann doch wieder etwas ernüchternd.
Vllt. hole ich mir dann sogar was günstiges gebrauchtes für die Übergangszeit und warte auch mal was sich mit den neuen Konsolen etc. noch tut.

Die RX570 scheint quasi ein 1:1 Sidegrade zur alten R9 390 zu sein und die RX580 nen Ticken schneller?

Puh, schwierig. Von den ganzen genannten Games ist AC:O halt auch tatsächlich das einzige was ich Stand jetzt am TV zocke und mich über 4K freuen würde. Ist vllt. auch n bisschen dünn für ein 500+€ Investment. :d

Laut PC Games Hardware und Assassins Creed @4k sieht das erstmal nicht so gut aus, ja mit reduzierten Settings (mittel-hoch) sind bis zu 60FPS+ möglich, aber für 4K hat das keine Zukunft.
Odyssey ist nicht der neueste Titel, da ist gar keine Luft nach oben ganz im Gegenteil, die Karte ist "Super" für WQHD Auflösung und ein guter Einstieg in hohe FPS für 120 / 144hz Monitore@WQHD @mittel-low je nach Game.

Hinzu kommt das Bottleneck von 8GB RAM, was für 4 K in naher Zukunft einfach zu wenig seihen wird.


Quelle: https://www.pcgameshardware.de/Gefo...er-Review-Benchmark-Leistung-Preis-1293230/2/
1591596693985.png
 
4k kann man glatt auf FullHD skalieren, insofern ist das kein Beinbruch.
Die Grafikkarten sind noch nicht geeignet für 4K, das würde ich so unterschreiben. (Natürlich kann man Monster wie die Radeon VII oder die 2080ti nehmen, aber da ist Preis/Leistung einfach unterirdisch für "4k halbwegs okay")
 
Danke für die Infos und die „Warnung“, ist sicher gut zu wissen was man erwarten kann.
Ich denke dennoch ist es für mich jetzt der richtige Kauf. Zocke gerne und viel, und selbst wenn ich dann je nach Game bei 1440p bleibe profitiere ich vom Extradampf der GPU..
Noch höherpreisig als die 2070 Super wollte ich nicht gehen, aber ich mag auch nicht noch 6+ Monate warten bis die NextGen da ist und die Straßenpreise sich eingerenkt haben. Wenn ich jetzt ne Budgetlösung bestellt hätte, ich hätte mich für die nächsten 2-3 Jahre eh wieder nicht mit dem Thema beschäftigt. :d
 
1440p skaliert aber nicht glatt bei 4k, das wird zu einem matschigen Bild führen. Daher: FullHD

Du kannst den Monitor gern in 4k kaufen (auch wenn ich das nicht für sinnvoll halte), aber solltest die Grafikkarte auf FullHD auslegen bis die Grafikkarten realistisch 4k tauglich werden.
Wenn die Entwicklung so weitergeht wird das ca. 2023 so weit sein.
 
Moment, du verwechselst evtl. gerade den Thread? ;)
Alle Komponenten inkl. 1440p-Monitor und 4K-TV hab ich ja schon lange hier, es fehlt wg. Defekt aktuell eben nur eine GPU.

Ich benutze auch beide Displays zum zocken, je nach Couch-Tauglichkeit der Games. Z.B. AC am Fernseher und Path of Exile am Desktop-Monitor.
Auf dem Monitor sind dann eben alle Games auf 1440p eingestellt (das konnte auch meine alte R9 390 gut genug), am Fernseher das meiste bislang eben in FullHD und mit der neuen GPU dann einiges hoffentlich in 4K. ;)

Zugegebenermaßen dachte ich bislang allerdings tatsächlich, ich könne auch am 4K-nativen Fernseher die Games auf 1440p Auflösung einstellen und es sähe mit der TV-Interpolation dann trotzdem besser aus als in 1080p..
 
Zugegebenermaßen dachte ich bislang allerdings tatsächlich, ich könne auch am 4K-nativen Fernseher die Games auf 1440p Auflösung einstellen und es sähe mit der TV-Interpolation dann trotzdem besser aus als in 1080p..
Genau da liegt der Hase im Pfeffer. Das glaub ich genau nicht :)
 
Ich mach das sogar tatsächlich umgekehrt ich hab einen 1080P Monitor, nutze VSR um WQHD verwenden zu können und dann wieder auf 1080P runter zu skalieren.

Man sieht sogar tatsächlich einen Unterschied. Es ist aber abhängig vom Spiel und nur wenn die Performance nicht unterirdisch ist :d

WQHD -medium/high sieht öfter mal besser aus als FULL HD -ULTRA/MAX
 
Jo, die hatte ich auch schon im Blick - bis mir ein Kumpel von KFA2 abgeraten hat..
Mag ein Einzelfall gewesen sein, aber seine KFA2-GPU hat wohl schon nach 2 Wochen den Geist aufgegeben.
Die 2070 Super von KFA habe ich seit zwei Monaten in Betrieb. Ich kann mich weder über die Leistung noch über die Lautstärke beklagen. Solide Karte - und auch nicht meine erste von KFA.
 
Die 2070 Super von KFA habe ich seit zwei Monaten in Betrieb. Ich kann mich weder über die Leistung noch über die Lautstärke beklagen. Solide Karte - und auch nicht meine erste von KFA.
Die KFA2 sind meiner Meinung auch nicht die schlechtesten Karten. Meist mit am günstigsten, ohne dabei extrem grobe Patzer bei Qualität bzw. Kühlleisung und Lautstärke.

Das ne Karte nach 2 Wochen abraucht kann bei jedem Hersteller mal passieren. Kritisch wird es, wenn es 2 oder gar 3 mal hintereinander oder bei sehr vielen Leuten passiert. Dann hat die Karte ein generelles Problem.
 
Zugegebenermaßen dachte ich bislang allerdings tatsächlich, ich könne auch am 4K-nativen Fernseher die Games auf 1440p Auflösung einstellen und es sähe mit der TV-Interpolation dann trotzdem besser aus als in 1080p..
Das fällt am TV nicht so stark auf, da man ja idR auch weiter wegsitzt und es hängt sehr schwer davon ab, wie gut der TV skalieren kann. Und evtl. entsteht dadurch ein Lag. Ich würde mich nicht unbedingt darauf verlassen, das das brauchbar funktioniert.
Es ist auf jedenfall besser, das Upscaling den PC machen zu lassen, wenn das Spiel das erlaubt. Machen die ganzen Konsolen ja auch nicht grundlos so.


Ich mach das sogar tatsächlich umgekehrt ich hab einen 1080P Monitor, nutze VSR um WQHD verwenden zu können und dann wieder auf 1080P runter zu skalieren.
Falsche Richtung. Du skalierst RUNTER, nicht HOCH. Das ist quasi die simpelste und ressourcenfressendste Anti-Aliasing Methode.
 
1440p skaliert aber nicht glatt bei 4k, das wird zu einem matschigen Bild führen. Daher:
Wenn ich das bei meinem mache wird das Bild hell/grell. Da muss ich das Game neustarten das es wieder normal aussieht, bei 1440p ist das nicht so.

Aber find 1080p bei 28 Zoll eh zu verpixxelt, da spiel ich lieber in 3840*1648 und nidrigeren Details als FullHD und Ultra.
 
in AC sollte man die wolkensettings runterstellen. das gibt massig fps.

bitte beachten bevor nach fps geheult wird ;)
 
...die billige asus will man nicht haben. Asus AMD Karten will man sowieso nie haben ;)

Naja... eine TUF RX 5700 XT will man nicht haben. Oder eine Strix AREZ Vega 56/64 rev. 1.0 auch nicht aber sonst sind die ASUS Karten doch i.O. (wenn auch viel zu teuer).
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh