Welche Grafikkarte passt zu meinem System

Valhall

Neuling
Thread Starter
Mitglied seit
02.12.2015
Beiträge
2
Hallo,
Es ist Weihnachts(geld)zeit und ich würde mir gerne eine Neue Grafikkarte zulegen, aber welche?!
Ich bin ein ziemlicher Leihe auf diesem Gebiet und würde mich über eine fundierte und nachvollziehbare Beratung sehr freuen.

Die Daten zu meinem System findet ihr im Anhang.

Ich benutze desweiteren 2 Monitore Samsung SyncMaster SA550 (27zoll).

Die Anforderung der Grafikkarte sollten den Bereich "Gaming" (gut-befriedigend) abdecken (Hauptsächlich "World of Warcraft, DiabloIII, Starcraft und ähnliches) und in einem Bereich von 250-350€ angesiedelt sein.

Danke schon einmal im Voraus

Mit freundlichen :)

P.S. Im Gehäuse ist Platz für alles was es an Grafikkarten so gibt (Corsair Graphite Series 600T Arctic White Steel / Plastic ATX Mid Tower Computer Case)
 

Anhänge

  • PC 1.JPG
    PC 1.JPG
    118,6 KB · Aufrufe: 56
  • PC 2.JPG
    PC 2.JPG
    91,7 KB · Aufrufe: 47
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
die meisten amd karten verbrauchen idle im 2-monitor betrieb unnötig viel, würde daher zu einer grünen raten.

zu deinem system würde prinzipiell eine gtx960 oder gtx970 passen.
 
jetzt empfiehlst du einem ahnungslosen schon wieder die 970 und weist ihn nicht darauf hin das diese ein speicherkrüppel mit 3,5gb ist sowie die restlichen 0,5gb in zukunft wegen mangelnder treiberpflege probleme machen könnten.

ich sehe du versuchst schon wieder leute hinters licht zu führen
 
jetzt empfiehlst du einem ahnungslosen schon wieder die 970 und weist ihn nicht darauf hin das diese ein speicherkrüppel mit 3,5gb ist sowie die restlichen 0,5gb in zukunft wegen mangelnder treiberpflege probleme machen könnten.

ich sehe du versuchst schon wieder leute hinters licht zu führen

Jetzt geht die blöde Diskussion schon wieder los. Trotz der Marketing-Lüge von Nvidia, bleibt die 970 eine gute Karte. Nachdem das aufgeflogen ist, hat die Karte ja nicht schlechter in den Benchmarks abgeschnitten.

Die Alternative zur 970 ist AMDs 390 (x). Die hat zwar unglaubliche 8 GB, aber die geht doch in die Knie bevor ein Spiel die 8 GB auslastet.
 
Jetzt geht die blöde Diskussion schon wieder los.

wenn der kollege auf die einschränkung nicht hinweist, muss ich das eben machen.

die 970 würde ich heutzutage nicht mehr empfehlen/kaufen
wenn man was in dem preissegement sucht dann die r9 390

oder für etwas mehr geld die gtx 980

Die Alternative zur 970 ist AMDs 390 (x). Die hat zwar unglaubliche 8 GB, aber die geht doch in die Knie bevor ein Spiel die 8 GB auslastet.

das stimmt nicht ganz, es wird immer schlecht optimierte spiele geben welche mehr vram brauchen
 
Zuletzt bearbeitet:
jetzt empfiehlst du einem ahnungslosen schon wieder die 970 und weist ihn nicht darauf hin das diese ein speicherkrüppel mit 3,5gb ist sowie die restlichen 0,5gb in zukunft wegen mangelnder treiberpflege probleme machen könnten.

ich sehe du versuchst schon wieder leute hinters licht zu führen

und du rätst grade jemandem mit nem bulli 8120 und 2 monitoren zu einer 390.

vllt denke ich mir im gegensatz zu dir ja ab und an was dabei, statt einfach irgendwelchen bullshit zu schreiben?

schon mal was vom dx11 cpu overhead bei amd gehört?
die roten sind unter dx11 nur in kombination mit einer potenten cpu wirklich schnell, und dazu gehört der 8120 einfach nicht.
http://www.hardwareluxx.de/communit...ne-performance-im-dx11-cpu-limit-1089150.html
CPU-Limit bei AMD und weniger Speichertakt bei Maxwell
Just Cause 3: Grafikkarten-Benchmarks - ComputerBase
Bekanntes Bild: AMD braucht mehr CPU-Takt als Nvidia
Star Wars: Battlefront: Erste Benchmarks der Open‑Beta - ComputerBase
und diese redaktion testet nun schon mit übertakteten highend intel cpus, die mal eben doppelt so schnell wie der 8120 sind.

in gta v pustet die 970 dank des overheads mal eben 30-40% mehr fps in kombination mit dem fx8 raus als die 290x.
Wyniki procesorów (CPU test #1) – 1920 × 1080 Very High :: PCLab.pl

gleichzeitig verbraucht die karte unter last 100w weniger, idle 50w (aber das steht ja weiter oben schon)
d4bds96dsahudeeei.jpg
 
Zuletzt bearbeitet:
und du rätst grade jemandem mit nem bulli 8120 und 2 monitoren zu einer 390.

vllt denke ich mir im gegensatz zu dir ja ab und an was dabei, statt einfach irgendwelchen bullshit zu schreiben?

anscheinend denkst du in der tat nicht nach
ich habe auch die 980 erwähnt

außerdem steht es ihm frei zur 960 zu greifen

ich schreibe dir gerne nochmal die 970 würde ich wegen der speicherproblematik nicht mehr empfehlen/kaufen
da du ja dies gerne und oft unterschlägst

schon mal was vom dx11 cpu overhead bei amd gehört?

wen interresiert schon dx11?
da dx12 schon vor der tür steht

ach ich vergas, dich interessierts
da du ja dann auf amd rumhacken kannst und man bei dx12 ja wieder bei nv die magere unterstützung beklagen kann

na warum suchst du denn nicht noch benchmarks in dx9?
da wird sich doch bestimmt auch was negatives über amd/ati sagen können
 
Zuletzt bearbeitet:
die 980 ist aber garnicht im budget?

und die 960 habe ich selber schon genannt :fresse:

dx11 sollte prinzipiell jeden interessieren der sich heute eine grafikkarte kauft und damit heute spielen will.

damit hast du dich jetzt leider schon wieder für eine weitere diskussion disqualifiziert.

von uns beiden bin übrigens auch nicht ich derjenige der ständig gegen die entsprechend andere seite der macht wettert, sondern immer nur du.
http://www.hardwareluxx.de/community/f306/power-color-r9-390-pcs-kaufen-1098057.html
http://www.hardwareluxx.de/communit...0-1200-budget-150-a-1097457.html#post24087209
http://www.hardwareluxx.de/communit...ht-aufloesung-1440p-1097099.html#post24078615
http://www.mydealz.de/deals/xfx-rad...ion-grafikkarte-499-inkl-battlefront-3-636693
http://www.mydealz.de/deals/powercolor-r9-290-turboduo-oc-225-inkl-dirt-rally-604209
http://www.mydealz.de/deals/powerco...battlefield-4-edition-242-inkl-versand-286764
http://www.mydealz.de/deals/xfx-ati-radeon-hd7950-3gb-high-end-grafikkarte-272-inkl-versand-103000
http://www.mydealz.de/deals/vtx3d-radeon-hd-7870-ghz-edition-2gb-gddr5-115-inkl-versand-343386

das könnte dir natürlich zu denken geben, erfordert aber ein gewisses maß an rückrad.
 
Zuletzt bearbeitet:
die meisten amd karten verbrauchen idle im 2-monitor betrieb unnötig viel, würde daher zu einer grünen raten.

Hallo, das ist eine Halbwahrheit. Wird 2x der gleiche Monitor genutzt, ist der Verbrauch vergleichbar hoch.
Wiedermal nur eine selektive Nennung der Fakten und das hat bei dir offensichtlich System.

Der angeblich höhere Overhead bei AMD wurde im Zusammenhang mit der Fury X in Full HD in dem ein oder anderen Spiel gemessen.
vllt denke ich mir im gegensatz zu dir ja ab und an was dabei, statt einfach irgendwelchen bullshit zu schreiben?

Nein, du denkst schon bei den Verbrauchsmessungen nicht an eine neutrale Betrachtung, sondern ziehst es vor es einseitig zu betrachten.
Wenn der gleiche Monitor genutzt wird, ist es völlig wurscht ob AMD oder Nvidia.

AMD Radeon R9 390X - Hawaii in neuen Gewändern - Leistungsaufnahme: Blu-ray-Wiedergabe – Multi-Monitor-Betrieb (Seite 20) - HT4U.net

20 Watt stehen bei 2 gleichen Monitoren und einer r9 390x auf der Uhr.

schon mal was vom dx11 cpu overhead bei amd gehört?
die roten sind unter dx11 nur in kombination mit einer potenten cpu wirklich schnell, und dazu gehört der 8120 einfach nicht.

Glaubst du das denn wirklich? Und vor allem wo sind die Tests die das belegen?
Ich kenne nur Tests in Kombination mit einer Fury X und einem Intel Prozessor und auf diese beziehst du dich auch.

Eine Fury X ist nochmal gute 40 % schneller wie eine r9 390.
Deine Tests zeigen auch, dass die r9 390 nicht von der CPU gebremst wird.

Auch hier unterliegst du wieder deinem Problem.
Du versuchst ganz einseitig und selektiv Links zusammenzubekommen die deine Richtung der Argumentation stützen, wirklich belastbares ist da nicht dabei.

gleichzeitig verbraucht die karte unter last 100w weniger, idle 50w (aber das steht ja weiter oben schon)

Nein, im Idle kann der Verbrauch der AMD sogar geringer sein und unter Last würde ich andere Seiten heranziehen die den Strombedarf nicht an der Steckdose messen.
Dieser AMD Overhead von dem du sprichst, ist wirklich lächerlich.

Das macht bei einem alten 2500k, der nicht viel schneller ist wie ein 8120 Bulldozer ( 25%) ein paar Prozent aus.
Das kann man mit in die Argumentation nehmen, letztendlich wird man aber keinen großen Unterschied spüren.

Aus meiner Sicht wäre der Griff zu einer r9 390 am vernünftigsten, die Gründe wurden hier schon genannt.
Und dass bei AMD ein 8120 mehr limitiert wie bei Nvidia.. äh das wäre schön wenn du das mal zeigen könntest.
 
Zuletzt bearbeitet:
Wird 2x der gleiche Monitor genutzt, ist der Verbrauch vergleichbar hoch.

Bitte was? o_O Könntest du das etwas ausführen?

da du ja dann auf amd rumhacken kannst und man bei dx12 ja wieder bei nv die magere unterstützung beklagen kann

Ja ne:
AMD DX11 = Käse, AMD DX12 = riesen Sprung zu DX11.
NV DX11 = super, NV DX12 = ebenfalls super.

Bei NV hat man keinen riesen Sprug von DX11 auf DX12, weil der DX11 Renderpfad schon sehr gut ist.
Bei AMD dagegen hat man anscheinend lieber Arbeit in Mantle und DX12 gesteckt, daher ist dort der Sprung von DX11 auf DX12 größer.

Ich würde mich nicht zu früh auf DX12 Spiele freuen, das wird noch etwas dauern, bis die sich am Markt durchsetzen.
 
Zuletzt bearbeitet:
Hallo, das ist eine Halbwahrheit. Wird 2x der gleiche Monitor genutzt, ist der Verbrauch vergleichbar hoch.
Wiedermal nur eine selektive Nennung der Fakten.

bei computerbase wird leider nicht angegeben was für monitore verwendet werden und die meisten anderen redaktionen führen solche messungen garnicht durch.
AMD Radeon R9 Nano im Test (Seite 8) - ComputerBase

sollte dass mittlerweile tatsächlich so sein das die karten problemlos heruntertakten wenn zwei identische monitor verwendet werden, dann dieses bitte einfach mit einer entsprechenden quelle belegen.

edit:
habe auf die schnelle jetzt nur was zur 380x bei pcgh gefunden
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/R9-380X-Test-Review-1178241/
dort sind es bei 2 monitoren 30 watt unterschied.

aber auch hier wieder keine angabe dazu was genau das für monitore sind..
 
Zuletzt bearbeitet:
Ja es ist 2 mal der selbe Monitor ein Samsung Syncmaster SA 550 27zoll

- - - Updated - - -

Es ist zwar totel spannende was ihr da alles so schreibt, aber ich kann den ganzen posts nicht so ganz eine sinnvolle info entnehmen kann nicht jemand mal ein paar Grafikkarten aufzählen vor und nachteile beleuchten?
Wäre super
 
960 - flink unter dx11 und 12, günstig, geringer verbrauch 2d wie 3d, verhältnismäßig unaufwändig zu kühlen.

970 - sehr flink unter dx11 und 12, geringer verbrauch 2d wie 3d, zweigeteiltes speicherinterface was in extremsettings und auflösungen höher als 1080p irgendwann vllt mal dafür sorgen könnte das die karte etwas schlechter läuft als möglich, verhältnismäßig unaufwändig zu kühlen.

280(x) - günstig,flink unter dx12, unter dx11 in kombination mit deiner verhältnismäßig lahmen cpu eher suboptimal, möglicherweise hoher verbrauch in kombination mit deinen 2 monitoren beim surfen, verhältnismäßig hoher verbrauch in 3d, verhältnismäßig aufwändig zu kühlen.

380(x) - günstig,flink unter dx12, unter dx11 in kombination mit deiner verhältnismäßig lahmen cpu eher suboptimal, möglicherweise hoher verbrauch in kombination mit deinen 2 monitoren beim surfen, verhältnismäßig hoher verbrauch in 3d, verhältnismäßig aufwändig zu kühlen.

390 - sehr flink unter dx12, unter dx11 in kombination mit deiner verhältnismäßig lahmen cpu eher suboptimal, möglicherweise hoher verbrauch in kombination mit deinen 2 monitoren beim surfen, verhältnismäßig hoher verbrauch in 3d, enorm viel vram (8gb) die aber eher was für auge sind als sie praktischen nutzen bringen, verhältnismäßig aufwändig zu kühlen,bei der 390 kannst du davon ausgehen das ihr niemals der speicher ausgeht.



@Ratstropfen

interessant dass das bei ht4u funktioniert, bleibt nun die frage warum es bei combase und pcgh nicht funktioniert.

und bezüglich des overheads.. entsprechende tests habe ich bereits oben verlinkt, überlesen oder ignoriert?

wenn du meinst das es den overhead so nicht gibt dann erkläre dir doch bitte selber mal warum amd überhaupt mantle entwickelte, und warum die amd karten unter dx12 im cpu limit so zulegen.

http://www.pcgameshardware.de/Ashes...ials/Benchmark-DirectX-12-DirectX-11-1167997/
wie du hier sehen kannst sind die roten unter dx11 im cpu limit deutlich lahmer, unter dx12 dann genau so schnell wie die grünen.
 
Zuletzt bearbeitet:
Bitte was? o_O Könntest du das etwas ausführen?

Habe ich doch bereits mit einem Test belegt, welcher zwei gleiche Monitore im Idle testet und mit einer Hawai AMD Karte kombiniert?
Was soll ich noch ausführen? Könntest du das konkretisieren, dann mach ich das. :)

Und da ich auch mit Prozessorbenchmarks kommen kann zu GTA5, die genau das Gegenteil sagen:

GTA V: Grafikkarten- und Prozessor-Benchmarks (Seite 2) - ComputerBase

"Beim Autofahren durch die Stadt stellt GTA V keine allzu hohen Anforderungen an aktuelle Intel-Prozessoren. Solange vier CPU-Kerne vorhanden sind, spielt die Taktrate weder auf der GeForce GTX 980, noch auf der Radeon R9 290 eine Rolle."

@ Storm

Wie lange hast du eigentlich gesucht, um den polnischen Link zu finden?
Ich vermute mal stark dass dort etwas nicht gepasst hat. Ein alter i3 oder i7 860 auf dem Niveau eines OC 9590?
Absoluter Unsinn, vor allem weil das Spiel ja mehr als 2 Kerne nutzt und PCGH und Computerbase keine Probleme im CPU Limit feststellen.

Ich hab deine Links schon gesehen, verwertbares ist dort nicht dabei.

http://www.computerbase.de/2015-12/just-cause-3-grafikkarten-benchmarks/

Computerbase schreibt AMD Karten im CPU Limit, belegen tun sie es nicht, es deutet eigentlich alles darauf hin, dass es nicht so ist, warum?

R9 390 und GTX 970 liegen in Full HD gleichauf.
Eine R9 Fury X liegt in Full HD 9% vor einer r9 390x und in 4K ebenso nur 13%.
Wenn es ein CPU Limit wäre, würde die Fury X in WHQD und in 4K viel stärker zulegen und normalerweise 25 bis 30% schneller sein.
Das was Sache ist, ist, dass die Fury X nicht richtig ausgelastet ist, weder in Full HD, noch in 4K.

http://www.computerbase.de/2015-10/star-wars-battlefront-erste-benchmarks-der-open-beta/#abschnitt_prozessorbenchmarks

Erstens trifft das Problem ausschließlich auf die Fury X zu und nicht auf eine Hawai Grafikkarte.
Zudem ist die Skalierung völlig untypisch für ein CPU Limit oder einen Directx11 Overhead, das sieht man alleine schon sofort an der Skalierung.

Von 2,5 auf 3,5 ghz sind es 13% Zunahme und von 3,5 auf 4,4 sind es plötzlich 18%. WTF?
Von 2,5 auf 3,5 sind prozentuel erheblich mehr als von 3,5 auf 4,4, der Unterschied dazwischen ist höher als 30%, es springen aber nochmal 40% mehr FPS heraus?
Ne, da kann was nicht stimmen, außerdem liegen die FPS in Bereichen wo eine r9 390 gar nicht hinkommt in FUll HD, somit ist dein aufgreifen des Overheads hier sowieso sinnfrei.

2,5 ghz eines Intel Prozessors entsprechen in etwa der Leistungsfähigkeit eines 3,5ghz FX.
Also kannst du ganz gut ablesen, dass der Prozessor da eine 390 nicht bremsen wird.

sollte dass mittlerweile tatsächlich so sein das die karten problemlos heruntertakten wenn zwei identische monitor verwendet werden

Das ist schon seit Release 2013 so und daher müsstest du das auch wissen, wenn du so aktiv hier in der Kaufberatung tätig bist.

280(x) - günstig,flink unter dx12, unter dx11 in kombination mit deiner verhältnismäßig lahmen cpu eher suboptimal,

Dafür dass es eigentlich sogut wie keine Hinweise dafür gibt, dass eine 280x mit einem FX8120 in Directx11 eine suboptimale Leistung bringen soll, lehnst du dich bei diesem Thema ziemlich weit aus dem Fenster.
Und dass die AMD Grafikkarten unter Directx12 flinker sind als unter Directx11 ist doch der absolute Abschuss.
Wieviele Benchmarks existieren eigentlich hierzu? Sogut wie keine...:wall:

interessant dass das bei ht4u funktioniert, bleibt nun die frage warum es bei combase und pcgh nicht funktioniert.

Weil diese Seiten mit unterschiedlichen Monitoren testen, es aber nicht erwähnen.

was in extremsettings und auflösungen hoher als 1080p irgendwann vllt mal dafür sorgen könnte das die karte etwas schlechter läuft als möglich

Die Auflösung nimmt auf den V-ramverbrauch sogut wie keinen Einfluss, das heißt, wenn die Spiele später am V-ram verhungern, wird das genauso in Full HD der Fall sein, in höheren Auflösungen sicherlich früher.

wie du hier sehen kannst sind die roten unter dx11 im cpu limit deutlich lahmer, unter dx12 dann genau so schnell wie die grünen.

Das ist ein Spiel im Early Access Modus. Das ziehst du wirklich dafür heran um Einschätzungen über die Directx12 Performance von AMD und Nvidia zu treffen und deine paar Links die keine belastbaren Informationen bezüglich dem Overhead einer 390 und eines FX8120 zeigen?


Egal.....


Der TE wird sich schon selbst informieren, hier wird einfach nur Meinungsmache betrieben und mit ein bisschen selektiver Wahrnehmung irgendetwas zusammengeschustert.
 
Zuletzt bearbeitet:
"Beim Autofahren durch die Stadt stellt GTA V keine allzu hohen Anforderungen an aktuelle Intel-Prozessoren. Solange vier CPU-Kerne vorhanden sind, spielt die Taktrate weder auf der GeForce GTX 980, noch auf der Radeon R9 290 eine Rolle."

das ist mehr oder weniger bullshit

dreh mal die sichtweite hoch und probiers dann nochmal. es gibt stellen da kackt mein 4,4 ghz ivy quad weg und die gpu chillt rum. selbst auf niedrigen sichtweiten passiert das an einigen stellen.
 
Wie lange hast du eigentlich gesucht, um den polnischen Link zu finden?

nicht viel länger als für die anderen gefühlten 100 links.
http://www.hardwareluxx.de/communit...ne-performance-im-dx11-cpu-limit-1089150.html

ich selber verwende übrigens nen 8320@4,5ghz, welcher mal eben 20% schneller ist als der 8120 vom Valhall,
und selbst damit war der overhead auf der 290 nicht ohne.

ich werde da nun allerdings nicht weiter drauf eingehen, wenn dich die thematik interessiert dann ließ ich dazu ein oder lass es.
 
Zuletzt bearbeitet:
970 - sehr flink unter dx11 und 12, geringer verbrauch 2d wie 3d, zweigeteiltes speicherinterface was in extremsettings und auflösungen hoher als 1080p irgendwann vllt mal dafür sorgen könnte das die karte etwas schlechter läuft als möglich, verhältnismäßig unaufwändig zu kühlen.

gut hast du es geschrieben, war es so schwer die speicherproblematik endlich mit aufzuführen?
 
gut hast du es geschrieben, war es so schwer die speicherproblematik endlich mit aufzuführen?

ich halte es einfach nicht für wichtig.

wie du hier selber aufzeigst hat das überschreiten der 3,5gb marke einen leistungsverlust von 1-3% zur folge
http://www.hardwareluxx.de/community/f306/1080p-grafikkarte-1094955-3.html#post24100736

setz dich doch mal heimlich bei deinen kollegen vor den rechner und untertakte deren grafikkarte um 3%, nach nem monat fragst du sie ob ihnen irgendetwas aufgefallen ist.

den dx11 overhead findet interessanterweise hier kaum jemand wichtig, wobei der je nach cpu schon mal für 30% leistungsverlust sorgt.
 
Habe ich doch bereits mit einem Test belegt, welcher zwei gleiche Monitore im Idle testet und mit einer Hawai AMD Karte kombiniert?
Was soll ich noch ausführen? Könntest du das konkretisieren, dann mach ich das. :)

Achso, dann ist alles gut. Ich hatte lediglich den Sinn des Satz nicht verstanden ;)

den dx11 overhead findet interessanterweise hier kaum jemand wichtig, wobei der je nach cpu schon mal für 30% leistungsverlust sorgt.

Ich finde ihn wichtig, weshalb mein nächster Build auch definitiv eine nV Graka haben wird (und einen i3).
 
Zuletzt bearbeitet:
Das ist ein Spiel im Early Access Modus. Das ziehst du wirklich dafür heran um Einschätzungen über die Directx12 Performance von AMD und Nvidia zu treffen und deine paar Links die keine belastbaren Informationen bezüglich dem Overhead einer 390 und eines FX8120 zeigen?


Egal.....

nö, egal ist otto.
der overhead ist so garnicht egal.

hier noch bissel mehr vom overheadkuchen.
Ranking procesorów w Battlefield 4 :: PCLab.pl
FX8350 290X Mantle 77fps
FX8350 290X DX11 44fps
FX8350 780ti DX11 62fps

die 290x ist im cpu limit unter dx11 deutlich langsamer als die 780ti, unter mantle dann aber flinker.
woran das wohl liegen mag? vllt am overhead? :fresse:

warum gibt es mantle überhaupt?
vllt um dem overhead aus dem weg zu gehen? :drool:
http://www.overclock.net/t/1528559/...mantle-is-a-selling-point-bunch-of-benchmarks

warum heist der 3dmark api overhead test eigentlich api overhead test?
wird da etwa der api overhead getestet? :fresse:

3DMark API Overhead: DirectX*12 im Test vor Mantle und AMD vor Nvidia - ComputerBase
und warum leisten die grünen dort unter dx11 zwei-drei mal so viel wie die roten?
und warum sind die roten unter mantle so viel schneller als unter dx11?
und warum sind die roten dann unter dx12 auf einmal schneller als die grünen?
liegt das vllt am overhead?! :confused:
d4bpo78fqe382304q.gif


und warum ist die r9 270x in kombination mit dem i3 in farcry 4 im cpu limit eigentlich lahmer als die 750ti, wärend die 270x in kombination mit dem i7 doch bald doppelt so schnell ist?
könnte vllt wenigstens das am overhead liegen?
d2c7trmq0slt15qof.jpg



Das ist schon seit Release 2013 so und daher müsstest du das auch wissen, wenn du so aktiv hier in der Kaufberatung tätig bist.

was für ein release meinst du da überhaupt?
das der 290x?
da war auch ht4u noch der auffassung dass das mit dem 2-monitor idle takt nicht so toll funktioniert
http://ht4u.net/reviews/2013/amd_radeon_r9_290x_hawaii_review/index22.php

ich werde morgen mal bei pcgh und computerbase anfragen was man denn für monitore in den reviews benutzt.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh