neue GK für meinen PC

Dann schieß mal los! Wie kommst du darauf?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ganz einfach: Wenn man ein Produkt erwirbt, obwohl es von der Konkurrenz zum gleichen Preis geschlagen wird und die Konkurrenz zudem noch zukunftssicherer ist, hat man irgend eine Brille auf.

Denn man hat nicht das bessere Produkt erworben (muss man auch nicht, ist ja jedem selbst überlassen) und sollte es demnach auch nicht weiterempfehlen.
 
Zuletzt bearbeitet:
Die Botschaft habe ich schon verstanden, aber woran machst du das fest? Zeig mir doch mal, warum die R9 390 das bessere Produkt ist, oder die R9 380 das bessere Produkt im Vergleich zur GTX 960 ist.

Und komm mir jetzt nicht mit einem DX12 Benchmark von Ashes of the Singularity ^^
 
Zuletzt bearbeitet:
Ganz einfach: Wenn man ein Produkt erwirbt, obwohl es von der Konkurrenz zum gleichen Preis geschlagen wird und die Konkurrenz zudem noch zukunftssicherer ist, hat man irgend eine Brille auf.

Denn man hat nicht das bessere Produkt erworben (muss man auch nicht, ist ja jedem selbst überlassen) und sollte es demnach auch nicht weiterempfehlen.

Die Radeon 300er Serie ist doch auch nur eine umgelabelte 200er Serie, oder? Und die Nvidia Karten verbrauchen doch im Schnitt ca. 100W weniger als die AMD Konkurrenz.
GTX960 120W vs. 380 190W + GTX970 145W vs. 390 275W + GTX980 180W vs. 390X 300W
Bei 20W will ich mal nichts sagen, aber 100W über einen längeren Zeitraum x ist schon nicht ganz zu vernachlässigen. Zudem sind die Karten halt auch leiser ...
Leistungsmäßig mag eine gleichteure (wenn man das Mehr an Stromkosten nicht berücksichtigt) AMD Karte vllt den ein oder anderen Euro günstiger sein (z.B. ist eine Radeon 380 ca. 10€ günstiger als eine GTX960), das ändert sich wohl aber mit der Dauer der Nutzung.
Und jetzt schon so über DX12 Geschichten zu spekulieren, bringt doch eh nichts, oder? Wir leben doch auch im hier und jetzt und niemand weiß wie sich die aktuellen GPU's in 1 oder 2 Jahren mit den dortigen Spieletiteln schlagen werden ...

Um zum eigentlichen Thema des TE zurück zu kommen ... aktuell überzeugt mich keine Graka im Bereich 250€ bis 400€. Ich überlege eigentlich auch von der GTX960 abzugraden, aber die GTX970 hat einfach mal 0 Preisverfall und ich sehe es da nicht ein den gleiche Betrag zu zahlen wie Leute in 2014/2015 und die AMD Karten verbrauchen mir in der heutigen Zeit einfach viel zu viel Strom und zudem empfinde ich solch umgelabelte "neue" Serien immer als Kundenverarsche, weshalb ich hier aus Prinzip schon nicht zuschlagen würde.
Ich warte daher mal ab was sich im Q3 2016 so ergibt ... vllt überrascht mich AMD ja positiv und ich wechsle dann ins rote Lager.
 
Zuletzt bearbeitet:
Bei durchschnittlicher Nutzung hätte eine GTX680 damals 10 Jahre laufen müssen um den Aufpreis gegenüber einer 7970 auszugleichen. Bringt einem nur alles nichts, da die Produkte bei Nvidia nach 2 Jahren am Ende sind. Wenn so manches mal eine GTX960 dank Gameworks so schnell ist wie eine Titan1 kann man sich nur an den Kopf fassen wie man da die Treue halten kann. Wenn es jetzt eine Karte sein soll AMD 390. Und gerade wenn das Geld knapp ist lieber auf die neue Generation warten. Warum? Support und Langlebigkeit.

Die AMD 280x ist eine 7970 aus 2011. Böse böse Rebrands aber auch.
Hitman - PC-Anforderungen - DirectX 12 gegen DirectX 11 - GameStar
 

Naja ... super aussagekräftig ist das nicht ... ich zitiere mal ein paar Abschnitte ...

Da ist es also, das erste fertige DirectX 12-Spiel. Laut unseren Benchmarks ist das allerdings primär für AMDs Radeons in Form von großen fps-Gewinnen
bringt nur leider recht wenig, da:
im Vergleich zum (identisch aussehenden) DX11

Zudem ist es ja nichts neues, dass das eine Spiel mal eher AMD liegt und wieder bei einem anderen Game Nvidia die Nase vorn hat. Ok, in Hitman unter DX12 hat also AMD die Nase vorn. Aber da DX12 bei Hitman genauso aussieht wie auf DX11, ist der Vorteil doch auch wieder irrelevant, oder nicht?



...kann man sich nur an den Kopf fassen wie man da die Treue halten kann.
Ich halte niemanden die Treue. Egal ob bei den GPU's AMD vs Nvidia, noch bei Android vs iOS. Ich kaufe immer das, was für mich aktuell das beste Gesamtpaket bietet. Und bei den aktuellen GPU's gibts das aktuell leider nicht :(

Ich würde dem TE daher aktuell wohl zu einer gebrauchten 290X raten. Die kostet ca. 220€ und beitet wohl die beste Lösung bis Q3 2016 und dann werten die Karten mit Sicherheit eh neu gelegt ;)
 
Zuletzt bearbeitet:
Ich klinke mich auch mal ein :)

Und zwar bin ich auch zur Zeit auf der Suche nach ner neuen Grafikkarte und das einzige was mich grad von der 390 abhält ist der Stromverbrauch im Multi-Monitor betrieb. Hatte mir die GTX 750Ti nur mal als Übergang geholt (ging grad los mit dem 3,5GB Vram Debakel) und ich dachte, erstmal etwas abwarten, vllt kommt ja eine TI. Nur ist mittlerweile ein Jahr rum! Ältere Games habe ich auch alle aufgeholt :d .

Mein Problem ist vor allem, dass ich zwei Monitore habe (mit TV auch drei) alle FullHD, nur mein Dell ist übertaktet und läuft auf 90Hz.
Wenn ich Abends noch am Rechner rumgammle läuft halt immer Netflix/Amazon-Prime oder Youtube nebenbei (zählt das in der Verbrauch-Tests als Blue-Ray?). Hier sieht man teilweise Verbrauchswerte von 100W mehr im Idle/Blue-Ray-Betrieb und das macht irgendwie schon was aus auf 3 Jahre. Aber es auch auf anderen Seiten komplett andere Verbrauchswerte von nur 20W mehr.

Kann ich mir die 390 ohne Probleme holen? Bei Nvidia hab ich die einzige Grafikkarte die mir Halbwegs P/L-Technisch gefällt schon verbaut :d

€: Mir fällt grad ein dass ich regelmässig Moonlight im Wohnzimmer auf dem FireTv nutze, gibt es hier auch eine AMD Lösung (nur Steam reicht dabei)?
 
Zuletzt bearbeitet:
mR.y0 schrieb:
das einzige was mich grad von der 390 abhält ist der Stromverbrauch im Multi-Monitor betrieb.
Wie viele Monis sollen's denn sein? Mein letzter Stand war:
1 oder 2: prima, akzeptabler Verbrauch.
3 oder mehr: "Mist, wie kommen denn die Werte zu Stande?!"


Don Kanalie schrieb:
Sicher wird doch erst die "High End" Version produziert und zu Weihnachten die Mittelklasse verkauft.
Nein, nach aktuellen Info's & Vermutungen kommen erst die kleinen GraKas (bei AMD UND Nvidia), was bei einer neuen Fertigungsgröße auch intelligent ist.
 
Zuletzt bearbeitet:
...Um zum eigentlichen Thema des TE zurück zu kommen ... aktuell überzeugt mich keine Graka im Bereich 250€ bis 400€. Ich überlege eigentlich auch von der GTX960 abzugraden, aber die GTX970 hat einfach mal 0 Preisverfall und ich sehe es da nicht ein den gleiche Betrag zu zahlen wie Leute in 2014/2015 und die AMD Karten verbrauchen mir in der heutigen Zeit einfach viel zu viel Strom und zudem empfinde ich solch umgelabelte "neue" Serien immer als Kundenverarsche, weshalb ich hier aus Prinzip schon nicht zuschlagen würde.
Ich warte daher mal ab was sich im Q3 2016 so ergibt ... vllt überrascht mich AMD ja positiv und ich wechsle dann ins rote Lager.

Ich tendiere auch dahin den nächsten Release abzuwarten

...Ich würde dem TE daher aktuell wohl zu einer gebrauchten 290X raten. Die kostet ca. 220€ und beitet wohl die beste Lösung bis Q3 2016 und dann werten die Karten mit Sicherheit eh neu gelegt ;)

werde sie nochmals anschauen
 
Wie viele Monis sollen's denn sein? Mein letzter Stand war:
1 oder 2: prima, akzeptabler Verbrauch.
3 oder mehr: "Mist, wie kommen denn die Werte zu Stande?!"

Ja in der Regel zwei, aber auch drei wenn der TV an ist. Ich hatte auch mal was wegen unterschiedlichen Frequenzen gehört.

Aber was ich auch sehe, dass es keine richtige Alternative zu Moonlight auf den AMD Grafikkarten gibt :shake:
 
Die Radeon 300er Serie ist doch auch nur eine umgelabelte 200er Serie, oder? Und die Nvidia Karten verbrauchen doch im Schnitt ca. 100W weniger als die AMD Konkurrenz.
GTX960 120W vs. 380 190W + GTX970 145W vs. 390 275W + GTX980 180W vs. 390X 300W

:shake:
wenn dem so wäre käme eine 970er mit einem (!) 6 Pin Anschluss aus, hast du dich schonmal gefragt, warum die alle einen 6+8Pin haben? -> 6Pin = 75W ->8Pin = 150W dann zählen wir mal die 75W vom PCIe Anschluss dazu....

145W für eine 970 sind utopisch niedrig, 180-190W ist da der realistische wert > von den coolen Maxwell-peaks auf über 300W reden wir mal nicht
Der Unterschied zur 390X (~275W) ist da keine Frage, auch dass unterschiede von 50-70W durchwegs kaufentscheiden sein können lass ich noch zu.

Traurig find ich es wenn solche falsche Pauschalaussagen getroffen werden....
 
:shake:
wenn dem so wäre käme eine 970er mit einem (!) 6 Pin Anschluss aus, hast du dich schonmal gefragt, warum die alle einen 6+8Pin haben? -> 6Pin = 75W ->8Pin = 150W dann zählen wir mal die 75W vom PCIe Anschluss dazu....

145W für eine 970 sind utopisch niedrig, 180-190W ist da der realistische wert > von den coolen Maxwell-peaks auf über 300W reden wir mal nicht
Der Unterschied zur 390X (~275W) ist da keine Frage, auch dass unterschiede von 50-70W durchwegs kaufentscheiden sein können lass ich noch zu.

Traurig find ich es wenn solche falsche Pauschalaussagen getroffen werden....

Und wenn Du Ende diesen Jahres Deinen Stromzählerstand den Stadtwerken mitteilst, musst Du nur angeben, das du eine GTX970 hast, und bekommst pauschal 300,- zurückerstattet!!^^
Alter Schwede.............da haste die 970 ja binnen eines Jahres wieder raus!! Geil...............kauft Leute, kauft!!^^
 
:shake:
wenn dem so wäre käme eine 970er mit einem (!) 6 Pin Anschluss aus, hast du dich schonmal gefragt, warum die alle einen 6+8Pin haben? -> 6Pin = 75W ->8Pin = 150W dann zählen wir mal die 75W vom PCIe Anschluss dazu....

145W für eine 970 sind utopisch niedrig, 180-190W ist da der realistische wert > von den coolen Maxwell-peaks auf über 300W reden wir mal nicht
Der Unterschied zur 390X (~275W) ist da keine Frage, auch dass unterschiede von 50-70W durchwegs kaufentscheiden sein können lass ich noch zu.

Traurig find ich es wenn solche falsche Pauschalaussagen getroffen werden....

Wie du meinst ... man muss es sich nur schön reden. Schlussendlich kann ja zum Glück jeder kaufen was er selber für das Beste hält.


Haha, der ist gut!!
 
:shake:
wenn dem so wäre käme eine 970er mit einem (!) 6 Pin Anschluss aus, hast du dich schonmal gefragt, warum die alle einen 6+8Pin haben? -> 6Pin = 75W ->8Pin = 150W dann zählen wir mal die 75W vom PCIe Anschluss dazu....

man ist sich halt darüber im klaren das A) nicht jedes billigbrett die 75w liefert und B) die leute (bzw boardpartner) auch ganz gerne mal an der taktschraube drehen.
für die vorgabe von 1178mhz boost würde 1*6pin oder 1*8pin möglicherweise ausreichen, mit übertaktung dann aber eben nicht mehr

d7ail6tvgh6fnlsn1.jpg

AMD Radeon R9 390 8GB review • Eurogamer.net
 
Ich habe mal wieder hier aufgeräumt.

Bitte :btt::btt::btt::btt::btt:
 
Topic:

"Überlegung:
Wie sieht es mit der R 9 380 aus? Die liegt bei ungefähr +/- 200€.
Wäre das ein Kompromiss, mit der ich dieses und eventuell nächstes Jahr noch überbrücken kann?
Könnte ich mit der Karte Division und Siege auf High, nicht Ultra(!) in 1920x1080 sagen wir mit mal 60FPS zocken?

@TE
Ja denke das wäre dann die Alternative zu "Gebraucht" kommst du dann klar ?
 
Zuletzt bearbeitet:
Sollte reichen, würde aber dann nur die 4GB Variante nehmen.


Nachtrag: 60 FPS bei Division kann ich mir damit aber nicht vorstellen, auch nicht auf "hoch".
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Stromverbrauchsmessungen sind seid Maxwell ja nicht mehr soo einfach, gerade ohne passendes Equipment -> siehe THG
da wirds etwas präziser als "+100W im Schnitt" - aber klar braucht etwas weniger Speicherplatz im Köpfchen sich nur solche Schalgworte zu merken.

die spezifizierten 75W sind jetzt nicht häufig ein Problem (will nicht ausschließen dass es Probleme desswegen geben könnte) -> ansonsten würde man öfter was hören von Leute die zB ne GTX750/Ti im Einsatz haben, die sicher über den PEG versorgen muss. Auch sieht man dass viele Performance Karten (und höher) die 75W vom Slot abgreifen.
Mir ist Klar dass man die Verlustleistung nicht direkt an den Stromanschlüssen ablesen kann -> Grundlos wird die Stromversorgung aber auch nicht so dimensioniert. Auf +/- 75W kommts dann meist doch hin

Unterm Strich sind die Stromkosten eh nit wirklich ausschlaggebend
2h - 365Tage im Jahr (wobei mir das schon ziemlich viel vorkommt - zumindest wenn man sein eigenes Geld verdient, und vielleicht noch Familie, Freunde, Hobbys hat) sind 50W mehr 9€ - nach 730h Last auf der GPU...

Klarerweise ist jeder Minderverbrauch auch weniger Kühlaufwand...

Nicht jeder kauft eine GPU im Jahres- oder Zweijahrestakt (besonders die letzten Jahre). DX12 ist sicher noch nicht ein Thema, wer für mehr als 2 Jahre kauft, für denjenigen kann es sich doch lohnen. Das Thema steckt noch in den Kinderschuhen, die Titel welche DX12 unterstützten zeigen mehr oder minder eine Tendenz Richtung AMD. Was auch klar sein sollte, schließlich verliert Nvidia dabei einen ihrer größten Vorteile, den wirklich sehr effizienten DX11 Treiber.


Gebraucht wäre eine 7970 auch interressant -> gerade die frühen Modelle ohne Voltage-lock sind nette "Spielzeuge"

Für Multimonitor Setups kann man immer noch 1-2 Displays an die iGPU hängen -> je nachdem was dargestellt werden soll -> hilft im Verbrauch schon deutlich
 
Unterm Strich sind die Stromkosten eh nit wirklich ausschlaggebend
2h - 365Tage im Jahr (wobei mir das schon ziemlich viel vorkommt - zumindest wenn man sein eigenes Geld verdient, und vielleicht noch Familie, Freunde, Hobbys hat) sind 50W mehr 9€ - nach 730h Last auf der GPU...

Jein ;) Ich bin immer noch der Meinung, welche durch diverse Tests bestätigt wird, dass der Unterschied je nach Karte (z.B. GTX970 vs. 390) mehr als deine besagten 50W sind. Angenommen es sind 100W Unterschied, was es wohl in etwa ist, dann wären es schon 18€ im Jahr Unterschied. Bei einer Nutzung von angenommen 3 Jahren sind das dann schon über 50€. Die steigenden Strompreise mal außen vor ... Bei einem Anschaffungspreis von ca. 300€ entspricht das schon einer Ersparnis von ~17% bei nahezu gleicher Rechenleistung.
Wenn der Stromverbrauch allerdings eh kein Kriterium ist, weil die GPU sowieso jedes Jahr gewechselt wird, oder Mami und Papi die Stromrechnung bezahlt, dann kann man natürlich auch zur AMD greifen.
 
So, jetzt sage ich mal was.

In den nächsten 2 - 6 Monate releasen AMD und Nvidia ihre neue Grafikkarten Generationen.

Daher würde ICH mich nach kostengünstigen Übergangslösung umsehen.

Empfehlen würde ich die 7950/7970 die quasi baugleich ist zu 280. Sie hat genug Leistung um auch die nagelneuen Blockbuster zumindest auf Mid bis High Einstellungen ruckelfrei in FullHD darzustellen. Zudem gibt es Sie hier am Marktplatz für ca. 100€-120€

Eine 380 kostet fast das Doppelte. Eine 390 nochmal fast eine Hunni mehr. Wozu?

Für die Zukunft kaufen lohnt sich fast nie. Wenn du deinen 4K Monitor hast, dann brauchst du erst eine Grafikkarte mit mehr Bums.

Übrigens: Derzeit ist mir KEINE GPU bekannt die aktuelle Eye Candy Games in 4K bei Max Einstellung ruckelfrei darstellen kann.
 
Jein ;) Ich bin immer noch der Meinung, welche durch diverse Tests bestätigt wird, dass der Unterschied je nach Karte (z.B. GTX970 vs. 390) mehr als deine besagten 50W sind. Angenommen es sind 100W Unterschied, was es wohl in etwa ist, dann wären es schon 18€ im Jahr Unterschied. Bei einer Nutzung von angenommen 3 Jahren sind das dann schon über 50€. Die steigenden Strompreise mal außen vor ... Bei einem Anschaffungspreis von ca. 300€ entspricht das schon einer Ersparnis von ~17% bei nahezu gleicher Rechenleistung.
Wenn der Stromverbrauch allerdings eh kein Kriterium ist, weil die GPU sowieso jedes Jahr gewechselt wird, oder Mami und Papi die Stromrechnung bezahlt, dann kann man natürlich auch zur AMD greifen.

Gerade wenn man die Karte 3 Jahre behalten möchte, würde ich ganz klar zur R9 390 tendieren. Die bisher immernoch ungeklärte Sache bezüglich des asynchronous shaders sowie dem Speicher-Feature wäre für mich zwei Kriterien, die mir bei der Zukunftssicherheit ziemliche Bauchschmerzen bereiten würden, gerade in Hinblick auf DX 12. Je länger die Karte im Einsatz bleiben soll, desto mehr würde ich zur R9 390 tendieren.
Stromaufpreis hin oder her: Wenn die Leistung auf einmal nicht mehr stimmt, dann bringt mir der geringere Stromverbauch auch nichts mehr.
 
Jein ;) Ich bin immer noch der Meinung, welche durch diverse Tests bestätigt wird, dass der Unterschied je nach Karte (z.B. GTX970 vs. 390) mehr als deine besagten 50W sind. Angenommen es sind 100W Unterschied, was es wohl in etwa ist, dann wären es schon 18€ im Jahr Unterschied. Bei einer Nutzung von angenommen 3 Jahren sind das dann schon über 50€. Die steigenden Strompreise mal außen vor ... Bei einem Anschaffungspreis von ca. 300€ entspricht das schon einer Ersparnis von ~17% bei nahezu gleicher Rechenleistung.
Wenn der Stromverbrauch allerdings eh kein Kriterium ist, weil die GPU sowieso jedes Jahr gewechselt wird, oder Mami und Papi die Stromrechnung bezahlt, dann kann man natürlich auch zur AMD greifen.

Dann wärs das Beste den PC ganz aus zulassen -> spart noch mehr Strom
Wer wirklich 2h im Schnitt jeden Tag 365 Tage im Jahr zockt- gibt eh schon mindestens 90€ im Jahr für den Strom seines PCs aus...
ob das jetzt 81€ oder 99€ sind sollte für jemanden der 300€ in ne GPU versenkt nicht DER entscheidende Punkt sein.
Wenn ich das Produkt dafür 6 Monate länger nutzen kann hat man den Unterschied eh schon wieder rausgeholt.
Als ich 2012 eine 7970 gekauft hatte, war der Stromverbrauch auch das Argument für die GTX680 -> rückblickend glaub ich nicht, dass es eine falsche Entscheidung war ;) -> heißt nicht dass 970vs390 dasselbe passiert.

Diverse Tests "messen" gerne mit so putzigen Mess-Zwischenstecker -> empfehle da wirklich mal die THG Artikel
Gerade seit Maxwell ist das ganze ja nicht mehr so einfach.
Sinds "nur" mehr 75W wären wir bei 13,5€ im Jahr oder 1,13€ im Monat... ich glaub kann man auch zu ner AMD greifen wenn Mami und Papi einem nicht die Stromrechnung bezahlen :)
Und das wohlgemerkt immer noch bei 730h -> wer seine Rechnungen selber zahlt wird eher nicht in diesen Bereichen landen...

Effizienz ist eine schöne Sache, wird aber gerne überbewertet.
Besser 10min der Zockzeit an die frische Luft gehen ;)
 
+1

Besser hätte man es nicht schreiben können.
 
Ma ehrlich, bei GamingPc über den Verbrauch zu meckern ist ähnlich wie bei einem Lambo oder Ferrari zu meckern, dass er mehr wie 10L auf 100km braucht. ;)
 
Zuletzt bearbeitet:
Dann wärs das Beste den PC ganz aus zulassen -> spart noch mehr Strom
Wer wirklich 2h im Schnitt jeden Tag 365 Tage im Jahr zockt- gibt eh schon mindestens 90€ im Jahr für den Strom seines PCs aus...
ob das jetzt 81€ oder 99€ sind sollte für jemanden der 300€ in ne GPU versenkt nicht DER entscheidende Punkt sein.
Wenn ich das Produkt dafür 6 Monate länger nutzen kann hat man den Unterschied eh schon wieder rausgeholt.
Als ich 2012 eine 7970 gekauft hatte, war der Stromverbrauch auch das Argument für die GTX680 -> rückblickend glaub ich nicht, dass es eine falsche Entscheidung war ;) -> heißt nicht dass 970vs390 dasselbe passiert.

Diverse Tests "messen" gerne mit so putzigen Mess-Zwischenstecker -> empfehle da wirklich mal die THG Artikel
Gerade seit Maxwell ist das ganze ja nicht mehr so einfach.
Sinds "nur" mehr 75W wären wir bei 13,5€ im Jahr oder 1,13€ im Monat... ich glaub kann man auch zu ner AMD greifen wenn Mami und Papi einem nicht die Stromrechnung bezahlen :)
Und das wohlgemerkt immer noch bei 730h -> wer seine Rechnungen selber zahlt wird eher nicht in diesen Bereichen landen...

Effizienz ist eine schöne Sache, wird aber gerne überbewertet.
Besser 10min der Zockzeit an die frische Luft gehen ;)

Nicht das ich hier falsch verstanden wurde ... bei gleicher Leistung und gleichen Preis kommt für MICH an 3. Stelle der Stromverbrauch und wenn sich Karte A und Karte B in Leistung und Preis kaum unterscheiden, die Karte A aber weitaus mehr Strom zieht, dann kaufe ich Karte B.
Das mag für manch anderen wieder absolut egal sein was die Karte verbraucht, da zählt dann Optik, Lautstärke, OC-Freudigkeit, Sympatie ... ist halt auch irgendwie jeden selbst überlassen.
 
Wenn eine der beiden Karten aber einen bekannten hardwareseitigen Mangel besutzt (ein bug ist es ja nicht mal, da absichtlich beschnitten), sollte das irgendwo zwischen Punkt 1 und 3 fallen.
 
Ich hatte eine 670 und unter Spielelast um die 260-270 Watt Verbrauch mit einem i5 2500K @ 4x4,2GHz. Jetzt mit einer 280X @ 1000/1500MHz sind es mit undervolting (1,044V) ca. 240Watt (alles gemessen an der Steckdose halt) und mit OC 1130/1500MHz @1,144V so ca. 290-300 Watt. Finde da kann man bei der 670 nicht von besserer Effizienz sprechen.

EDIT: Sacht ma: Stimmt es eigentlich dass die 3,5GB der 970 auch nur mit 224Bit angebunden sind und nicht mit 256 ?
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh