Drei Custom-Modelle der GeForce GTX 1060 im Test

Da es sich hier um die Nachfolgerkarten zu R9-380 und GTX 960 handelt, sollten eigentlich keine der 8GB/6GB Karten mehr wie 249€ kosten, ich finde dieses Jahr bietet keiner der beiden Hersteller wirklich ein gutes Preis / Leistung Verhältnis, beide schlecht meiner Meinung nach.

Dann musst du halt zur RX 480 4 GB oder zur evtl. kommenden GTX 1080 3 GB greifen. Die werden kaum mehr als 250 Euro kosten - eher unter 200 Euro und es sind auch die Nachfolger der R9 390/GTX960.

Wo im OC Test sind die Stromverbrauchswerte? Fände es ja ganz interessant, wie die dann wären.

Hier ist eine Analyse von Tom's Hardware:



 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
versteh mich nicht falsch tardis, ich hab mich eh schon für die 1060 mini SC entschieden. aber mir gehen diese reviews mit steinzeittreibern seitens amd langsam tierisch auf die nüsse.

jede seite, die mit aktuellen treibern getestet hat, hat vollkommen andere ergebnisse. die 480 und 1060 ist da so ziemlich gleich auf. je nach dem für wen mehr optimiert wurde.

aber bei diesen gesponsorten grützetests krieg ich echt langsam ausschlag.
 
Die Messungen wurden mit dem neusten Treiber gemacht:

The Radeon RX 480. After our discoveries in that card’s launch story and AMD’s subsequent corrective driver, it became imperative to re-test with Radeon Software Crimson Edition 16.7.2. Almost across the board, this version increases performance slightly, so it’s a good update to have.

Verstehe mich nicht falsch def, aber das Geseier der AMD Fanboys, um die schlechte Performance der RX 480 kleinzureden, geht mir auf die Eier.

jede seite, die mit aktuellen treibern getestet hat, hat vollkommen andere ergebnisse. die 480 und 1060 ist da so ziemlich gleich auf. je nach dem für wen mehr optimiert wurde.

Hast du einen Link? Nein.

Denn in einem objektiven Test ist die GTX 1060 immer noch im Mittel vorne, selbst wenn die RX 480 1,2-2,35% durch einen neue Treiber aufholt.

 
Zuletzt bearbeitet:
Nur dass im Test offensichtlich der Ram ordentlich OC'd wurde und das leider auch nicht in der Grafik von Tomshardware wiedergegeben wird. Ich frage mich halt, wie viel Strom das noch ziehen mag.
 
Hier ist eine Analyse von Tom's Hardware:


Watt pro Stunde 160W zu 120W. Wirklich? Dafür das ganze gemache in jedem Thread?

Wo sind die ganzen neuen Grünen, wenn sich jemand von Intel eine CPU für den Sockel 2011 (z.B. 5820K) kaufen will anstatt für den Sockel 1151 (z.B. 4790K)? Da verbrät der 5820K auch 40 Watt mehr als der 4790K ohne in der Regel in Spielen schneller zu sein.

Wo bleibt das grüne Gewissen, wenn durch OC der Grafikkarte der Sweetspot weit verfehlt wird und die letzten FPS mit überproportional viel Watt erkauft wird?

Die Diskussion, nur auf die 480/1060 Threads beschränkt, erscheint mir durch ihren Umfang sehr scheinheilig zu sein.

Meine Tips für Sparfüchse:
- Tauscht wenn möglich eine alte Glühbirne gegen eine LED Variante. Spart Ihr locker 40Watt und kostet bei IKEA 5,- EUR.
- Nutzt mal die Ökoprogramme bei euren Waschmaschinen und Wäschetrocknern.
- Geht mal eine halbe Stunde raus, kann der Rechner so lange aus.
- Kauft euch ein sparsames Auto oder macht Fahrgemeinschaften, da geht viel mehr, als bei der Grafikkarte.

Diese ganze Diskussion ist so extrem lächerlich. Merkt Ihr das gar nicht?

Ja, ich bezahle seit vielen Jahrzehnten meinen Strom (Ökostrom!) selber und muss Mutti gegenüber kein schlechtes Gewissen haben.

Das technologisch AMD da hinterher hinkt, sehe ich auch. Aber wie viele Andere quetsche ich aus meiner Hardware immer das maximale heraus und suche nicht den Sweetspot des Stromverbrauchs. Vielleicht brauchen wir eine neue Rubrik Ökolux, dort können sich die Freaks dieser Materie dann austauschen ohne den Rest zu missionieren.

Das die Watt als Wärme abgeführt werden muss ist übrigens auch nichts neues (bevor dieser Aspekt aufgeführt wird). Die Lautstärke der Kühllösung schau ich mir dann aber gerne separat an und werfe dies nicht gleich in einen Topf mit der Verlustleistung.

Gruß Thomas
 
Watt pro Stunde 160W zu 120W. Wirklich? Dafür das ganze gemache in jedem Thread?
Es sind 60W zu 120W in der Grafik.


Meine Tips für Sparfüchse:
- Tauscht wenn möglich eine alte Glühbirne gegen eine LED Variante. Spart Ihr locker 40Watt und kostet bei IKEA 5,- EUR.
Geht nicht immer, so ein Dimmschalter und LED geht nicht.
- Kauft euch ein sparsames Auto oder macht Fahrgemeinschaften, da geht viel mehr, als bei der Grafikkarte.
Wieso sollte ich mir üerbahupt ein Auto kaufen?
 
Es sind 60W zu 120W in der Grafik.

Geht nicht immer, so ein Dimmschalter und LED geht nicht.

Wieso sollte ich mir üerbahupt ein Auto kaufen?

Danke, dass Du die Qualität bereicherst.

160W zu 120W bezog sich auf den Verbrauch bei Übertaktung. Das machen NVidia Nutzer wie ich auch.

Und natürlich kann man LEDs dimmen. Jedoch nicht mit OPAs uralt Dimmer. Mache ich hier auch.

Und ohne eigenes Auto - Perfekt, wenn das für Dich funktioniert.

Gruß Thomas
 
Watt pro Stunde 160W zu 120W. Wirklich? Dafür das ganze gemache in jedem Thread?

Wo sind die ganzen neuen Grünen, wenn sich jemand von Intel eine CPU für den Sockel 2011 (z.B. 5820K) kaufen will anstatt für den Sockel 1151 (z.B. 4790K)? Da verbrät der 5820K auch 40 Watt mehr als der 4790K ohne in der Regel in Spielen schneller zu sein.

Wo bleibt das grüne Gewissen, wenn durch OC der Grafikkarte der Sweetspot weit verfehlt wird und die letzten FPS mit überproportional viel Watt erkauft wird?

Die Diskussion, nur auf die 480/1060 Threads beschränkt, erscheint mir durch ihren Umfang sehr scheinheilig zu sein.

Meine Tips für Sparfüchse:
- Tauscht wenn möglich eine alte Glühbirne gegen eine LED Variante. Spart Ihr locker 40Watt und kostet bei IKEA 5,- EUR.
- Nutzt mal die Ökoprogramme bei euren Waschmaschinen und Wäschetrocknern.
- Geht mal eine halbe Stunde raus, kann der Rechner so lange aus.
- Kauft euch ein sparsames Auto oder macht Fahrgemeinschaften, da geht viel mehr, als bei der Grafikkarte.

Diese ganze Diskussion ist so extrem lächerlich. Merkt Ihr das gar nicht?

Ja, ich bezahle seit vielen Jahrzehnten meinen Strom (Ökostrom!) selber und muss Mutti gegenüber kein schlechtes Gewissen haben.

Das technologisch AMD da hinterher hinkt, sehe ich auch. Aber wie viele Andere quetsche ich aus meiner Hardware immer das maximale heraus und suche nicht den Sweetspot des Stromverbrauchs. Vielleicht brauchen wir eine neue Rubrik Ökolux, dort können sich die Freaks dieser Materie dann austauschen ohne den Rest zu missionieren.

Das die Watt als Wärme abgeführt werden muss ist übrigens auch nichts neues (bevor dieser Aspekt aufgeführt wird). Die Lautstärke der Kühllösung schau ich mir dann aber gerne separat an und werfe dies nicht gleich in einen Topf mit der Verlustleistung.

Gruß Thomas

Diese Scheinheiligkeit geht mir schon lange auf den Sack!! Ich weis garnicht wieviele 970ger Besitzer immer über die R9 290/390 mit ihrem Stromverbrauch gestänkert haben. Eine 970 wäre ja so sparsam!! Einmal in die Sys-Info geklickt, und siehe da: 1500Mhz und Ramtakt hassenichtgesehen.

Jaja...................das anonyme Internet. Hier kann man eigendlich alles vorspielen.:bigok:
 
Lerne lesen. Das ist ein Graph. Lese den Verbrauch bei 1300 MHZ bei AMD und bei 2100 MHZ bei NVIDIA. Das sind die Verbrauche bei Übertaktung.
 
Kann das stimmen, dass die 1060 bei Stock Boosttakt von 1700 - 1800Mhz nur zwischen 80 und 90 Watt zieht?

Mir kommen die Werte der 1060 extrem niedrig vor. In den Tests die ich sonst so gelesen habe, wurden beim Standardtakt immer so zwischen 100 und 120 Watt ausgewiesen, wenn ich mich nicht irre.
 
Die Diskussion, nur auf die 480/1060 Threads beschränkt, erscheint mir durch ihren Umfang sehr scheinheilig zu sein.

Die Diskussion ist nicht nur auf die 480/1060 Threads beschränkt:

http://www.hardwareluxx.de/community/f84/die-sparsamsten-systeme-30w-idle-1007101.html
http://www.hardwareluxx.de/communit...-verbrauch-inkl-haswell-beispiel-1001484.html
http://www.hardwareluxx.de/communit...verbrauch-inkl-llano-fm1-beispiel-799083.html
http://www.hardwareluxx.de/communit...erboard-ist-entscheidend-part-2-a-688890.html
http://www.hardwareluxx.de/community/f238/wieviel-watt-verbraucht-euer-pc-im-idle-modus-813634.html
http://www.hardwareluxx.de/communit...eile-inkl-picopsu-erfahrungen-2-a-788930.html

Diese ganze Diskussion ist so extrem lächerlich. Merkt Ihr das gar nicht?

Nein, ist sie nicht. Denn der Stromverbrauch ist der zentrale Indikator für die Abwärme, die im Betrieb entsteht. Abwärme bedeutet Lüfter, Lüfter bedeuten Geräusche. Viele mögen geräuschlose PCs. Sind diese Leute in deinen Augen lächerlich?

Kann das stimmen, dass die 1060 bei Stock Boosttakt von 1700 - 1800Mhz nur zwischen 80 und 90 Watt zieht?

In der Grafik scheint der Boost 3.0 Takt eingetragen zu sein (Indiz: die Werte gehen bis 2,1 GHz), der ist 100-150 MHz höher als der 1700 MHz Boost Takt. In Spielen ist er höher als in z.B. Furmark. Also ich denke, d.h. du musst so bei 1950 MHz gucken, um den Verbrauch beim Standardtakt der GXT 1060 FE zu finden.

Aber es ist schon krass, wenn man sieht, dass wenn man die Leistung der GTX 1060 auf das Niveau der RX 480 reduziert, sie nur noch ungefähr die Hälfte der RX 480 verbraucht.
 
Wer Ahnung hat, hat auch die gute alte GTX480 (das Heizkraftwerk vorm Herrn!!) leise gekühlt bekommen. Da sind die neuen Generationen (AMD und NVidia) nur noch Pipikram gegen.
 

Wieder eine tolle Nebelgranate die an der Diskussion vorbei geht.

Wo sind deine Ökologischen Missionierungsversuche in den Haupt Threads, welche am meisten Beiträge haben und am meisten gelesen werden. Also Themen wie:
- Intel CPUs auf unterschiedlichen Plattformen
- Übertaktung CPU's
- Übertaktung Grafikkarten
- SLI Betrieb

Deine Motivation dies einzig und alleine im Grafikkarten Anbieter Vergleich NVidia Versus AMD zu tun lässt tief blicken.

Nein, ist sie nicht. Denn der Stromverbrauch ist der zentrale Indikator für die Abwärme, die im Betrieb entsteht. Abwärme bedeutet Lüfter, Lüfter bedeuten Geräusche. Viele mögen geräuschlose PCs. Sind diese Leute in deinen Augen lächerlich?

Schau mal oben. Dort habe ich geschrieben:
"Das die Watt als Wärme abgeführt werden muss ist übrigens auch nichts neues (bevor dieser Aspekt aufgeführt wird). Die Lautstärke der Kühllösung schau ich mir dann aber gerne separat an und werfe dies nicht gleich in einen Topf mit der Verlustleistung."

Mach Dir wenigstens die Arbeit und lies die die Nachrichten, bevor Du reflexartig antwortest.

Gruß Thomas
 
Deine Motivation dies einzig und alleine im Grafikkarten Anbieter Vergleich NVidia Versus AMD zu tun lässt tief blicken.

:stupid:

Schau mal oben. Dort habe ich geschrieben:
"Das die Watt als Wärme abgeführt werden muss ist übrigens auch nichts neues (bevor dieser Aspekt aufgeführt wird). Die Lautstärke der Kühllösung schau ich mir dann aber gerne separat an und werfe dies nicht gleich in einen Topf mit der Verlustleistung."

Nur passt das nicht zu deiner Aussage, die du zuvor getroffen hast. Aber schön, dass du in deinem Post gleich offenbarst, was für einen Müll du zuvor geschrieben hast.

Übrigens habe ich mit meinen Post, mit den Messwerten zum Stromverbrauch, nur auf eine Frage von Byowa geantwortet.

Aber nachprüfbare Fakten waren den AMD Fanboys ja schon immer ein Dorn im Auge. Lieber Flamen und Beleidigen, nicht wahr?
 
Zuletzt bearbeitet:
Wer Ahnung hat, hat auch die gute alte GTX480 (das Heizkraftwerk vorm Herrn!!) leise gekühlt bekommen. Da sind die neuen Generationen (AMD und NVidia) nur noch Pipikram gegen.
Ich hatte zwei übertaktete lautlose R9 290 im Crossfirebetrieb. Alles ist möglich.
Der Verbrauch dieser aktuellen Karten ist dagegen geradezu lächerlich.
 
Watt pro Stunde 160W zu 120W. Wirklich? Dafür das ganze gemache in jedem Thread?

Wo sind die ganzen neuen Grünen, wenn sich jemand von Intel eine CPU für den Sockel 2011 (z.B. 5820K) kaufen will anstatt für den Sockel 1151 (z.B. 4790K)? Da verbrät der 5820K auch 40 Watt mehr als der 4790K ohne in der Regel in Spielen schneller zu sein.

Wo bleibt das grüne Gewissen, wenn durch OC der Grafikkarte der Sweetspot weit verfehlt wird und die letzten FPS mit überproportional viel Watt erkauft wird?

Die Diskussion, nur auf die 480/1060 Threads beschränkt, erscheint mir durch ihren Umfang sehr scheinheilig zu sein.

Meine Tips für Sparfüchse:
- Tauscht wenn möglich eine alte Glühbirne gegen eine LED Variante. Spart Ihr locker 40Watt und kostet bei IKEA 5,- EUR.
- Nutzt mal die Ökoprogramme bei euren Waschmaschinen und Wäschetrocknern.
- Geht mal eine halbe Stunde raus, kann der Rechner so lange aus.
- Kauft euch ein sparsames Auto oder macht Fahrgemeinschaften, da geht viel mehr, als bei der Grafikkarte.

Diese ganze Diskussion ist so extrem lächerlich. Merkt Ihr das gar nicht?

Ja, ich bezahle seit vielen Jahrzehnten meinen Strom (Ökostrom!) selber und muss Mutti gegenüber kein schlechtes Gewissen haben.

Das technologisch AMD da hinterher hinkt, sehe ich auch. Aber wie viele Andere quetsche ich aus meiner Hardware immer das maximale heraus und suche nicht den Sweetspot des Stromverbrauchs. Vielleicht brauchen wir eine neue Rubrik Ökolux, dort können sich die Freaks dieser Materie dann austauschen ohne den Rest zu missionieren.

Das die Watt als Wärme abgeführt werden muss ist übrigens auch nichts neues (bevor dieser Aspekt aufgeführt wird). Die Lautstärke der Kühllösung schau ich mir dann aber gerne separat an und werfe dies nicht gleich in einen Topf mit der Verlustleistung.

Gruß Thomas

:bigok: :hail:

wirklich super geschrieben, leider wird dieser grandiose Post keinerlei Wirkung zeigen.

edit: und Tardis hat meine Vermutung schon bestätigt :/
 
Zuletzt bearbeitet:
Jap wirklich klasse post von THK! :)

Leider aber auch für die Signatur zu lang ;)
 
Durch die Bestätigung von DEN Trollen schlechthin, wird THKs Post nicht besser.

Wenn man den Stromverbrauch Graphen anpasst und den Mhz Graphen durch die Leistung in FPS ersetzt sieht es etwa so aus:

Deine Abbildung ist grandios falsch - oder siehst du im Original ein Wert bei dem die RX 480 nur 90 Watt verbraucht?

Mit solchen grafischen Darstellung kann man leider viel verzerren. Das macht die Industrie sehr gerne um Kunden zu täuschen.

Und wie du gerade bewiesen hast: nicht nur die Industrie!

In der anderen Abbildung von Tom's Hardware werden übrigens die FPS dem Stromverbrauch gegenübergestellt:

 
Nur passt das nicht zu deiner Aussage, die du zuvor getroffen hast. Aber schön, dass du in deinem Post gleich offenbarst, was für einen Müll du zuvor geschrieben hast.

Übrigens habe ich mit meinen Post, mit den Messwerten zum Stromverbrauch, nur auf eine Frage von Byowa geantwortet.

Aber nachprüfbare Fakten waren den AMD Fanboys ja schon immer ein Dorn im Auge. Lieber Flamen und Beleidigen, nicht wahr?

Schade Tardis, dass Du nur ein Troll bist. Du gehst nicht auf die Argumente ein und verschandelst mit deinem Rauschen das Board. Dein verwirrtes Off-Topic in dieser Rubrik zeigt das jedem normal denkenden Menschen meines Erachtens nach auf. Ich werde dies nicht weiter unterstützen und dich auf Ignore setzen.

Zur Info. Als AMD Fanboy nutze ich ein 980 TI SLI. Davor 780 SLI. Wenn es kommt 1080 TI SLI.

Ich glaube Du brauchst Hilfe. Denk mal drüber nach.
 
OT: Und der nächste wird als AMD Fanboy von Tardis abstempelt.. :wall:
 
:bigok: :hail:

wirklich super geschrieben, leider wird dieser grandiose Post keinerlei Wirkung zeigen.

edit: und Tardis hat meine Vermutung schon bestätigt :/

Nach zehn Jahren Hardwareluxx, aus den Anfängen von Newsgroups, Usenet und Fido kommend nutze ich jetzt seit einer Woche erstmals die Ignore Funktion. Tardis ist der zweite, den ich jetzt ignoriere. Das zerstörerische hinter diesen Spamattacken hat einen Umfang erreicht die ich mir nur mit kommerziellen Absichten oder psychischen Problemen erklären kann.

Schade, dass ich weiterhin den Stuss von vielen lesen muss, die immer wieder versuchen konstruktive Diskussionen mit den speziellen Kandidaten zu führen. Aber schließlich habe ich ebenfalls den Troll gefüttert. :sick:

Gruß Thomas
 
Schade Tardis, dass Du nur ein Troll bist. Du gehst nicht auf die Argumente ein und verschandelst mit deinem Rauschen das Board. Dein verwirrtes Off-Topic in dieser Rubrik zeigt das jedem normal denkenden Menschen meines Erachtens nach auf.

Lol. Ich habe auf die Frage eines anderen Users nach Stromverbrauchswerten bei unterschiedlichen Frequenzen Messwerte von Tom's Hardware geliefert.

Du hast mit beleidigendem Unterton die Diskussion Off-Topic geführt. Nicht ich. Du.

Das zerstörerische hinter diesen Spamattacken hat einen Umfang erreicht die ich mir nur mit kommerziellen Absichten oder psychischen Problemen erklären kann.

:stupid:

Klar, weil ich Messwerte als konkrete Antwort auf eine Frage (innerhalb des Themas des Threads) poste. Weil ich Performers Grafik mit Hilfe von Messwerten als falsch enttarne.

:stupid:

Soll ich mich lieber auf das ausschließliche Posten von Beleidigungen beschränken, wie es die AMD Trolle in den ganzen GTX 1060 Threads machen?

Wenn ich ein Nvidia Troll wäre, warum poste ich dann nichts in den RX 480 Threads?

- - - Updated - - -

Ich sehe gerade, du hast deine Grafik editiert, Performer.

Du hast jetzt die Einheiten auf der Y-Achse entfernt (sic!), damit man dir nicht mehr auf den ersten Blick nachweisen kann, dass deine Grafik falsch ist.

Wow...

Das Problem ist, deine Grafik tauscht ja nur die Achsen von der Tom's Hardware Grafik - folglich müsste deine Grafik dann so aussehen (dann kannst du sogar die Einheiten stehen lassen):

 
Zuletzt bearbeitet:
Es geht u.a. auch darum, dass die Skalen nicht bei 0 anfangen...
 
Zuletzt bearbeitet:
Es geht u.a. auch darum, dass die Skalen nicht bei 0 anfangen...

Das ist das Problem?

KD:



Besser?

Die Fake-Grafik von Performer ist trotzdem unfassbar dilettantisch falsch. Wirklich.

Ih frage mich gerade, was Tom's Hardware wohl davon denkt, dass jemand wie Performer, deren Messwerte für seine persönliche Agenda so manipuliert, korrumpiert und falsch abbildet.

Wäre ich Tom's Hardware, wäre ich mich extrem angepisst.
 
Es geht u.a. auch darum, dass die Skalen nicht bei 0 anfangen...

Stimmt, du hast recht. Und dem wirkt man am Besten entgegen, indem man die Einheiten komplett weglässt.

Ich sehe ehrlich gesagt auch nicht, wo das Problem ist, wenn man in den Skalen irrelevante Wertebereiche weglässt.
 
@Performer

Deine Grafik ist schlichtweg irreführend weil sie suggeriert, dass beide Karten in 1080p, 1440p sowie 2160p jeweils quasi identische FPS bringen.

Du hast zwar versucht, das dadurch zu kaschieren, indem du die Einheiten der Achsen weglässt. Damit hast du aber nur eines erreicht:
Die Graphen zu Striche komplett ohne Aussagekraft zu degradieren.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh