Kleinster Pascal: NVIDIA GeForce GTX 1060 im Test

Krass wie viel Geld man mittlerweile für midrange auf den Tisch legen muss.
Eine 560TI war nicht wesentlich billiger und müsste nach dem Namensschema einer der Vorgänger sein.

Man möchte die Grafikkartenleistung testen, nicht die der CPU, des RAM oder sonstigen Komponenten, also sollte man der Grafikkarte auch den roten Teppich ausrollen und schauen, dass nichts anderes limitiert.
Man sollte eher einen blauen Teppich nehmen, wobei die roten wohl eher von AC profitieren dürften.^^
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Krass wie viel Geld man mittlerweile für midrange auf den Tisch legen muss...

Man kriegt im Gegenzug ja auch eine Menge.

Die GTX 1060 ersetzt vom Namen her die GTX 960, die bei ihrer Einführung $199 gekostet hat. Die GTX 1060 ist gerade mal $50 teurer. Und dafür kriegt man die doppelte Leistung! Diese Leistung war vorgestern nicht nur eine Klasse über der GTX 960 (die GTX 970), nein zwei Klassen über der GTX 960: die GTX 980, die für $549 MSRP auf den Markt kam.

Und vor allem liegt die GTX 1060 in einer ganz anderen Klasse als die GTX 960. Mit der GTX 960 konnte man damals nur Spiele in FHD vernünftig spielen - die GTX 1060 ist dagegen eine mehr als brauchbare Karte für aktuelle Spiele in 1440p.

Wenn du keine Spiele in 1440p Spielen möchtest, kannst du immer noch eine neue FHD Karte für $199 kaufen - nämlich die RX 480 4 GB.
 
Zuletzt bearbeitet:
Vom Preis ersetzt sie die 970,da ist dann auch der Name egal.

Wenn du keine Spiele in 1440p Spielen möchtest, kannst du immer noch eine neue FHD Karte für $199 kaufen - nämlich die RX 480 4 GB.
Die FHD Karte wäre die RX 470 4GB, die dann nur 165$ kostet.
 
Zuletzt bearbeitet:
Man möchte die Grafikkartenleistung testen, nicht die der CPU, des RAM oder sonstigen Komponenten, also sollte man der Grafikkarte auch den roten Teppich ausrollen und schauen, dass nichts anderes limitiert.
Und das hat was mit der Praxis der Zielgruppe dieser Mainstream Grafikkarten ala RX 480 und GTX 1060 zu tun? Gar nichts!

Denn bei 'deinem' Testverfahren werden dem Kaufinteressenten nur bestmögliche Ergebnisse präsentiert, die in den deutlich schwächeren durchschnittlichen Mainstream PCs nicht gehalten werden können, weil die restliche Hardware eben nicht der stark übertaktete 1.000 Euro 8-Kern Prozessor mit QuadCannel DDR4 Speicher Bestückung und teurer X99 Platine ist. Praxisrelevanz gegen Null für diejenigen, die sich für eine der Karten interessieren und wissen wollen, was diese zu leisten im Stande sind in einem durchschnittlichem PC ohne aktuelle High-End Hardware.


Die reden sich das nicht selber ein - sie versuchen lediglich es den anderen einzureden;)
Der Versuch ist irgendwie schon sehr 'beängstigend', ich meine, wenn man sich vor Augen führt, das wir hier in einem GTX 1060 Thema sind und darin jemand den Leuten erzählen will, das man diese VGA und den 269 Euro AMD Radeon RX 480 Wettbewerber am besten mit einem auf 4500MHz übertakteten 1.069 Euro Intel Core i7 6900K Prozessor testen sollte?! Ich glaube selbst aus Sicht eines AMD Verteidigers macht das überhaupt keinen Sinn, in einem Foren anderen Leuten den Gedanken 'einzupflanzen' man bräuchte für die RX 480 ne stark übertaktete aktuelle High-End CPU um deren volle Leistung abrufen zu können?! Kann sowas gar nicht nachvollziehen, wie verzweifelt muss jemand sein um nach dem nVidia 1060er Release zu solchen 'Maßnahmen' zu greifen :hmm:


Also 10$ mehr als die FE, aber iirc gab es ein Spiel dazu, also war der Preis real geringer ö
GTX 1060 6GB (knapp GTX 980 Leistung) ab 279 Euro lagend an Tag 2 ... GTX 970 3,5GB bei Release 320 Euro UVP :wink:
 
Zuletzt bearbeitet:
Man sollte sicher auch nicht im "damals" leben. Aber mir geht es iwie so. Wenn ich überlege was die Topmodelle mittlerweile kosten. Wobei das auch eigentlich scheiß egal ist ehrlich gesagt. Wenn jemand die Kohle hat, ist es mir persönlich egal, ob er es ansteckt oder was auch immer.

Bei mir es wahrscheinlich auch einfach das Problem, dass durch die Familie die Kohle knapper ist :fresse: Aber mit meiner R9 290 komme ich ja noch hin, aber die 1070 reizt mich schon.

Gesendet von meinem ZTE Blade V6 mit Tapatalk
 
Und das hat was mit der Praxis der Zielgruppe dieser Mainstream Grafikkarten ala RX 480 und GTX 1060 zu tun? Gar nichts!

Wenn Du einen praktischen Test für den Mainstream willst, muss Du jeweils einen FHD- Screen mit Sync bis 75Hz jeweils mit den Karten laufen lassen, und auf eine Skala von 1-10 das subjektive Empfinden der Wiedergabe bewerten lassen. Dann teilst Du das Ergebnis für das Gesamtsystem durch seinen Preis. Ich glaube, ich weiß, wer da gewinnt. Mit synthetischen Benchmarks solltest Du somit doch eigentlich kein Problem haben.
 
Warum mit Sync, das benutzen doch nur die Wenigsten? Der Mainstream hat einen 60 Hz Monitor ohne Sync.

Ich glaube, ich weiß, wer da gewinnt.

Und ich weiss wer gewinnt, wenn du auf einem x-belibigen 1440p Monitor beide Grafikkarten miteinander vergleichst.
 
Zuletzt bearbeitet:
Warum mit Sync, das benutzen doch nur die Wenigsten? Der Mainstream hat einen 60 Hz Monitor ohne Sync.

Das ist unlogisch. Die GTX 1060 benutzen auch die wenigsten. Trotzdem wurde sie getestet. -> Weil die Leute sie eventuell kaufen möchten. Sync ist wie auch der 14nm- Prozess ein Feature, was die Leistungsfähigkeit der Hardware verbessert.
Wer aktuell einen neuen Rechner kauft, kauft keinen Dualcore mit 60Hz TN- Monitor und GTX 970(was die meisten schon haben), sondern eine Karte der neuen Generation mit Quadcore und Sync- IPS- Monitor.
 
Warum mit Sync, das benutzen doch nur die Wenigsten? Der Mainstream hat einen 60 Hz Monitor ohne Sync.



Und ich weiss wer gewinnt, wenn du auf einem x-belibigen 1440p Monitor beide Grafikkarten miteinander vergleichst.
Käufer einer 1060 nicht, da Gsync halb so viel kostet, wie die Karte.
Freesync bekommst du auch mit günstigen Monitoren.

Es gibt übrigens auch Tester, die die Zukunft nicht ignorieren:
[H]ard|OCP Mobile - Introduction - NVIDIA GeForce GTX 1060 Founders Edition Review
 
Wenn Du einen praktischen Test für den Mainstream willst, muss Du jeweils einen FHD- Screen mit Sync bis 75Hz jeweils mit den Karten laufen lassen, und auf eine Skala von 1-10 das subjektive Empfinden der Wiedergabe bewerten lassen. Dann teilst Du das Ergebnis für das Gesamtsystem durch seinen Preis. Ich glaube, ich weiß, wer da gewinnt. Mit synthetischen Benchmarks solltest Du somit doch eigentlich kein Problem haben.
Ich glaube du hast nichts begriffen, wirst es auch nicht begreifen, weil das mit deiner rötlichen Sicht der Welt nicht vereinbar ist.


Für alle anderen objektiveren Betrachter kann man nach der Auswertung von 17 Reviews mit 391 Tests und Detailbetrachtungen bei 3Dcenter festhalten:
Zurückkommend zur GeForce GTX 1060 ist nVidia mit dieser eine Punktlandung gelungen: Knapp die Performance der GeForce GTX 980 erreicht, etwas schneller als die Radeon RX 480, bemerkbar niedrigerer Stromverbrauch und keinerlei auffallende Problempunkte sprechen für nVidias neue Midrange-Lösung. Vor allem aber ist die GeForce GTX 1060 preislich nicht so abgehoben ausgefallen, wie noch bei GeForce GTX 1070 & 1080 zu beobachten – sondern geht zu einer Listenpreis- und Straßenpreis-Differenz von gerade einmal 10 Dollar/Euro umgehend in die direkte Konfrontation mit der Radeon RX 480 8GB. In diesem Zweikampf hat AMD die größere Speichermenge sowie den minimal besseren Preis für sich, nVidia hingegen die etwas bessere Performance zum niedrigeren Stromverbrauch – dies ergibt Platz für beide Grafikchip-Entwickler, gut zu verkaufen. Von den noch verfügbaren 28nm-Angeboten kann hingegen keines – trotz teilweise deutlich heruntergesetzter Abverkaufspreise – mithalten, es entscheidet sich alles allein zwischen den 14/16nm-Grafikkarten.
 
@oooverclocker: Aber die Leute habe meisten bereits einen Monitor. Und wer sich einen neuen Monitor kauft und halbwegs langfristig plant (was bei einem Monitor in der Regel der Fall ist), der kauft sich einen 4k Monitor. Und wenn er wert auf Bildqualität legt mit VA-Panel.

Wenn das Sync Argument in irgendeiner Form ein Rolle spielen würde, dann müssten ja heute schon 80% der Leute mit AMD Grafikkarten unterwegs sein. Das sehe ich nicht - und ich sehe auch nicht, dass sich dies ändern wird.

4k und VR sind die Monitor Themen der Zukunft.
 
Also wenn ichn neuen Monitor kaufen dann eher WQHD und Qualität asoziere ich eher mit IPS, oder ist mittlerweile VA besser ?
 
@oooverclocker: Aber die Leute habe meisten bereits einen Monitor. Und wer sich einen neuen Monitor kauft und halbwegs langfristig plant (was bei einem Monitor in der Regel der Fall ist), der kauft sich einen 4k Monitor. Und wenn er wert auf Bildqualität legt mit VA-Panel.

Wenn das Sync Argument in irgendeiner Form ein Rolle spielen würde, dann müssten ja heute schon 80% der Leute mit AMD Grafikkarten unterwegs sein. Das sehe ich nicht - und ich sehe auch nicht, dass sich dies ändern wird.

4k und VR sind die Monitor Themen der Zukunft.
So ein Blödsinn.
 
@oooverclocker: Aber die Leute habe meisten bereits einen Monitor. Und wer sich einen neuen Monitor kauft und halbwegs langfristig plant (was bei einem Monitor in der Regel der Fall ist), der kauft sich einen 4k Monitor.
Zeig mir bitte mal einen 4k 144Hz Free oder GSync Monitor. GH listet genau 0.
Es gibt also keinen zukunftsfähigen 4k Monitor, was daran liegt das der DP Standard noch zu jung ist.
Daher kauft man sich bei langfristiger Planung einen billigen Übergangsmonitor.

Wenn das Sync Argument in irgendeiner Form ein Rolle spielen würde, dann müssten ja heute schon 80% der Leute mit AMD Grafikkarten unterwegs sein. Das sehe ich nicht - und ich sehe auch nicht, dass sich dies ändern wird.
Wieso sollte dann VR sich durchsetzen?

4k und VR sind die Monitor Themen der Zukunft.
VR wird keine relevanten Marktanteil erreichen oder siehst du irgendwelche relevanten Titel?
Die P*** und Film Industrie wird ihrer Freude damit haben, aber die Gamingbranche eher weniger.

Also wenn ichn neuen Monitor kaufen dann eher WQHD und Qualität asoziere ich eher mit IPS, oder ist mittlerweile VA besser ?
War VA nicht immer besser?
 
Also wenn ichn neuen Monitor kaufen dann eher WQHD und Qualität asoziere ich eher mit IPS, oder ist mittlerweile VA besser ?
Sehe ich auch so, VA ist extrem temperatur- und druckempfindlich, hat eine schlechtere Blickwinkelstabilität - man muss quasi Curved- Displays nehmen, damit es keine Kontrastverschiebung am Rand gibt, und IPS stellt Farben in der Regel originalgetreuer dar.

VA hat nur den Vorteil, dass der Schwarzwert besser ist. (Edit: Was für einen Kinofilm- Monitor aber auch sinnvoll sein kann.)
 
Zuletzt bearbeitet:
Naja so Unrecht hat er nicht wenn man sieht was da momentan so an Auswahl vorhanden ist..
 
Was hat das mit Recht oder Unrecht zu tun? Ich kann doch nur für mich selbst sprechen, oder gebe ich vor was "man" kauft?
 
TARDIS hat mit der Verallgemeinerung angefangen und wenn ich einen Monitor langfristig benutzen will, dann muss er alle wichtigen Features unterstützen und das sind halt 144Hz/4k/Sync.
 
Gamer die lange Zeit ihren Monitor behalten, geben doch nicht einfach so 'übergangsweise' Geld für ein Monitor aus den sie in absehbar kürzerer Zeit wieder verkaufen und damit Geld verbrennen das sie dann wohl eher nicht reichlich haben als Langzeit-Monitor-Nutzer. Diejenigen werden höchstwahrscheinlich eher zu einem state-of-the-art Preis/Leistung Gerät greifen und diesen wieder ihre gewohnten Langzeit Rhythmus nutzen.

Man könnte sogar darüber streiten ob 4K 144Hz etc. Monitore überhaupt auf der Wunschliste eines preisbewußten ~280 Euro Grafikkarten Käufers stehen, wo wahrscheinlich weder die finanziellen Mittel noch die Leistung der Grafikarte ausreichend vorhanden sein wird.
 
Zuletzt bearbeitet:
FreeSync und 144Hz gibt es ab 199€ und mit wirklich tauglichen Monitor dauert es noch ein paar Jahre, da es die Standards wenn überhaupt erst seit kurzem gibt.

Außer ist es nicht richtig den Kauf einer RX480/1060 nur auf das Geld zuschieben, da ist viel mehr die Frage wie oft was gespielt wird.
 
Irgendwie aber auch nicht in allen DX12 / Vulkan Titeln....:





Wie kann die GTX 1060 eigentlich in DEM Vorzeige DX12 Titel von AMD besser als die RX 480 sein? Und das trotz Async Compute...?

beeindruckend, dass sich die 1060 in dx12 aots deutlich besser schlägt als noch die 970 und sogar die amd karte hinter sich lässt. etwas stutzig macht mich allerdings, dass sich die performance -im gegensatz zur 480- kaum von der unter dx11 unterscheidet. was sagt einem das?
golem.de verzichtet bei seinem vergleich übrigens auf talos principle. mit der begründung: "bei The Talos Principle ist das Vulkan-API angesichts des D3D11-Pfades unter Windows 10 keine sinnvolle Wahl."

e: ok, ich sehe gerade, nach dem techpowerup benchmark liegt die 1060 nicht so weit vor der 970 und hinter der 480. die benutzen allerdings das extreme preset.
 
Zuletzt bearbeitet:
Robert Hallock schrieb:
At present the GTX 1080 is incorrectly executing the terrain shaders responsible for populating the environment with the appropriate amount of snow. The GTX 1080 is doing less work to render AOTS than it otherwise would if the shader were being run properly. [...]The content being rendered by the RX 480--the one with greater snow coverage in the side-by-side (the left in these images)--is the correct execution of the terrain shaders.

Die Nvidia- Karten lassen bei AotS Details weg(bzw. reduzieren sie).


Edit: Hier noch ein neuerer Benchmark von Golem.de:
Direct3D12-Vulkan-Test-02.png
 
Zuletzt bearbeitet:
Die Nvidia- Karten lassen bei AotS Details weg(bzw. reduzieren sie).

Warum wird auf so was nicht mehr eingegangen? Ich will gar nicht unterstellen, dass da was dran ist, weil ich es einfach nicht weiß, aber ich finde das ist die Aufgabe der Schreiberlinge solchen Dingen mal nachzugehen. Das schreibe ich jetzt zum wiederholten Male, aber mir ist kein einziger Test bekannt der das auch nur mal leicht beleuchtet, also auch allg. BQ über mehrere Games hinweg. Was soll das? Stattdessen wird mit Hilfe von tausende Euro teurer Messtechnik auch noch der letzte halbe Watt Leistungsaufnahme absatzweise durchanalysiert und das bei 150W Karten. Mir wird es wohl nicht mehr gelingen das zu verstehen, aber hey wer interessiert sich schon f. BQ, wenn ich irgendwo noch 3W sparen kann.
 
Bei den Artikeln, die ich darüber gefunden habe, stand sinngemäß: "Wir warten noch auf eine Antwort von Nvidia". Offensichtlich kam keine und so versandet dann so ein Thema eben schnell.
Das Feststellen von solchen Unregelmäßigkeiten dürfte aus Sicht der Presse fast unmöglich sein. Keiner weiß eigentlich, wie die endgültige Grafik auszusehen hat, außer die Spieleentwickler und Grafikkartenhersteller. Ohne den Hinweis von AMD wäre da auch nie jemand dahinter gekommen.

ich sehe gerade, nach dem techpowerup benchmark liegt die 1060 nicht so weit vor der 970 und hinter der 480. die benutzen allerdings das extreme preset.
Der Vollständigkeit halber sind hier noch die GamersNexus- Werte in TARDIS' Lieblingsauflösung:
wer sich einen neuen Monitor kauft und halbwegs langfristig plant [...], der kauft sich einen 4k Monitor.
GamersNexus_4K.png
 
aber ich finde das ist die Aufgabe der Schreiberlinge solchen Dingen mal nachzugehen

Finde ich auch. Also dann HWL, Bildqualität bei AMD und Nvidia vergleichen!
Ist natürlich aufwändiger und schwieriger als ein paar Benchmarks durchlaufen zu lassen...
 
Wenn ihr euch so für die Anschuldigungen von AMD interessiert, wieso ist euch dann diese News dazu entgangen?

http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/Specials/Radeon-RX-480-Preis-Spezifikationen-Computex-1196990/ schrieb:
Update 4: Auf Twitter lässt sich bereits am 6. Juni ein interessanter Gesprächsverlauf zwischen Dan Baker von Oxide Games und Sean Pelletier von Nvidia nachlesen. So meint Baker, dass die Grafikunterschiede bei der Schneedarstellung von Ashes of the Singularity vom Nvidia-Treiber 368.19 erzeugt wurden, während der 368.25 (aktuell ist der 368.39) diesen Fehler nicht mehr aufweise. Pelletier erwidert daraufhin, dass der 368.19 nur für die Presse zur Verfügung gestellt wurde und der 368.25 der erste öffentliche Treiber für die GTX 1080 war. Er wundere sich, woher AMD diesen Presse-Treiber her habe, so Pelletier. Für beide Lager dürfte dieser Schlagabtausch genug Material für neue Spekulationen liefern.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh