NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Das soll ja wohl ein Witz sein. 800 Euro?
Was kostet dann die 1070? 600? Soll ich lachen?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Guter Test, Danke Hardwareluxx !

Die Karte wird gekauft, mein UHD Monitor sehnt sich schon nach der GTX1080, der 50% Leistungsschub wird ihr gut tun, natürlich mit Wasserkühlblock :)
Wo kann ich zahlen ;) Jetzt heißt es warten und Tee trinken, ich hasse warten :coffee:

Welche Spiele spielst damit und welchen Monitor hast du ?!

In den für mich relevanten Games ala Witcher, etc. schafft die Karte nicht mal 60 fps.
 
Stimmt. Falls eine Grafikkarte als STatussymbol die Profilneurose überdecken und andere fehlende Merkmale kompensieren muss.:shot:

Ob man so nun beim Auto oder der Grafikkarte hantiert ist wohl egal oder ? Für manche ist ein geiler BMW oder co ein Statussymbol und für andere halt ne 1080er .. es wird einige geben die sie nur kaufen weil sie sich gut in der Signatur macht.
 
Und niemandem ist aufgefallen, dass auf sämtlichen Benchseiten (zum schnellen Vgl. Computerbase und HWL) die Test-Einzelpunkte fast 1:1 umgesetzt wurden?
Das stinkt mal wieder nach von vorne herein festgelegten Benchmarks von Nvidia. Eigentlich unnötigt, selbst mit dem +20% Leistungszuwachs zur 980Ti steht die Karte (im Vergleich zur 980) super da.

Fällt natürlich nur Wölfen auf, an Schäfchen richte ich mich nicht.

Das eigentliche Fazit sollte folgende nicht unerhebliche Punkte mit einbeziehen:
- Schlechtestes P/L Verhältnis
- Async Computing ist nicht vorhanden, es skaliert lediglich der Takt linear zu Maxwell
- Niedrigere IPC als Maxwell
- Nur 15% OC möglich (AMD Karten packen mehr)
- Fast 300W unter Last
- Mit knapp 800€ die teuerste "Consumer" Karte bisher
- Founders Edition wird nach 20 Minuten zu heiß und taktet herunter

Aber wenn man diese Punkte angreift bekommt man offensichtlich kein Sample mehr. Tja.

mfg,
Markus

jo endlich mal jemand der es klar sieht..

Ich kann dieses Gehype auch nicht mehr nachvollziehen.

Bald macht Nvidia einfach das P-L fest. dann werden Karten einfach nur noch teurer.. aber die alten sinken nicht mehr im Wert. haha.. eine 1380 dann für 4000€

Farkoffer Nvidia
 
ohne oc ist die 1080 jetzt nicht so viel besser als ne 980ti, für mich daher uninteressant.
der ddr5x limitiert schon, also auf hbm2 warten
 
@Don ... Danke für den Test mal nebenbei! Soviel Text, soviel zu lesen und schauen! Hut ab! :) Und dabei absolut klasse übersichtlich.

Hab zum Vergleich mal den CBase Test und paar andere angeschaut - bei manchem hatte man nach den ersten Seiten schon keine Lust mehr mangels Übersicht.
 
Ich kann dieses Gehype auch nicht mehr nachvollziehen.

warum auch, immerhin haben wir gradmal 80% Marktanteil bei Nvidia und 20% bei AMD ... da sollte die wenigsten eine neue Karte von Nvidia interessieren (achtung ironie!!) Und warum Nvidia das tut ist ganz einfach, sie können es halt. Du könntest auch fragen warum ein Hund direkt auf die straße scheißt, da ist die Antwort auch "weil er es halt kann".
 
Sehr schöne Karte mit beeindruckender Leistung. Leider liegt die Karte aber mit 800 € deutlich über meinem Budget und damit sehr wahrscheinlich auch GTX 1070:( Mein Limit liegt bei 400 € plus Wasserkühler. Wenn die Karte ein Knaller ist vielleicht auch 450 €. Denke aber die GTX 1070 wird bei knapp 600 € starten. Da bleibt dann nur das Warten auf die AMD Karten.
 
Zuletzt bearbeitet:
Wie erwartet preislich ein Reinfall, anders wäre es, wenn günstiger. Dass die besseren Custom Karten viel günstiger werden sollen, glaube ich nicht, aber selbst dann wäre Preis/Leistung in Anbetracht Shrink/Architektur trotzdem nicht gelungen.

Sehr schöner Test hier zu finden: Geforce GTX 1080 im Test: Der erste 16-nm-König mit 2 GHz im OC-Betrieb

Dort sehe ich zwischen 980Ti/1080 Referenz/Referenz einen Vorsprung von 35~%, allerdings rennt die 1080 mit 1650-1800.

Trotz Umbau der GTX 1080 Referenzkühler auf Accelero IV (und somit gleich mal Optimalfall), konnte die Karte nicht in jeder Situation stabil bei über 2Ghz halten, da es dies das Power Target nicht zuließ, ansonsten ließ sich die Karte leicht übertakten und bei geändertem PCB wird sie vermutlich auch mehr als 2,1Ghz dauerhaft schaffen, wer weiß.
 
Zuletzt bearbeitet:
Findet ihr es nicht auch Interessant das die Karte offenbar dauerthaft am Temp Limit von 80+ °C läuft, und das hat so gar nichts mit den 67° C aus der nvidia Präsi zu tun...
 
Also ich nicht. Vom Ref.-Kühler erwarte ich garnichts anderes.

Und sowohl AMD als auch nVidia erzählen viel vorher, wenn der Tag lang ist.
 
Findet ihr es nicht auch Interessant das die Karte offenbar dauerthaft am Temp Limit von 80+ °C läuft, und das hat so gar nichts mit den 67° C aus der nvidia Präsi zu tun...

Wie ich bereits direkt am Tag nach der Liveshow hier im Forum schrieb, werden sie die Karte mit Sicherheit mit 100% Lüfterumdrehung laufen lassen, dann wäre die Aussage auf der Bühne trotzdem nicht gelogen, nur erzählt man halt nicht, wie man zu diesem Ergebnis kam. Außerdem hatte sie auch keine Zeit auf max. Temperatur zu gelangen, das sind eben die Tricks mit denen man arbeitet.

Immerhin ist die Zieltemperatur 84C° und nicht wie AMD 290 damals 94C°, schreien evtl. bald einige
 
Mal ehrlich fast 800€ für ne Grafikkarte, rly?
 
Meine Geforce 3 damals hatte 1000 Euro gekostet oder waren das noch maak? :-)
 
Zuletzt bearbeitet:
Also ich nicht. Vom Ref.-Kühler erwarte ich garnichts anderes.

Und sowohl AMD als auch nVidia erzählen viel vorher, wenn der Tag lang ist.

Für einen Referenz Kühler finde ich den sogar recht gut. Von mir aus kann der aber das billigste vom Billigen sein solange die Karte dadurch günstiger wird. Kommt eh ein Wasserkühler drauf;)
 
Der Moment, wenn man realisiert, dass es vor ein paar Jahren Grafikkarten in dem selben Segment zum halben Preis gab...
 
Wer eine halbwegs gute Karte hat sollte nicht upgraden. Abwarten was die 1080 Ti oder AMD bringt.
 
Stimmt schon, war wieder geschickt vom großen N gemacht mit der Temp... trotzdem wirds spannend was die Custom Karten können..

Aber was man so liest wird die (Custom) GTX 1070 umso spannender für alle Leute die keine 980TI besitzen.

Von der sind btw. jetzt auch die Daten Nvidia Confirms GTX 1070 Specs -1920 CUDA Cores & 1.6Ghz Boost Clock At 150W final. Falls es noch keiner gepostet hat.
 
Wieso kommen anderen Soiten auf ganz andere Werte? bei gamstar.de ist die 1080 der 980ti deutlich voraus. Auch Computerbase und tomshardware messen größere Unterschiede.
 
Der Preis resultiert einfach daraus, dass es A die schnellste Karte am Markt ist und damit konkurrenzlos ist und B genug Leute gibt, die bereit sind 800 € zu bezahlen. Imo übertreibt es NV mit dem Preis trotzdem.
 
Zuletzt bearbeitet:
Wie ich bereits direkt am Tag nach der Liveshow hier im Forum schrieb, werden sie die Karte mit Sicherheit mit 100% Lüfterumdrehung laufen lassen, dann wäre die Aussage auf der Bühne trotzdem nicht gelogen, nur erzählt man halt nicht, wie man zu diesem Ergebnis kam. Außerdem hatte sie auch keine Zeit auf max. Temperatur zu gelangen, das sind eben die Tricks mit denen man arbeitet.

Danke! Genau so ist es!
 
Wie die ganzen nVidia-Fanboys jetzt enttäuscht sind: Ein Fest! nVidia? Ihr könnt euren überteuerten Schrott gerne behalten! ;) 1070 auf 980ti-Niveau? Das ich nicht lache! Vermutlich wird AMD näher an diese Karten herranreichen mit Polaris 10, als ursprünglich gedacht. ;)


Wetten jetzt ziehen die Neu- und Gebrauchtpreise der 980(ti) wieder ordentlich an? :d
 
Zuletzt bearbeitet:
Und was ist da jetzt die bahnbrechende Erkenntnis? Dass Luftkühlung limitiert?

Wer an die 24/7 Kotzgrenze takten will, kühlt mit Wasser und gut ist.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh