NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Jo die 295 hat den Vogel bei weitem abgeschossen :fresse: Aber das zeigt halt was da durch kann.

Klar limitiert da auch der Anschluss. Zwar kann man diesen überstrapazieren, wozu aber, wenn man mit einem anständigen Layout auch innerhalb der Spezifis bleiben kann.
Klar besser ist das, aber ob es sich lohnt ist die andere Frage, mindestens 250W bekommt man bestimmt auch in das Referenz Board rein. Auf Custom Boards und passende Wasserkühler zu warten könnte zur Geduldsprobe werden, zudem ist die Auswahl stark eingeschränkt, das ist da immer Nachteil...
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
250W würde vermutlich noch gehen, aber wie gesagt, von "legal" können wir dann da nicht mehr reden :d
 
Irgendwie ist es komisch.
Im Luxx test ist die 1080 meist irgendwo bei rund 10% vor der 980Ti.
Bei Gamestar fast durchgängig bei nahezu 30%.

Merkwürdig wenn die Ergebnisse so weit auseinander liegen.

In der Tat. Bei Techpowerup liegt die GTX 1080 sogar über 30% vor der GTX 980Ti (35% in 4k und 32% in FHD):



Schnitt aus Anno 2205, Assassin's Creed: Syndicate, Battlefield 3, Battlefield 4, Batman: Arkham Knight, Call of Duty: Black Ops III, Crysis 3, Fallout 4, Far Cry Primal, Grand Theft Auto V, Hitman, Just Cause 3, Rainbow Six: Siege, Rise of the Tomb Raider, The Witcher 3: Wild Hunt, World of Warcraft: Warlords of Draenor

Vielleicht liegt es daran, dass Hardwareluxx ein uraltes Testsystem nutzt, das nur PCI Express 2.0 hat, während Techpowerup & Co moderne System mit PCI Express 3.0 nutzen?

Dazu nutzt Hardwareluxx eine alberne 12 Thread CPU, deren viele Threads in Spielen nichts bringen und die pro Thread krückenlangsam im Vergleich zu modernen CPUs ist. Techpowerup nutzt z.b. einen Skylake i7 @ 4,5 Ghz und Gamestar wenigstens einen Haswell i7 @ 4,5 Ghz.

Ausserdem nutzt Techpowerup den 368.16 Treiber während Hardwareluxx den veralteten 368.14 Treiber nutzt.

Kein Wunder, dass die Ergebisse bei Hardwareluxx so schlecht ausfallen.
 
Zuletzt bearbeitet:
Ironie funktioniert im Internet nicht ;)
 
In der Tat. Bei Techpowerup liegt die GTX 1080 sogar über 30% vor der GTX 980Ti (35% in 4k und 32% in FHD):



Schnitt aus Anno 2205, Assassin's Creed: Syndicate, Battlefield 3, Battlefield 4, Batman: Arkham Knight, Call of Duty: Black Ops III, Crysis 3, Fallout 4, Far Cry Primal, Grand Theft Auto V, Hitman, Just Cause 3, Rainbow Six: Siege, Rise of the Tomb Raider, The Witcher 3: Wild Hunt, World of Warcraft: Warlords of Draenor

Vielleicht liegt es daran, dass Hardwareluxx ein uraltes Testsystem nutzt, das nur PCI Express 2.0 hat, während Techpowerup & Co moderne System mit PCI Express 3.0 nutzen?

Dazu nutzt Hardwareluxx eine alberne 12 Thread CPU, deren viele Threads in Spielen nichts bringen und die pro Thread krückenlangsam im Vergleich zu modernen CPUs ist. Techpowerup nutzt z.b. einen Skylake i7 @ 4,5 Ghz und Gamestar wenigstens einen Haswell i7 @ 4,5 Ghz.

Ausserdem nutzt Techpowerup den 368.16 Treiber während Hardwareluxx den veralteten 368.14 Treiber nutzt.

Kein Wunder, dass die Ergebisse bei Hardwareluxx so schlecht ausfallen.


Hää wie jetzt? :lol:

Wo siehst du denn auf deinen Screens über 30%???

Ich sehe da einmal 24% und einmal 27%.
 
Zuletzt bearbeitet:
Keine Sorge. Bis zum offiziellen Release kriegt Nvidia das sicher hin die Treiber soweit zu optimieren, dass die Maxwell Karten 20% langsamer laufen. ;)
 
Hää wie jetzt? :lol:

Wo siehst du denn auf deinen Screens über 30%???

Ich sehe da einmal 24% und einmal 27%.

Ich sehe dort, dass die GTX 1080 35% in 4k und 32% in FHD schneller als die GTX 980Ti ist. Schau noch einmal genau hin und nimm einen Taschenrechner zur Hand. ;)

Deine Prozentzahlen sagen nur, um wie viel Prozent die GTX 980Ti langsamer ist - aber nicht um wie viel Prozent die GTX 1080 schneller ist.

Du musst 100/73 bzw. 100/76 rechnen.
 
Zuletzt bearbeitet:
Ich sehe dort, dass die GTX 1080 35% in 4k und 32% in FHD schneller als die GTX 980Ti ist. Schau noch einmal genau hin und nimm einen Tacshenrechner zur Hand. ;)

Ne komm ich nicht drauf. Erklär mal.


Außerdem hast du dich mal mit den Unterschieden der Testsysteme wirklich auseinandergesetzt?

PCI-E 2.0-3.0 Unterschiede. Leistung der CPU Generationen im Vergleich... Das kann hinten und vorne nicht stimmen was du dir da zusammenreimst.
 
Da kann ich etwas aus dem Nähkästchen plaudern, aber eigentlich ist das auch kein Geheimnis. Es wird die folgenden Kombinationen geben:

- GeForce GTX 1080 Founders Edition (wie wir sie bisher kennen)
- Referenzdesign PCB + Custom-Kühler
- Custom-PCB + Custom-Kühler

Am 27. Mai sehen wir von einigen Herstellern die ersten Versionen mit Referenz-PCB + Custom-Kühler. Karten mit Custom-PCB + Custom-Kühler werden erst später erscheinen. Am 27. Mai wird man davon maximal erste Ankündigungen sehen, erhältlich werden die Karten aber erst nach der Computex sein.


Es wurde doch von TIN schon angekündigt das evga an einer kingpin edition arbeitet natürlich nur inoffizell

Are you guys ready? :d
Let see what is multiple B$ and 3 years of NV engineering worth :welcome:

If you have any requests and questions, what to include in upcoming guide, feel free to comment. I'll try my best to fullfil the requests, when it's possible. :rolleyes:
 
Zuletzt bearbeitet:
PCI-E 2.0-3.0 Unterschiede. Leistung der CPU Generationen im Vergleich... Das kann hinten und vorne nicht stimmen was du dir da zusammenreimst.

Zumal das nur so ausgelesen wird. Unter Last wird PCI-Express 3.0 verwendet.
 
Klar limitiert da auch der Anschluss. Zwar kann man diesen überstrapazieren, wozu aber, wenn man mit einem anständigen Layout auch innerhalb der Spezifis bleiben kann.

150W +75W = 225W. Stock ist 180. Da ist nicht wirklich viel Luft. Und um eben den letzten Mhz rauskitzeln zu können, möchte ich eben einen weiteren Flaschenhals ausschließen. so einfach ist das :d

Zumal Tomshardware nur 40Watt beim Test am PCIE gemessen hat.
176 W wurden glaube ich über den 8Pin gezogen bei 216 W PT 120.
Theoretisch möglich wurden 400W genannt:fresse2:

Jedoch macht mir da das Layout an sich die Sorgen und nicht der 8Pin.
Man errinere sich an AMDs Duallkarte.;)
 
Zuletzt bearbeitet:
Ich sehe dort, dass die GTX 1080 35% in 4k und 32% in FHD schneller als die GTX 980Ti ist. Schau noch einmal genau hin und nimm einen Taschenrechner zur Hand. ;)

Deine Prozentzahlen sagen nur, um wie viel Prozent die GTX 980Ti langsamer ist - aber nicht um wie viel Prozent die GTX 1080 schneller ist.

Du musst 100/73 bzw. 100/76 rechnen.


Dazum kommt noch der Unterschied zwischen absolut und relativ. Sry das habe ich übersehen...

Trotzdem bleibt das Quatsch wie du die Unterschiede erklären willst...;)
 
Zuletzt bearbeitet:
Ne komm ich nicht drauf. Erklär mal.

Steht oben in den Spoilertags.

Außerdem hast du dich mal mit den Unterschieden der Testsysteme wirklich auseinandergesetzt?

PCI-E 2.0-3.0 Unterschiede. Leistung der CPU Generationen im Vergleich... Das kann hinten und vorne nicht stimmen was du dir da zusammenreimst.

Zumal das nur so ausgelesen wird. Unter Last wird PCI-Express 3.0 verwendet.

Wie soll das gehen, wenn die CPU laut Intel nur PCI Express 2.0 unterstützt? Naja, mir wumpe. Der Unterschied von PCI Express 2.0 zu 3.0 dürfte eh gering sein.

Aber dass eure CPU in der Single Thread Leistung eine Krücke gegen einen Haswall oder Skylake @ 4,5 Ghz ist, ist doch wohl unbestreitbar. Und das ist nun mal für die Leistung in Spielen relevant.

Und eine gerade veröffentlichte GPU nicht mit dem neusten Grafikkartentreiber zu testen, sondern mit einem älteren... nunja.

Haben dann die anderen Reviewer eigentlich alle gelogen und nur Hardwareluxx hat vernünftig gemessen?

Gerade von der professionellen Testweise von techpowerup könntet ihr euch eine Scheibe abschneiden - gerade auch wenn es um die Lautstärkemessung geht (ich meine mich zu erinnern, dass ihr Grafikkarten, die im Idle ihren Lüfter anhalten, manchmal mit 0 db und manchmal mit irgendwas bei 30db messt, was keinen Sinn macht) oder um Stromverbrauchsmessungen (Idle, Multimedia, Last, Multimonitor), die auch wirklich nur den Verbrauch der Grafikkarte messen.

Trotzdem bleibt das Quatsch wie du die Unterschiede erklären willst...;)

Welche Erklärung bietest du denn als Alternative an?
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Gerade von der professionellen Testweise von techpowerup könntet ihr euch eine Scheibe abschneiden - gerade auch wenn es um die Lautstärkemessung geht (ich meine mich zu erinnern, dass ihr Grafikkarten, die im Idle ihren Lüfter anhalten, manchmal mit 0 db und manchmal mit irgendwas bei 30db messt, was keinen Sinn macht) oder um Stromverbrauchsmessungen (Idle, Multimedia, Last, Multimonitor), die auch wirklich nur den Verbrauch der Grafikkarte messen.

Ich an deiner Stelle wäre hier mal mit derartiger Kritik vorsichtig, Hardwareluxx misst Lautstärke wie bestimmt schon ein paar hundert Mal in Artikeln erwähnt mit einem Voltcraft Messgerät welches erst ab 30 db vernünftige Messwerte liefert und für 70€ im Handel zu kaufen ist, Techpowerup nutzt ein Bruel & Kjaer 2236 sound-level meter, das ist ein leichter Unterschied. Aber ich denke die Redakteure wären über eine Spende deinerseits über die ca 4000$ die das Gerät kostet sicher hocherfreut, dann würden sie bestimmt auch gerne sowas einsetzen :fresse2:
 
Ich an deiner Stelle wäre hier mal mit derartiger Kritik vorsichtig, Hardwareluxx misst Lautstärke wie bestimmt schon ein paar hundert Mal in Artikeln erwähnt mit einem Voltcraft Messgerät welches erst ab 30 db vernünftige Messwerte liefert und für 70€ im Handel zu kaufen ist, Techpowerup nutzt ein Bruel & Kjaer 2236 sound-level meter, das ist ein leichter Unterschied. Aber ich denke die Redakteure wären über eine Spende deinerseits über die ca 4000$ die das Gerät kostet sicher hocherfreut, dann würden sie bestimmt auch gerne sowas einsetzen :fresse2:
Warum sollte er?
Ist es seine Aufgabe für entsprechendes Meßequipment zu sorgen?
Tecpowerup spielt nun mal in einer anderen Liga - das dürfte wohl jedem klar sein.

Jetzt vorbestellen zu einem sehr guten Angebotspreis!

900 euro

:lol:
Aber der Versand ist kostenlos:d
 
Zuletzt bearbeitet:
Also ich sehe dort 36,9 und 31,5% ....
Da muss wohl wieder jem. in die 5. Klasse :fresse2:

Hehe ja wiegesagt es kommt halt drauf an wie man es sehen will ;) Auf dem Screen sehe ich weiterhin die 24 und 27%. Und das ist eben auch das was viele Leute beim eben mal drüberlesen sehen. Eure Werte muss man daraus schlussfolgern ;)
 
Ich habe ja auch nicht gesagt, dass er unrecht hat, sondern nur, dass auf den Screens so direkt was anderes zu sehen ist :P

Alter falter
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh