Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Wenn ich mir den Test so ansehe habe ich für mich mit der Gigabyte G1 garnicht mal so grundverkehrt gekauft.
Die tuen sich in bezug auf Lautstärke alle nicht viel und die G1 gehört hier im Testfeld noch zu den kühleren Karten.

Leiser und kühler kann dann nur ein Dicker Tripleslot Kühler abhilfe schaffen.

Euren test finde ich habt ihr ganz gut hinbekommen und wart auch etwas kritischer als sonst.
Zudem habt ihr eine Karte ausgezeichnet die ihr für euch als bestes Produkt getestet habt und finde ich auch
gut und sehr wichtig.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Danke für den Test. Bietet Zotac nach Registrierung auch hier 5 Jahre Garantie an? Wenn ja, ist deren GTX 1080 IMO ein Best Buy-Fall.
 
Konsolenspieler die an 30FPS gewöhnt sind, können jetzt jedes Game in 4K Max spielen.

Für mich stellt sich nun die Frage:

- 1440p Monitor@ 144 Hz + 1080
oder ich warte noch und:
- 4K Monitor @ 144 Hz + 1080 Ti / Vega

Letztere Option müsste dann aber wirklich 60FPS zustande bringen, kann auch gerne auf 50 runter gehen.
 
Excellent Hardware ist also etwas was noch paar Vorher ein ganzer Rechner gekostet hat ? Im Ernst ?

Jedes mal das gleiche "mimimi". Die jeweils stärksten Karten haben bei Einfürhung schon immer verdammt viel gekostet....niemand muss es kaufen.
Sogar im Jahr 2000 hat man für eine Geforce 2 Ultra zu Release 1500 DM loswerden können
 
Zuletzt bearbeitet:
Für mich stellt sich nun die Frage:

- 1440p Monitor@ 144 Hz + 1080
oder ich warte noch und:
- 4K Monitor @ 144 Hz + 1080 Ti / Vega

Letztere Option müsste dann aber wirklich 60FPS zustande bringen, kann auch gerne auf 50 runter gehen.

Und wofür dann 144Hz wenns nur 60fps bringen muss?...zumal 4K144 Panels vmtl noch lange brauchen bis sie kommen, ebenso wie vernünftige Anschlüsse dafür.
 
Die getesteten Grakas gehen ja schon ordentlich ab. Erstaunt bin ich über die Temperaturen der EVGA und Inno3D unter Last. Obwohl die Kühler größer und scheinen und auch mehr Lüfter haben, können sie sich nicht deutlich vom FE absetzen. Viel leiser sind sie dabei ja auch nicht.
Außerdem bin ich gespannt, ob die Top-Modelle die prognostizierten "magischen" 2,1Ghz erreichen. Ich hoffe du wirst davon auch noch welche testen.

OT:
Jedes mal das gleiche "mimimi". Die jeweils stärksten Karten haben bei Einfürhung schon immer verdammt viel gekostet....niemand muss es kaufen.
Sogar im Jahr 2000 hat man für eine Geforce 2 Ultra zu Release 1500 DM loswerden können
Kann schon sein. Aber sollten im Laufe der Zeit nicht auch Kosten in der Produktion und Entwicklung gesenkt worden sein können. Sind nur meine Vermutungen bzw. kenne mich da nicht aus. Könnte mir vorstellen, dass die Produktion mittlerweile durch automatisierte Prozesse und Outsourcing gesenkt werden konnten. Ebenso sollte die Entwicklung mit unserem aktuellen Technikstand "einfacher" von statten gehen, als zu Zeiten der GF2. Korrigiert mich, falls ich daneben liege.
 
Erstaunt bin ich über die Temperaturen der EVGA

Wundert mich irgendwie auch. Der ACX Kühler hat zwar noch nie Bestnoten bekommen, aber die bisherigen Besitzer ner ACX 3.0 Karte schienen durchaus zufrieden mit der Kühlleistung. Von 80°C hab ich hier noch nix gelesen :hmm:
Lüfter soll laut den Nutzern auch nicht zu unangenehm sein.

Im LUXX Test ist die EVGA Karte ja quasi mit die Lauteste und heißeste
 
Kann schon sein. Aber sollten im Laufe der Zeit nicht auch Kosten in der Produktion und Entwicklung gesenkt worden sein können. Sind nur meine Vermutungen bzw. kenne mich da nicht aus. Könnte mir vorstellen, dass die Produktion mittlerweile durch automatisierte Prozesse und Outsourcing gesenkt werden konnten. Ebenso sollte die Entwicklung mit unserem aktuellen Technikstand "einfacher" von statten gehen, als zu Zeiten der GF2. Korrigiert mich, falls ich daneben liege.

Eine GeForce 2 könntest du heute natürlich deutlich günstiger entwickeln und produzieren als 2000, mit moderneren Verfahren kriegst du sogar deutlich mehr Leistung für deutlich weniger Geld. Die entsprechenden Produkte kannst du relativ einfach kaufen. Willst du hingegen die gleiche Marktkategorie wie früher, also "Oberklasse", dann wirst du auch mit den gleichen Problemen wie früher konfrontiert und musst ähnlich viel Geld ausgeben. Das liegt in der Natur dieser Sache, denn der Preis richtet sich nicht danach, wie viel ein Modell XYZ wirklich leistet, sondern wie nah es an der Grenze zum derzeit technisch machbaren kommt. Und davon ist die 1080 heute vermutlich ähnlich weit weg wie die GeForce 2 PRO (bspw.) vor 16 Jahren.
Das war schon immer so, das wird auch immer so sein, und es bezieht sich natürlich nicht nur auf Grafikkarten, sondern auf fast alles aus dem Bereich "Hi-Tech".
 
@Luxx: Die Zotac wird vom Hersteller mit 325 mm Länge angegeben bei euch im Text steht 305mm . Kann es sein, dass der Hersteller ab der Schraubhalterung also ab dem Anfang des Slotbleches misst ?
Würde mich freuen dann passt es doch in ein Carbide 540 rein

Gesendet von meinem Nexus 6P mit Tapatalk
 
Inno Twin X2, Zotac AMP! (nicht extreme) und KFA EX OC würden mich noch interessieren. Die passen alle drei ins DanCase. :)

Wundert mich irgendwie auch. Der ACX Kühler hat zwar noch nie Bestnoten bekommen, aber die bisherigen Besitzer ner ACX 3.0 Karte schienen durchaus zufrieden mit der Kühlleistung. Von 80°C hab ich hier noch nix gelesen :hmm:
Lüfter soll laut den Nutzern auch nicht zu unangenehm sein.

Im LUXX Test ist die EVGA Karte ja quasi mit die Lauteste und heißeste

Schneidet doch auch bei Computerbase nicht so gut ab, wird zumindest recht heiß.
 
ist eigentlich schade denn eine evga wäre meine erste wahl gewesen.
 
Wobei die ftw den größeren kühler und größere Lüfter hat. Wenn beim Takt eh nicht mehr geht als bei der sc, müsste die theoretisch die kühlere und leisere sein
 
@Don

Dieses spröde werdende Pad auf den Wandlern der G1, hat das dann überhaupt noch Wärmeleitfähigkeit, wenns spröde geworden ist, was ja anscheinend ziemlich schnell passiert. Muss man sich Gedanken machen, als G1 Besitzer?

Auf der Platinenrückseite ist im Bereich Wandler auch ein Pad, so dass die Backplate quasi aktiv mitkühlt. Ich hab da mal hingefasst, die wird in dem Bereich sehr warm.

Da is noch ein Pad auf der Rückseite bei den Vrams, aber nicht auf allen, nur auf denen, die den Phasen nahe sind.

Naja, meine Karte wird schon nicht durchbrennen.

Ich glaube die Pads sind einfach nur so, würde das aber nicht als Problem sehen. Auch bei den Temperaturen auf der Rückseite gibt es bisher keine Anzeichen für Probleme.

Excellent Hardware ist also etwas was noch paar Vorher ein ganzer Rechner gekostet hat ? Im Ernst ?

Es ist ja kein Preis/Leistungs-Award. Den haben wir aus eben diesem Grund nicht vergeben.
 
Das war es dann auch mit der vielgelobten Effizienz, Leistungsaufnahme zwischen einer Fury und einer Fury X...
 
@Don: Zotac Amp Extreme wirklich nur 305mm lang ?

Gesendet von meinem Nexus 6P mit Tapatalk
 
Frage:
Sind die Custom Karten bei Euch in Deutschland bereits lieferbar, oder auch nur tröpfchenweise und wann gelobt NV bzw. oder die Hersteller Besserung ?
Mitte bis Ende Juli wie bei uns in Italien?
Müsste für Kollegen einige Bestellen....
Dank Euch!
 
Unter welcher Anwendung misst HWL die Leistungsaufnahme bei Last?
Wie kommt es, dass bei Computerbase die Zotac AMP! Extreme so erheblich viel mehr als die anderen Karten verbraucht?
 
Frage:
Sind die Custom Karten bei Euch in Deutschland bereits lieferbar, oder auch nur tröpfchenweise und wann gelobt NV bzw. oder die Hersteller Besserung ?
Mitte bis Ende Juli wie bei uns in Italien?
Müsste für Kollegen einige Bestellen....
Dank Euch!

Schau doch bei z. B. gh.de nach?
 
Zuletzt bearbeitet:
Weiß man eigentlich ob die Zotac 1070 AMP Extreme genau dasselbe PCB hat wie die 1080? :O
 
Mir ist nicht ganz klar, wie ihr übertaktet habt. Im Text steht, dass ihr stets das Powerlimit erhöht habt. Das reicht ja bereits aus, um den Boost zu erhöhen. Wurde zusätzlich Spannung und/oder Takt-Offset erhöht? Und was ist mit dem Speicher?

Hat die Redaktion darauf noch eine Antwort?
 
@Don: Zotac Amp Extreme wirklich nur 305mm lang ?

Ich hatte das schon in der Tabelle korrigiert, nur im Text übersehen. Sie musst 325 mm.

Unter welcher Anwendung misst HWL die Leistungsaufnahme bei Last?
Wie kommt es, dass bei Computerbase die Zotac AMP! Extreme so erheblich viel mehr als die anderen Karten verbraucht?

Wir messen in The Witcher 3 die Leistungsaufnahme. Es können sich daher durchaus Unterschiede ergeben.

Mir ist nicht ganz klar, wie ihr übertaktet habt. Im Text steht, dass ihr stets das Powerlimit erhöht habt. Das reicht ja bereits aus, um den Boost zu erhöhen. Wurde zusätzlich Spannung und/oder Takt-Offset erhöht? Und was ist mit dem Speicher?

Wir heben das Power-Limit an und setzen zudem noch einen Takt-Offset, bis es nicht mehr weiter geht. Den Speicher konnten wir bei allen Karten auf 2.700 MHz setzen und haben es auch dabei belassen.

mir fehlt die palit im test -.-

Es fehlen noch einige Karten, aber Modelle wie die EVGA GeForce GTX 1080 FTW, Galax GeForce GTX 1080 HOF und andere kommen noch.
 
Kommt die MSI Gaming X auch noch, oder möchte MSI diesmal keine testen lassen? CB hat auch keine bekommen. Aber vllt müßen sie erst noch das Pressebios runterflashen.
 
Die 1070 von MSI haben wir, die 1080 haben wir angefragt, bisher aber nicht bekommen. Eine Begründung kennen wir aber nicht.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh