[Sammelthread] NVIDIA GeForce GTX 1080 TI (GP102) Sammelthread + FAQ



H3g9d4U.jpg


FAQ:


Wann war der Release?

10.März 2017

Welche Versionen wird es geben und wo gibt es sie zu kaufen?

Die Karte als Founders Edition kann man an jetzt auf der NVIDIA Seite vorbestellen. Aber am 10.März werden Partnerkarten schon zu kaufen sein!

Quelle: GTX 1080 Ti graphics cards, including the NVIDIA Founders Edition, will be available worldwide on March 10, from NVIDIA GeForce partners, including ASUS, Colorful, EVGA, Gainward, Galaxy, Gigabyte, Innovision 3D, MSI, Palit, PNY and Zotac. Pre-orders on nvidia.com will go live on March 2, at 8am Pacific.

Was wird die Grafikkarte kosten?

Die Karte als Founders Edition wird 699 Dollar ohne Steuern kosten. Ob die Customkarten wieder billiger sind, ist noch unklar. NVIDIA gibt für die FE einen Preis von 819,00 Euro an.
Als Vergleich. Die 1080 war auch auf 699 Dollar angesetzt beim Launch für die Founders Edition und die Custom Karten für 599 Dollar. Die Custom 1080 hat sich am Ende bei etwas 590 - 650 Euro eingependelt. Ich persönlich gehe von einem Endpreis von ab 750-800 Euro für die Customkarten aus.

Wie schnell ist die 1080 TI im Vergleich zu einer 1080 und lohnt sich der Aufpreis?

Laut NVIDIA ist die 1080 TI ca. 35% schneller als die 1080. Wenn wir jetzt von dem neuen reduzierten GTX 1080 Preis von 499 Dollar ausgehen, so liegt der Aufpreis bei etwa 40%. Ich gehe davon aus, dass die Preise sich ziemlich schnell einpendeln werden und es bei 35% Aufpreis enden wird. Sogesehen liegt der Aufpreis zur Performance bei 1:1. Das heißt, alle die mehr Performance brauchen, müssen im Vergleich nicht mehr bezahlen.

Welche neuen Features hat die 1080 TI?

Momentan findet ihr alle verfügbaren Informationen in der aktuellen 1080 TI News.
 
Zuletzt bearbeitet:
CB Test:

Auch beim Blick auf die Temperaturen lässt sich dem als so innovativ beworbenen Kühlsystem kein Vorteil abgewinnen, denn die von der Lüftersteuerung angepeilte Zieltemperatur von 78 °C liegt höher als bei der Konkurrenz. Die Asus Strix OC Edition operiert 9 °C kühler und dabei 8,5 Dezibel leiser, könnte also noch leiser sein.

Den vom Hersteller selbst geschürten hohen Erwartungen wird die GeForce GTX 1080 Ti GameRock Premium Edition nicht im Ansatz gerecht. Sie ist deutlich lauter als andere Partnerdesigns und dabei weder schneller noch kühler.

Die Testergebnisse im Silent-Modus zeigen, dass der Kühler konzeptionell ein Problem hat.

Die Palit GeForce GTX 1080 Ti GameRock (Premium Edition) hat damit einen schweren Stand am Markt. Selbst die Garantie sticht mit zwei Jahren nicht hervor.

Ich hatte ja die 1080 GameRock Premium. Daher war ich schon die ganze Zeit heiß auf die TI von Palit...

Ich kann mir nur vorstellen, dass bei der Massenproduktion etwas schief gegangen ist. Wenn nicht, ist das einer der schlimmsten Fails, die ich je erlebt habe. :fresse:

Was soll den das schief gegangen sein ? Palit hat die Lautstärke ja selbst nachgestellt. Da werden ja nicht 1000de Lüfter defekt sein ,das Design ist einfach Mist und Anscheind wars Palit zu teuer wieder von vorne damit zu beginnen oder die zeit war zu knapp..
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wundert mich, dass das nicht schon früher bei der Entwicklung aufgefallen ist. Jetzt ist das Kind in den Brunnen gefallen und man versucht Schadensbegrenzung zu betreiben. Das alles neu zu entwickeln, produzieren etc. da macht man gut Verlust.

Somit kann man wohl diesmal nur über den Preis punkten - wenn überhaupt.
 
Wann geht denn die nächste Beta Runde los ? Soweit ich weiss ist man ja wenn man einmal den Key hat damit für jede weitere Betarunde qualifiziert ?
 
Wundert mich, dass das nicht schon früher bei der Entwicklung aufgefallen ist. Jetzt ist das Kind in den Brunnen gefallen und man versucht Schadensbegrenzung zu betreiben. Das alles neu zu entwickeln, produzieren etc. da macht man gut Verlust.

Somit kann man wohl diesmal nur über den Preis punkten - wenn überhaupt.

man macht sich dadurch ja vor allem sehr beliebt bei den Kunden die scheisse im markt zu lassen und zu hoffen dass sich der müll verkauft weil man zu blöd war es vorher zu merken oder zu verhindern und im nachhinein nun kein bock hat. :fresse:

wie kann man beiom vorgänger auf platz 1 sein und jetzt so abkacken.
 
Die EVGA FTW3 scheint wieder erwarten meinerseits sehr brauchbar zu sein.

Got my EVGA 1080ti FTW3. Doing benchmarks now! : nvidia

Update on benchmarks and OC:

Mine is stable @ 2075mhz. Hovers around 2062-75 while playing BF1 and stress test.

Idles @ 24-25c, Under load is 61-62c with default fan curve. Really silent. can barely hear the fans, sometimes they dont spin at all.

Sein "Gehäuse" ist ein Thermaltake Core p5, die Ergebnisse sind also faktisch wie ein open Benchtable.

Imgur: The most awesome images on the Internet
 
Ich verstehe schon gar nicht, wie man auf die Idee kommen kann, zwei gegenläufig laufende Lüfter könnten eine gute Idee sein.
 
Bin auf seriööööse Tests der FTW3 gespannt.

Hier mal zur allgemeinen Belustigung die Lautstärkeangaben von einem GPU Test aus 2010:
...
Da waren die Karten noch Idle lauter als heute unter Last
Lese einfach mal im "Kleingedruckten" von damals und heute nach... Klingelts?
Oha, da hat Palit sich ein richtiges Eigentor geschossen. Richtiger Weg wäre auf den Kunden zu zugehen und Karte austauschen ohne wenn und aber. Sonst werden "Hörgeschädigte" Palitkäufer sicherlich niemals wieder sich eine Graka von ihnen anschauen.
 
Lese einfach mal im "Kleingedruckten" von damals und heute nach... Klingelts?
Mir klingeln von den damaligen GTX 480 und 4890 Referenzen heute immer noch die Ohren.
Die Karten spielten von der Lautstärke in einem vollig anderen Universum als die heutigen Karten.
Die GTX480 alleine musste Idle 55 Watt abführen.

Die geänderte Meßmethodik hat darauf einen vergleichsweise kleinen Einfluß.
 
Zuletzt bearbeitet:
Das EVGA Hybrid Kit ist für die 1080 Ti ab sofort lieferbar...nur wurde der Preis von 150 auf 180 € angehoben o_O
 
Hab jetzt nochmal (hatte mir das schon ewig vorgenommen) verglichen wie GPU Takt und Ram Takt skalieren... zwar nur Anhand von Valley weil das am schnellsten ging, aber ist ja relativ egal und übertragbar:

Stock (1974/5500): 97,9 fps


GPU OC (2075/5500): 100,0 fps (+2,15%)


Ram OC (1962/5700): 100,0 fps (+2,15%)


Ram OC (1962/5800): 100,8 fps (+2,96%)


Ram OC (1962/5900): 101,6 fps (+3,78%)


Auf 6000 MHz Ramtakt bring ich meine Strix leider nicht ohne Farbwölkchen, daher zähle ich dieses Szenario nicht (auch wenn die FPS noch weiter steigen würden).

Ergo: VRam OC lohnt sich mehr als GPU OC, zieht aber auch mehr am PT und erhöht die Temps deutlich (siehe GPU Takt von nur 1962 statt 1974 MHz - dank Boost 3.0 und Temps von über 50°C).
 
Zuletzt bearbeitet:
Selbst eine Titan Xp profitiert von mehr VRAM Takt (im 4k Superposition Benchmark).
 
Hier noch meine Erfahrungen mit der Gigabyte AORUS Xtreme, die ich seit einem Tag im Betrieb habe (die MSI Gaming X liegt auch noch bereit, werde ich dann übers WE ebenfalls mal antesten):

unbenannt4vkaq.png


Stock Boost out of the Box (die GB Software für OC-Mode oder so installiere ich mir gar nicht, mache das eh immer manuell im AB) geht auf 2000 MHz, ab 60°C GPU Temp sind es dann nur noch 1987 MHz. GPU Temps sind nach einem Valley Run als Basis 7°C höher als bei der STRIX, dafür drehen die Lüfter auch 400 RPM niedriger und sind etwas leiser (60% Fanspeed sind bei der AORUS 1750 RPM und bei der STRIX 2175 RPM).


(AORUS vs STRIX)

Normiert auf ~2175 RPM (bei der AORUS ca. 75%) ist sie dann nur noch 2°C wärmer als die STRIX und auch vergleichbar leise (bzw. fast noch ein kleines Stück leiser):



Noch kurz zu den Ergebnissen mit kompletter Out of the Box Lüfterkurve:
Nach 30 Min in Spielen lande ich mit 58% Fanspeed (1675 RPM) bei 72 °C und 1962 MHz.


OC Kurztests (wieder mit Valley) mit ~2220 RPM Fanspeed (77%):

An die 2108 MHz Peak (nur bei unter 40°C, mit Wakü sicher erreichbar und stabil) der STRIX kommt die AORUS Xtreme leider nicht ran, aber das ist ja reine Silicon Lottery. Das höchste der Gefühle war ein Offset von +35 MHz, resultierend in 2050 MHz Peak (nur bei unter 40°C) - also ganze 70 MHz weniger als bei der STRIX. In der Praxis blieben von den 2050 MHz dank Boost 3.0 nur noch 2025 MHz übrig (bei der STRIX dagegen blieben von 2108 MHz noch 2075 MHz übrig).



Der besten Vallley Run, den ich hinbekommen habe, lief also mit 2025 MHz durch Valley - magere 25 MHz über den Out of the Box Werten (2000 MHz).

Die GPU Temp lag dabei bei bis zu 55°C. Mit weniger Fanspeed (also z.B. der Lüfterkurve ab Werk) und Temps von über 60°C wären dann wohl nur noch 2012 MHz drin gewesen (wieder eine Boost Stufe weniger) bzw. ab 70°C nur noch 2000 MHz. Man merkt... die Karte läuft ziemlich an der Grenze, OC Spielraum ist wenig vorhanden. Allerdings machen die meisten Pascal Chips auch nicht mehr mit als 2000-2050 MHz mit, die Chips die 2100 MHz schaffen sind schon absolute Ausnahmen.

Bzgl. VRam-OC:

2000/5700 MHz: 100,6 fps


2000/5800 MHz: 101,8 fps


2000/5900 MHz: 102,7 fps


2000/6000 MHz: 103,7 fps


2000/6100 MHz: 104,6 fps


2000/6200 MHz (mit leichten Bildfehlern): 105,6 fps


Kann sich im Vergleich zur STRIX also durchaus sehen lassen, die erzeugt bei allem über 5900 MHz leider Bildfehler (auch wenn die FPS noch weiterhin etwas ansteigen).
 
Zuletzt bearbeitet:
Meine Aorus schafft Stock 2026 - OC ist auch nicht viel drinnen. Mehr teste ich nach Umbau auf Wasser (sobald es passende Blocks gibt).

Im Vergleich zur Aorus läuft die Strix mit OC aber öfter ins PT.
 
Zuletzt bearbeitet:
@ralle_h
dann ist eine Karte mit besseren ram ic's ja mehr wert als eine mit einem super chip :d

wie sehen diese grafikfehler vom ram oc aus? mich wundert, dass du nur so "wenig" ram oc geben kannst.
Kannst du davon mal einen screenshot machen? möchte das mal mit meiner karte nachstellen.
 
Das sieht man auf Screenshots nicht, da die Quelle diese Fehler ja nicht aufweist... nur die Wiedergabe durch die GPU. Ergo nur durch externes Filmen zu sehen.

Habe den Ram Takt nochmal so eingestellt dass an der Kotzgrenze ist und das ganze mit dem Smartphone gefilmt:

 
Da scheine ich mit meiner FE ja beim RAM Glück gehabt zu haben.
Mein Chip macht zwar nur 2050 stabil, mit bis zu 2100 MHz stürzt ein Spiel ab und an (ca. alle 2 Stunden) mal ab.
Der RAM macht aber selbst bei 6200 MHz noch keine Fehler, erst ab 6300 treten Bildfehler auf.

Ich habe als 24/7 Einstellung daher 2050/6200 gewählt, das läuft mit bis zu 37° dank WaKü.

In Spielen ist diese Einstellung bei 100-110% vom Powerlimit, in einigen Benchmarks oder in High FPS Szenen wie dem Elite Dangerous Hauptmenü (500fps) hat die Karte so peaks von bis zu 125% Power. Der takt geht dabei auf 2025 MHz runter, mit weniger RAM OC sind es 2038 MHz. Das ist aber schon sehr speziell, bei BF1 nimmt die Karte ohne zu drosseln ca. 100% Power.
 
Zuletzt bearbeitet:
Klingt für mich eher so, als hättest du beim Chip und beim Ram Glück gehabt ;) 2050 MHz GPU macht auch nicht jede Karte und zwischen 2050 und 2100 MHz ist ja auch noch eine Menge Spielraum ;) Wenn 2100 MHz alle 1-2 Stunden abstürzen, werden 2075 (statt der 2050) vermutlich auch schon rockstable laufen.
 
Ja, 2075 wären vermutlich auch drin, aber ich denke im Sommer mit etwas höherer Raumtemp wird die Karte auf 40°C kommen und ich möchte nicht plötzlich Abstürze haben.
 
jetzt noch nen Wakü Block passend dazu und die Palit ist die Karte für Waküler. XD besseres PT und genauso billig. ^^
 
Meine läuft mit 2063/6300 Mhz. Alles über 6300 Mhz Ram verursacht Bildfehler und stürzt ab.

24/7 Settings sind 2063/6000 Mhz. Bin ehrlich gesagt zu frieden mit dem Ergebnis.
 
Meine läuft mit 2063/6300 Mhz. Alles über 6300 Mhz Ram verursacht Bildfehler und stürzt ab.

24/7 Settings sind 2063/6000 Mhz. Bin ehrlich gesagt zu frieden mit dem Ergebnis.

Ja ich denke, dass 2000/6000 mit 1v, ist so das beste momentan ist.
 
Zuletzt bearbeitet:
jetzt noch nen Wakü Block passend dazu und die Palit ist die Karte für Waküler. XD besseres PT und genauso billig. ^^

Die Palit hatn Spar PCB (Eigenentwicklung), würde mich nicht wundern wenn das schlechter ist als das der FE..
Anders als die meisten Hersteller machen die das nicht um das PCB zu verbessern sondern um Geld zu sparen.
 
Ich weiß nicht wie hier einige noch immer am testen sein können und sich fleißig Karten bestellen. Ich verstehe, dass das ein Hobby ist, verhält sich bei mir genauso, aber langsam wird es etwas lächerlich.

  • die Nvidia Limits sind wie sie sind und weder unter Wasser noch unter Luft wird man merkbar an 2100 GPU Takt vorbeikommen ohne irgendwo abzuschmieren
  • die Karten liegen alle zwischen 2050 und 210x Maximaltakt, in der Regel ist ziemlich genau bei 2088 ein Punkt erreicht wo 95% der Karten das Ende der Fahnenstange erreicht ist
  • VRM Design spielt nur noch akustisch und thermisch eine Rolle. Egal wie viele Phasen oder 8 Pol Anschlüsse aufs PCB gelötet sind, wer nicht gerade vom Hersteller mit mod Bios versorgt wird und unter LN2 kühlt erreicht mit jeder Karte mehr oder weniger das selbe
  • Curve verliert Leistung im Vergleich zu Offset und wenn der Karte die lustigen 1V die ihr einstellt nicht ausreicht rennt sie sogar noch früher ins Powerlimit und ihr habt massiv weniger Leistung trotz mehr Takt, testet verschiedene Spiele und nicht nur eines
  • Luft oder Wasserkühlung machen im Endeffekt keinen Unterschied, klar unter Wasser entgeht man dem Drosseln bedingt durch Temperatur, das umgehen Customs aber durch angepasste Booststufen beinahe genauso gut.
  • Speicher OC bringt mehr als GPU Takt. Dabei muss man aber auch die Leistung über verschiedene Spiele beobachten. Die Fehlerkorrektur greift lange bevor wirkliche Bildfehler auftreten und man verliert dementsprechend früher Leistung. Da sind +400 manchmal mehr wert als +800

Es sind leider keine Kepler oder Maxwell Zeiten mehr, wo man durch gute Boarddesigns und Binning noch massiv mehr Leistung rausholen konnte. Inzwischen erledigen GPU Boost und die strengen Vorhaben die Aufgabe schon so gut (oder schlecht) das wir kaum mehr irgendwas einstellen müssen.

Um das festzustellen, brauche ich weder 5 Karten bestellen noch 4 Wochen lang rum testen und Karten wegen 12MHz mehr Takt als Perle anpreisen :hmm:
 
Moin,

@eS#|vs. Das stimmt schon was du schreibst, aber da schreib ich dazu: Jedem das seine und es ist nun mal von einigen hier im hardwareLUXX das Hobby.

Curve verliert Leistung im Vergleich zu Offset und wenn der Karte die lustigen 1V die ihr einstellt nicht ausreicht rennt sie sogar noch früher ins Powerlimit und ihr habt massiv weniger Leistung trotz mehr Takt, testet verschiedene Spiele und nicht nur eines

Bist du dir dabei zu 100% sicher? Ich dachte mit dem Offset würde man früher ins Powerlimit rennen.
 
Zuletzt bearbeitet:
@eS#|vs.

Und für was ist ansonsten so ein Sammler gedacht? :)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh