ASUS ROG Strix OC: Die erste Boardpartner-Karte der GTX 1080 Ti im Testlabor

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.949
asus_rog_geforce_gtx_1080_ti_strix_oc.jpg
Mit der GeForce GTX 1080 Ti kündigte NVIDIA zu Beginn des Monats seine bislang schnellste GeForce-Grafikkarte an. Während die Founders Edition schon seit ein paar Tagen mehr oder weniger zu einem Preis ab 819 Euro erhältlich ist, lassen die Custom-Karten der Boardpartner noch immer auf sich warten. Zwar wurden schon etliche Modelle von ASUS, MSI, Gigabyte, EVGA, Inno3D, ZOTAC und Co. angekündigt und von uns
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Sehr schön, freue mich sehr auf den Test :)

Testet ihr das Silent Bios mit ?
 
Ich hätte auch direkt eine Frage - testet Ihr in einem offenen Testaufbau oder in einem geschlossenen Gehäuse?
 
Wir testen alle Grafikkarten in einem geschlossenen Testsystem.
 
Also gibt es ein NDA...na gut, ich freu mich auf das Review. Die SC2 von EVGA ist schon bei 999€ gelistet.
 
Nein, es gibt kein NDA. Wie kommst du darauf?
 
Die ganzen Seiten sollten sich bei ihren Tests mal lieber dem Thema Spulenfiepen annehmen. Ist heutzutage ne echte Plage bei nahezu jeder Karte, auch Customdesigns und im Falle von den ROG Karten schon mehr Feature denn Bug :fresse: aber irgendwie liest man bei der Beweihräucherung von Karte X in Tests nie was dazu bis man den Mist dann zuhause hat...
 
Zuletzt bearbeitet:
Nein, es gibt kein NDA. Wie kommst du darauf?

Hatte nur nen Eindruck...kann aber auch sein, das ich da was durcheinandergewürfelt habe. Ich habe gelesen, das Nvidia sich ne Karenzzeit, gegenüber den AiB, zwecks Verkauf der FE gehehmigt hat und die deswegen erst später verkaufen dürfen. Ist da was dran?
Und noch ne Frage: Warum kommen die Costums wieder so spät (samt Eindruck, das die AiB wieder unvorbereitet waren?)

- - - Updated - - -

Die ganzen Seiten sollten sich bei ihren Tests mal lieber dem Thema Spulenfiepen annehmen. Ist heutzutage ne echte Plage bei nahezu jeder Karte, auch Customdesigns und im Falle von den ROG Karten schon mehr Feature denn Bug :fresse: aber irgendwie liest man bei der Beweihräucherung von Karte X in Tests nie was dazu bis man den Mist dann zuhause hat...

Da stimme ich dir zu, das Thema wird oft nicht erwähnt. Ich verstehe aber wirklich nicht, warum die Hersteller es nicht in den Griff bekommen? Bei meiner 980Ti, hatte ich dies auch recht ausgeprägt, hat mich aber nicht gestört...im Gegensatz zum Heißluftfön der 1080Ti.
 
Das Problem / Ursache beim Spulenfiepen liegt bei der Spannungsversorgung. Also nicht alleine bei GPU, sondern auch MoBo (zum kleinen Teil, PCIe, bis 75W) und vorallem NT. Mit einem NT fiept die GPU, bei anderem nicht :(
 
Was muss man dann bitte für ein NT haben, das es zumindestens reduziert wird?
 
dazu kann man keine pauschale empfehlung geben.
es ist ein zusammenspiel der gesamten hardware.
 
Hatte nur nen Eindruck...kann aber auch sein, das ich da was durcheinandergewürfelt habe. Ich habe gelesen, das Nvidia sich ne Karenzzeit, gegenüber den AiB, zwecks Verkauf der FE gehehmigt hat und die deswegen erst später verkaufen dürfen. Ist da was dran?
Und noch ne Frage: Warum kommen die Costums wieder so spät (samt Eindruck, das die AiB wieder unvorbereitet waren?)

Nein, da ist ziemlich sicher nix dran...
Es scheint mittlerweile einfach so, als würde der Zeitpunkt, andem NV den Boardpartnern die Daten zu den neuen Modellen gibt, einfach deutlich näher am Termin der Vorstellung der Hardware liegen als das früher mal der Fall war...
Damit haben die Boardpartner weniger Zeit absolut zwischen der Bekantgabe seitens NV und dem Release der Hardware als solches -> es wirkt unvorbereitet und es dauert länger nach Release.
Auf der anderen Seite entsteht dabei ein stark gewichteter Vorteil für NV -> es gibt schlicht keine Leaks durch Boardpartner oder Dritte... Schau dir die Politik an, die NV mit Pascal fährt.
-> AMD kündigt Polaris 10 an -> NV released kurz vorher GP104 als 1070/1080
-> es wird Vega für Okt. 2016 spekuliert -> NV released kurz vorher GP102 als TitanX
-> AMD kündigt Ryzen an (und es wird auf Infos, ggf. sogar einen Release von Vega gehofft, so nach dem Motto, Überraschung!) -> NV released GP102 als 1080TI
Nimmt man es genau kommt dort noch der Tesla P100 Release dazu

Sowas wäre schlicht nicht aufgegangen wenn deutlich vorher quasi alle Infos und diverses Anderes wie Termine, Leistungsdaten, Ausbauten/Versionen und dergleichen bekannt gewesen wären, bzw. wenigstens durch ansatzweise glaubhafte Spekulationen im Umlauf wären.
Die TitanX kam extrem überraschend für die Masse... Die 1070/1080 eigentlich auch, denn man ging davon aus, als NV deutlich länger als AMD für die neue Generation braucht.

Hätten da viel mehr Leute Infos gehabt, wäre auch viel mehr bekannt gewesen...
Denn die Boardpartner, vor allem die, die beides vertreiben, reden auch untereinander... Und natürlich auch ggü. den Herstellern der GPUs. Denn man kann auch Sachen sagen ohne sie direkt zu sagen ;)
Wenn man aber nix weis, kann man auch nix sagen. Klarer Vorteil...

Da stimme ich dir zu, das Thema wird oft nicht erwähnt. Ich verstehe aber wirklich nicht, warum die Hersteller es nicht in den Griff bekommen? Bei meiner 980Ti, hatte ich dies auch recht ausgeprägt, hat mich aber nicht gestört...im Gegensatz zum Heißluftfön der 1080Ti.

Wenn man sich mit dem Thema mal etwas beschäftigt, dann fällt einem auf, dass sowas schlicht nicht benennbar/aufzeigbar ist. Da einfach viel zu viele verschiedene Kombinationsmöglichkeiten das Ergebnis beeinflussen.
Was bringt es wenn die Redaktionen aussagen, da fiept was oder nicht, wenn es Zuhause dann völlig anders ist?
Bestenfalls kann man Tendenzen sehen... Aber diese lassen sich idR auch nur deswegen sehen, weil idR bei diesen Karten, wo Pauschalen ala fiept/fiept nicht ausgesagt wurden, sehr sehr viele im Umlauf sind und damit entsprechend viele Rückmeldungen seitens der Community zu sehen ist. Wenn 1000 GM204 CPUs hier im Forum zu sehen waren, davon sich 100 zurück gemeldet haben ob es fiept oder nicht, entsteht ein ganz anderes Bild als wenn 50 TitanX GPUs im Umlauf sind und davon sich 5 zurück gemeldet haben ob es fiept...
 
Zuletzt bearbeitet:
das ist gerade der punkt der mich interessiert... es ist so schwer herauszufinden wie hoch das pt bei dem jeweiligen Design liegt und gerade dazu kauft man doch n custom ... was bringt mir niedrige temp wenn ich dauernd im pt rumschlürfe
 
Die Frage ist ja auch: Was bringt ein Powertarget überhaupt, außer Leute sinnlos zu gängeln?
 
ja da hast du auch recht, ich bin seit der einführung von boostund dem ganzen mist dagegen. habe auch schon bei einigen artikeln bemängelt, dass man im test auf den gut funktionierenden boost noch lobt.

die hardware presse ist einfach absolut unkritisch und da wird viel zu selten mal dem hersteller etwas auf die finger gehauen.
warum das so ist weiß ich nicht, vlt sehen die das also so sinnlos an wie ich es sehe zu kommentieren...aber ich machs trotzdem^^

ich erinnere mich nur an 2 male wo die presse etwas ermahnt hat, das war beim gtx 970 aufstand und damals...ich weiß gar nicht mehr wann da war... da hatte amd mit einem treiber die details runtergeschraubt um bessere fps werte ggü. nv zu bekommen. das wars aber auch schon

andernseits wären ja auch die reseller gefragt, es gab ja eine zeit mit custom biosen ohne boost pt und allem möglichen, ganz wie zur good old oc time, wäre für die reseller nicht so schwer solche biose auf ihre karten zu spielen.

ich finde im low/midrange macht das mit dem pt/tempt usw. noch iwie sinn, aber gerade beim high end will man leistung und zwar so viel wie geht...

das ganze fing aber eben auch an als man immer mehr anfing auf den verbrauch zu schauen und die effizient in den vordergrund trat. mir war das bei high end hardware eher unwichtig aber pt/tt ist dann die logische konsequenz
 
Nein, da ist ziemlich sicher nix dran...
Es scheint mittlerweile einfach so, als würde der Zeitpunkt, andem NV den Boardpartnern die Daten zu den neuen Modellen gibt, einfach deutlich näher am Termin der Vorstellung der Hardware liegen als das früher mal der Fall war...
Damit haben die Boardpartner weniger Zeit absolut zwischen der Bekantgabe seitens NV und dem Release der Hardware als solches -> es wirkt unvorbereitet und es dauert länger nach Release.
Auf der anderen Seite entsteht dabei ein stark gewichteter Vorteil für NV -> es gibt schlicht keine Leaks durch Boardpartner oder Dritte... Schau dir die Politik an, die NV mit Pascal fährt.
-> AMD kündigt Polaris 10 an -> NV released kurz vorher GP104 als 1070/1080
-> es wird Vega für Okt. 2016 spekuliert -> NV released kurz vorher GP102 als TitanX
-> AMD kündigt Ryzen an (und es wird auf Infos, ggf. sogar einen Release von Vega gehofft, so nach dem Motto, Überraschung!) -> NV released GP102 als 1080TI
Nimmt man es genau kommt dort noch der Tesla P100 Release dazu

Sowas wäre schlicht nicht aufgegangen wenn deutlich vorher quasi alle Infos und diverses Anderes wie Termine, Leistungsdaten, Ausbauten/Versionen und dergleichen bekannt gewesen wären, bzw. wenigstens durch ansatzweise glaubhafte Spekulationen im Umlauf wären.
Die TitanX kam extrem überraschend für die Masse... Die 1070/1080 eigentlich auch, denn man ging davon aus, als NV deutlich länger als AMD für die neue Generation braucht.

Hätten da viel mehr Leute Infos gehabt, wäre auch viel mehr bekannt gewesen...
Denn die Boardpartner, vor allem die, die beides vertreiben, reden auch untereinander... Und natürlich auch ggü. den Herstellern der GPUs. Denn man kann auch Sachen sagen ohne sie direkt zu sagen ;)
Wenn man aber nix weis, kann man auch nix sagen. Klarer Vorteil...



Wenn man sich mit dem Thema mal etwas beschäftigt, dann fällt einem auf, dass sowas schlicht nicht benennbar/aufzeigbar ist. Da einfach viel zu viele verschiedene Kombinationsmöglichkeiten das Ergebnis beeinflussen.
Was bringt es wenn die Redaktionen aussagen, da fiept was oder nicht, wenn es Zuhause dann völlig anders ist?
Bestenfalls kann man Tendenzen sehen... Aber diese lassen sich idR auch nur deswegen sehen, weil idR bei diesen Karten, wo Pauschalen ala fiept/fiept nicht ausgesagt wurden, sehr sehr viele im Umlauf sind und damit entsprechend viele Rückmeldungen seitens der Community zu sehen ist. Wenn 1000 GM204 CPUs hier im Forum zu sehen waren, davon sich 100 zurück gemeldet haben ob es fiept oder nicht, entsteht ein ganz anderes Bild als wenn 50 TitanX GPUs im Umlauf sind und davon sich 5 zurück gemeldet haben ob es fiept...


Ein NV AiB Partner, möchte ich gerade nicht sein :(
 
Wow, Full Quote für einen Satz...


Gesendet von iPhone mit Tapatalk
 
ja da hast du auch recht, ich bin seit der einführung von boostund dem ganzen mist dagegen. habe auch schon bei einigen artikeln bemängelt, dass man im test auf den gut funktionierenden boost noch lobt.
Was sollen die Redaktionen auch machen?
Der Boost ist Bestandteil der Hardware... Es gibt sie nicht ohne... Es ist müßig darüber zu streiten ob der Boost gut/schlecht für den Endanwender ist. Denn es gibt Vor- wie auch Nachteile dadurch.
Wer bewertet nun was objektiv gesehen "besser" ist!?

-> das benennen von "gut" oder "schlecht" funktionierendem Boost geht hingegen ohne sich auf eine Seite zu stellen... Nämlich indem man Umsetzungen konkreter Produkte miteinander vergleicht.
-> das benennen von "gut" oder "schlecht" auf den Boost generell bezogen ist hingegen rein subjektiv durch den Redakteur ;)

ich finde im low/midrange macht das mit dem pt/tempt usw. noch iwie sinn, aber gerade beim high end will man leistung und zwar so viel wie geht...

Das witzige dabei ist, dass du genau das dadurch bekommst ;)
Denn du unterliegst hier einen gedanklichen Irrtum... Nicht das was bei maximalen Einstellungen irgendwie möglich ist, ist das was die Basis ist und alles, was durch das PT/TT gedeckelt wird, verlierst du, sondern die Basis ist irgendwo weit unterhalb dessen, was die Karte im Moment liefert und der Rest ist OnTop -> quasi zusätzliche Dreingabe.
Zumindest so wie der NV Boost im Moment funktioniert!!
Bei AMD ist das bspw. andersrum. Dort gibt es einen Boosttakt -> und ggf. nichtmal einen Basistakt. Die Karte hält idR aber den Boosttakt nicht vollends... Damit entsteht einfach der Eindruck, als würde die Karte gar nicht richtig funktionieren. ;)
So werden bspw. die maximal möglichen Leistungsparameter für FP32 in TFlop/sec angegeben und diese Angabe bezieht sich bei beiden Herstellern auf den genannten maximal Boost. Bei NV liegt man (seit Maxwell) idR deutlich drüber in realen Anwendungen, bei AMD hingegen liegt man meist drunter, manchmal erreicht man diesen Takt, nie aber drüber...

Aber das ist halt eigentlich gar nicht der Sinn hinter dem Boost. Der Sinn dahinter ist, die Karte in so ziemlich allen Lebenslagen dynamisch anhand der Gegebenheiten mit jeweils maximal möglichem (inkl. Einhaltung der Toleranzen!!!) Takt laufen zu lassen...


Am Ende bleibt die Frage, wäre es ohne Boost besser?
Ich erinnere mich da noch an Hardware vor dem Boost. Die hatte fixe Taktraten ohne Wenn und Aber. Sprich unter Last lag der Takt an. Entweder es war stabil oder es ist abgeschmiert... Das war zwar "einfacher" für die Konfiguration, aber warum soll es besser sein, für 24/7 Settings xxxx MHz zu fahren, wenn dieser Takt gerade so im einen Extrem an Anwendung reicht, im anderen Extrem aber vlllt xxxx +100 oder so möglich wäre!? Die Taktraten (gerade bei NV) schwanken ja zum Teil um 100+ MHz, in Prozent ausgedrückt 5-10% sind keine Seltenheit. Entsprechend gibt es auch mehr Leistung in diesen Situatio
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh