NVIDIA GeForce GTX 1080 Ti Founders Edition im Test

@Topic: geile karte ... bin gespannt ob ich schwach werde. Wieso bin ich nur manchmal so unvernünftig :(
Wenn es dein Hobby ist und du dir die Karte leisten kannst, wo ist das Problem?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Besten Dank für den 980Ti OC vs 1080TI OC Vergleich, erleichtert die Kaufentscheidung deutlich. Jetzt darf EVGA nur nicht ewig brauchen, um lieferfähig zu sein...
 
Wenn es dein Hobby ist und du dir die Karte leisten kannst, wo ist das Problem?

Kopf sagt will ich!!! aber verstand sagt lass es sein es ist nur rausgeworfenes Geld ! Das ist das "Problem" Klar es ist ein Luxusproblem, da ich sowieso nicht all Zuviel draufzahlen müsste weil ich für die alte einen guten Preis bekommen könnte. Und Geldsorgen hab ich ebenfalls keine. Jetzt will ich die Karte noch mehr weil der Kopf noch sagt "wofür gehst du jeden Tag arbeiten und regst dich auf" ... :d
 
Luxusproblem hin oder her, kaufen, kaufen, KAUFÄÄÄÄN :d
 
Erstmal danke für den Test, sehr umfangreich.

@Andreas Schilling
Wie kommt es nun eig. zustande dass die 1080ti, trotz deutlich mehr ALUs als die gtx 1080 (~1000), sich in geringerem Maße von dieser absetzt als es z.B. die gtx 1070 tut, die zwar weniger ALUs als die gtx 1080 (~500) hat aber nicht in dem Ausmaß gtx 1080 - gtx 1080 ti.
Wurde doch Witcher 3 immer als oberstes Beispiel dazu genommen: Unter 1440p gtx 1070 zu gtx 1080 die max. fps mit ganzen 29 % und unter uhd mit 26 % im Plus.
Unter 1440p, die gtx 1080 ti - gtx 1080, mit 19 % im Plus und unter uhd mit 14 %.
Nur bei Tomb Raider und Fallout 4 sieht man die gtx 1080 ti mit ~ 25 - 30 % im Plus.

Was mir noch auffällt das die min. fps zu max.fps, im geringeren Maße steigen, als bei dem Vergleich gtx 1070 - gtx 1080.
MfG
 
Zuletzt bearbeitet:
Witcher 3 ist sowieso etwas komisch, schau dir mal an, wo da die Titan X unter 4k liegt.
 
Hoffentlich gehört eine SC Gaming zu Standard. :d

insgesamt die erwatet deutliche Stiegerung zur 1080 und das zu einem passablen Preis, dank StepUp :hail:.
Jetzt fehlen nur noch ein paar Benchmarks in aktuellen Spielen wie BF1 oder Ghost Recon, auch wenn das Video schon einen in UHD enthält.

Bisher haben die SC Gaming Versionen ja das nvidia PCB verwendet...

- - - Updated - - -

Der Vorteil der Custom-Modelle wird sein, dass sie den Boost-Takt länger halten können. Da wird man dann auch einen größeren Unterschied bei der Leistung sehen. Bei der GeForce GTX 1080 war das nicht der Fall, allerdings taktete die Karte auch nicht so weit runter, wie das bei der Titan X und der GeForce GTX 1080 Ti Founders Edition der Fall ist.



Die Titan X ist damit obsolet ja.

Eher sogar IMMER halten können, ist mir zumindest extrem wichtig das ein bestimmter Boosttakt unter allen Umständen gehalten wird.

Bin mal auf die Titan Black gespannt..

- - - Updated - - -

Schöne Karte. Jetzt fehlt nur noch ne Titan Black als Vollausbau mit 24GB - natürlich zu einem deutlich günstigeren Preis als die überteuerte P6000... das wär's mal. Die 16GB P5000 gibt's ja immerhin schon mal für ~1500€ netto... für den Preis ne 24GB-Karte und ich bin dabei. :cool:

Wäre Megageil, das Teil mit nem Kühler ala 980Ti Lightning würde ich sofort kaufen, wenns denn käme..

- - - Updated - - -

Du darfst dir dann sicherlich kurz nach AMD Vega Release ne nVidia Titan X Black 12GB mit 3840 Shader und 528GB/s Speicherbandbreite für um die 1.200 Euro kaufen.

Ich hoffe doch sehr auf 24GB GDDR5X, wäre zumindest dem Namen Titan und dem Preis eher würdig als die 12GB..

- - - Updated - - -

Schade. Doch nicht soviel Leistung wie erhofft. Nur 15-20% schneller als eine GTX1080. Das reicht nicht!
Also heißt es wieder warten.
Mal sehen was die Customs so drauf haben, aber da muss man ja schon wieder warten.



Polaris ist nicht VEGA. VEGA ist ein Komplettumbau mit neuen Shadern ect. :wink:
Grafikchip: AMD zeigt Vega 10 und erlutert Architektur - Golem.de
Da sind 40% durchaus machbar. Dazu 50% mehr Takt und schon ist wieder alles ausgeglichen für vermutlich 699.- Euro.

Also mit dem warten und wieder warten und warten solltest du als AMD Faboy No 1 hier ja dank massig Training keine Probleme haben dürfen..

Träumst gerne oder ?
 
Ne Titan Black? Die wird es nie mehr geben ^^
 
Kommt wohl drauf an wie gut Vega wird ,dann entscheidet NV das denke ich. Ich rechne schon damit bzw hoffe drauf.


Gestern vorgestellt und Heute immer noch nicht kaufbar. Na, wenn das kein Paperlaunch sein soll, dann weiß ich auch nicht mehr.
Egal, irgendwann ist sie sicherlich lieferbar.

Mich interessieren da eigentlich nur die Custom-Modelle, aber die wird es wohl erst mal nicht so schnell geben, weil NVIDIA ihre Founders-Edition in ihrem eigenen Shop anbieten wird(inkl. den bescheidenen Garantiebedingungen), also absolut keine Option für mich.
Hab noch 3. Wochen Zeit, und wenn da keine Custom erscheint, wird es wohl nichts mit der GTX1080Ti werden.
Da kann man auch gleich auf VEGA warten.

Pickebuh, mal ganz Tacheless.
JEDER hier weiss das du dir sowieso keine 1080 TI kaufen wirst, weil sie von Nvidia ist UND du das Geld nicht hast.

Was soll also bitte die geschriebene Käsegrütze da ? Ist doch nur wieder mies verstecktes Fanboygesabbel...
 
Zuletzt bearbeitet:
Ich nicht :d

AMD ist schon lange nicht mehr das was sie waren. Nur noch mittelklasse!
 
Es gibt im DCC- und 3D-Visualisierunggeschäft abseits der großen Hollywood-Studios und Automobilhersteller durchaus eine Masse an kleineren Büros und Freelancern, die sich keine überteuerten Quadro- oder Teslakarten leisten können, bzw. für die es sich bei den Preisen einfach nicht rechnet. Da kann man sich dann eher noch ein paar mehr Rechner mit 32/64/128GB RAM hinstellen und noch etwas länger beim CPU-Rendering bleiben.

Das geht aber so nicht auf... So ne P6000 Quadro schlägt irgendwo im Bereich 4300€ ein im Moment
Das entspricht in etwa Faktor 5-6 beim Blender Cycles Renderer ggü. einem 5960X@4,2GHz
Selbst mit 4x Systemen, die sich in Summe maximal ca 1070€ kosten dürfen pro Stück erreichst du zumindest je nach Workload und Anforderungen an den RAM kein besseres Ergebnis -> und du hast immernoch das Problem dich irgendwie mit einer Clusterlösung auseinandersetzen zu müssen.

Ganz ehrlich, wer damit Geld verdient, sei es "kleinere Büros" oder "Freelancer" -> die bringen das einfach auf und gut ist.
Mal davon ab, selbst 24GB sind immernoch wenig... Du kannst je nach Anforderungen dort spielend weit über 100GB Speicherverbrauch kommen. Dann bringen dir auch keine 24GB oder 32GB VRAM auf der GPU was -> es wird arschlahm. Ein gesundes Mittelmaß ist also notwendig.

Das große Problem beim GPU-Rendering ist eben bisher noch der begrenzte Speicher und da stellt sich die Frage, ob es besser für nvidia ist, am bisherigem Geforce-Quadro-Schema festzuhalten oder sich ein größeres Stück vom bisher noch immer deutlich CPU-dominierten 3D-Renderingmarkt abzuschneiden...

Die Frage ist, bringen dich 24GB weiter? Wenn es blöd wird, nutzt du Software, die mit GPUs nix anfangen kann, hast du Szenen die auch 24 oder 32GB sprengen usw.
Im Endeffekt muss das alles in Relation gemessen werden. Nur die allerwenigstens Hobbyuser, die das privat ohne konkrete Aufträge machen, würden wohl einen realen Bedarf größer 12GB Speicher haben der dann aber nicht auch 24/32GB toppt. :wink:


Polaris ist nicht VEGA. VEGA ist ein Komplettumbau mit neuen Shadern ect. :wink:
Grafikchip: AMD zeigt Vega 10 und erlutert Architektur - Golem.de
Da sind 40% durchaus machbar. Dazu 50% mehr Takt und schon ist wieder alles ausgeglichen für vermutlich 699.- Euro.

Das hat auch keiner behauptet... 15% für Polaris -> Vega völlig offen. Von +-0% bis deutlich über 15% ist da alles möglich. Wir werden es sehen...
Ob 40% durchaus machbar sind wird sich zeigen ;) Die Messlatte ist auf Jedenfall im Moment gelegt. Und an dieser MUSS sich nun Vega orientieren... Ein Release im Oktober (wie man es damals spekuliert hatte) hätte es einfacher gemacht. Eine TI zu toppen dürfte fast ausgeschlossen sein für Vega. Nicht mit den angekündigten (und idR ausschließlich für den Boost und damit nicht dauerhaft! geltenden) 12,5TFlop/sec in FP32. Bei der TI FE liegen nach diversen Tests nachweislich idR min. ~11,5TFLop/sec an. Bei mehr Kühlung auch 12,5 und mehr... Es wäre das erste mal das AMD ab Release direkt eine Hardware raushaut, die mehr Spieleperformance aus der Rohleistung zaubert als es bei NV der Fall ist... Kann natürlich sein -> es gibt immer ein erstes mal. Aber ist das warscheinlich?
 
Testet die doch mal bitte in einem RyZen System.

Wozu? Dann kann man auch auf einem 6 Kerner Sandy bleiben. Ryzen ist doch Grütze zum Gamen.
Wenn dann sollte man mit einem übertakteten Kaby Lake oder Skylake testen.
 
Oh wow! Jetzt können sie die max-overpriced Titan weiter melken...und ihre Lager bekommen se auch gleich geleert - is kein Fäustchen mehr, schon ne Tyson Faust worin man sich weglacht :d

Nun gut, jeder wie er will

Zeit, dass AMD mal wieder was auf die Beine stellt, viel länger kann ich dieses grüne Ding in meinem Rechner nicht ertragen :/
 
Wozu? Dann kann man auch auf einem 6 Kerner Sandy bleiben. Ryzen ist doch Grütze zum Gamen.
Wenn dann sollte man mit einem übertakteten Kaby Lake oder Skylake testen.
Das ist doch so gar nicht wahr. Sicher ist Ryzen nicht die erste Wahl zum Gamen, aber untauglich ist Ryzen auch nicht.
Der Test den ich gesehen hab mit Ryzen und ner 1080Ti war gerade in den höheren Auflösungen dann so, dass Ryzen vor dem 7700k lag.
 
Das ist doch so gar nicht wahr. Sicher ist Ryzen nicht die erste Wahl zum Gamen, aber untauglich ist Ryzen auch nicht.
Der Test den ich gesehen hab mit Ryzen und ner 1080Ti war gerade in den höheren Auflösungen dann so, dass Ryzen vor dem 7700k lag.

Ich meine damit einfach, dass Ryzen nicht optimal zum Gamen ist, ähnlich wie der 6 Kerner Sandy der hier verwendet wird.
Von daher juckt es doch niccht, ob mit dem alten Sandy oder Ryzen gebencht wird.

Und dass Ryzen bei hohen Auflösungen schneller sein soll als ein Kabylake ist quatsch. gerade da rückt die CPU in den Hintergrund.
Können nur Messungenauigkeiten sein. oder andere Ram-Timing auf AMD-Platform oder sonst was ;)
 
Wo das herrührt ist tatsächlich fraglich, interessanter weise taucht das vermehrt auf.
Ich tippe eher auf ne Eigenheit des Ryzen in Zusammenhang mit den GPU-Treibern, lustigerweise bei Nvidia :)
 
Oder der Sleep Bug bei Ryzen. Aus 1750 Cinebench mach 2000 Points nachdem der Rechner im Sleepmode war.
Und das bei ALLEN Time-Measure Benches - also quasi alle ^^
 
Oder der Sleep Bug bei Ryzen. Aus 1750 Cinebench mach 2000 Points nachdem der Rechner im Sleepmode war.
Und das bei ALLEN Time-Measure Benches - also quasi alle ^^

Unwahrscheinlich, der Sleepbug ist kein bug wenn man logisch nachdenkt. Jeder ist fitter wenn er ausgeschlafen hat! Deswegen bringt auch der Ryzen mehr Leistung :cool:


sorry für OT :angel:
 
Unwahrscheinlich, der Sleepbug ist kein bug wenn man logisch nachdenkt. Jeder ist fitter wenn er ausgeschlafen hat! Deswegen bringt auch der Ryzen mehr Leistung :cool:


sorry für OT :angel:

:fresse2:
 
Das geht aber so nicht auf... So ne P6000 Quadro schlägt irgendwo im Bereich 4300€ ein im Moment
Das entspricht in etwa Faktor 5-6 beim Blender Cycles Renderer ggü. einem 5960X@4,2GHz
Selbst mit 4x Systemen, die sich in Summe maximal ca 1070€ kosten dürfen pro Stück erreichst du zumindest je nach Workload und Anforderungen an den RAM kein besseres Ergebnis -> und du hast immernoch das Problem dich irgendwie mit einer Clusterlösung auseinandersetzen zu müssen.

Ganz ehrlich, wer damit Geld verdient, sei es "kleinere Büros" oder "Freelancer" -> die bringen das einfach auf und gut ist.
Mal davon ab, selbst 24GB sind immernoch wenig... Du kannst je nach Anforderungen dort spielend weit über 100GB Speicherverbrauch kommen. Dann bringen dir auch keine 24GB oder 32GB VRAM auf der GPU was -> es wird arschlahm. Ein gesundes Mittelmaß ist also notwendig.

Die Frage ist, bringen dich 24GB weiter? Wenn es blöd wird, nutzt du Software, die mit GPUs nix anfangen kann, hast du Szenen die auch 24 oder 32GB sprengen usw.
Im Endeffekt muss das alles in Relation gemessen werden. Nur die allerwenigstens Hobbyuser, die das privat ohne konkrete Aufträge machen, würden wohl einen realen Bedarf größer 12GB Speicher haben der dann aber nicht auch 24/32GB toppt.
Nur mal so zur Klarstellung... ich bin seit über 10 Jahren im Bereich Architekturvisualisierung tätig (und davor schon während des Studiums) und seit fast sieben Jahren selbstständig. Ich denke ich weiß schon ganz gut, was ich benötige und was sich für meine Zwecke lohnt oder eben nicht. Hatte ich ja alles schon geschrieben.
Das mit einem Faktor 5-6 GPU vs CPU kann man so pauschal nicht sagen, da es extrem von der Szene abhängt (innen, außen, HDRI oder viele Lichter, etc.) und natürlich auch vom Renderer. Einige Dinge laufen auf der GPU deutlich schneller, während anderes kaum schneller oder sogar langsamer ist. Ich nutze Maxwell und V-Ray und hier werden bisher leider noch immer nicht alle Features bei den GPU-Versionen unterstützt (Maxwell steht eh noch ganz am Anfang bei der GPU-Umsetzung) und daher war GPU-Rendering bisher für mich noch kein Thema. Nvidia hat aber mit CUDA 8 (bzw. schon 6 und 7) wohl dazu beigetragen, dass die Umsetzung z.T. einfacher geworden ist und jetzt geht es langsam voran. Und der wachsende Speicherausbau trägt, wie gesagt, natürlich auch dazu bei.
"Clusterbildung" in Form von Netzwerkrendering ist zumindest bei CPU-Renderern Standard und wird auch schon länger von einigen GPU-Renderern unterstützt (ich nutze aktuell 10 Renderserver im Netzwerk, Dual-Xeons und i7). Ein großer Vorteil beim GPU-Rendering ist die Möglichkeit, mehrere GPUs in einer Workstation zu haben und durch quasi Realtime-Feedback wesentlich schneller und direkter am Szenensetup arbeiten zu können. Da ist dann auch nicht unbedingt volle Auflösung oder die komplette Szene nötig, von daher kommt man evtl. auch mit weniger Speicher hin. Der Speicherbedarf kann auch von Projekt zu Projekt sehr unterschiedlich sein, mal reichen mir 10GB und mal sind es 50GB (wobei der Anspruch natürlich mit den Möglichkeiten wächst). Am besten wäre natürlich die Möglichkeit der Kombination aller Resourcen im Netzwerk, CPU+GPU. Das bieten aber bisher nur ganz wenige Renderer wie zB. Arion, Indigo oder TheaRender - aber ich habe noch die Hoffnung, dass es auch für Maxwell kommt.
Wie auch immer... wir werden ja sehen, wie es bei nvidia weitergeht. Die P5000 mit 16GB, wie gesagt, sieht für den Preis schon mal gar nicht so verkehrt aus - allerdings dann halt auch wieder "nur" GTX1080-Niveau. Aber mal sehen, was die Zukunft so bringt. NVLink könnte eine Lösung sein, wenn es denn dann wenigstens irgendwann mal für die Quadros verfügbar ist
( V-Ray GPU Benchmarks on Top-of the-Line NVIDIA GPUs Chaos Group Labs )
Ansonsten unterstützen einige Renderer auch schon "Out-of-Core"-Rendering, d.h. (in dem Fall) die Nutzung des Arbeitsspeichers. Und die Performanceeinbußen halten sich durchaus in Grenzen, was ja mit PCIe 4.0 dann noch praktikabler werden sollte. Also, mal sehen...
 
Numerobis, das ist ja sicher alles zutreffend, aber da solche Anwendungen sowieso stärker als Games noch, vom Treiber abhängig sind, sehe ich das auch deutlich eher bei den professionellen Produkten.

Nvidia will ja dahingehend mit MS und AMD auf Napels enger zusammen arbeiten. Da ist die rede von 2x 32 Napples Kernen mit 128 PCIe Lanes ...
Das dürfte ergo schon einiges bringen, zumal Nvidia da Teslas anbieten mag...
Für solche Anwendungen wäre das wohl das richtige.

Ne 1080Ti wäre da doch nur ein Tropfen auf den heißen stein.
 
Nur mal so zur Klarstellung... ich bin seit über 10 Jahren im Bereich Architekturvisualisierung tätig (und davor schon während des Studiums) und seit fast sieben Jahren selbstständig. Ich denke ich weiß schon ganz gut, was ich benötige und was sich für meine Zwecke lohnt oder eben nicht. Hatte ich ja alles schon geschrieben.
Das mit einem Faktor 5-6 GPU vs CPU kann man so pauschal nicht sagen, da es extrem von der Szene abhängt (innen, außen, HDRI oder viele Lichter, etc.) und natürlich auch vom Renderer. Einige Dinge laufen auf der GPU deutlich schneller, während anderes kaum schneller oder sogar langsamer ist. Ich nutze Maxwell und V-Ray und hier werden bisher leider noch immer nicht alle Features bei den GPU-Versionen unterstützt (Maxwell steht eh noch ganz am Anfang bei der GPU-Umsetzung) und daher war GPU-Rendering bisher für mich noch kein Thema. Nvidia hat aber mit CUDA 8 (bzw. schon 6 und 7) wohl dazu beigetragen, dass die Umsetzung z.T. einfacher geworden ist und jetzt geht es langsam voran. Und der wachsende Speicherausbau trägt, wie gesagt, natürlich auch dazu bei.
"Clusterbildung" in Form von Netzwerkrendering ist zumindest bei CPU-Renderern Standard und wird auch schon länger von einigen GPU-Renderern unterstützt (ich nutze aktuell 10 Renderserver im Netzwerk, Dual-Xeons und i7). Ein großer Vorteil beim GPU-Rendering ist die Möglichkeit, mehrere GPUs in einer Workstation zu haben und durch quasi Realtime-Feedback wesentlich schneller und direkter am Szenensetup arbeiten zu können.

Du widersprichst dir damit irgendwie ein Stück weit selbst...
Denn was bringen dir doppelte VRAM Ausbauten auf der GPU, wenn doch klar ist, dass gewisse Sachen eben auf der GPU nicht gut skalieren, teils gar nicht gehen? -> nichts...
Du hast einen wohl recht beachtlichen Betrag in CPU Performance investiert. Es ist und bleibt einfach eine wirtschaftlichkeits Abwägung am Ende. Entweder dir bringt die GPU was oder eben nicht... Nur weil doppelter VRAM drauf ist, wird die konkrete Szene unter bestehenden Abhängigkeiten nicht automatisch besser auf der GPU laufen. Aus meiner Sicht müsstest du das als Selbstständiger (endgeben der Hobby-Nutzer) exakt so handhaben. Abwägen was benötigt wird, konkret investieren -> oder kaufst du einfach ins Blaue und schaust dann ob es funktioniert? Ich denke nicht... ;)
Wenn es also lohnt, 24GB oder 32GB VRAM zu haben, dich in deinen Projekten auch deutlich vorranbringt -> dann wirst du da einfach investieren. Oder warum solltest du auf der CPU weiter rumdümpeln, wenn es wirtschaftlich gesehen auch anders geht? Zumal da ja noch weitere Faktoren mit reinspielen. Unterhaltskosten für Strom, ggf. Klimatisierung bspw. 250W von einer GPU mal x in der Anzahl vs. keine Ahnung. ~100W pro CPU mal y in der Anzahl im Verhältnis zur Endleistung. Was ist für dich wirtschaftlicher? Ob das nun 1500€ pro Karte oder 4000€ pro Karte, oder 1500€ pro Prozessor oder 4000€ pro Prozessor sind ist am Ende doch uninteressant -> der Spaß wird doch so oder so abgeschrieben... Du brauchst halt konkrete Aufträge gegen welche du die Investition gegenrechnen kannst.

Nvidia will ja dahingehend mit MS und AMD auf Napels enger zusammen arbeiten. Da ist die rede von 2x 32 Napples Kernen mit 128 PCIe Lanes ...
Das dürfte ergo schon einiges bringen, zumal Nvidia da Teslas anbieten mag...
Für solche Anwendungen wäre das wohl das richtige.

In dem Bereich interessiert sich aber sogut wie gar keiner für Gamer Geforces ;) Nicht nur, weil die Dinger vom Design der Kühllösung ungeeignet für eine Rackserverkonstruktion sind, sondern auch weil dem Geforce Modell ein paar Keyfeatures fehlen. Bspw. ECC RAM. Die Tesla P100 kann das, die Quadro P6000 ebenso. Die wohl kommende Quadro GP100 ebenso. Bei den kleineren keine Ahnung, müsste man mal prüfen...
 
@Redaktion: Könnt ihr mal bei Gainward/Palit nachhaken, warum se fast als einzige noch keine Ti Costums geteasert oder sonst wo was haben?
 
Jetzt bitte nochmal für begriffsstutzige wie mich...
Was macht bei ner geplanten WaKü mehr Sinn.
Lieber jetzt ne Founders kaufen, oder später eine Custom?
Ich frage jetzt im Hinblick auf OC möglichkeiten, bessere Stromversogung, etc.
Warten wäre jetzt nicht das Problem (vielleicht DOCH...).
 
Alles mehrere hunderte male erklärt. Wie wärs mal mit Sammelthreads lesen (ja, auch mal ein paar Stunden lang) anstatt einfach wieder zu fragen?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh