Neue Gerüchte um die NVIDIA GeForce GTX 1080 Ti

Kaum ist man mal 2 Monate nicht on .... In der tat kann mir einer kurz erklären wo die Pascal herkommt xD :fresse:

Man kann es dir ja irgendwie nicht verübeln, bei dem Namens-Schema Seitens NVidia. Wobei das ja gewählt wurde um Verwirrungen auszuschließen. Hat ja gut geklappt :fresse2:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Selbst wenn AMD was vergleichbares wie die Titan X oder 1080 Ti rausbringt, würde ich es nicht kaufen, solange die Treiber bzw die Software so beschissen ist, und die Min FPS nicht anständig sind.

Bin gerade nach mehr als 10 jahren mal auf Nvidia gewechselt. Guter Witz, der Geforce treiber ist ja mal so 1998.... Macht was er soll, aber das macht der Radeon auch. Gerade was Multi Monitor angeht war der AMD Treiber besser...
 
Jupp, mit 320Bit SI und GDDR5X sind es 400GB/s und mit einem 384Bit SI samt GDDR5 dann ~390GB/s an Speicherdurchsatz, also total Schnuppe was Nvidia verbaut, hauptsache das Backend des GP102 liefert annähernd die gleiche Leistung.

Was die Bandbreite betrifft halten sich zwar beide Möglichkeiten die Waage, aber ein 320bit SI mit GDDR5X hätte den Vorteil die Ausbeute des GP102 weiter zu steigern, da so auch GPUs mit teildefekten SI genutzt werden können. Zudem spart man dadurch auch bei den Speicherbausteinen, da nur 10 statt 12 verbaut werden müssen. Außerdem kann man mit GDDR5X das PCB der Titan X (Pascal) weiterverwenden.
 
Zuletzt bearbeitet:
Ja könnte sein, müßte man mal abwarten ob Benchlife die PCB nummer der GX1080Ti leaken, dann könnte man vergleichen, ob es das selbe wie bei der Titan X ist...2 Phasen noch abgeklemmt und es könnte hinhauen am Ende ;)
 
Nun, vielleicht eine Testversion, ein ES von Nvidia um die Möglichkeiten auszuloten.

Eins dürfte sicher sein: Die 1080ti wird nicht billig werden, aber sie wird eine verdammt schnelle und gute Karte werden.
 
Da die Gerüchte in der Vergangenheit fast immer richtig waren, wird es einfach nur wie bei der 980 TI eine minimal langsame Titan X Pascal. Aber aufgrund des Customsdesign usw... wird sie natürlich gut abgehen mit OC.

Ich sage mal frei heraus.

999 Euro für die Founders Edition
899 Euro Custom
 
Kaufen leute, kaufen xD

Gesendet von meinem LG-H815 mit der Hardwareluxx App
 
Solange diese 1080Ti dann wenigstens in der Schweiz verfügbar ist und ich den X34 zu Weihnachten endlich gebührend befeuern kann, soll mir alles recht sein :d

Hoffe ich sprenge mit diesen Gedanken nicht den Thread.
Mich würde vorab interessieren, wie relevant (für die Zukunft und 4K Gaming mit hohen Details/Anforderungen, optisches Modding von Spielen) wohl die 2Gb Speicherunterschied zwischen der Titan X und der 1080Ti sind.
Ich betreibe ja den Acer X34 in seiner nativen Auflösung von 3440x1440, was ja so etwa... 3.7K sein dürften, wie auch immer sich das errechnet. Mir langt die 980 mit starkem OC nun einfach nicht mehr aus, mit <60 FPS und diesem Monitor ist es stellenweise tendenziös unbefriedigend.

Von einem Kauf einer dieser Karten erhoffe ich mir einfach >60FPS in allen Lagen. Ich weiss dass man jede Karte/jedes Setup, je nach Game und angewendeten Mods in die Knie bringen kann, hier bin ich informiert :)

Mir ist weiter klar dass es sich, egal bei welcher der beiden Grafikkarten, um wahnsinnig teure, bei "normalen" Leuten kopfschütteln hervorrufende Ausgaben handelt. Aber wir wären nicht in unserem geliebten LuXX, wenn hier nicht auch ein paar Leute solchen Wahnwitz begehen würden, und ich zähle mich da manchmal dazu.
Die für mich auftretende Frage ist nur, welche Karte wohl besser sein wird. Der "Aufpreis" von geschätzt 300 Steinen von der 1080Ti zur Titan X Pascal ist ... nicht zuviel, wenn es denn so sein sollte dass man damit klar und deutlich auch auf lange sicht eine bessere Investition gemacht hätte.

Wasserkühler für die Titan X Pascal gibt es ja auch schon, sehe da also wenig Unterschied beim OC-Potential beider Karten unter Wasser.

+- 4K-Gaming kommt nicht erst, es ist schon da, zumindest sehe ich da persönlich die Zukunft. Ob 21:9 oder 16:9 ist wieder ein anderes Lied, das hängt finde ich stark vom persönlichen Gusto ab, ich bereue _nichts_ was den Kauf des wunderbaren X34 angeht, macht einfach nur Spass das Teil.

Was denkt ihr?
 
Die TX wird dann wieder n bissl günstiger und die TX ler fühlen sich wieder verarscht...aber wer nicht aus der Vergangenheit lernen kann ist selbst Schuld :-) ist ja nicht s erste mal, auch nicht das zweite mal....nein sogar das dritte mal :-P

Und das mit der glaskugel kennt man ja also lieber erstmal die Tests abwarten.
Gesendet von meinem LG-H815 mit der Hardwareluxx App
 
Zuletzt bearbeitet:
Mich würde vorab interessieren, wie relevant (für die Zukunft und 4K Gaming mit hohen Details/Anforderungen, optisches Modding von Spielen) wohl die 2Gb Speicherunterschied zwischen der Titan X und der 1080Ti sind.

Das ist schwer einzuschätzen. In naher Zukunft könnte es schon so sein, dass es unter 4K vereinzelt Spiele geben wird, wo 12GB die bessere Wahl wären. Aber ganz ehrlich, wenn ich schon bereit bin 1000,- Euro und mehr in eine Grafikkarte zu investieren, dann stelle ich mir solche Fragen erst gar nicht mehr und ich nehme direkt das Beste was ich zur Zeit für mein Geld bekommen kann. Der wahrscheinliche(!) Aufpreis von ca. 300,- Euro zur Titan X (Pascal) mag aus einer reinen Kosten,-/Nutzen Perspektive zwar nicht gerechtfertigt sein, aber wenn es ein Spiel geben sollte, das ich dann sogar regelmäßig spiele, wo eben diese 2GB den Unterschied machen sollten, dann ist der Aufpreis unbezahlbar. Nichts ist ärgerlicher als eine teure und leistungsstarke GPU, die der VRAM ausgeht. ;)
 
Wenn ein spiel wirklich mal mehr als 10GB nutzt UND wirklich davon profitiert, dann ist dei GPU wahrscheinlich eh zu langsam.
 
Wenn ein spiel wirklich mal mehr als 10GB nutzt UND wirklich davon profitiert, dann ist dei GPU wahrscheinlich eh zu langsam.

Jep, das kann natürlich auch vorkommen, aber das hängt von der Programmierung ab und lässt sich nicht pauschal beantworten. Was machst du, wenn ein Spiel unbedingt mehr als 10GB belegen will um rund zu laufen, die GPU aber nicht am Leistungslimit ist? Schlechte Optimierungen/Portierungen soll es schließlich auch noch geben.
 
8GB ist jetzt schon fast bei Mittelklassekarten angekommen aber auch nicht weiter schlimm .
Die Leute die sich Karten für 1000Euro holen kaufen oftmals 1 Jahr Später wieder das nächst beste um dran zu bleiben.
Bin gespannt ob der Große Vega 16GB bekommt.
Mit der GTX 1080 bin ich ( erstmal )soweit sehr zufrieden die Ti lass ich diesesmal aus hoffe das AMD endlich mal schaft was richtig schnelles zu bringen was nicht so Treiberabhängig(DX12 ,Vulcan) ist um genauso schnell oder schneller zu sein als NV mit dem GP102.
In DX11 ist NV einfach eine Macht.
Mache mir da aber nicht all zuviel Hoffnung dann hält sich die Entäuschung in Grenzen.
 
Zuletzt bearbeitet:
ich habe jetzt auch seit über fünf Jahren nvidia grakas, aber in wiefern hat nvidia den grakamarkt weiter gebracht als amd? Inwiefern ist nvidia innovativer?

Auch wenn das ganz sicher gleich in die Schlüpper geht, es gibt schon ein paar Sachen, wo NV der jenige Hersteller war, der die Features brachte oder zumindest state of the art darin ist.
- Downsampling geht bei NV seit mindestens dem G200 -> das ist 2008/2009
- Frame Metering seit dem G80
- HQAF seit dem G80 (hier hat AMD erst mit GCN annähernd gleich gezogen!)
- SLI/AA Bit Möglichkeiten durch die offen ansprechbare API im Treiber -> geht bis heute bei AMD nicht
- 3D Vision -> auch hier ist AMD weit hinten dran
- Dann noch so näckische Sachen wie Ansel -> kann man mögen, muss man aber nicht

Guckt man auch auf die Software, dann kommen da sogar noch andere Baustellen. Bis heute gibt es keine Physikbibliothek, die im allgemeinen auch nur ansatzweise an den Featureumfang von der Gameworks Palette ran kommt. Wobei man das nicht einem GPU Hersteller wie AMD ankreiden sollte, das ist eher ein Thema der Software Instustrie!
Mittlerweile ist der Spaß in Teilen auch OpenSource -> und damit meine ich nicht Hairworks und/oder PhysX als Teile der Palette, sondern die komplette Bibliothek (was aber eher für Entwickler interessant ist)
Oder auch Cuda -> ewig lange (seit dem G80) allein auf weiter Flur, das AMD Gegenstück in Form von AMDs Stream fristete eher ein kümmerliches Dasein. Mittlerweile (OpenCL und DirectCompute) geht es besser -> und die Software zieht auch nach. Aber das ist eben erst heute und nicht vor 10 Jahren. ;)

Oder so Themen wie der Anschlussvielfalt. Erst Polaris brachte HDMI 2.0 und HDCP Support, die 960/950 konnte das schon eher. Verzichtet man auf HDCP, ging HDMI 2.0 schon seit den ersten 900er Karten usw.

Aber das hat zweifelsfrei auch seine Kehrseite... VRAM bei NV ist immer so ein Thema, denn idR/meist eher knapp ;) Auch AMD hat eigene Features, TrueAudio, Eyefinite (funktioniert aus meiner Sicht etwas problemfreier als NVs Lösung), FreeSync als offener Standard usw.


Muss halt am Ende selbst Jeder für sich entscheiden, was er braucht/will und was er dafür bereit ist zu zahlen. Das pro AMD Argument schlechthin ist hier immer P/L -> nur "L" ist halt nicht nur FPS, so gilt es zumindest für mich. Hardware, die gewollte/benötigte/brauchbare Features nicht kann, fällt aus dem Raster.

ich fahr seit Jahren Multi-Monitor und hab dein beschriebens Problem noch nie gehabt ...

Es gab mindestens mal einen Treiber, wo das beschriebene Problem auftritt... Mittlerweile ist/sollte das aber gefixt sein.

Die GTX1080Ti wird höchst wahrscheinlich 10GB GDDR5 @ 320Bit haben.
Eine verkrüpelte Anbindung ala GTX970 würde NV bei eine High-End Karte
nie wagen. Ausserdem bezweifle ich dass GDDR5X verbaut wird.

Da wäre ich mir gar nicht mal so sicher... Die Frage ist, wie lässt sich eine auf den ersten Blick verkrüppelte Anbindung sinnvoll nutzen?
Es ist weiterhin so, dass A) der Chip für recht geringe Mengen sehr hohe Bandbreite braucht um zu performen und B) die Masse der Daten im VRAM aber von recht wenig Bandbreite benötigenden Texturen kommt... Sowas wie ein Texturpool und ein Datenpool wäre also denkbar... Der Spaß durchläuft so oder so den Treiber, die GPU ist schlussendlich für die Speicheradressierung verantwortlich, weis damit potentiell also auch, was da wo im Speicher liegt. Damit ist es also nicht ausgeschlossen, Texturen einfach für den/die Entwickler unsichtbar im lahmeren Pool zu legen, den Rest halt im schnelleren unteren Bereich.

Wie gut das klappt und wie viel Aufwand das in Sachen Optimierung erzeugt, müsste man sich detailiert mal ansehen. Grundsätzlich machbar wäre sowas aber zweifelsfrei... Spart halt etwas Geld. Ob diese Art Lösung am Ende aber aufgeht? Abwarten... 8GB der 1070/1080 vs. spekulierte 10GB der TI wären nur poplige 25% mehr. -> dafür so nen Aufwand betreiben???

Könnte aber schlicht auch einfach nur ein "Fehler" sein. Keine Ahnung, auf was die Angaben sich dort genau beziehen. Vllt ist das auch ein TitanX PCB, voll verlötet aber teildeaktiviert? Oder vollverdrahtet aber mit weggelassenen 2x Speicherbausteinen? Wer weis das schon genau??

Irgendwie ist die 1000er Serie bisher nur eine Enttäuschung (hätte die Titan X Pascall 24 GB vRam gehabt, hätte ich die gekauft (nicht wegen zocken), aber so meh), dann noch eine hochverkrüppelte Ti.
Naja, mal abwarten, kann sein das wie bei der 700er Serie noch eine weitere Titan nachgeschoben wird (je nach Leistung von Vega, also hopp AMD :) )

Das Problem ist, mit maximal 512Bit SI und GDDR5(X) Anbindung sind aktuell maximal 32GB RAM möglich. Auch HBM ist in Form der "v2" nicht für mehr angekündigt im Moment...
Die Gamerkarte mit 24GB zu liefern gräbt also den Profimarkt das Wasser ab -> die Quadros und Tesla Modelle waren schon immer eine Stufe höher im VRAM angesiedelt. Das interessiert den Gamer genau gar nicht, keine Frage... Aus Konzernsicht ist das aber relevant. Bei AMD im übrigen exakt das gleiche ;) Die FireGL/FirePro/FireStream Modelle haben auch idR mindestens eine Stufe mehr VRAM als die Gamer-Ableger.

Man kann es dir ja irgendwie nicht verübeln, bei dem Namens-Schema Seitens NVidia. Wobei das ja gewählt wurde um Verwirrungen auszuschließen. Hat ja gut geklappt :fresse2:

Genau genommen ist das Namensschema eineindeutig... Man darf halt nicht die Hälfte weglassen.
Die Maxwell based TitanX schimpft sich eigentlich "Nvidia Geforce GTX TitanX". Die Pascal based TitanX heist einfach nur noch "Nvidia TitanX"... Das ist eineindeutig eine Trennung und auch für jeden klar ein Unterschied. Nach offizieller Angabe soll das der Unterschied sein und die neue TitanX eben soll offiziell keine Geforce mehr sein. -> Aber: NV hat es mit dem Kühler verkackt, denn da steht Geforce GTX in leuchtent grün drauf :fresse:
Soll sich jeder selbst überlegen ob er damit klar kommt oder nicht ;)

Die TX wird dann wieder n bissl günstiger und die TX ler fühlen sich wieder verarscht...aber wer nicht aus der Vergangenheit lernen kann ist selbst Schuld :-) ist ja nicht s erste mal, auch nicht das zweite mal....nein sogar das dritte mal :-P

Wieso sollte sich der Titan Käufer, heute wie damals verarscht vorkommen??? Sowas kommt idR von den Leuten, die niemals nie selbst derartige Hardware ihr Eigen nannten/nennen konnten...
DAS PRO Argument für die Titan based Modelle ist der Zeitfaktor. Willst du HEUTE diese Leistungsklasse, kaufst du Titan. Willst du HEUTE eben (noch) nicht, wartest du halt und bekommst irgendwann mal das, was Andere seit Monaten oder Jahren nutzen für nen schmalen Taler... Das gilt für alle fünf bis dato erhältlichen Titan Modelle ausnahmslos. Genau genommen aber auch für JEDE andere Hardware bzw. allgemein Verbrauchsgüter am Markt. Du kannst dir heute den größer 100" TV für läppische 100.000$ ins Wohnzimmer hängen, in ein paar Jahren wird das Ding nix mehr wert sein, du kannst dir heute die Luxus Premium Autoschleuder in die Garange stellen -> in ein paar Jahren hast du nen extremen Wertverlust usw.
Derartige Argumentationen wären dann nachvollziehbar, wenn es einen Zwang für diese Modelle geben würde, den gibts aber nicht. Soll doch jeder selbst entscheiden. Wer das Ding unbedingt will, soll es kaufen. Wer die teils nur sehr wenigen Vorteile in Sachen reiner Hardware nicht schätzt und wem der Preis für diese zeitlich exklusive Hardware zu hoch ist, wird aber eben warten müssen. Warten KANN man aber immer. Wenn du nur lange genug wartest, bekommst du irgendwann mal Hardware vom Schrott, die schneller ist als ne Titan -> und das für Umme. :wink:
Die eigentliche Frage lautet also, wann lohnt ein Kauf und zu welchen Konditionen?? DAS ist aber subjektiv und jeder muss das mit sich und seinem Geldbeutel allein ausmachen.
 
Ich warte dann mal auf die neue Generation die gut mit DX12/Vulkan kann, vorher rüste ich nicht auf, erst recht nicht, bevor Star Citizen draußen ist. Für alles andere reicht noch meine olle alte.
 
Ich warte dann mal auf die neue Generation die gut mit DX12/Vulkan kann, vorher rüste ich nicht auf, erst recht nicht, bevor Star Citizen draußen ist. Für alles andere reicht noch meine olle alte.

Ob der Pascal Nachfolger da Verbesserungen zeigt, bleibt abzuwarten... Möglicherweise sieht sich NV aber weiterhin nicht genötigt, da groß Arbeit rein zu stecken. Warum auch, es geht scheinbar auf. Sowohl Maxwell als auch Pascal laufen. Es könnte klar besser sein, aber im Moment mehren sich eher die DX12 Titel, wo die Umsetzung sowas von krankt, dass auch bei AMD oftmals keine Leistungsverbesserung zu sehen ist.

Das ist auch nur erstmal die Spitze des Eisberges. So nen Haufen Softwaremüll, wie bspw. Mafia 3 ist sollte es 2016 auch nicht mehr geben. Gibts aber... Soll heißen, auch in Zukunft muss nicht zwangsweise die DX12 Umsetzung derart punkten, wie es bspw. in AotS der Fall ist/war.
Das Thema DX12 und Windows 10 ist auch noch so eine Sache. Sprich DX12 exklusiv (und ohne Alternativen) wird es wohl so schnell nicht geben -> ich meine damit nicht die Windows Store Dinger. Sondern normale Retail Ware in der Box oder über ne Vertriebsplattform ala Steam und Co.

Bleibt auf Jedenfall spannend das Thema in der Zukunft. Bis dahin? Kauft man am Besten das, was heute gut rennt in seiner Software und was die eigenen Anforderungen erfüllt ;)
 
Ob der Pascal Nachfolger da Verbesserungen zeigt, bleibt abzuwarten... Möglicherweise sieht sich NV aber weiterhin nicht genötigt, da groß Arbeit rein zu stecken. Warum auch, es geht scheinbar auf. Sowohl Maxwell als auch Pascal laufen. Es könnte klar besser sein, aber im Moment mehren sich eher die DX12 Titel, wo die Umsetzung sowas von krankt, dass auch bei AMD oftmals keine Leistungsverbesserung zu sehen ist.

Das ist auch nur erstmal die Spitze des Eisberges. So nen Haufen Softwaremüll, wie bspw. Mafia 3 ist sollte es 2016 auch nicht mehr geben. Gibts aber... Soll heißen, auch in Zukunft muss nicht zwangsweise die DX12 Umsetzung derart punkten, wie es bspw. in AotS der Fall ist/war.
Das Thema DX12 und Windows 10 ist auch noch so eine Sache. Sprich DX12 exklusiv (und ohne Alternativen) wird es wohl so schnell nicht geben -> ich meine damit nicht die Windows Store Dinger. Sondern normale Retail Ware in der Box oder über ne Vertriebsplattform ala Steam und Co.

Bleibt auf Jedenfall spannend das Thema in der Zukunft. Bis dahin? Kauft man am Besten das, was heute gut rennt in seiner Software und was die eigenen Anforderungen erfüllt ;)

Jupp, sehe ich ähnlich. Es gibt sowieso kaum Spiele da draußen, die mich nötigen aufzurüsten (bis auf eben besagtes Star Citizen, sobald es draußen ist - und da kann gerne noch 1+ Jahr vergehen). Ich bin was Nvidia vs. AMD angeht ziemlich agnostisch. Ich schaue gerade auf die Linux-Treiber, welche so langsam anfangen die proprietären zu überholen und anfangen (bei nicht-Grütze Titeln) Nvidia gefährlich nahe kommen - und die haben gerade mal die Feature Liste komplettiert, da ist kaum Optimierung drin. (also viel Luft nach oben)

Wenn die im Linux Lager so weitermachen, kann ich in einem Jahr Windows deinstallieren und die paar Krücken-Titel schafft dann auch WINE (die auch gehörig Gas geben)

Aus dieser Betrachtung heraus ist dann auf einmal alles interessant, was sich Vulkan und nativer-Übersetzer (halt WINE, gallium-nine etc) schimpft und... auch wenns noch etwas hin ist, sieht es so aus, als ob AMD da bessere Karten hat. Zu mindest wird es bei den neuen APIs dann mehr um Sachen pure Pferdestärke gehen und weniger um Treiberoverhead, weil der ja bei ordentlicher (!) Implementierung eh wegfällt.

Warum Sachen wie Deus Ex und Tomb Raider unter DX12 abrauchen liegt halt daran, dass die einfach nur einen Wrapper drum herum geschrieben haben, anstatt die Kern-Engine für DX12 zu optimieren. Einzig DOOM ist da die alleinige Ausnahme und die zeigt so ziemlich das Bild auf, dass ich erwarte: die Grakas skalieren mit ihrer puren Rechenpower - und da ist ne 480 sogar schneller als ne 1080. Sofern das Ergebnis halbwegs übertragbar ist (wie gesagt, Star Citizen - das wird mein Upgradegrund sein), siehts für Nvidia eher düster aus. Aber ich bin da auch eher ein Sonderling - die Masse der Spiele wird in den nächsten 2 Jahren weiterhin DX11 bleiben, weil DX12/Vulkan halt einfach schwierig (richtig) zu implementieren sind. Von daher...

/e: Hab mir grad nochmal die Benchmarks von Doom angeguckt - da sagt ja jede Hardwareseite was anderes. Manchmal ist die 480 schneller als ne 1080, dann ist sie marginal langsamer als ne 1070... was geht denn da in den Testbetten ab?
 
Zuletzt bearbeitet:
Mal vorausgesetzt die Ti unterscheidet sich nur in der Anzahl der Shadereinheiten, wie schätzt Ihr den Leistungsunterschied bei gleichem Takt ein?

3584 : 3328
 
Wieso sollte sich der Titan Käufer, heute wie damals verarscht vorkommen??? Sowas kommt idR von den Leuten, die niemals nie selbst derartige Hardware ihr Eigen nannten/nennen konnten...

Ich meine bezogen auf den werterhalt und den Preis...die TI s im vollausbau mit nem gesunden OC waren bis jetzt ziemlich gleichauf mit den Titan s....aber für gute 300 bis 400 Euronen weniger! 780ti = titan, 980ti = titan X und ich gehe mal von aus das 1080ti = titan X die zweite....wenn man eben mal den performanceschub vom Vram aussen vorlässt, welcher beim zocken eh prozentual zu vernachlässigen ist ! Aber jedem das seine...mir ist's strumpf, da ich mit dann eh wieder 2017 ne günstige Karte aus 2016 hier kaufe, ich fahre damit seit kepler immer recht gut da mir ne GPU halt keine monatsmiete und mehr wert ist xD könnte se mit auch leisten keine Frage aber wie geschrieben, ist s mit eben nicht wert und klar müsste ich da mal 3 Monate kürzer treten aber wie geschrieben will ich da keinem auf den Schlips treten. Muss jeder selbst wissen. Die TX M sollte bei mir jetzt eigentlich mind.3 Jahre langen, hab die nur genommen wegen dem vram. Die 12GB hab ich bisher nur bei derart besch****** programmierten Spielen wie CoD geknackt...hab aber eben auch nur nen 24" 144hz Bildschirm den ich ab und zu mal mit DS vergewaltige!

War sonst zufrieden mit der 980 aber warum soll man für 60 Euro Aufpreis nicht tauschen :-) hatte Glück beim Verkauf meiner 980 non ti!





Gesendet von meinem LG-H815 mit der Hardwareluxx App
 
Zuletzt bearbeitet:
Mal vorausgesetzt die Ti unterscheidet sich nur in der Anzahl der Shadereinheiten, wie schätzt Ihr den Leistungsunterschied bei gleichem Takt ein?

Knapp 5 mehr FPS zugunsten der Titan X Pascal?
Kommt wohl auf die Auflösung an, unter 1080p liegt die Titan und 1080 ziemlich oft gleichauf weil CPU bound.

Unter 4K dürfte bei aktuell stimmenden Gerüchten (320Bit SI) die Titan nochmals zulegen, da sie den vollen 3MB L2 Cache hat und auch mehr TMU's und ROPS zur Verfügung dann hat (96 Titan vs. 80 GTX1080Ti).


Der nennenswerte Pluspunkt ist hier wohl 2K Gaming, denn dann hätte die Ti Version der GTX1080 nochmals ~25% mehr Rohleistung (4 Cluster vs 5 Cluster). Die Titan mit ihren vollen 6 Clusterausbau hat da die Nase natürlich beim Backend des GP102 vorn, spielt aber preislich in einer untergeordneten Rolle.


Es bleibt wohl bei den 3200CC für die GTX1080Ti.
 
Zuletzt bearbeitet:
Knapp 5 mehr FPS zugunsten der Titan X Pascal?
Kommt wohl auf die Auflösung an, unter 1080p liegt die Titan und 1080 ziemlich oft gleichauf weil CPU bound.

Unter 4K dürfte bei aktuell stimmenden Gerüchten (320Bit SI) die Titan nochmals zulegen, da sie den vollen 3MB L2 Cache hat und auch mehr TMU's und ROPS zur Verfügung dann hat (96 Titan vs. 80 GTX1080Ti).

Der nennenswerte Pluspunkt ist hier wohl 2K Gaming, denn dann hätte die Ti Version der GTX1080 nochmals ~25% mehr Rohleistung (4 Cluster vs 5 Cluster). Die Titan mit ihren vollen 6 Clusterausbau hat da die Nase natürlich beim Backend des GP102 vorn, spielt aber preislich in einer untergeordneten Rolle.
Es bleibt wohl bei den 3200CC für die GTX1080Ti.

Hu? wo könnte man das jetzt einordnen?
Die TI von der Leistung her zwischen 2k und 4k, wobei mehr Rohleistung bei 2k gegenüber der 1080 und weniger Leistung bei 4k gegenüber der Titan aber trotzdem mehr Rohleistung als die 1080?
 
GTX1080 100% - GTX1080Ti 125% - Titan X Pascal 133%

So in etwa, reine Rohleistung.


Der GP102 im Vollausbau dürfte dann demnach 150% haben, sollte er denn jemals als Endanwender SKU launchen :d
 
Zuletzt bearbeitet:
@even.de
Seit wann sind die AMD Treiber scheiße? Auf dem Gebiet hat Nvidia deutlich mehr Mist gebaut. ;)

Gruß Romsky

Ich hatte eine HD7970 von Gigabyte, die wäre theoretisch anhand der Artefakte und dem Verhalten 3 mal gestorben. Einmal im Benchmark bei hoher Temperatur und ordentlichem Takt abgestorben und schon hat es den Treiber so dermaßen zerrissen, das es nichts half nur den Treiber neu zu installieren, ich konnte das komplette Windows neu machen. Die nächsten Treibergenerationen wurden nie wirklich besser, 6 Monate später bekam man das geflackere in den Griff.

Den einzigen Pluspunkt hatte man damals als die Karte mit jedem Treiber Update um ein gutes Stück schneller wurde. Ein halbes Jahr später war die 20% schneller als zum Kaufzeitpunkt.

Sicher, NVIDIA hat auch nicht immer die besten Treiber zu bieten, aber die arbeiten meines erachtens schneller an Lösungen. Mal ganz abgesehen von der Gigabyte GTX 780Ti die 3DMark06 nicht überlebte ohne Pixelbrei zu produzieren.

Von der reinen Leistung her waren die AMD Karten nie schlecht. Da war 2012 die HD7970 schneller als die GTX 680.
 
Zuletzt bearbeitet:
Einmal im Benchmark bei hoher Temperatur und ordentlichem Takt abgestorben und schon hat es den Treiber so dermaßen zerrissen, das es nichts half nur den Treiber neu zu installieren, ich konnte das komplette Windows neu machen.
Das hört sich nicht nachvollziehbar an.

Eine Grafikkarte "zerreißt" keine Treiber - nicht durch Temperatur weder durch Takt noch durch Vollauslastung.

Klingt so, als hättest du der Karte zu viel abverlangt. Und zwar so viel, das sich durch hohe Temperatur und womöglich Spannung gewisse Leckströme im Chip/Speicher eingeschlichen haben und die Grafikkarte in Folge dessen auf diesen Taktraten nicht mehr betrieben werden konnte.

Ich hatte leider einen ähnlichen Fall bei meiner R9 290X. Ich hatte die Karte ein mal zu hoch getaktet, aber ohne das sie heiß lief o.ä. Dieser Wert wurde im Treiber so gespeichert, das er direkt auf der Karte verblieb und auch so von Windows immer wieder geschrieben wurde. Ich durfte deshalb tatsächlich Win10 neu installieren. Es gibt dafür scheinbar keine andere Lösung. Ich hätte Kotzen können. Windows7 hatte ich seit release kein einziges mal neu installieren müssen...
 
Ja das hatte ich ebenfalls mehrmals, was ich so mitbekommen habe aber nicht 100% bestätigen kann ist das diese Werte irgendwie im UEFI gespeichert werden und über Fastboot dann wieder geladen werden oder so...
 
Das hört sich nicht nachvollziehbar an.

Eine Grafikkarte "zerreißt" keine Treiber - nicht durch Temperatur weder durch Takt noch durch Vollauslastung.

Klingt so, als hättest du der Karte zu viel abverlangt. Und zwar so viel, das sich durch hohe Temperatur und womöglich Spannung gewisse Leckströme im Chip/Speicher eingeschlichen haben und die Grafikkarte in Folge dessen auf diesen Taktraten nicht mehr betrieben werden konnte.

Ich hatte leider einen ähnlichen Fall bei meiner R9 290X. Ich hatte die Karte ein mal zu hoch getaktet, aber ohne das sie heiß lief o.ä. Dieser Wert wurde im Treiber so gespeichert, das er direkt auf der Karte verblieb und auch so von Windows immer wieder geschrieben wurde. Ich durfte deshalb tatsächlich Win10 neu installieren. Es gibt dafür scheinbar keine andere Lösung. Ich hätte Kotzen können. Windows7 hatte ich seit release kein einziges mal neu installieren müssen...

Ich sag es mal so, es lagen galub ich 1.220/1.600mhz bei 1,200v an. Die Karte hat sich bei 83°C in Heaven verheddert und ich musste die Kiste rebooten. Naja, nachher konnte ich die Taktraten auch auf -200mhz stellen, das half alles nichts mehr. Windows nochmal neu drauf und es ging wieder. Konnte es selbst nicht glauben, nachdem ich mich damit schon Monate herumgeschlagen hatte. Bei NVIDIA hatte ich so einen Fall noch nicht. Dafür andere, wo ich selbst den Treiber schoss, auch ohne takten.

Im März des darauffolgenden Jahres hab ich die Karte mit 1,20v @ 1.220/1.950 oder Valley geschickt. Ohne Probleme. Bei 12°C Raumtemperatur. http://abload.de/image.php?img=inbenchhd7970heaven12jbu2b.jpg

Man braucht schon mehr Spannung als 1,30v und richtig hohe Temperatur -> 100°C um eine Karte zu zerschießen.
 
Zuletzt bearbeitet:
Ich meine bezogen auf den werterhalt und den Preis...

Nur ist genau das eben nicht der Punkt. Preise kannste doch genau erst dann vergleichen, wenn es Produkte gibt, die schon released sind. Frag heute mal einen TitanX mit GP102 Käufer, welche Alternative er hätte? Oder damals zum Release der GM200 TitanX. Das zieht sich halt durch bis ein Produkt kommt, was günstiger ist und ähnlich schnell. -> der klassische Part, warten auf was besseres. Nur warten kannst du halt immer, wie gesagt, warte nur lange genug und du bekommst die Leistung für umme vom Schrott. Es gab damals Leute, die haben 1000DM+ für ne Geforce 2 Ultra ausgegeben. Was ist das Ding heute wert? Nix... Und die, die nur 500DM oder ähnliches für die kleineren Modelle oder die Nachfolger ausgegeben haben? -> auch dieses Zeug ist heute nix mehr wert. Dennoch hatte der Käufer er ersten Stunde einer Geforce 2 Ultra oder auch anderen Produkten mit dem Ding halt seinen Spaß.

Am Ende muss jeder für sich selbst wissen, wie viel Geld er bereit ist auszugeben und was für ihn in Frage kommt.


Was den VRAM angeht -> ich nutze bspw. Blender -> 2-4x TX gehen schon gut. Vor allem wegen dem VRAM. Möglicherweise stopfe ich mir dann aber auch 2x Vega in die Renderkiste, wenn AMD da 16GB drauf tackert :fresse: Gepaart mit 2x 10 Core Ivy-E CPUs und 384GB RAM ;)

GTX1080 100% - GTX1080Ti 125% - Titan X Pascal 133%

So in etwa, reine Rohleistung.

Passt nicht... Es liegen ca. 20% Rohleistungsunterschied zwischen der TX und der 1080er. Einfach weil letztere deutlich höhere Taktraten fährt.
Anders sieht das ggf. mit OC aus. aber da geht die 1080er normal auch etwas höher als die TX. 33% Unterschied bekommste bestenfalls mit OC vs. non OC.

Wir werden schauen was passiert. Vllt kommt die TI auch gar nicht. Oder sie kommt als 1180TI oder als 1180 ohne TI oder wie auch immer.
Die Lücke ist im Moment derart klein, dass dort fast nix zwischen passt.
 
Am Ende muss jeder für sich selbst wissen, wie viel Geld er bereit ist auszugeben und was für ihn in Frage kommt.

Wird zum Release der TI trotzdem genug Bettler geben, die dann sagen: "Dickes HAHA an die Titan XP Käufer, wieder mal schön verarscht worden"
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh