NVIDIA präsentiert die Titan X mit GP102-GPU und 3.584 Shadereinheiten

Ich gehe nicht davon aus das der GP102 auch mit HBM2 Interposer entwickelt wurde, der dürfte GP100 vorbehalten sein.
Und was man so weiss hat GP100 zuviel unnützen Ballst fürs gaming und ist nochmal extrem teurer.
Ich denke HBM2 komt erst grossflächig beim PASCAL Refresh oder mit Volta.

Ganz ehrlich mir wären 24 GB GDDR5X (höher getataktet als bei der GTX 1080) lieber als 16GB HBM2.



Man hatja bei 3DFX gesehen wo hin es führt wenn man auf die Partner peift und alle Karten selbst vertreiben will..

Also manchmal, da schreibst du recht schlaue Bemerkungen, um dann widerrum nur auf unnötiges Genörgel zurück zufallen... :hmm:

Tesla M40 Grafikkarte für Deep Learning Training | NVIDIA

Die Titan X kann man demnach als kostengünstige DeepLearning dGPU ansehen; mehr Leistung, dafür aber ein beschnittener RAM Ausbau. Das Nvidia sie nur selber Vertreibt, im Retail Channel wohlgemerkt, hat null Aussagekraft, und daß mit 3DFX gleichzusetzten, grenzt an Idiotie :stupid:

HBM2 wird wohl erst mit EUV so 2020 herum im Performancesegment kommen.


Also ich bin mal gespannt, wieviele Cudacores die GTX1080ti letztendendes haben wird :d
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Man hatja bei 3DFX gesehen wo hin es führt wenn man auf die Partner peift und alle Karten selbst vertreiben will..

Das ist nicht mehr vergleichbar. Der Markt ist deutlich größer geworden. Online Handel hat generell deutlich zugenommen und Nvidia ist finanziell um ein Vielfaches Stärker als es 3DFX jemals war. Außerdem hatte 3DFX damals STB gekauft und wollte die Karten selber bauen. Nvidia machts aber wie Apple. Die designen nur und lassen bauen, z.B. bei Foxconn, und vertreiben dann selber. Die Marke ist mittlerweile so stark, dass sie diesen Weg durchaus einschlagen können. Ich halte das für konsequent und richtig. Das erhöht die Wertschöpfungskette und gibt noch mehr Möglichkeiten Geld zu generieren.
 
Zuletzt bearbeitet:
Interessant wäre auch, ob die Vollausstattung energetisch noch akzeptabel wäre, oder ob man für die 250W den Takt nochmals reduzieren müßte.

Ich würde das begrüßen, wenn endlich mal eine 300W Karte kommt. Wenn NV dort eine leise AIO(Pumpe) verbaut oder den Referenzkühler endlich mal deutlich verbessert, sollte das kein Problem darstellen.
 
Ich schreibe eben was mir durch den Kopf geht, manche suchen darin nur nach Steilvorlagen mich dumm anzumachen (hi Stulli, bist nun auch auf ignore).

Ich schreibe eben gerne malhärteren Klartext, passt wohl auch nicht jedem.

Für MICH wäre die neue Tiian X eine Gamerkarte, mit dem Profisektor habe ich nix am Hut. Was man bisher von den paar wenigen lass die sie Profimässig nutzen würden, so hätten diese noch leiber mehr Vram als ich..

Ich habe nix mit 3DFX gleichgesetzt nur eben eine parallele aufgezeigt, den Pfad kann man weitdenken und dann beiseite legen. Das Nvidia gleich Bankrott geht denkt hier wohl keiner.

- - - Updated - - -

Das ist nicht mehr vergleichbar. Der Markt ist deutlich größer geworden. Online Handel hat generell deutlich zugenommen und Nvidia ist finanziell um ein Vielfaches Stärker als es 3DFX jemals war. Außerdem hatte 3DFX damals STB gekauft und wollte die Karten selber bauen. Nvidia machts aber wie Apple. Die designen nur und lassen bauen, z.B. bei Foxconn, und vertreiben dann selber. Die Markt ist mittlerweile so stark, dass sie diesen Weg durchaus einschlagen können. Ich halte das für konsequent und richtig. Das erhöht die Wertschöpfungskette und gibt noch mehr Möglichkeiten Geld zu generieren.

@kalle666:Ich gebe dir ja in fast allen Punkten recht, nur sollte man eins nicht ausser Acht lasse.
Ab wann fühlen sich die Baordpartner veräppelt ? Denn die sollte man nicht verärgern, wäre nicht das erste mal das sich ein exclusivpartner den roten zuwendet.
 
Ich würde das begrüßen, wenn endlich mal eine 300W Karte kommt. Wenn NV dort eine leise AIO(Pumpe) verbaut oder den Referenzkühler endlich mal deutlich verbessert, sollte das kein Problem darstellen.

Das wäre das auch noch egal; ich nutze eine Wakü. Aber zielführen wäre es nicht. Da müßte die gebotene Leistung schon möderisch sein, ansonsten würde NV nicht über die 250W gehen. Und da es dafür auch keinen Grund in Form von Kokurrenz gibt, wird da auch nichts kommen.
 
naja ne, wenn davor als vergleich gegeben ist: Maxwell vs 480, dann ist 480 vs 1070 da halt unpassend.

So unpassend finde ich den Vergleich nicht. Die 1070 hat auch 6,5TFLOPS, die RX 480 hat 5,8. Man sieht schon, dass AMD aus einem eigentlich etwas klein geratenen Chip per Takt noch deutlich mehr Leistung zulasten des Stromverbrauchs herausquetscht.
Die RX 470 hat ja angeblich mehr als 25% weniger Stromverbrauch bei nur 14% weniger theoretischer Rechenleistung. Für Computing ist die Performance/Watt also ziemlich ähnlich.

Die GTX 1070 hat, wie auch alle anderen, aktuellen Nvidia- Karten, den großen Vorteil, dass sie als Gamingkarte ihre Leistung schon in DX11 fast vollständig abrufen kann, während man zum Auslasten der AMD- Karten mehr 3D- Last auf die Compute-Schiene auslagern muss.
 
kann ja mit Vollausbau auch 16GB HBM sein.

Unwarscheinlich... Denn GP102 hat, wenn er mit GDDR5X kommt schlicht kein HBM Interface. Welchen "Sinn" hätte es, beide Speicherinterfaces zu verbauen? Durch HBM gewinnt man "Fläche" und Effizienz am SI. Aber das geht völlig zunichte, wenn man zusätzlich das GDDR5 Interface drauf lässt oder extra einbaut. Schlimmer noch, es kehr sich um...
Also nein, GP102 wird KEIN HBM(v2) Speicher bekommen... Ausgeschlossen :wink:

ach die Nvidia Kunden kaufen doch alles was Nvidia Ihnen vorsetzt, anders ist die derzeitige Lage nicht zu erklären... macht euch mal Gedanken würd ich sagen sonst artet das in Zukunft noch mehr aus.

Logisch oder? Sonst wären sie ja nicht NV Kunden...
Ich verstehe aber ehrlich gesagt dein Problem nicht!?
Was ist so verkehrt daran, wenn Kunden für sich das beste Produkt am Markt kaufen? Und nein, AMD ist/war phasenweise nur bedingt eine Alternative... Denn es gibt immer Vor-/Nachteile zwischen den Modellen. Hier gilt es also die Notwendigkeiten abzuwegen.

Wer seine Anforderungen kennt, der weis auch ziemlich genau, was für Produkte dafür in Frage kommen... Und wenn einer der Hersteller nicht liefert, bleibt nur der Andere. Das gilt im übrigen in beide Richtungen, bevor es gleich wieder mit der Markenverbundenheit los geht. :wink:

Das war bei den ersten Titans der Fall, weil die double precison performance vorhanden war, zumindest mit custom Treiber.
Die aktuelle Titan X bietet keine gute DP Performance und ist eine reine Gamerkarte. Titan X "neu": mal sehen.

Wieso klassifizierst du das rein auf FP64 Leistung?
Was ist mit bspw. 3D Rendering? -> Schon mal was von NV Quadro Karten gehört? Die gibt es, je nach Chip und Modell reihenweise OHNE voller FP64 Performance... Und verkaufen sind entsprechend ihrem Markt auch offenbar gut.
Oder was ist mit Cuda Support?

Wenn man sich das Ganze mal nüchtern zu gemüte führt, so hat es entweder teure Tesla/Quadro Modelle mit (für die Dicken) 3-5k€ pro Einheit als PCIe Steckkarte (inkl. Lüfter) oder es hat Geforce GTX Modelle mit mauem Speicherausbau oder eben die Titan Modelle mit höherem Speicherausbau und möglicherweise anderen Vorzügen.
Meist du die ganzen Hobbyentwickler von Software und sonstwedem Zeug mit GPU Beschleunigung kaufen alle samt ausschließlich Karten im Bereich 3-5k€? -> unwarscheinlich.
Wie schon angemerkt, mit 12GB pro GPU kann man in Sachen 3D Rendering schon ne Menge machen... Es reicht nicht für die dicksten Szenen, keine Frage, aber es reicht für deutlich mehr als mit halben VRAM...
Und nun, da FP16 in "Mode" zu kommen scheint (zumindest laut NV), bietet diese Titan X hier auch wohl mehr als den doppelten Speed ggü. einer GM200 (TitanX oder 980TI), dem GP104 und anderen Vertretern am Markt. Nach aktuellen Infos ist der GP102 der zweite Chip, der überhaupt mehr FP16 als FP32 Leistung liefert...

Ich weis nicht, aber ich habe das Gefühl, du willst es gern so, dass die Titan Modelle nur ausschließlich Gamerkarten sein sollen... Warum? Was hindert dich daran zu erkennen, dass es neben Games andere Märkte gibt, wo diese Karten punkten können? -> ist es der Umstand, dass es dort in diesen Märkten sonst nur noch deutlich hochpreisigere Modelle gibt und damit ein Titan Modell zum P/L König werden kann/könnte? Man muss einfach nur mal die Augen aufmachen und über den eigenen Tellerrand drüber hinaus blicken...

PS: und nein, die Titan Modelle sind natürlich keine vollständigen Alternativen dazu. Denn es gibt sie wohl nicht als Rackserver Versionen -> Tesla Modelle hingegen schon (das sind die passiv gekühlten Teile ohne Lüfter). Auch haben die Titan Modelle keinen ECC Speicher, -> die hierige TitanX wohl ebenso nicht. Entsprechend taugt das unter Umständen nicht fürs Business in jedem Bereich. Neben Schwarz und Weis existiert aber noch eine Menge Farbverlauf ;)
 
So unpassend finde ich den Vergleich nicht. Die 1070 hat auch 6,5TFLOPS, die RX 480 hat 5,8. Man sieht schon, dass AMD aus einem eigentlich etwas klein geratenen Chip per Takt noch deutlich mehr Leistung zulasten des Stromverbrauchs herausquetscht.
Die RX 470 hat ja angeblich mehr als 25% weniger Stromverbrauch bei nur 14% weniger theoretischer Rechenleistung. Für Computing ist die Performance/Watt also ziemlich ähnlich.

Die GTX 1070 hat, wie auch alle anderen, aktuellen Nvidia- Karten, den großen Vorteil, dass sie als Gamingkarte ihre Leistung schon in DX11 fast vollständig abrufen kann, während man zum Auslasten der AMD- Karten mehr 3D- Last auf die Compute-Schiene auslagern muss.

Der ursprüngliche Kommentar sprach trotzdem von Maxwell vs 480. Da passen Pascal Karten also nicht rein, vollkommen egal, ob die in einem anderen Vergleich Sinn machen.
 
Fdsonne: Ich spreche das der Karte nicht ab aber man hätte die R9 290 auch nicht als Miningkarte vertrieben, nur weil manche sie zum Bitcoinminen entdeckt haben. Es ist weder der Hauptzweck, noch wird es ein relevanter Marktanteil sein. Wäre das so, ist Nvidias Marketing eine Katastrophe.
 
Lass das "tausende" weg und du kannst das auf jeden Hardwarekäufer beziehen...
Ich kenne kaum Leute die verrückt genug sind eine 1080 zu kaufen, weil sie eine 980 TI für weniger bekommen!
(Edit: Das zieht sich bis in die unteren Preisklassen!)
Aber auch für eine 980 TI haben manche, vor ein paar Wochen noch (!), sehr viel bezahlen dürfen.

So gesehen ist der Preisverfall der selbe, nur das man mehr investieren muss wenn man eine Titan kauft!
Ich habe jedenfalls für meine ollen Titan Karten auf dem Gebrauchtmarkt auch sehr viel mehr bekommen als für die jeweils jüngeren TI Modelle (780/980 usw.) und damit glich sich der Mehrpreis mehr oder weniger aus, obwohl die Titan teils deutlich länger in Gebrauch waren!

Ich stimme dir unter der Voraussetzung zu dass natürlich der Zeitpunkt des Wiederverkaufes stimmen muss. Dann trifft die Aussage wohl gleichermaßen auf alles an Hardware zu was über den Budget Bereich hinausgeht.

Dass der Wiederverkaufspreis im Verhältnis zum ursprünglichen Preis wohl bei den "Flaggschiff"-Produkten höher ist stimmt sogar bei so ziemlich jeder Art von Technik.
 
Nvidia Potential Roadmap Update for 2017: Volta Architecture Could Be Landing As Early As 2H 2017
Nvidia Volta gets 16nm FinFET treatment

Ich weiß, ich weiß, aber mal halb lang Kollegen...auch wenn sich das vielleicht der gute Fudo nur aus der Nase gepopelt hat...

...aber naja, wenn man den P100 als reine FP64 und den GP102 als reine FP32 DeapLearning, Cuda, Tesla ach was weiß ich nimmt, und mal kurz darüber nachdenkt, wie es wäre, Nvidia würde wieder alle gute Jahre (ala Intels Tick Tock) etwas neues herausbringen, ohne daß man bis auf den TI Moniker der aktuellen Gen. und dann noch ein Jahr darauf warten muß, also dann fängts mir echt an in den Eiern zu jucken :d

So ein 16nm Finfet Monster mit 550 mm2 und 5k+ CudaCores und verbesserter microArch, das wäre doch mal was, so in einem Jahr herum :bigok:

Keine Ahnung warum ich daß schreibe, aber mir ist langweilig...
 
Zuletzt bearbeitet:
Nvidia Potential Roadmap Update for 2017: Volta Architecture Could Be Landing As Early As 2H 2017
Nvidia Volta gets 16nm FinFET treatment

Ich weiß, ich weiß, aber mal halb lang Kollegen...auch wenn sich das vielleicht der gute Fudo nur aus der Nase gepopelt hat...

...aber naja, wenn man den P100 als reine FP64 und den GP102 als reine FP32 DeapLearning, Cuda, Tesla ach was weiß ich nimmt, und mal kurz darüber nachdenkt, wie es wäre, Nvidia würde wieder alle gute Jahre (ala Intels Tick Tock) etwas neues herausbringen, ohne daß man bis auf den TI Moniker der aktuellen Gen. und dann noch ein Jahr darauf warten muß, also dann fängts mir echt an in den Eiern zu jucken :d

So ein 16nm Finfet Monster mit 550 mm2 und 5k+ CudaCores und verbesserter microArch, das wäre doch mal was, so in einem Jahr herum :bigok:

Keine Ahnung warum ich daß schreibe, aber mir ist langweilig...

Da hätte ich nichts gegen, obwohl das Bigchipmonster als erster Release für Consumer unwahrscheinlich ist. Wenn es passend zum Andromeda-Release käme wäre das Top, zur Not kaufe ich dann vorerst was gebraucht, wie diese neue Titan. Ich denke sie wird sehr knapp 4K schaffen, mit heftigem OC versteht sich.
 
Ich halte die GPU für Deep Learning nicht sinnvoll. Man muss an die 16-Bit Zahlen ja nur 16 Nullen vorne dranhängen und schon hat man eine 32-Bit Zahl(-> Generell brauchbar ist somit auch die FP32- Leistung)... Zwar wären 1.200€ für die halbe FP16- Geschwindigkeit eines P100 vergleichsweise billig, aber es gibt ja noch viel billigere Karten...
Ein 2- Computer- Cluster(normale ATX- Rechner) aus je 6 RX 470 auf jeweils 4TFLOPs untertaktet(<1GHz) würde rund 2.500€ kosten und hätte insgesamt 12x4=48TFLOPs FP32. Also mehr als 2x P100(25.000€) mit halber Genauigkeit schaffen würden und mehr als 4 Titan X(ca. 5.000€).
Bleibt nur das Argument: Kein ECC. Da fragt sich nur: Wenn man mit FP16 nur halb so genaue Zahlen haben kann, warum sollte es einen stören, wenn mal ein Bit kippt(Zumal das selbst ohne ECC selten passiert).
 
Zuletzt bearbeitet:
Also ich finde ja, dass die Titan X (verwirrende Bezeichnung übrigens) echt ne Menge kostet für die gebotene Leistung. Aber ist ja nicht schlimm. Jeder mit genug Geld kann ja für sich selbst entscheiden!
 
Ich halte die GPU für Deep Learning nicht sinnvoll. Man muss an die 16-Bit Zahlen ja nur 16 Nullen vorne dranhängen und schon hat man eine 32-Bit Zahl(-> Generell brauchbar ist somit auch die FP32- Leistung)... Zwar wären 1.200€ für die halbe FP16- Geschwindigkeit eines P100 vergleichsweise billig, aber es gibt ja noch viel billigere Karten...
Ein 2- Computer- Cluster(normale ATX- Rechner) aus je 6 RX 470 auf jeweils 4TFLOPs untertaktet(<1GHz) würde rund 2.500€ kosten und hätte insgesamt 12x4=48TFLOPs FP32. Also mehr als 2x P100(25.000€) mit halber Genauigkeit schaffen würden und mehr als 4 Titan X(ca. 5.000€).
Bleibt nur das Argument: Kein ECC. Da fragt sich nur: Wenn man mit FP16 nur halb so genaue Zahlen haben kann, warum sollte es einen stören, wenn mal ein Bit kippt(Zumal das selbst ohne ECC selten passiert).

Eventuell solltest du dich mit der Materie etwas auseinandersetzen, nicht jeder Prozess lässt sich gut parallelisieren und auf mehre GPUs oder gar Cluster aufteilen, du fährst also mit weniger schnellen Karten schlicht effizienter. Dann ist da wie immer der Speicher, 6GB reichen eventuell für kleinere Problemstellungen, möchtest du aber ein Netz anlernen, bist du froh so viel RAM wie möglich zu haben. Last but not least, die API. NVIDIA ist seit einiger Zeit mit CUDA/cuDNN unterwegs und pusht das Thema Deep Learning extrem, da muss AMD erst noch ein wenig nachbessern. Und am Ende lässt du das Setup ja auch ein wenig arbeiten und da macht sich dann auch der Stromverbrauch bemerkbar. ECC lasse ich jetzt mal außen vor, denn das hätte ja eine Titan eh nicht und logisch ich lege 16bit Zahlen mal eben als 32bit ab, damit ich den doppelten Speicher verbrauche? Kommt als letztes noch dazu, dass wenn du wirklich FP16 nutzt, der P100 mal eben 20TFLOPs abliefert(bei 16GB Ram vs 6 x RX 470 nach deiner Rechnung ja dann nur mit nutzbaren 4GB weil die zweiten 4GB mit Nullen vollgeschrieben sind), wobei die Speicherbandbreite bei solch Aufgaben fast wichtiger ist als die reine Rechenleistung.
 
Zuletzt bearbeitet:
Liebe "Aber am Ende soll sich doch jeder kaufen was er will!"-Leute:

Danke für diese erleuchtende Wahrheit. Ohne euch würden wir immer noch glauben, dass AMD und nVidia uns eine Knarre an den Kopf halten und ums zum Kauf Ihrer Karten zwingen würden. Danke, dass ihr das aufgeklärt habt. Damit erübrigt sich jede Diskussion und alle kaufen einfach das, was sie wollen.
 
Wo landet dann die GTX 1080TI , bei vielleicht knapp 20% über GTX 1080 ?

Schätze mal mit Standard Clock bei ca. 25-28%. Mit OC dank Custom Karten dann bei 40% aufwärts ;)

Diesmal lässt mich die TX ziemlich kalt, zumal ich sehr zu frieden bin mit dem kleinen Pascal :d Im Winter gibts dann die TI unterm Christbaum :fresse:

Gesendet von meinem SM-G900F mit der Hardwareluxx App
 
Eventuell solltest du dich mit der Materie etwas auseinandersetzen, nicht jeder Prozess lässt sich gut parallelisieren und auf mehre GPUs oder gar Cluster aufteilen
Das kann natürlich sein...
Dann ist da wie immer der Speicher, 6GB reichen eventuell für kleinere Problemstellungen, möchtest du aber ein Netz anlernen, bist du froh so viel RAM wie möglich zu haben.
Das wäre bei der Titan X mit 32 Bit- Zahlen dann 2 GiB mehr. Deutlich mehr hätte nur der P100 mit FP16 und vollen 16 GiB... - kostet halt auch seine 12.000€... Egal, welche Branche, man würde somit natürlich immer schauen, ob es nicht irgendwie auch billiger geht... Die Titan X kostet gegenüber der RX 470 das Doppelte pro FLOPS, hat dafür 50% mehr VRAM, die P100 etwa das Zehnfache mit viermal so viel nutzbarem VRAM.. Letztlich ist die Frage einfach, wie viel die Zeit kostet, in der die Karten in Betrieb sind...
Last but not least, die API. NVIDIA ist seit einiger Zeit mit CUDA/cuDNN unterwegs und pusht das Thema Deep Learning extrem, da muss AMD erst noch ein wenig nachbessern.
Wobei ich das immer nicht kapiere... Ist denn die Industrie so programmierfaul, bzw. vertraut sie fremden APIs einfach blind - oder warum regelt man sowas nicht einfach in OpenCL? Ich meine, letztlich muss doch eine so starke OpenSource Community /Universitäten in der Lage sein, qualitativ bessere Software zu schreiben, als so ein paar Kasperle aus einem Wirtschaftsunternehmen... und die Unternehmen brauchen sich auch nicht wundern, wenn nie ein Wettbewerb entsteht, wenn sie selbst dazu beitragen, dass alles nur mit CUDA läuft. Ich würde jedenfalls, wenn ich damit irgend etwas zu tun hätte, ein eigenes Programm mit OpenCL- Support schreiben.(CUDA vllt. auch, um einfach zu vergleichen, was nun schneller ist.)
Und am Ende lässt du das Setup ja auch ein wenig arbeiten und da macht sich dann auch der Stromverbrauch bemerkbar.
Deswegen schreibe ich ja auch von RX 470 auf unter 1GHz getaktet. Sonst könnte man ja auch einfach RX 480er nehmen und die noch übertakten... Nur ist das mit 300W Pro Karte ziemlich doof. Unter 100W ist dagegen ziemlich gut. OK, Garantie ist dann weg, aber Wayne ;)
 
Zuletzt bearbeitet:
Warum kein OpenCL? Weil im Vergleich zu CUDA das Ausmaß and Dokumentation und Support vom Hersteller fehlt.
Und mal eben neuschreiben will man da halt auch nicht, da steckt enorme Arbeit dahinter, da überlässt man es lieber Nvidia, effiziente Algorithmen und nützliche Features bereitzustellen, und nimmt die dann her um sein eigenes Zeug aufzubauen.


Sent from my iPhone using Tapatalk
 
Wird die Titan nun wirklich Nvidia-Exklusiv? Was haben die davon?
 
Hallo,
können wir leider noch nicht bestätigen.
Das habe ich nach Anfrage ob ein Step up möglich sein wird erhalten.

Meine Hoffnung ist ja das NV auf der GDC unerwartet verkündet das ihre Parnter dafür ab dem 1 .September die GTX1080Ti anbieten werden.:fresse2:
Der Preis wäre auch mit Step up zur Titan sehr hoch ca.600+ Euro denke mal die Titan wird hier so an die 1349-1399Euro kosten.
NV möchte denke ich mal die schlechte Ausbeute einfach für ihre Zwecke zum Vorteil nutzen ..wieso nicht ein Paar Chips verkaufen und gute Presse machen.
Das ist mir dann auch zuviel des guten.

Ne Ti für 1000 wäre mir da lieber weil an weniger glaube ich nicht zu mindest für uns Deutsche.
 
Zuletzt bearbeitet:
Mehr Gewinn, aber der Kunde hat nur Nachteile (Garantie nur 2 Jahre und erlischt bei Wakü Umbau etc..)

Gewinn ist denke ich bei der Karte ehr zweitrangig .
Gute Presse , Marketing so wie die Exclusivität.

Ich frage mich warum da geschimpft wird hätte NV die Karte für knapp 1000 Euro angeboten würden die GTX1080 Käufer sich richtig angepisst fühlen.

Ich denke die Yield ist nicht prall und man nutzt das seitens NV für Marketting Zwecke.
Wieso sollte man funktionierende Chips auf der Halde Sammeln?

Finde die Titan jetzt schon geil muss sie aber nicht auf biegen und brechen haben wollen.
 
Zuletzt bearbeitet:
Irgedwie hatten die Titans davor (speziell auch die TX) immer was begehrenswertes ,man wollte sie haben ,waren besonders etc.
Bei der hier irgendwie garnicht.
 
Irgedwie hatten die Titans davor (speziell auch die TX) immer was begehrenswertes ,man wollte sie haben ,waren besonders etc.
Bei der hier irgendwie garnicht.

Das liegt schlicht daran das AMD nix endgegen setzt.
Und die Preise sich nach oben geschaukelt haben.
Würde die Titan 700 kosten hätten alle Sterne in den Augen sie hätte dadurch aber auch kein HBM2 und 3880 Shader und währe von den Daten und Erwartungen auch nicht besonderer aber für viele greifbarer bzw.würden sich die Leute darauf einlassen das Geld zu zahlen.

Wie Webmi schon schrieb ...der Kritikpunkt Nr.1 ist der Preis nicht die Karte selbst .
 
Zuletzt bearbeitet:
Das liegt schlicht daran das AMD nix endgegen setzt.
Und die Preise sich nach oben geschaukelt haben.
Würde die Titan 700 kosten hätten alle Sterne in den Augen sie hätte dadurch aber auch kein HBM2 und 3880 Shader und währe von den Daten und Erwartungen auch nicht besonderer.

3880 shader und hbm hat sie so wies aussieht aber auch beim doppelten preis nicht :P

Und AMD hat doch damit nix zu tun. Gegen die erste Titan X hatten sie doch auch nicht wirklich was. Das Ding hatte aber nich irgendwie einen gewissen sonderstatus und war deutlicher abgesetzt.


Sent from my iPhone using Tapatalk
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh