Das wäre bei der Titan X mit 32 Bit- Zahlen dann 2 GiB mehr. Deutlich mehr hätte nur der P100 mit FP16 und vollen 16 GiB... - kostet halt auch seine 12.000€... Egal, welche Branche, man würde somit natürlich immer schauen, ob es nicht irgendwie auch billiger geht... Die Titan X kostet gegenüber der RX 470 das Doppelte pro FLOPS, hat dafür 50% mehr VRAM, die P100 etwa das Zehnfache mit viermal so viel nutzbarem VRAM.. Letztlich ist die Frage einfach, wie viel die Zeit kostet, in der die Karten in Betrieb sind...
Was ist denn das für ne komische Rechnung?
Mal davon ab, dass wohl der GP102 analog dem GP100 FP16 in doppelter Geschwindigkeit bewerkstelligen kann. DAS liegt dahingehend nahe, weil es Quadro P6000 auf GP102 Basis mit 24GB GDDR5 geben soll/wird.
Die Frage ist, kann die Titan X dies dann ebenso? -> es wäre wieder so ein Merkmal wie seinerzeit die FP64 Leistung. Und schon geht deine Rechnung nicht mehr auf.
Aber die geht so schon nicht auf...
Frage: wie bekommst du für dein Beispiel ganze sechs DualSlot GPUs in einen PC? Wo doch der Standard ATX nur maximal 7 Slots hergibt? Da ist dann nach drei Karten schluss, bei größeren Gehäusen auch vier.
-> kommt es rein auf Performance an, wären aber genau so vier TXen möglich.
Wobei ich das immer nicht kapiere... Ist denn die Industrie so programmierfaul, bzw. vertraut sie fremden APIs einfach blind - oder warum regelt man sowas nicht einfach in OpenCL? Ich meine, letztlich muss doch eine so starke OpenSource Community /Universitäten in der Lage sein, qualitativ bessere Software zu schreiben, als so ein paar Kasperle aus einem Wirtschaftsunternehmen... und die Unternehmen brauchen sich auch nicht wundern, wenn nie ein Wettbewerb entsteht, wenn sie selbst dazu beitragen, dass alles nur mit CUDA läuft. Ich würde jedenfalls, wenn ich damit irgend etwas zu tun hätte, ein eigenes Programm mit OpenCL- Support schreiben.(CUDA vllt. auch, um einfach zu vergleichen, was nun schneller ist.)
???
Ernsthaft? Wieso fängst du eine Diskusion über Deep Learing an und meinst, "Ich halte die GPU für Deep Learning nicht sinnvoll" wenn du davon offenbar so gar keine Ahnung hast?
Sorry, nimms mir nicht übel, aber sowas nervt tierisch...
Was ich mich aber frage, bei meiner Ehre als Anwendungsentwickler. Wieso sollten Menschen aus der OpenSource Community in der Lage sein, qualitativ bessere Software zu schreiben als Angestellte in Wirtschaftsunternehmen? Woher nimmst du das? Was soll der Anhänger der Community besser können als der Angestellte? Vielleicht ist auch der Angestellte SELBST Teil der Community? Einfach mal nachdenken, bevor man sowas raushaut...
Deswegen schreibe ich ja auch von RX 470 auf unter 1GHz getaktet. Sonst könnte man ja auch einfach RX 480er nehmen und die noch übertakten... Nur ist das mit 300W Pro Karte ziemlich doof. Unter 100W ist dagegen ziemlich gut. OK, Garantie ist dann weg, aber Wayne
Das machts nicht besser... 6x100W sind immernoch mehr wie 2x250W
Gewinn ist denke ich bei der Karte ehr zweitrangig .
Gewinn ist für diese Karten durchaus wichtig... Nach aktuellen Infos gibt es genau zwei Karten, welche GP102 bekommen. Das ist die TitanX und die Quadro P6000. Diese beiden Modelle müssen effektiv dafür sorgen, dass sich die dedizierte Chipproduktion überhaupt rechnet. Entsprechend hoch die Preise
PS: nachdem nun bekannt ist, dass die P6000 Quadro mit 24GB GDDR5 kommt, sollte klar sein, warum die TitanX nur 12GB bekommt