Das stimmt eben nicht, zieh mal DDR4 Controller, DMI Interface und co. ab dass die GPU eben nicht hat aber die Phi, damit die reinen Recheneinheiten übrig bleiben. Dann haben wir zwar immer noch 40% der Fläche die nur mit 36MB L2 Cache bestückt ist, aber gut. K80 hat 2x 7,1 Millia. Transistoren, Phi schafft das mit 50% der Anzahl der Transistoren inklusive DMI, DDR4 Controller,.. und das obwohl CPU Strukturen immer mehr Platz brauchen als reine GPU-Einheiten.
So ganz unrecht hat er mit der Aussage aber auch nicht... Zieh doch mal das ab, was du aufgezählt hast. Wenn ich mir das Bild des DIEs ansehe, da bleibt trotzdem noch ein riesen Chip über, dazu im deutlich kleineren Prozess gefertigt. Also Flächeneffizienz geht da wohl klar an die GPU. Zumal es bei den GPUs ebenso viele Teile gibt, die abseits der reinen ALUs und dem bisschen Front/Backend dafür verbaut sind, damit eben der Gamingbereich abgedeckt wird... Da geht nochmal ein Teil der Fläche drauf. Wie viel genau, müsste man sich mal angucken. 1 oder 2% werden das aber sicher nicht nur sein... Zumal eben die Einheiten neben den ALUs idR auch in einem gewissen Verhältnis zur ALU Anzahl/dessen Leistung stehen. Breitere ALU Anzahl = idR auch breiterer Rest. (zumindest innerhalb einer Generation)
Allerdings stimme ich dir dahingehend definitiv zu, der Vergleich hinkt unter dem Gesichtspunkt, dass dort x86 kompatible Cores drauf sind. Das ganze Zeugs, was die Phi kann, und die GPUs nunmal nicht, kosten halt Fläche... Von daher hinkt der Vergleich eigentlich und die Aussage ist wenig wert bzw. hat wenig Relevanz.
Wenn diese Teile nicht so schweine teuer wären, würde ich mir sowas definitiv besorgen. Die Kärtchen dürften ziemlich perfekt für Videoencoding sein. Das was eben auf den "normalen" i7 Mainstream CPUs, selbst mit massivem OC eigentlich immernoch lange davon entfernt ist, schnell zu laufen. Und was die GPUs bspw. so gar nicht gut können und die Bildqualität dazu noch von der verwendeten Hardware und dessen Fähigkeiten abhängt. Mit ner fetten Dual Xeon Kiste kann man dem Speedproblem zwar heute schon entgegen kommen, aber das ist für privat eben immernoch viel viel viel zu teuer.
Na mal gucken, vielleicht fällt ja so ein Ding mal irgendwo ab... Bin auf die Listenpreise gespannt. Es muss ja für den Anfang nicht das Dickschiff sein. Ggf. wirds wieder auch ne kleinere abgespecktere Version geben?? Wenn da keine Ahnung, 2500€ stehen. 70-80% Nachlass und das könnte durchaus was werden mit mir und der Phi
Ich könnte mir sehr gut vorstellen das so die Zukunft der Grafikkarten aussieht.
Mainboards mit mindestens zwei Sockeln (hoffentlich Grafikteil wenigstens Standardisiert)
Eher nicht in absehbarer Zukunft
Intel hat doch den Versuch gestartet und festgestellt, dass es nicht funktioniert... Stichwort LRB. Das war doch der eigentliche Hintergrund der Xeon Phi Karten... Und sollte eben auch als GPU fungieren. Nur scheint es zumindest in diesem Bereich, wo die 3D Berechnung offenbar durchaus mit den Fähigkeiten der Hardware dicke auskommt, kein Bedarf an x86 kompatibler Beschleunigerhardware zu geben. Warum sollte sich das in Zukunft ändern?
Wenn man so will ist die Phi doch die Version mit der Brechstange... Die GPUs von AMD und NV hingegen sind eher die speziell auf gewisse Bereiche zugeschnittenen Produkte. Nur kann so ein Produkt eben dann nicht alles. Mit x86 kannst du so ziemlich alles berechnen. Auf der GPU hingegen wird das zu einem Großteil einfach schwer bis unmöglich. Dafür können diese GPUs halt ihren Part gut. Und das eben auch idR sauschnell...
Wenn man sich das bspw. mal ansieht, beim Mining wurde zu Anfang auch die GPU rangezogen. Später dann war es eher unsinnig, weil kostenineffizient das mit GPUs zu machen. Da waren spezielle Chips/ASICs viel Besser unterwegs. Fürs Gaming schaut das ähnlich aus. Da ist eher die GPU das spezielle Produkt und so eine x86 based Allrounder CPU wäre im Vergleich die GPU beim Mining. Zumal das reine Berechnen des Shadercodes ja nicht alles ist. Ne GPU besteht ja noch aus vielen anderen Teilen. TMUs, TAUs, ROPs, usw. -> das fällt bei x86 alles raus. Entweder man baut solche speziellen Einheiten mit dran oder "emuliert" das ganze wieder in Software -> mit dem gleichen Nachteil der idR höheren Ineffizienz.