HWL News Bot
News
Thread Starter
- Mitglied seit
- 06.03.2017
- Beiträge
- 113.867
... weiterlesen
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Bin mal gespann was der kosten soll. Wenn weniger als 1200,-€ wäre es eine Option.... wie wir alle Intel aber kennen wird dieser Preis massives Wunschdenken bleiben.
DasMonthy will von Preisen knapp unter 3K gehört haben!
@Don
Das dies Intel egal ist sehen wir doch derzeit. Siehe Xeon und Core I9. Threadripper überall besser und dennoch verlangt Intel Preise jenseits von Gut und Böse ^^
DasMonthy will von Preisen knapp unter 3K gehört haben!
Eben und der 3990X hat auch nur 4 RAM Channels für seine 64 Kerne.wird schon reichen, AMD's AM4 16 kerner kommt mit dual channel und da meckert auch keiner.
Die haben zwei Speichercontroller mit je 3 Channels, aber im LGA2066 werden davon nur je 2 genutzt, aber die Dies sind ja mit denen der LGA3647 CPUs identisch wo dann alle 3 zum Einsatz kommen, es also insgesamt 6 RAM Channels pro CPU gibt.Das XCC hat normalerweise zwei (dual) Speicherkontroller.
X2900? Das soll doch wohl X299 heißen, wie es auch im letzten Satz steht.für den Sockel LGA2066 bzw. die X2900-Plattform
Was ist damit gemeint? Welche Eigenschaft braucht denn ein Sockel um eine CPU mit 22 statt 18 Kernen zu unterstützen? Außer das er genug Platz fürs Die bieten muss, was ja offenbar der Fall ist, wenn Intel so eine CPU auf den Markt bringt.Ob der Sockel mit 2.066 Pins dazu in der Lage ist, ist die eine Sache.
Die Leistungsaufnahme kann jeder im BIOS über die Power Limits selbst einstellen und sollte dies auch tun, da die Boardhersteller im Default meistens extrem hohe Werte einstellen.Diese Leistungsaufnahme ist doch auch jenseits von gut und Böse.
Macht ja auch Sinn. Damit das Teil einen noch geringeren Takt hat und deswegen von einem 16 Kerner auf dem Mainstream Sockel überrollt wird, der dann trotzdem noch eine geringere Leistungsaufnahme hat.Die Leistungsaufnahme kann jeder im BIOS über die Power Limits selbst einstellen
Den Sinn so eines 22 Kerners sehe ich auch nicht. Intels Stärke ist die Singlecore Performance, aber wenn die wirklich wichtig ist, dann greift man kaum zu einer CPU mit so vielen Kernen. Die 14nm Fertigung wird auch bei der Effizienz nicht mithalten können, den 3960X bekommt man damit bzgl. der Performance vielleicht ein- und sogar überholt, aber nur bei hohen Taktraten mit entsprechend absurder Leistungsaufnahme. Bei der Multithread wird man den 3970X und erst recht den 3990X aber sowieso nicht einholen, welchen Preis will Intel also damit gewinnen?Also intel gewinnt wohl kein Umwelt Preis, der ryzen 3970x bekommt immer noch mehr punkte
Auch im Review des Xeon Platinum 8280 sieht man wie DL-Boost die Performance steigern kann:
Schade das solche Benchmarks dann in den Reviews von TR und Rome fehlen, aber es gibt eben nicht nur Cinebench und entsprechende Anwendungen die von den Befehlserweiterungen profitieren, machen diese einen gewaltigen Unterschied. Faktor 10 ist da keine exotische Ausnahme, schaut euch an was die AES-INI Befehlserweiterung bei der Verschlüsselung für einen Unterschied macht.
Aber gerade bei solchen speziellen Anwendungen wird doch oft im Quellcode nachgebessert, damit auch andere Befehlssätze möglich sind - es sei denn, man schließt absichtlich eine Optimierung aus, weil man von einer bestimmten Firma gesponsort wird. Sowas kommt dann aber eher aus Richtung Intel - von AMD hab ich sowas noch nie gehört. Die haben auch nicht die Knete für solche Sauereien.Schade das solche Benchmarks dann in den Reviews von TR und Rome fehlen, aber es gibt eben nicht nur Cinebench und entsprechende Anwendungen die von den Befehlserweiterungen profitieren, machen diese einen gewaltigen Unterschied. Faktor 10 ist da keine exotische Ausnahme, schaut euch an was die AES-INI Befehlserweiterung bei der Verschlüsselung für einen Unterschied macht.
Ja ist doch gut, dann ist die Kapazität langfristig bei CPUs dann sicherer weil dann genügend vorhanden sind. Und wenn der Trend mehr zu gpu geht, wird auch da mehr optimiert. Dann gibt es ja auch in Zukunft mehr Hoffnung das immer mehr Anwendungen mit einer gpu benutzbar sind und nicht immer ne CPU. Das entlastet also langfristig die CPU. Also da kann der Nutzer ja nur am Ende gewinnen und davon profitieren. Also keine schlechte SacheAber gerade bei solchen speziellen Anwendungen wird doch oft im Quellcode nachgebessert, damit auch andere Befehlssätze möglich sind - es sei denn, man schließt absichtlich eine Optimierung aus, weil man von einer bestimmten Firma gesponsort wird. Sowas kommt dann aber eher aus Richtung Intel - von AMD hab ich sowas noch nie gehört. Die haben auch nicht die Knete für solche Sauereien.
Der allgemeine Trend in Rechenclustern geht aber sowieso in Richtung GPU.
Was super ist, denn dann hat die cpu mehr ressourcen freiJa aber nicht alle einsatzzecke werden sich gleichgut verbreiten. Also manche sachen werden auch in Zukunft schlecht bei dem Thema gpu abschneiden.