Willkommen zurück: Ryzen Threadripper feiert mit 64 Kernen seine Wiedergeburt

Also ich hätte gern den 7945wx mit 2TB ram.
auf 4 Kerne verzichten aber 4 ram Riegel mehr reinstecken hat was =)
Was kosten 2TB RAM nochmal ?
Günstig sind nur die 64GB Module, die 128GB und die 256GB Module sind unverhältnismäßig teuer, so dass es sich für die meisten Aufgaben nicht lohnt, diese zu kaufen. Die 256GB Module sind nur als OEM Ware der Markenhersteller zu bekommen. Dell will nicht ganz €12k pro Modul. Die DDR5-4800 RDIMM 64GB Module gibt es für ca. €250 das Stück bei diversen Versendern.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Was genau ist eigentlich der Use Case, bei dem ein normaler Desktop nicht adäquat und ein Server drüber ist?
Na ja... nicht jeder, der viele Rechenkerne benötigt, will damit einen Server betreiben.

Es gab mal eine Zeit, da habe ich mir auch überlegt, für die Videoberechnung etwas stärkeres zu suchen. Allein die Preise haben das immer verhindert. Und als dann Grafikkarten immer bessere Videoberechnungen anstellten, bin ich weg vom CPU-Rendering.

Jetzt hab ich statt 12 CPU-Kernen nur noch 6 und die billigste Intel-Graka als Hauptrechenwerk für diese Aufgaben.
 
OK wusste nicht das inzwischen auch Intels so gut videoumwandeln kann. Dachte die bildqulität hänge hinten dran gegenüber nvidia. Aber auch bei nvidia kann man nur sehr eingeschränkt videos damit umwandeln. Gpu wird somit niemals ganz cpu unwandeln ersetzen können leider.
 
OK wusste nicht das inzwischen auch Intels so gut videoumwandeln kann. Dachte die bildqulität hänge hinten dran gegenüber nvidia. Aber auch bei nvidia kann man nur sehr eingeschränkt videos damit umwandeln. Gpu wird somit niemals ganz cpu unwandeln ersetzen können leider.
Das Problem aktueller GPUs ist, dass sie, um den Verkauf von Beschleuniger für sehr viel mehr Geld zu fördern, nur eine geringe Rechenleistung in double precision Format haben. Etliche Dinge erfordern aber double precision und diese lassen sich dann nur auf den CPU oder auf den Beschleuniger Karten (mit denen sich aktuell nVidia eine goldene Nase verdient) schnell rechnen. Wie das weitergehen wird, wird man sehen. ARM mit SVE und SVE2 implementiert einen Befehlssatz der bis zu 2048Bit breite SIMD Befehle erlaubt. Aktuell ist keiner aktuellen CPU eine so breite SIMD Einheit verbaut. Intel schafft es nur auf 512Bit, AMD und ARM nur 256Bit. 2048Bit erinnert stark an die klassischen Vektor-CPUs, die hatten so breite SIMD-Einheiten. Siehe z.B. NEC-SX Serie.
 
Das heißt Intel ist da genauso schnell wie nvidia und bei bildqulität nvidia überlegen oder nur gleich gut?
 
OK wusste nicht das inzwischen auch Intels so gut videoumwandeln kann. Dachte die bildqulität hänge hinten dran gegenüber nvidia. Aber auch bei nvidia kann man nur sehr eingeschränkt videos damit umwandeln. Gpu wird somit niemals ganz cpu unwandeln ersetzen können leider.
Intel ist in dem Punkt das Beste!
Ich hab alle drei Anbieter inzwischen durch.

Es begann bei mir mit AMD-Polaris (Pro WX 4100). Bei guter Ausgangsqualität waren die Videos in H.264 ziemlich gut. Bei weniger guten Filmen gab es zuviele Artefakte. Daher habe ich "damals" so halbe/halbe CPOU und GPU kodiert.

Dann kam Nvidia mit der RTX 3060. Die war schon deutlich besser und kodierte auch H.265 10bit. Aber auch hier mußte ich noch ein paar Filme über die CPU machen.

Jetzt habe ich die Intel Arc 380, und kodiere fast ausschließlich per GPU. In H.265 10 bit (ist hier wichtig, wegen des erweiterten Farbraumes, wo dann bspw. "Treppen" bei dunklen Farbverläufen fast ganz verschwinden) hab ich nie bessere Filme gesehen. Auch nicht per CPU, zumal die CPU-Encoder hier wirklich sehr langsam sind, während die GPU genauso fix kodiert wie in H.264. Ganz ohne CPU gehts nicht, denn Handbrake greift hier vor allem bei Videoeffekten (Entrauschen bspw.) auf die CPU zurück. Aber ich rechne keinen Film mehr ausschließlich auf CPU.

Ich kann jedem nur empfehlen, mal seine Grafikkarte dafür auszuprobieren. Ihr werdet überrascht sein, was da inzwischen geht. Man spart extrem viel Zeit, damit Strom und die Qualität ist sehr ansehnlich bis nahezu perfekt
 
Das Problem aktueller GPUs ist, dass sie, um den Verkauf von Beschleuniger für sehr viel mehr Geld zu fördern, nur eine geringe Rechenleistung in double precision Format haben. Etliche Dinge erfordern aber double precision und diese lassen sich dann nur auf den CPU oder auf den Beschleuniger Karten (mit denen sich aktuell nVidia eine goldene Nase verdient) schnell rechnen. Wie das weitergehen wird, wird man sehen. ARM mit SVE und SVE2 implementiert einen Befehlssatz der bis zu 2048Bit breite SIMD Befehle erlaubt. Aktuell ist keiner aktuellen CPU eine so breite SIMD Einheit verbaut. Intel schafft es nur auf 512Bit, AMD und ARM nur 256Bit. 2048Bit erinnert stark an die klassischen Vektor-CPUs, die hatten so breite SIMD-Einheiten. Siehe z.B. NEC-SX Serie.

Vielleicht verstehe ich dich hier falsch - aber war das nicht von so vielen Seiten gewünscht? Das man die normalen Desktop Grafikkarten eben in diesem Punkt nicht performen, damit der Anreiz sinkt sie für Aufgaben zu verwenden die das brauchen?
 
Vielleicht verstehe ich dich hier falsch - aber war das nicht von so vielen Seiten gewünscht? Das man die normalen Desktop Grafikkarten eben in diesem Punkt nicht performen, damit der Anreiz sinkt sie für Aufgaben zu verwenden die das brauchen?
Die normalen Grafikkarte haben eine deutlich reduzierte Anzahl an double precision Rechenwerken. Z.B. ist das Verhältnis bei einer RTX 4090 73,1 TFlops (SP) zu 1,1 TFlops (DP) d.h. 64:1. Bei der nVidia H100 SMX 66,9 TFlops (SP) zu 33,5 TFlops (DP) d.h. 2:1. Bei den älteren Grafikkarte war das Verhältnis noch ein anderes Bei 900 Serie waren es noch 32:1, bei der 700 Serie 24:1 und bei der 500 Serie waren es noch 8:1. Die große Ausnahme waren die wenigen nVidia GPUs, die auf den Beschleuniger Karten basierten z.B. die letzte war die Quadro GV100.

Bei AMD sieht das aktuell auch nicht besser aus. Z.B. RX 7900 XTX 93,39 TFlops (SP) zu 1,4 TFlops (DP) d.h. auch 64:1. Die letzte Grafikkarte bei der das Verhältnis 4:1 war, war die Radon VII. Die Instinct MI250X hat 47,9TFlops sowohl SP wie auch DP d.h. 1:1.
 
Die normalen Grafikkarte haben eine deutlich reduzierte Anzahl an double precision Rechenwerken. Z.B. ist das Verhältnis bei einer RTX 4090 73,1 TFlops (SP) zu 1,1 TFlops (DP) d.h. 64:1. Bei der nVidia H100 SMX 66,9 TFlops (SP) zu 33,5 TFlops (DP) d.h. 2:1. Bei den älteren Grafikkarte war das Verhältnis noch ein anderes Bei 900 Serie waren es noch 32:1, bei der 700 Serie 24:1 und bei der 500 Serie waren es noch 8:1. Die große Ausnahme waren die wenigen nVidia GPUs, die auf den Beschleuniger Karten basierten z.B. die letzte war die Quadro GV100.

Bei AMD sieht das aktuell auch nicht besser aus. Z.B. RX 7900 XTX 93,39 TFlops (SP) zu 1,4 TFlops (DP) d.h. auch 64:1. Die letzte Grafikkarte bei der das Verhältnis 4:1 war, war die Radon VII. Die Instinct MI250X hat 47,9TFlops sowohl SP wie auch DP d.h. 1:1.
Ja genau, aber grade das war doch von den Käufern so gewollt oder nicht?
 
@Rudi Ratlos
Also ich weiß das bei Intel es so war das Aufnahmen bzw das umzuwandeln bei niedrigeren Auflösung bzw nicht so hochwertige Intel schlechter als nvidia abgeschlossen hatte. Habe ja mal so ein direkt Vergleich, also nen direkt Vergleich gesehen gehabt. War ja ein Artikel online gewesen.
Ich wandle halt noch immer in 576i MPEG 2 ts zu h264 um.
Ich selbst habe zwar noch nie mit ner amd oder Intel gpu umgewandelt bzw nur halt mit der Intel onboard aber das überzeugte mich nicht. Auch dann mit ner Gtx 1650 und bei meinen besten kumpel habe ich es ausprobiert gehabt.
Da war die Geschwindigkeit gleich schnell gewesen.
Bei der Bildqualität war fast doppel so groß bei gleicher bildqulität oder bei gleicher Größe auf unterste bildqulität bei der CPU.
Und als ich da ein paar extra Einstellung einstellen wollte die bei neueren Software eingestellt hatte, dann stürzte die software aufeinmal ab.
Also irgendwas mag da nicht so. Optimal ist das alles nicht. Daurm bin ich bei CPU umwandeln geblieben.
 
@Latiose

Auch Grafikkarten entwickeln sich. Der Unterschied zwischen AMD Polaris und Nvidia Ampere (RTX 3xxx) war schon sichtbar. Intels Arc zu probieren, war ein für mich ein Schuß ins Blaue, aber er hat sich gelohnt. Wobei ich zu Beginn skeptisch war, da die Encodings in H.264 nicht ganz so gut ausfielen, wie die von Ampere (RTX 3060). Aber das Encoding in H.265 10bit hat mich echt vom Hocker gerissen! Da war ich dann auch bereit, die Treiberprobleme in Kauf zu nehmen, und ich freue mich schon auf die nächste Generation von Intel. Da ich die GPU nicht zum Spielen brauche, kann ich hier auch bewußt auf die "schlechtere" Grafikkarte setzen. Denn daß Intel hier noch deutlich hinterherhinkt, ist mir klar.

Ich hab auch mal kurz die AMD 7600 getestet. Aber da fehlte leider die Unterstützung seitens Handbrake, weswegen ich H.265 10bit nicht nutzen konnte. Also hab ich die Karte zurückgegehen lassen.

Für gelegentliche Desktop-Aufnahmen nutze ich auch hin und wieder die iGPU des Core i3 12100 auf dem anderen Rechner. Und auch die ist recht ansehnlich. Der nutzt übrigens dieselben Treiber wie die Arc A380, kann aber kein H.265 10bit.
Also ja, Intel ist in Sachen Videoencoding sehr gut aufgestellt!

In Sachen Geschwindigkeit waren Grafikkkarten immer schon der CPU überlegen. Aber auch qualitativ sind sie inzwischen sehr gut bei der Musik!

Mein Ausgangsmaterial ist meist 720p vom Satelliten (.ts H.264). Das kodiere ich dann nach dem Schnitt mit 3000kbit/s in Handbrake auf H.265 10bit um, ebenfalls 720. Dabei verkleinern sich die Dateien auf ein Drittel ohne daß das im Bild negativ auffällt.
 
Zuletzt bearbeitet:
ja gut für mich ist das halt so ne Sache.Könnte schon Intel GPU kaufen,dann stelle ich aber doch fest das es schlechter als unter GPU ist ,dann hätte ich es umsonst gekauft.Lieber nicht weil ich selbst verwende immer nur H264 und kein einziges mal H265.
 
Ähm @2k5lexi
bei Gelegenheit bitte einmal zeitnah einen Vorschlag für Threadripper-Office und einmal Threadripper-"BudgetGaming" ergänzen:
 
Die Glaskugel hätte ich auch gerne.
 
Intels 2011-3 war meine letzte HEDT, danach kam fast nur noch Müll bis halt die Threadripper, aber jetzt brauche ich soviel Kerne kaum noch. Lanes reichen mir mittlerweile auch, SLI ist tot und SSDs groß genug. ^^
Leider, war der Einzigste vorteil für mich damals einen 7800X von Intel gekauft zu haben da ich SLI getrieben habe mit.

Ist aber tot 😭
 
mir geht es nicht um SLI oder Crossfire, aber ich verwende mehrere GPUs parallel und da sind die neuen Plattformen auf 2 beschränkt, und in dem Fall auf 8 Lanes limitiert
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh