Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
...Und diese Tools waren im Bezug auf Verfügbarkeit nie wirklich weit verbreitet.
Ach da mach ich mir keine Sorgen! Da werden die üblich Verdächtigen aus dem Forum wieder ihr Dienste anbieten und als Dienstleistung köpfen und es wird auch geköpfte und vorgetestete CPUs geben.
Warum? Threadripper ist nichts anderes als ein multiplizierter R7, der wird nicht auf magische Art und Weise plötzlich viel höher takten, da muss man nichts abwarten. Threadripper ist aus meiner Sicht nur dann interessant, wenn man in großer Mehrheit Anwendungen nutzen kann, die konstant alle Kerne auslasten und sich so ein Leistungsvorteil gegenüber einer kostengleichen Intel CPU mit weniger Kernen ergibt. Viel Spaß dabei, bei mir geht die Rechnung im Leben nicht auf, aber wer's auslasten kann soll den gerne kaufen. Bei praxisnäherer Mischlast jedoch, wo immer mal wieder maximale Leistung auf wenigen Kernen erforderlich ist - nicht nur, aber insbesondere bei Leuten die auch Spiele zocken möchten - hat so eine relativ niedrig taktende Vielkern-CPU überhaupt keinen Vorteil. Da wird man schon @Stock gegen Skylake-X mit seinem Boost verlieren und im Max-OC vs. Max-OC Vergleich abstinken, um das zu sehen muss man jetzt wirklich keine Glaskugel besitzen. Also, da ich nach Leistung kaufen will ist die Sache bereits entschieden, sorry. Vielleicht schafft es AMD ja mit Zen 2 endlich mal Intel zu schlagen, falls man noch einige Optimierungen vornehmen und Global Foundries die Fertigung verbessern kann. Warum sollten sie keinen zweiten Versuch bekommen? AMD ist in all den Jahren nicht krepiert, obwohl es marktwirtschaftlich gesehen kein gutes Wort zu sagen gab, warum denn ausgerechnet jetzt, wo vergleichsweise wenigstens wieder ein bisschen Kohle fließt? Das wäre mal richtige harte IronieUnd generell sollte man auch als Intel Käufer zumindest auf AMD warten.
Die werden zum einen sicherlich schon welche in der Hand gehabt haben und zum anderen, wie gesagt: Wir kennen die Leistung doch im Prinzip schon, was erwartest du denn noch groß? IPC mäßig ändert sich fast nix, die Taktraten sind bekannt, OC wurde geleakt...Von der genialen Konkurrenz Computerbase wird in ihrer Prozessor-Rangliste Juni auch ganz klar der Skylake-X bei Prozessoren ab 400 Euro empfohlen, die AMD-CPUs wie Ryzen 1800X werden nur als Alternativen genannt.
Die empfehlen CPUs die noch nicht einmal zum Testen vorliegen ...
LoL,diese youtuber haben eben keine vergleichssysteme und ahnung. ich habe hier ryzen und intel. ryzen gönnt sich eine minute zum hochfahren, fährt manchmal nicht anständig hoch, usb 3 läuft nicht anständig, PCI läuft nicht anständig, pc hängt manchmal im herunterfahren screen..seit drei wochen warte ich auf neue AMD treiber oder ein biosupdate.
die youtuber haben keinen plan wie gut intel im vergleich zu ryzen läuft. diese ryzen vs. intel diskussion erledigt sich damit für mich, wenn der ryzen nicht auf das level von intel kommt.
Tja ich hatte einen Intel und hab jetzt einen Ryzen. Post dauert im Vergleich zum alten Z77 knapp 15 Sekunden länger. Booten bleibt gleich. Kann mir aber auch egal sein, da ich den Rechner selten runter fahre und nur im Standby lasse. Probleme mit USB 3.0 und 3.1 hab ich keine. Und was ist PCi?diese youtuber haben eben keine vergleichssysteme und ahnung. ich habe hier ryzen und intel. ryzen gönnt sich eine minute zum hochfahren, fährt manchmal nicht anständig hoch, usb 3 läuft nicht anständig, PCI läuft nicht anständig, pc hängt manchmal im herunterfahren screen..seit drei wochen warte ich auf neue AMD treiber oder ein biosupdate.
die youtuber haben keinen plan wie gut intel im vergleich zu ryzen läuft. diese ryzen vs. intel diskussion erledigt sich damit für mich, wenn der ryzen nicht auf das level von intel kommt.
Ich wette es wird auch wieder viele Leute geben die ihre 600 bis 2000€ Cpu köpfen. Warum auch nicht, mit den köpf tools geht auch zu 99% nichts kaputt.
Es gibt Leute, die möglichst billig kaufen wollen und genauso gibt es Leute, die bereit sind für mehr Leistung auch mehr Geld auszugeben. Beides ist legitim! Keine Ahnung, was Du damit bezweckst uns hier Preise aufzulisten. Wir sind glaube ich alle in der Lage die Preise selbst zu beurteilen.
Da möchte ich einwenden, was nutzen mir (relativ) günstige 12-18Kerner, wenn ich mit so vielen Kernen nichts anfangen kann?
Bei Intel bekomme ich die Kerne vom 7700K mit SKL-X als 6-10 Kerner. Es gibt ja screens von Cinebench, wo man sehr schön die Single Core Leistung bei 4,5Ghz vom 7700K und dem i9-7900X vergleichen kann und die einzelnen Kerne sind da gleich schnell.
Klar hört es sich besser an, wenn z.B. ein 12 Kerne ThreadRipper soviel kostet wie ein 8 Kerne SLX aber wer von beiden bringt mir in meinem Anwendungsprofil und im Alltag die bessere Leistung?
Jemand der in seinem Alltag viele Kerne auslasten kann findet den besseren Deal evtl. bei ThreadRipper aber das kann man nicht verallgemeinern.
Ryzen hat einen Nachteil bei dem Datentransfer, nur wenn dieser zwischen den beiden L3-Cache-Blöcken der beiden CCX über die Infnity Fabric genauer gesagt über die Data Fabric läuft.
Bei Zugriffen innerhalb desselben CCX sind Latenz und auch Datentransferrate Top.
Falsch. Ich versuche im Gegensatz zu so manch anderem hier unvoreingenommen zu sein und habe gar kein Interesse daran, irgendwen gut oder schlecht zu reden. Alleine schon deswegen, weil mir die Zeit zu kostbar wäre. Ich kritisiere aber Unsachlichkeit dort, wo es angebracht ist. Auch wenn das manche nicht kapieren (wollen) aufgrund ihrer sehr einseitigen Sichtweise. Oder eben auch Ironie nicht verstehen.
Theoretisch hat man immer einen Nachteil, wenn Daten über den L3 ausgetauscht werden müssen. Das ist bei Intel genauso wie bei AMD. Das hat nichts speziell mit den Ryzen CCX zu tun. Dort ist der theoretische Nachteil halt noch etwas grösser im Vergleich zum L3. Genauso wie das bei einem L4 der Fall wäre. Fakt ist, auch Intels L3 hat eine Latenz Penalty, und zwar wenn auf ein kernfremdes L3 Segment zugegriffen wird. Eine Konsequenz des bisherigen Ringbusses. Deshalb ist, wie bei anderen Sachen im Leben auch, Vorbeugung die beste Medizin. Es sollte also mMn in erster Linie nicht darum gehen, diesen theoretischen Nachteil zu kaschieren, mit besseren Sharing Mechanismen etc, sondern Software so zu designen, dass mit höchstmöglicher Lokalität und der bestmöglichen Ausnutzung dedizierter Caches gearbeitet wird. Alles weitere sollten dann clevere Prefetching Mechanismen der CPU übernehmen, so dass die Latenz des LLC eine untergeordnete Rolle spielt.
Doch, die gibt es sehr wohl. Das hat was mit der Grösse und der Anordnung der Daten zu tun. Ich weiss selbst, dass man beim Programmieren Strukturen und Arrays idR so definiert, wie sie am besten zur Logik der Anwendung passen. Ist nur leider nicht immer optimal für die CPU. Je nachdem wie auf die Daten zugegriffen wird. Und ein Compiler hat dann auch nur begrenzte Optimierungsmöglichkeiten.
Theoretisch hat man immer einen Nachteil, wenn Daten über den L3 ausgetauscht werden müssen. Das ist bei Intel genauso wie bei AMD.
Deshalb ist, wie bei anderen Sachen im Leben auch, Vorbeugung die beste Medizin.
Falsch. Ich versuche im Gegensatz zu so manch anderem hier unvoreingenommen zu sein und habe gar kein Interesse daran, irgendwen gut oder schlecht zu reden.
ein gutes design bringt nichts, wenn man als user ständig die bugs des ryzen um die ohren geschlagen bekommt...außerdem ist das ein intel threadMan muss einfach mal ein bisscehn weiter denken. Ryzen ist ein hervorragendes Design.
Figurativ beziehungsweise konkret ausgesprochen: Intel hat bessere Latenzen und keinen enormen Abfall an Bandbreite im Falle eines externen CCX Zugriffs
ein gutes design bringt nichts, wenn man als user ständig die bugs des ryzen um die ohren geschlagen bekommt...außerdem ist das ein intel thread
ja kann man machen, aber man nimmt eher flüssigmetall.Moin,
mal ne Frage: wenn die CPUs geköpft sind, was macht man dann? Irgendeine WLP drauf und den IHS wieder ankleben?
Nicht direkt. Nur bei Verwendung von 256-bit FMA. Und das auch nur theoretisch. Und wie viele Anwendungen unterstützen bitteschön 256-bit FMA?Das kommt ganz drauf an. Bei Verwendung von AVX2 ist ein Ryzen nur halb so schnell wie ein Kaby Lake.
Nicht so voreilig mit solchen Behauptungen. Ich merke selbst, dass x265 meinen Ryzen 6C/12T mit einer Instanz gar nicht richtig auslasten kann. Meinen 4C/4T Skylake schlage ich jedenfalls bei x264 mit ~50% bei gleichem Takt. Und das obwohl Ryzen hier auch nur zu ~70% ausgelastet ist. Also solange du mir keinen Nachweis zeigen kannst, dass der Ryzen mit 100% ausgelastet war, halte ich deine Behauptung aufgrund meiner Erfahrungen für fragwürdig. Lass doch mal mindestens 4, besser noch 8 x265 Instanzen parallel laufen. Dann sollte wirklich jeder Prozessor voll ausgelastet sein. Dann schauen wir nochmal, wer wen schlägt.Im Klartext: Ich schaffe mit 4.8 Ghz einen Ryzen mit 3.6 Ghz Allcore im x265 encoden zu schlagen.
Schön und gut. Aber ohne Auslastung sagt so eine Liste für mich nicht viel aus.Ist eine Liste aus dem 3dCenter.
x264/x265 ST vs. MT x64 CPU-Encoding Benchmark - Google Tabellen
Wie gesagt, das war ein selektiertes Exemplar, ohne AVX Last. Ich wette mit dir, dass du im Schnitt bei normaler Kühlung keine 5 GHz stabil schaffst. Gut selektierte Ryzen schaffen übrigens mehr als 4 GHz.Und es ist schon ein Wort, dass sich ein 10 Kerner auf 5 Ghz takten lässt. Bei Ryzen ist bei 8 Kernen schon bei maximal 4 Ghz Feierabend. Threadripper wird da kaum höher kommen.
Nein, das CCX Design hat auf Spiele keinen nennenswerten Einfluss. Wurde doch nun mittlerweile mehrfach bestätigt. Bei KBL steigt die Latenz oberhalb von 8 MB ja ebenfalls auf RAM Niveau an.Genauso ist es, hier halt Intel mit ihrem Design noch deutliche Vorteile, insbesondere in Spielen wo der Datentransfer zwischen den beiden CCX traditionell viel höher ausfällt als unter beispielsweise Cinebench, Wprime oder Renderingverfahren.
Doch. Schau dir vielleicht nochmal die von dir geposteten Diagramme an. Die L3 Latenz ist bei Ryzen etwas niedriger/besser.Wenn man die Zugriffszeiten an der Konkurrenz messen möchte dann nicht.
Kein Problem per se, nur ein Ryzen Spezifika. Ab gewissen Datengrössen fällt man immer in das nächsthöhere Cache-Level, was höhere Latenz und geringere Transferraten zur Folge hat. Am Ende fällt man in den RAM. Das ist bei Intel nicht anders als bei AMD. Das lustige ist ja, beim C2Q war das Design noch deutlich altmodischer, weil es nicht zwei Cluster plus Interconnect On-Die war, sondern zwei separate Dies, deren Kommunikation sogar Off-Package ging. Damals hat kein Hahn danach gekräht und wurde auch nie als Problem von den Intel Verfechtern gesehen. Bei Ryzen soll es aber ein Problem sein? Ergibt null Sinn.Ja, Kernexterner Zugriff hat immer eine höhere Latenz als Kernintern, ist klar. Ich wollte auch nicht sagen, dass dies nur bei Ryzen auftritt. ABER der drastische Abfall der Datentransferrate ist ein spezielles Ryzen CCX Problem.
Ich würde mal auf das letzte tippen. Ab einer gewissen Komplexität enden die Optimierungsfähigkeiten des Compilers. Hier ist immer noch der Programmierer gefragt, seinen Code möglichst sauber und effizient zu strukturieren.Compiler nehmen u.a. "Data Layout Optimizations" vor und dort werden z.B. die Anordnung oder die Größe modifiziert . Ich glaube du unterschätzt ein wenig wie viel Compiler da schon optimieren können oder ich überschätze einfach die Optimierungsfähigkeiten von Compilern
Nur weil jemand was in ein Forum schreibt, ist das für mich keine Bestätigung. Ich hätte schon gerne ein paar Auslastungsdiagramme.
Nur weil jemand was in ein Forum schreibt, ist das für mich keine Bestätigung. Ich hätte schon gerne ein paar Auslastungsdiagramme.
Kein Problem per se, nur ein Ryzen Spezifika. Ab gewissen Datengrössen fällt man immer in das nächsthöhere Cache-Level, was höhere Latenz und geringere Transferraten zur Folge hat. Am Ende fällt man in den RAM. Das ist bei Intel nicht anders als bei AMD. Das lustige ist ja, beim C2Q war das Design noch deutlich altmodischer, weil es nicht zwei Cluster plus Interconnect On-Die war, sondern zwei separate Dies, deren Kommunikation sogar Off-Package ging. Damals hat kein Hahn danach gekräht und wurde auch nie als Problem von den Intel Verfechtern gesehen. Bei Ryzen soll es aber ein Problem sein? Ergibt null Sinn.