AMD Ryzen 3000: Acht Zen-2-Kerne mit PCIe 4.0 ab Mitte 2019

Wie ich es vor langer Zeit schon hier im Forum vermutet habe, bei manchen Brettern wird man PCIe 4.0 per UEFI-Update bekommen.

Bei den 300er Brettern erwarte ich aber keine Updates dafür, bei den 400er Brettern teilweise.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Welche 400er Boards würdest Du denn vermuten ?
Mein Neffe will ne Übergangslösung mit nem 2600er starten und braucht auch ein Board ...
 
Naja, wohl eher teurere, aber ich würde niemandem aufgrund einer Vermutung ein Board empfehlen.

Ich würde einfach ein B450 Board kaufen udn wenn PCIe 4.0 nicht geht, ist es auch kein Beinbruch.
 
Wie ich es vor langer Zeit schon hier im Forum vermutet habe, bei manchen Brettern wird man PCIe 4.0 per UEFI-Update bekommen.

Bei den 300er Brettern erwarte ich aber keine Updates dafür, bei den 400er Brettern teilweise.

alle bretter(B350/X370/B450/X470) mit 6-layer oder mehr sind kompatibel... liegt halt an den herstellern ob dies via biosupdate liefern... sämtliche A320 boards und die ganz billigen B350 dürften aussen vor bleiben(4-layer)
 
Alle X370/470 Bretter (und wohl auch einige B450, bei dem schneit es im Gegensatz zum B350 ja auch möglich zu sein) bei dem die 16 PCIe Lanes für die Graka teilbar sind, also vor allem die teuren Boards, dürften wegen der Umschalters der dafür nötig ist, wohl eher nicht PCIe 4.0 kompatibel sein. Da es besonders blöd ist wenn ausgerechnet die Kunden der teuren Boards schlechter dastehen als die der billigen Boards, dies fördert den künftigen Absatz der hochpreisigen Boards ja nicht gerade, dürfte die Hersteller eher geneigt sein generell keine alten Boards für PCIe 4.0 freizugeben, sondern dies nur bei neu erscheinenden Boards zu machen. Das spart dann auch Ärger mit den Kunden, wenn es dann doch Probleme gibt, zumal bisher ja kaum Hardware für die Validierung verfügbar ist.

Bzgl. der alten Sandy und Ivy Bridge sollte man nicht vergessen, dass es damals eine ganz neue Plattform war die auch erst einige Monate nach der Verabschiedung der PCIe 3.0 Spezifikation erschienen ist. AM4 ist viel älter also die PCIe 4.0 Spezifikation (AM4 erschien ja schon für Bristol Ridge) und nur die Boards mit 400er Chipsätzen sind neue als die finale PCIe 4.0 Spezifikation, womit die auch allenfalls bei denen schon berücksichtigt worden sein kann.

Aber so schlimm ist dies ja nun auch nicht, derzeit verliert selbst die RTX2080 an nur 8 PCIe 3.0 kaum Leistung, eine Verdoppelung der Bandbreite der Anbindung wird wohl noch weniger an Mehrleistung ermöglichen als die Halbierung an Leistung kostet. Bis Consumer SSDs mit PCIe 4.0 komme, dürfte es noch etwas dauern, schaffen es doch bisher nur die schnellsten Consumer SSD überhaupt mit einer Leserate von 3,5GB/s die bisherige PCIe 3.0 x4 Anbindung auszulasten.

Noch höhere Transferraten bedeuten aber auch noch mehr NAND Dies parallel anzusprechen, dies bedeutet mehr Leistungsaufnahme (beim für Consumer PCIe mit Abstand am meisten verbreiteten M.2 Formfaktor erlaubt der Slot aber nur etwas über 8W Leistungsaufnahme und Kühlung ist ja auch nicht bei allen Rechnern optimal gelöst. Dazu braucht man dann wohl auch einen stärkeren Controller um die Leistung zu erzielen, da aber dann auch mehr Strom zieht, außer man baut ihn in einem sparsameren Prozess, die NVMe Controller werden derzeit fast alle in 28nm Prozessen gefertigt. Die in 14nm zu fertigen wäre alleine beim Design sehr viel teurer, die kann sich Samsung mit seinen Stückzahlen und eigenen Fabs vielleicht leisten, aber kaum sonst ein Hersteller von SSD Controllern. Dazu kommt, dass die Kapazitäten natürlich auch groß genug sein müssen, damit überhaupt genug Dies vorhanden sind, die Diesize werden obendrein ja auch noch immer größer.

Bis also NVMe SSDs kommen die wirklich von PCIe 4.0 profitieren, wird es noch dauern und wirklich interessant um mehr NVMe SSDs anschließen zu können, wird es ja erst wenn dann auch SSD mit PCIe 4.0 x2 kommen, außer die neuen Chipsätze bekommen auch schon gleich PCIe 4.0 Lanes um da auch noch NVMe SSDs ordentlich anbinden zu können. Dies gilt auch für 10GbE NICs, die wird man nur an den Lanes der Chipsätze betreiben wollen.
 
Ich weiß auch wer neben der Spur ist. Und das ist ganz sicher nicht Holt, der einfach spekuliert hat, anstelle sich im Rudel einen darauf runterzuholen, wie geil denn AMD ist, wozu der andere Thread leider irgendwann verkam... Und wenn ich mir anschaue, wie das hier läuft, scheint es den gleichen Gang zu gehen. Man weiß quasi nix (gut, dass es ein 8C/16C ist, geht wohl aus dem gesprochenen Text hervor, allerdings stand das irgendwie nicht so groß auf dem Bild, wie es möglich gewesen wäre), aber trotzdem werden hier die ganze Zeit irgendwelche, technisch nicht begründbaren Lobgesänge angestimmt.
Zu diesem Thema Neue Horizonte: AMD zeigt Vega in 7 nm und EPYC der 2. Generation - Hardwareluxx seine Mutmaßungen zu äußern, ist darüber spekulieren. Doch hier wurde durch den bekannten User, dessen Namen nicht mehr genannt werden muss behauptet, AMD hätte geschummelt. Es ist also kein spekulieren, sondern eine Behauptung und Unterstellung.
Dazu möchte ich mal deine Worte bemühen.
...dass man im echten Leben schon ein paar Unterlassungserklärungen im Briefkasten hätte.
Gerüchte zu Navi zur CES und technische Daten der Ryzen-3000-Serie - Seite 6
Zudem klingt diese Behauptung und Unterstellung reichlich unüberlegt. Sollten es jetzt 16 Kerne gewesen sein, also 8 mehr als angegeben, würde kein Chiphersteller in dieser Welt es innerhalb von 6 Monaten schaffen, die gezeigte Leistung mit dieser gezeigten Leistungsnahmen, den Prozessor auf 8 Kerne zu stutzen und mit HT dieses gezeigte Ergebnis zu bringen.
Du argumentierst also falsch, denn es ist nicht spekulieren, sondern eine Unterstellung. Der User, dessen Namen nicht genannt werden muss, behauptet, AMD hätte mit der Aussage gelogen, dass es eine 8 Kerne + HT CPU war.
Weiter ist auffällig, dass dir zu dieser Unterstellung kein müdes Wort einfällt.
Weiterhin gilt, wer eine Aktion startet, ,muss auch mit einer Reaktion rechnen. Diese Unterstellung, AMD hätte bei der Präsentation gelogen, ist mehr als dreist und die Erklärung wie dieses Ergebnis zustande gekommen ist, ist intellektuell beschämend.
 
Weiter ist auffällig, dass dir zu dieser Unterstellung kein müdes Wort einfällt.
Weiterhin gilt, wer eine Aktion startet, ,muss auch mit einer Reaktion rechnen. Diese Unterstellung, AMD hätte bei der Präsentation gelogen, ist mehr als dreist und die Erklärung wie dieses Ergebnis zustande gekommen ist, ist intellektuell beschämend.

Intellektuell beschämend ist auch, sich wegen irgendwelcher Produkte, so dermaßen infantil in den Haaren zu liegen und auf einen User immer, und immer wieder einzutreten.

Die IT-Community wird sich nie ändern, ein Gegeneinander - immer.
 
Chrissssss
Hierbei geht es nicht um Produkte, sondern um die getätigten Aussagen über die Produkte. Es geht um Aktionen, die eben Reaktionen verursachen. Es geht um Behauptungen und Unterstellungen. Insofern weiß ich jetzt nicht, wie ich deine Aussage über Intellekt bewerten soll.
Zudem wäre es dann noch wünschenswert, wenn du dich auch für die User stark machen könntest, die von dem User, dessen Namen nicht genannt werden muss, als ahnungslos, Pipi Langstrumpf Theoretiker und schwachsinnige beurteilt werden.

Auch dir sei es doch möglich, diese Unterstellung, AMD hätte auf der Präsentation falsche Angaben gemacht, deine Meinung beizutragen. Warum konntest du dazu nichts schreiben?

Inhaltlich hast du nichts beitragen können. Dann mache ich das eben.
Der 9900K ist gerade mal 16% in CB 15 vor dem 2700K. Jetzt mit Zen 2 soll laut dem User AMD einen 16 Kerner ohne HT gebraucht haben um keine 2% schneller gewesen zu sein. Unlogischer geht es nicht mehr und dabei wird auch noch eine dreiste Unterstellung bemüht.
Intel Core i9-9900K i7-9700K im Test (Seite 2) - ComputerBase
 
Zuletzt bearbeitet:
sieht nich schlecht aus :)
8 kerne/16 threads die bei nur 75 watt mit intels 500 € flagschiff mit satten 50 watt mehr verbrauch gleichaufliegen. bei amd vermutlich locker dreistellig billiger... ich komme ja immer ewig mit meiner hardware aus, aber davon der hexcore reizt mich schon stark...
jetzt interessiert mich takt und oc-potential. wenn da noch ordentlich luft nach oben ist... :drool:

und wenn intel dann irgendwann in der lage ist zu kontern, schnallt amd einfach noch nen chiplet drauf :d
 
Zuletzt bearbeitet:
Mir geht es auch so. Ein Zen 2 Hexa reicht mir sicherlich 4-5 Jahre und noch 3 Tage länger. Bin gespannt was kommen wird. Ich gehe ja davon aus, dass wir Zen 2 früher sehen werden, als das was auf der CES gesagt wurde.
 
Alle X370/470 Bretter (und wohl auch einige B450, bei dem schneit es im Gegensatz zum B350 ja auch möglich zu sein) bei dem die 16 PCIe Lanes für die Graka teilbar sind, also vor allem die teuren Boards, dürften wegen der Umschalters der dafür nötig ist, wohl eher nicht PCIe 4.0 kompatibel sein. Da es besonders blöd ist wenn ausgerechnet die Kunden der teuren Boards schlechter dastehen als die der billigen Boards, dies fördert den künftigen Absatz der hochpreisigen Boards ja nicht gerade, dürfte die Hersteller eher geneigt sein generell keine alten Boards für PCIe 4.0 freizugeben, sondern dies nur bei neu erscheinenden Boards zu machen. Das spart dann auch Ärger mit den Kunden, wenn es dann doch Probleme gibt, zumal bisher ja kaum Hardware für die Validierung verfügbar ist.

Bzgl. der alten Sandy und Ivy Bridge sollte man nicht vergessen, dass es damals eine ganz neue Plattform war die auch erst einige Monate nach der Verabschiedung der PCIe 3.0 Spezifikation erschienen ist. AM4 ist viel älter also die PCIe 4.0 Spezifikation (AM4 erschien ja schon für Bristol Ridge) und nur die Boards mit 400er Chipsätzen sind neue als die finale PCIe 4.0 Spezifikation, womit die auch allenfalls bei denen schon berücksichtigt worden sein kann.

Aber so schlimm ist dies ja nun auch nicht, derzeit verliert selbst die RTX2080 an nur 8 PCIe 3.0 kaum Leistung, eine Verdoppelung der Bandbreite der Anbindung wird wohl noch weniger an Mehrleistung ermöglichen als die Halbierung an Leistung kostet. Bis Consumer SSDs mit PCIe 4.0 komme, dürfte es noch etwas dauern, schaffen es doch bisher nur die schnellsten Consumer SSD überhaupt mit einer Leserate von 3,5GB/s die bisherige PCIe 3.0 x4 Anbindung auszulasten.

Noch höhere Transferraten bedeuten aber auch noch mehr NAND Dies parallel anzusprechen, dies bedeutet mehr Leistungsaufnahme (beim für Consumer PCIe mit Abstand am meisten verbreiteten M.2 Formfaktor erlaubt der Slot aber nur etwas über 8W Leistungsaufnahme und Kühlung ist ja auch nicht bei allen Rechnern optimal gelöst. Dazu braucht man dann wohl auch einen stärkeren Controller um die Leistung zu erzielen, da aber dann auch mehr Strom zieht, außer man baut ihn in einem sparsameren Prozess, die NVMe Controller werden derzeit fast alle in 28nm Prozessen gefertigt. Die in 14nm zu fertigen wäre alleine beim Design sehr viel teurer, die kann sich Samsung mit seinen Stückzahlen und eigenen Fabs vielleicht leisten, aber kaum sonst ein Hersteller von SSD Controllern. Dazu kommt, dass die Kapazitäten natürlich auch groß genug sein müssen, damit überhaupt genug Dies vorhanden sind, die Diesize werden obendrein ja auch noch immer größer.

Bis also NVMe SSDs kommen die wirklich von PCIe 4.0 profitieren, wird es noch dauern und wirklich interessant um mehr NVMe SSDs anschließen zu können, wird es ja erst wenn dann auch SSD mit PCIe 4.0 x2 kommen, außer die neuen Chipsätze bekommen auch schon gleich PCIe 4.0 Lanes um da auch noch NVMe SSDs ordentlich anbinden zu können. Dies gilt auch für 10GbE NICs, die wird man nur an den Lanes der Chipsätze betreiben wollen.

also ich kann bei meinem B350 SLI/CF fahren mit doublerriser... habe schön die option im bios "1x 16x" oder "2x 8x" warum sollte es auch anders sein? der erste PCIe slot wird ja von der CPU gesteuert, nicht vom chipsatz.

brauche nur den da:
412feBhDgzL.jpg



zum thema PCIe 4.0 NVMe SSDs:
World's First PCIe 4.0 SSD Demo, Phison E16 Hits 4GB/s
 
Zuletzt bearbeitet:
und wenn intel dann irgendwann in der lage ist zu kontern, schnallt amd einfach noch nen chiplet drauf :d

Darum geht es (für mich) schon lange nicht mehr.
Diese 4,7 - 5,0 GHz sind schon sehr lange die Grenze des Machbaren. Es geht nur noch in die Breite.
Und jetzt endlich hat AMD es auf die Kette bekommen dort anzugelangen (okay, bisher Theorie. Aber wenn wir ehrlich sind, dann sieht es echt gut aus).
Mehr geht nicht, aber mehr muss auch nicht. 8c16t wird genau wie 2c4t irgendwann nicht reichen. Aber für alles Gewesene und für alles Aktuelle ist es (bis auf wenige Ausnahmen die mich persönlich nicht betreffen) Overkill. Bezahlbarer Overkill, wohlgemerkt.
Natürlich werden die beiden Unternehmen sich weiter in irgendwelchen Benches jagen und bekriegen. Das ist für den Gamer völlig wumpe. Das spielt nur noch für die wannabes eine Rolle, deren albernen Hirnausdünstungen ich nur sah weil man ignorierte Gestalten in Zitaten leider lesen kann. Ja die Konkurrenz hat gebraucht um zum Milliarden Giganten aufzuschließen. Aber die Konkurrenz war auch totgeglaubt und kurz vorm Verschwinden. Mit deren Mitteln so einen Kickstart hinzulegen finde ich beachtlich und werde es (wie geplant) weiterhin supporten.
Unsicher bin ich mir gegenwärtig nur bei meiner ursprünglichen Entscheidung mein prime X370 weiter zu nutzen. Wie weitreichend der Support für zen2 sein wird hinsichtlich der features - das weiß nur die Zukunft.
Im schlimmsten Fall wird 1600 samt Board weitervererbt, ich kenne noch Menschen mit sterbenden 2600K oder 4690K cpus ;D
 
@audioslave: anders als takt ist parallelisierbarkeit keine unbegrenzte und bedingungslose leistungssteigerung. das bringt immer nur da was, wo auch eine entsprechende threadzahl parallel abgearbeitet werden kann. und das lässt sich auch softwareseitig nicht pauschal und unbegrenzt steigern. aktuell sind wir aber noch in einem rahmen, der sicher zukünftig auch vernünftig in allen bereichen nutzbar sein wird, aber ob 32 threads im endkundensegment sinnvoll nutzbar werden solange zen2 (der die potentiell ohne weiteres hergibt) aktuell ist wird sich zeigen. aktuell sehe ich 12 threads als optimal und 16 threads als sinnvolles highend an. von daher find ich auch gut dass amd erstmal ein chiplet draufschnallt :) sollte die herstellungskosten schön niedrig halten und amd gesunde margen bescheren und dennoch ein griff nach der leistungskrone ermöglichen. im für die meisten user interesstesten bereich, den spielen dürften mehr kerne eher den gesamteindruck trüben, da mehr kerne meist zu weniger effizenz führen. hier sind stand heute vermutlich 16 threads mit höherem takt 32 threads mit niedrigerem takt klar überlegen. also wenn amd den "R7 3700X" mit einem chiplet raushaut, sollte der intel schon mächtig ins schwitzen bringen und amds entwicklungsbudget vernünftig anwachsen lassen :)
 
@Luebke: Leider ist Takt keine unbegrenzte und bedingungslose Leistungssteigerung, da die Taktsteigerung nicht unbegrenzt und bedingungslos geht.. man kann es drehen und wenden wie man will.
 
@audioslave: anders als takt ist parallelisierbarkeit keine unbegrenzte und bedingungslose leistungssteigerung

Kommt auf den Anwendung(sbereich), OS, Softwaredesign und Plattform und die Ressourcen an. Wenn du viele parallisierbare Tasks hast die ein Cluster mit hunderten von CPUs oder GPUs auslasten und das System nahzu beliebig skaliert werden kann: Systeme für BigData, Cloud Solutions, wisschenschaftliche Forschung und Analyse, Militärtechnik...

Bei Software von der Stange für den Heimanwender Rechner, die max 1-8 Threads unterstützt, braucht man keine Skalierbarkeit und 32 Threads. Zumindest haben dank AMD kleine Entwicklungsunternehmen die Möglichkeit bessere Arbeitsumgebungen zum günstigeren Preis zu bekommen: Konkurrenz belebt das Geschäft!

Wenn Software gut parallelisierbar ist und auf einer flexiblen Plattform steht, macht es (nahzu) null Unterschied ob ein Workload der auf 4 Threads ausgelegt ist auf der gleichen Architektur @2 Cores @4 GHz läuft oder @4 Cores @2 GHz von der Performance. Stellt sich eher die Frage nach der Lastverteilung und Preis des Systems.
 
Zuletzt bearbeitet:
Den Schwachsinn glaubst du hoffentlich selbst nicht.

Mein letze Antwort an dich, mir wird es ehrlich gesagt langsam zu blöd.

Wie du selber schon weiter unten geschrieben hast, "nicht unmöglich"
Um den anderen den Rest zu ersparen pack ich es in einen Spoiler

Holt mag zwar nicht immer recht haben, aber er hält sich an die Regeln einer ordentlichen Diskussion (zumindest meistens) und geht auf Argumente ein. Leider versucht ihm niemand mit Argumenten beizukommen, sondern es wird hauptsächlich Schutz im Rudel gesucht.
Wenn man mit ihm einer Meinung ist mag das sein, aber wehe wenn nicht, dann landet man auf Ignore weil er keine Kritik verträgt.
Du scheinst ähnlich bei der Bewertung von seinen Beiträgen vorzugehen, Kopf in den Sand und so.

Ja, Zen hat schon vorher ~85% der Leistung des i9 erreicht. Dabei allerdings auch etwas mehr gebraucht. 30% weniger Leistungsaufnahme hatte man dann bei etwa 75% der Leistung. Jetzt hat man ~20% mehr Leistung und 30% weniger Energieverbrauch demonstriert. Die Frage ist jetzt, wie man das erreicht hat - a) Takt, b) IPC, c) mehr Kerne im Sweetspot oder doch klassisches d) "aber das Mainboard haben wir nicht genannt".
a) den Takt wird man nicht weit über 20% steigern können (5GHz+- sind bei den meisten CPU-Herstellern auf Siliziumbasis das Ende der Fahnenstange), dass dann allerdings gleichzeitig die Leistungsaufnahme überhaupt zurückgeht, darf man im Hinblick auf bisherige Entwicklungen (man betrachte mal die Volllast-Verbräuche von Nehalem bis Skylake) stark bezweifeln.
b) IPC steigern. 30%? Ich behaupte, wenn man die CPU nicht auf den Cinebench optimiert hat, relativ unmöglich, ist auch in den letzten 20a nicht geschehen. Wenn AMD das geschafft hat, hätten sie aber auch einfach die Zahlen auf den Tisch legen können, das könnte ihnen nämlich niemand von heute auf morgen wegnehmen.
c) mehr Kerne im Sweetspot: geht recht einfach. Sehr einfach. Wäre natürlich dann am Ende etwas blöd, wenn dann die 8Kern-X-Version doch so viel braucht, wie der i9-9900K, aber nachdem man sich in normalen Regionen bewegt, wird das niemanden interessieren.
d) mein Favorit: etwas mehr IPC (5-10%), etwas mehr Takt (5-10%), ein Mainboard, das auf sparsam getrimmt wurde. Auch dann wird man vermutlich den (dann dann bald 1a auf dem Markt befindlichen) 9900 nur bei gleichem Stromverbrauch deutlich schlagen, hat aber nicht "geschummelt" und definitiv ein solides Produkt. Problem: hätte man das so den Leuten erzählt, würde niemand noch darauf abfahren, keine tolle PR .
Und das ist an der ganzen Sache auch etwas komisch. Wäre man wirklich gut am Markt platziert, wüsste ich nicht, warum man nicht die Taktraten veröffentlicht. Denn eigentlich kann es ja nur besser werden! Meiner Meinung nach ein Indiz, dass man vmtl. einfach an die Grenzen der Technik stößt. Mehr als 20% Mehrleistung wird es vmtl. selbst bei starker Takterhöhung eh nicht mehr werden (~4GHz wird das ES ja haben, außer man geht in Richtung 6GHz), da ist man dann allerdings auch ganz schnell bei parallel dazu steigenden Verbräuchen.

Vllt. sollte man sich einfach mal damit zufrieden geben, dass Silizium-CPUs weitgehend ausentwickelt sind. Man kann sie jetzt noch in die Breite skalieren, aber so wirklich braucht das niemand (außer im Cloud/HPC-Serverbereich), AMD bringt halt jetzt auch noch seine 5GHz-CPUs mit nochmaliger IPC-Verbesserung und zieht mit Intel gleich. So wirklich spektakulär ist das alles nicht. (siehe auch #147@Hyrasch). Das einzig spannende ist eigentlich, wie man immer mehr Kerne für's gleiche Geld bekommen wird und das läuft (zumindest am Desktop mit entsprechenden Taktraten) ja auch schon gegen eine Grenze.

85% der Leistung und etwas mehr (etwas!) Stromverbrauch mit einem Prozess, der für High Performance garnicht gedacht ist, während Intel ihren eigenen Prozess entwickelt haben... seh jetzt nicht was an der Leistung so schlecht ist.
Außerdem hat man mit dem ES des Zen 2 Ryzen die gleiche Leistung wie der 9900k erreicht (zumindest bei Cinebench) bei ~30% weniger Stromverbrauch.
Wie man das erreicht hat?
IPC + Taktsteigerung, Ersteres durch Anpassungen ander Architektur und Letzteres durch den Fertigungsprozess, warum suchst du ein Haar in der Suppe wenn es doch keins gibt.
Dann kauf weiterhin Intel und freu dich nen Ast daran.

zu a): Hat hier irgendjemand was von 20% mehr Takt geschrieben? Hat irgendjemand was von über 5Ghz bei der ersten Iteration von 7nm geschrieben? Hat hier irgendjemand behauptet, dass trotz mehr Leistung der Verbrauch zurückgeht?
NEIN! NEIN! und NEIN!
Mit 7nm bekommt man entweder ~>25% mehr Leistung bei gleichem Stromverbrauch oder 50% weniger Stromverbrauch bei selber Leistung + 2x Packdichte
Schaust du dir überhaupt Infos an bevor du etwas behauptest oder gilt das immer nur für einen Hersteller https://image.slidesharecdn.com/amdnexthorizonfulldeckaspresented2-final-181107064151/95/amd-next-horizon-40-1024.jpg?cb=1541572990
Ich erkenne gewisse Ähnlichkeiten mit Holt.
zu b): Wieder behauptest du etwas das NIE so geschrieben wurde, das höchste was jemals in Bezug auf IPC genannt wurde waren 15%! bei "Scientific Tasks"
zu c): Was spinnst du dir da eigentlich zusammen? 8x Zen 2 Kerne vs 8x Coffee Lake Kerne Ergebnis = gleiche Leistung bei 30% weniger Verbrauch, was hat das mit mehr Kerne im Sweetspot zu tun (die werden auch kommen nur nicht im Desktop Bereich sondern bei Noteboosk)
zu d): Langsam solltest du deine eigene Signatur befolgen, jetzt ist es keine 16 Kerner CPU mehr die AMD gegen den 9900k antreten hat lassen sonder das Mainbaord war einfach viel sparsamer? Mir fehlen die Worte
Warum man nicht alles veröffentlich hat? Kann mehrere Gründe haben
1. Ryzen 3000 ist noch nicht final, deshalb wars ja auch ein Engineering Sample und der Release ist im Gegensatz zu den vorherigen Ryzen paar Monate später
2. Man will der Konkurrenz nicht alles preisgeben.

20% Mehrleistung ist schon noch möglich, nur die Frage wie.
Zen ist noch recht Jung, mit Verbesserungen an der Architektur kann man noch einiges rausholen
Dann 7nm, die Fertigungsprozess davor (14 und 12nm) sind Low Power Prozess und nicht auf High Performance ausgelegt, dementsprechend wäre da auch einiges Möglich.
Bei Intel siehts anders aus, die entwicklen ihre Nodes + Arch füreinander klar, dass man da nicht ganz so viel erwarten darf (sozusagen von High Performance node auf High Performance node statt Low Power Node auf High Performance wie bei AMD)

Das war extrem-OC? Oder wurde das Teil gegen einen Mainstream-Prozessor gebencht.
Und wurde natürlich auch so kommuniziert... oh wait.
Lustig, AMD wird von dir und Holt ****** unterstellt mit absolut hirnrissigen Theorien, aber Intel darf die Kunden dreist und offenstlichlich verarschen (das nächste mal war ja schon bei dem 9900k Pre Test)

Argumente wie: AdoredTV hat aber gesagt?
Welche Arguemente habt denn ihr gebracht?
AdoredTV lag schon öfter richtig, also vertrau ich dem mehr als einem notorischen AMD Hater ;)
Seine Theorien ergeben Sinn und die Leaks gibt er nur weiter wenn er sie für halbwegs realistisch hält, ob man denen am Ende glaubt ist doch dein Bier und nicht seins.

??? er hat a) keinen Mist verzapft und b) waren das durchaus plausible Vermutungen.
Nein er verzapt oft Mist (zumindest wenn es um AMD geht), das tust du die letzten Seiten leider auch.
Außerdem hab ich schon geschrieben, dass Holt auch anders kann, nur darf es dann halt nicht um AMD gehen.

Hilf mir einfach mal beim Vergleich? Gerne auch per PN. Wirklich unrealistische Dinge behauptet er eben nicht. Es gibt eben noch einen Unterschied zwischen physikalisch möglichen Welten und den Traumwelten, in denen man einfach mit jedem Kern den Takt noch erhöht.
Dafür brauchts keine PN, ich geb dir noch nen letzten Tipp:
Bei AMD ist alles negativ und unmöglich, bei Intel ist alles super und funktioniert (überspitzt ausgedrückt) wenn du das in seinen Posts nicht erkennst, setz mal die eigene Brille ab ;)

ps. Ich glaube selber, dass wir mit der derzeitigen Halbleitertechnik kaum 6Ghz erreichen werden, soviel zu unrealistischen Erwartungen die ja hier ständig geschürt werden.

Gut, dann sind die Leute eben dumm. Sie sind auf jeden Fall nicht in der Lage, deutsche Sätze vollständig zu erfassen. Und das ist iwie schon ein bisschen nervitg, wenn man dann noch unter jeden Beitrag, den man gar nicht verstanden hat, seinen gleichen Senf postet, den man aus irgendeinem Youtube-Video kopiert.
Ok, wenn das so ist, du bist auch dumm, weil du es einfach nicht kapieren willst und lächerliche Behauptungen ala Holt hier schreibst und jetzt?
Wenn Rechtschreibung das letzte Argument das man bringen kann ist, sollte man lieber aufhören, denn dann wurde man in die Ecke gedrängt und Fehler eingestehen kann man auch nicht.
Nenn doch mal das Kind beim Namen wer hier dumm ist und wer so eine schlechte Rechtschreibung hat und "unter jeden Beitrag, den man gar nicht verstanden hat, seinen gleichen Senf postet, den man aus irgendeinem Youtube-Video kopiert."

Ja. Es war auch extrem unwahrscheinlich. Aber nicht unmöglich .
Genauso wahrscheinlich könnten die Leaks von AdoreTV wahr sein... nicht unmöglich ;)

Das wars jetzt mit der Diskussion mit dir wenn wieder so ein Nonsense das nächste mal kommt, mir ist dann die Zeit zu schade und ich bin kein Mensch, der jemanden ignoriert (meine Ignoreliste ist blank obwohl es einige verdienen würden).
 
Zuletzt bearbeitet:
Also ich hatte geschrieben das Andtech drei Möglichkeiten angeführt hat wie diese Ergebnis zustande gekommen sein kann und dazu eine vierte möglich Erklärung genannt:
Wer daraus eine Behauptung macht ich hätte Unterstellt das AMD geschummelt hat, ist ein Troll und Faktenverdreher vo dem Herrn. Es könnte geschummelt und eine CPU mit mehr Kernen genutzt worden sein, im Bild seht man nur die Gesamtauslastung der CPU, aber nicht wie viele Kerne sie hat. Oder gibt es aus der Aussage von Lisa noch etwas was beweist das es ein 8 Kerner war?
 
@Holt:
Bitte nur JA/Nein - Antwort
und bitte keine Abhandlungen.
Glaubst Du, dass AMD bezüglich der Kernanzahl geschummelt hat?

Danke
 
... im Bild seht man nur die Gesamtauslastung der CPU, aber nicht wie viele Kerne sie hat. Oder gibt es aus der Aussage von Lisa noch etwas was beweist das es ein 8 Kerner war?

Man sieht wie der Cinebench mit 16 Threads berechnet wird. Aber klar, auch das könnte ein geschummeltes Video oder so sein. Die Einblendung des Verbrauchs ebenso. Aber es sind auch schon einige Unternehmen böse auf die Nase gefallen mit geschummelten Live-Demos. Wenn man alles hinterfragen möchte, wird man nie beweisen können, ob eine Demo auf der Bühne nun "echt" war oder nicht.
 
Zuletzt bearbeitet:
8 Kerne 16 Threads Aussage, wer immernoch an ne Verschwörung glaubt, naja....

Twitch-Clip
 
Konnte man bei beiden CPUs in Cinebench Rendering die Ratio sehen?

Über die Ratio könnte anhand des 9900K eines 2700X und des Ryzen 3xxx eine Nährung oder Bereich des Taktes eingrenzen.

Beispiel:

Intel Core i9-9900K @4.7 Ghz
Points 2040
Average Points per Core 195 (Single) = Ratio 10.46

AMD Ryzen 2700X @4.05 Ghz
Points 1800
Average Points per Core 167.5 (Single) = Ratio 10.75

AMD Ryzen 3xxx @x.xx Ghz
Points 2057
Average Points per Core 196 (Single) = Ratio 10.49

---

Annahme A) Zen2 +17% IPC zu Zen(+)
AMD Ryzen 3xxx @4.050 Ghz
Points 2057
Average Points per Core 196 (Single) = Ratio 10.49

---

Annahme B) Zen2 +15% IPC zu Zen(+)
AMD Ryzen 3xxx @4.125 Ghz
Points 2057
Average Points per Core 192.625 (Single) = Ratio 10.68

---

Annahme C) Zen2 +10% IPC zu Zen(+)
AMD Ryzen 3xxx @4.455 Ghz
Points 2057
Average Points per Core 184.25 (Single) = Ratio 11.16

---

Annahme D) Zen2 +5% IPC zu Zen (+)
AMD Ryzen 3xxx @4.677 Ghz
Points 2057
Average Points per Core 175.875 (Single) = Ratio 11.69

---

Intels IPC ist in Cinebench 4% höher Clock-to-Clock @3.5 Ghz gegenüber Zen+.

Die AMD CPU muss irgendwo zwischen 4.05 GHz Best Case und 4.2 Ghz Worst Case gelaufen sein, bei einer IPC Steigerung von ~ 15% (+/- 2%) gegenüber Zen(+). Der Rest lässt sich ableiten. Den Turboboost habe ich vernachlässigt bei Beiden.
 
Zuletzt bearbeitet:
Dieser "Be trug" würde spätestens bei unabhängigen Tests rauskommen und dann?
So dumm kann kein Mensch sein.
 
Zuletzt bearbeitet:
Via Milchmädchenrechnung komme ich auf 22,5W/8core-die@2,35GHz + smt. Das 2 mal ergibt 45W @16 Kerne @ 2,35GHz + smt. Abzüglich smt bleiben noch 35-40W. Damit man dann auf 75W kommt muss man den Takt "leicht" erhöhen auf ~3,5GHz. Wie soll man so "nur" 2057 Punkte erreichen? Noch dazu hätte das Ding dann 64Mb L3§, was noch zusätzlich beschleunigen würde. Mehr als 8 Kerne machen hier einfach 0 Sinn.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh