AMD Ryzen 3000: Acht Zen-2-Kerne mit PCIe 4.0 ab Mitte 2019

Nein, hat man nicht, weil 10nm ohne EUV geplant wurde, was nicht funktioniert.
Doch, es funktioniert - nur nicht in der Qualität, die Intel benötigt.

Ich gehe davon aus, dass Intel noch 10nm-Produkte für den mobilen Sektor bringen wird - die allerdings Taktprobleme haben werden. Deswegen wird davon nix im Desktop ankommen. Mit maximalen 3GHz gewinnt man eben keinen Blumentopf.

Der Desktop wird weiterhin von Intel-Produkten in 14nm geflutet - mind. bis 2021. Nach der Wettbewerbverzerrung aus Athlon-Zeiten durch Intel ist das nur gerecht und lässt sich wohl am besten mit "Karma" umschreiben.

So lange müssen die armen Intel-Fanboys weiter leiden und große Unsummen zur Lebenserhaltung beitragen. :fresse:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
So lange müssen die armen Intel-Fanboys weiter leiden und große Unsummen zur Lebenserhaltung beitragen. :fresse:

Oder auch frei nach Michael Sailer: "Eure Armut kotzt mich an"
Solange die 14nm Produkte von Intel noch immer eine bessere Effizienz, sowie Leistung pro Core haben, gibt es einen sehr grossen Markt dafür.

Wieso sollte jemand einen Dacia kaufen, wenn er sich einen Mercedes leisten kann und die Vorteile auch täglich nutzen kann? Schliesslich komme ich auch mit dem Dacia ans Ziel.
 
Solange die 14nm Produkte von Intel noch immer eine bessere Effizienz, sowie Leistung pro Core haben, gibt es einen sehr grossen Markt dafür.
Und solange die AMD 7NM Produktion eine besser Effizienz und eine bessere Leistung pro Core haben werden, wird der Markt groß sein dafür. ;)

Man kann doch nicht ernsthaft annehmen, dass Intel, um konkurrenzfähig zu sein kein neues Fertigungsverfahren benötigen wird. :confused:
 
Zuletzt bearbeitet:
Doch, es funktioniert - nur nicht in der Qualität, die Intel benötigt.
Also wenn bei 100% der APUs die iGPU defekt ist, kann man den Prozess nicht als funktionierend nach normalen Maßstäben bezeichnen!


Solange die 14nm Produkte von Intel noch immer eine bessere Effizienz, sowie Leistung pro Core haben, gibt es einen sehr grossen Markt dafür.
Das wird aber nicht so sein!
 
Ich war nicht wirklich enttäuscht von der Leistung der Ryzen 1000 Serie, sondern ich hatte extreme Probleme mit Treibern, mini Ruckler/Frame drops in Games, viele Bluescreens und das sich das System nach ein paar Wochen immer weiter verlangsamt hatte, so das ich Windows immer wieder neu installieren musste. Früher zu den anfangszeiten von Ryzen wo ich die beiden Systeme hatte, waren die Treiber noch lange nicht auf dem niveau wie sie jetzt zu sein scheinen. Daher war ich maßlos enttäuscht von AMD Ryzen 1000. Ich hatte aber früher schon ein paar mal geschrieben warum ich nicht zufrieden war. Deswegen mag ich AMD jetzt nochmal die Chance geben mich als Kunden zu überzeugen. Frag mich was da dein Problem bei ist ? Fühlst du dich angegriffen nur weil ich früher mit der ersten Gen nicht zufrieden war ? :confused:
Muss ich verpasst haben. Ryzen hab ich seit Mai 2017. Und außer das die Chipsstztreiber riesig waren, hab es keine Probleme. Oh doch je nach UEFI liefen meine 2800er DR mit 2400 MHz. Statt 2666.
 
Wieso sollte jemand einen Dacia kaufen, wenn er sich einen Mercedes leisten kann und die Vorteile auch täglich nutzen kann? Schliesslich komme ich auch mit dem Dacia ans Ziel.

Willst du die Kluft als Vergleich nicht noch größer machen? So hinkt der doch arg.

Vergleich eher wenn du schon nen Benz nehmen willst nen C63AMG(AMD) gegen nen C63von Brabus(Intel).
Der Brabus ist 10%stärker und schneller, kostet aber fast doppelt so viel.

Bei dem Vergleich passt das schon besser.

Wenn man umbedingt nen schwachsinnigen Autovergleich auspacken muss.


Gesendet von meinem CLT-L29 mit Tapatalk
 
Solange die 14nm Produkte von Intel noch immer eine bessere Effizienz
Bessere Effizienz? Nö.

sowie Leistung pro Core haben, gibt es einen sehr grossen Markt dafür.
Der Markt ist der gleiche. Du meinst vielleicht die Nachfrage.

Wieso sollte jemand einen Dacia kaufen, wenn er sich einen Mercedes leisten kann und die Vorteile auch täglich nutzen kann? Schliesslich komme ich auch mit dem Dacia ans Ziel.
Also mit einem Dacia hätte ich Intel jetzt nicht verglichen, aber man sieht ja an den Verkaufszahlen, was es Intel bringt. So viel "Vortiel" gibt es da nämlich nicht mehr, der den Aufpreis rechtfertigen würde.

Und jetzt schaust du nochmal in den Threadtitel, wo was von "Ryzen 3000" steht, der den 9900K in Cinebench bei weniger Verbrauch deklassiert.
 
Solange die 14nm Produkte von Intel noch immer eine bessere Effizienz, sowie Leistung pro Core haben

Begrenzt du die Intel auf ihre TDP von 95W (so wie AMD es mit ihren RyZen bei 105W auch macht), so ist der Vorsprung denkbar klein. Lässt du den Intel gemäß der Boardhersteller von der Leine, ist die Effizienz kacke. Such dir was aus... Aber bessere Effizienz + deutlich mehr Leistung? Nö ;)
 
Wird mein Noctua NH-D15 SE-AM4 vermutlich für den Z2 mit 16 Kernen reichen? :-) Werde mir denn wahrscheinlich auch direkt zulegen. Preislich dürfte der wohl bei um die 600 Euro landen, oder?
 
Zuletzt bearbeitet:
Kein Mensch kann derzeit seriöse diese Fragen beantworten, warte bis die RYZEN 3000 erscheinen und damit auch die Reviews davon.
 
Der Noctua reicht um einen Vulkan zu kühlen. Sollte Also passen.
 
Wird mein Noctua NH-D15 SE-AM4 vermutlich für den Z2 mit 16 Kernen reichen? :-) Werde mir denn wahrscheinlich auch direkt zulegen. Preislich dürfte der wohl bei um die 600 Euro landen, oder?

...

5 Monate vor dem Launch bereits schlaflose Nächte :d

...
 
Der Noctua reicht um einen Vulkan zu kühlen. Sollte Also passen.

Das will ich sehen , der noctua schmilzt weg xD.

@tackleberry

der Noctua wird reichen er reicht für ne TDP Um die 250 watt , der 16 kerner wird wahrscheinlich maximal 180 Watt tdp haben.
 
wer einen der besten (wenn nicht den besten) luftkühler (für consumer) einsetzt sollte sich keine sorgen machen müssen.
wenn der NH-D15 nicht reicht, wie soll dann der rest der welt die CPU betreiben?

wakü und ohrenbetäubende serverlösungen würden den markt doch stark einschränken.
 
Bessere Effizienz? Nö.

De facto sind die 14nm CPUs effizienter als deren 12nm Pendants von AMD. Hier ganz gut zusehen anhand eines Tests, wo ein auf 95w limitierter 9900k getestet wurde.
Der 9900k liefert eine vergleichbare Leistung zum 2700x und genehmigt sich dabei so ~10 weniger Strom.

Wie sich das dann bei Zen2 in 7nm verhält, werden wir in Zukunft sehen.


Und jetzt schaust du nochmal in den Threadtitel, wo was von "Ryzen 3000" steht, der den 9900K in Cinebench bei weniger Verbrauch deklassiert.

Ihr geilt euch an einem Cherrypick von AMD auf..
Wir wissen doch alle, dass Cinebench eine Paradedisziplin von AMD ist.

Wenn es danach geht, dann kann ich dir solche Cherrypicks ich dir auch auf Intel Seite geben und zwar wenn AVX-Workloads betrachtet werden, denn da ist Intel deutlich schneller und effizienter als AMD. Vergleich dazu einfach die AVX-Workloads aus oben verlinkten Test oder dem hier.
 
De facto sind die 14nm CPUs effizienter als deren 12nm Pendants von AMD. Hier ganz gut zusehen anhand eines Tests, wo ein auf 95w limitierter 9900k getestet wurde.
Der 9900k liefert eine vergleichbare Leistung zum 2700x und genehmigt sich dabei so ~10 weniger Strom.

Was ich am verlinkten Test noch viel interessanter finde:
Schaut man sich nicht nur die Leistungsdifferenz des 9900K an (die liegt immer um etwa 10%), sondern auch die Leistungsaufnahmedifferenz (die liegt deutlich höher als 10%), so merkt man erstmal wie nah am Limit bzw. wie weit weg vom Sweetspot Intel mittlerweile ist. Sowohl der 2700X als auch der 9900K (ohne TDP Limit) laufen sehr nah an der Kotzgrenze. Alles natürlich auf Anwendungen bezogen, bei Spielen sieht die Welt anders aus. Ich würde, sofern ich den 9900K hätte, gerne auf die 10% Leistung verzichten und die 95W TDP nehmen. Da bleibt der PC deutlich kühler.

Und zuletzt sollte man sich vor Augen halten wie aggressiv AMD den 2700X (für Anwendungen) im Markt plaziert hat. Für die 10W Mehrverbrauch und die 10-15% weniger Leistung kostet die Cpu mal eben 180€ weniger (500 vs. 320) als der 9900K. Natürlich immer auf die Spec bezogen, also beim 9900K mit TDP Limit.
 
Zuletzt bearbeitet:
Ihr geilt euch an einem Cherrypick von AMD auf..
Wir wissen doch alle, dass Cinebench eine Paradedisziplin von AMD ist.



Nein, CB ist auf Intel optimiert. Was du sicherlich auch weißt.
 
Nicht im CB Multi-threaded. Aber genau darauf bezieht es sich hier, wie man anhand der Punktezahl leicht erkennen kann. Was du sicherlich auch weißt.
 
Ah ja ST ist CB für Intel optimiert aber MT nicht. Ergibt Sinn. Und AMT läuft ja auch in anderen Programmen bei Amd leicht besser.
 
Was ich am verlinkten Test noch viel interessanter finde:
Schaut man sich nicht nur die Leistungsdifferenz des 9900K an (die liegt immer um etwa 10%), sondern auch die Leistungsaufnahmedifferenz (die liegt deutlich höher als 10%), so merkt man erstmal wie nah am Limit bzw. wie weit weg vom Sweetspot Intel mittlerweile ist. Sowohl der 2700X als auch der 9900K (ohne TDP Limit) laufen sehr nah an der Kotzgrenze. Alles natürlich auf Anwendungen bezogen, bei Spielen sieht die Welt anders aus. Ich würde, sofern ich den 9900K hätte, gerne auf die 10% Leistung verzichten und die 95W TDP nehmen. Da bleibt der PC deutlich kühler.

Ich persönlich würde es auch begrüßen, wenn die CPUs näher am Sweetspot getaktet ausgeliefert werden oder dass der Boosttakt auch wirklich so wie vorgesehen gefahren wird und nicht als Standardtakt, der die ganze Zeit anliegt. Man sollte dem Nutzer die Wahl lassen, inwiefern er bereit ist Effizienz für mehr Leistung zu opfern.



Nein, CB ist auf Intel optimiert. Was du sicherlich auch weißt.

Ist ja cool, wenn das so ist. Nur meine ich das nicht..

CB ist ein Paradebeispiel für AMD, weil dieser sehr gut über Kerne/Threads skaliert und kaum von höheren Latenzen bei RAM sowie den Caches negativ beeinflusst wird. Auch hat NUMA kaum Einfluss auf die Performance.

Aber so rein aus Interesse, wie wurde CB denn auf Intel optimiert?
Und warum sollten diese Optimierungen nicht auch etwas bei AMD bringen?
 
Jop, so ein richtiger Kurzzeit-Turbo wäre klasse. Derzeit verarscht man damit ja nur die Kunden, indem 95W draufsteht aber nicht 95W drin ist.

Was CB angeht: Evtl. mit einem Intel Compiler kompiliert?
 
Mir ist das hier bekannt:

Just a few remarks regarding CineBench as some people seem to draw their conclusions from conspiration theories instead of facts:

1. CineBench 11.5 is based on CINEMA 4D (a professional 3D software package, consisting of several million lines of code). There is no special code tuned for benchmark purposes (or for a specific vendor), there are no special benchmark libraries; to be more precise: Except of the ability to save scene data, this is the production code.

2. CineBench 11.5 requires SSE2 compatible cpus. There is no differentiation between Intel or AMD cpus (the compilers are set to create SSE2 code without creating jump code for different cpus or cpu vendors).

3. The CineBench 11.5 Windows version uses ICC (the OS X version GCC 4.2), as these have been the compilers creating the fastest code at that time (end of 2009) for these platforms - independent of the cpu vendor.
To be more specific: With the (SSE2) compiler setting used in CINEMA 4D and CineBench 11.5, the speed advantage of ICC over MSVC (roughly 15-20%) has been slightly bigger on AMD cpus than it was on Intel cpus.

4. While OpenMP is used on Windows in some parts of the app, there is no use of it in the rendering (that 's benchmarked and that people refer to when comparing results).

5. People who still think that CineBench prefers a specific vendor, might check what happened when the first Bulldozer CineBench results leaked. Despite of what some fanboys said before the launch (of this cpu), the
CineBench results have been pretty accurate in picturing the strengths and weaknesses of this cpu.

Best regards,

Wilfried

Ist zwar nur zu CB 11.5, aber Oli scheint da ja mehr zu wissen und wird uns hoffentlich demnächst aufklären. :)
 
Da wo ich auch her hab, dass Freesync bei Nvidia noch Probleme macht.
 
Cinebench ist weder auf Intel noch AMD optimiert, aber sehr FPU lastig und da die FPU bei Bulldozer so schwach war, hat sich bei AMD Fanboys dieses Gerücht der angeblichen Intel Optimierung festgesetzt. Bei RYZEN ist es aber umgekehrt, da dessen FPU Performance sehr gut ist und bei Zen+ soll sie noch nochmal um 50% gesteigert worden sein (keine Ahnung wie und wo genau, aber wenn AMD von Cinebench für die Demo gewählt hat..). Außerdem arbeiten bei Cinebench die Kerne sehr unabhängig voneinander jeder aus einem eigenen Teil der Daten, womit die größere Latenz zwischen den Kernen unterschiedlicher CCX (oder gar Dies wie bei TR und EPYC) dann keine Rolle spielt. Für solche Anwendungen wie Cinebench sind RYZEN und TR optimal, bei anderen wie Spielen aber eben nicht, da machen sich die unterschiedlichen Latenzen zwischen den Kernen bemerkbar, da viel Synchronisierung zwischen den Threads der SW und damit den Kernen der CPU nötig sind.

Man kann eben die Leistung einer CPU nicht anhand nur eines Benchmarks bestimmen, dafür ist diese je nach Anwendung (Benchmark) viel zu unterschiedlich und es gibt eben nicht die eine CPU die in allen Aspekten am Besten ist, sondern immer eine die optimal für die jeweilige Anwendung und das Budget ist!
 
Da wo ich auch her hab, dass Freesync bei Nvidia noch Probleme macht.

Wat :confused:

Ich verstehe nicht so ganz, was du damit jetzt aussagen willst..

Freesync macht bei Nvidia keine Probleme, sondern läuft so wie vorgesehen. Nvidia hat klar kommuniziert, dass sie den VESA Adaptive-Sync-Standard unterstützen und dieser ist nur ab Displayport 1.2a nativ implementiert. Bei HDMI ist dieser eben nicht nativ implementiert. Es gibt ab HDMI 2.1 VRR, was zwar auf dem Adaptive-Sync-Standard basiert, aber nicht ganz das gleiche ist.

Guide: Alles über die Kompatibilität zwischen G-Sync und Adaptive Sync, VRR und FreeSync | igorsLAB s Hardware Deutschland
 
Zuletzt bearbeitet:
Was machen eigentlich die User eines G-Sync Monitors, wenn sie ne AMD Graka einsetzen möchten und freesync nutzen wollen?
 
Nicht mal Nvidia behauptet, dass alle Freesyncmonitore laufen. Im Gegenteil, sie garantieren es nur bei einer handvoll Monitore. Beim Rest ist es Glück, oder man muss basteln.

GeForce G-SYNC Monitors: Manufacturers & Specs


Es ist doch ganz einfach, sobald bei dem Monitor Adaptive-Sync korrekt implementiert wurde, dann läuft es genauso gut/schlecht wie bei AMD..

Auch muss da nicht groß gebastelt werden, sondern muss bei Monitoren, die von Nvidia nicht als G-Sync Compatible angesehen werden, weil diese den Qualitätsansprüchen nicht gerecht werden, einfach nur im Treiber manuell aktiviert werden..
 
Zuletzt bearbeitet:
Das sind doch mal gute Nachrichten. Schön das auch nochmals bestätigt wurde, das die neuen CPUs auf den bisherigen AM4 Boards laufen wird. Wie gut die CPUs auch immer sein werden, die AIPAC Gemeinschaft wird ihre Marktmacht weiter ausnutzen (hoffentlich nicht wie schon einmal mit unlauteren Mitteln) das Hersteller so wenig wie möglich AMD CPUs einsetzt und das AMD somit schön klein gehalten wird.

AMD macht genug geld mit den konsolen ^^
Ich bin mir am überlegen ob ich mir ein Ryzen 5 der 3000 serie kaufen soll wenn sie kommen, wenn sie zu teuer sein werden dann werde ich ebend einen der 2ten generation kaufen weil die hoffentlich günstiger werden.
Problem wäre aber das ich auch meine Ram tauschen müsste :( DDR3 noch immer hier.
Aber die DDR4 ram sind so günstig ich meine 135 euro für DDR4 3000mhz 15cl mit RGB (Riesen Großer Bullshit)
Aber ich will es trozdem ^^ da mein jetztiges system zwar power hat aber wie ein Oma Pc ohne kabel managment usw, ausschaut :/

Meine frage wäre nur Wie viele Kerne brauche ich ? Spiele nur videospiele und surfe im internet Youtube und co. brauche ich wirklich ein 12 kern oder 16kern cpu ?
oder würde mir auch ein 6c/6t reichen, für die zukunft damit ich auch in den nächsten 2 - 5 Jahren ruhe vor dem upgraden habe, ich weiß man kann nicht in die zukunft vorraus schauen aber ich glaube gerade wegen VR/Dx12/vulkan wird man mit mehr kernen besser fahren beim gaming aber ich höre lieber eure vorschläge an weil mit einem i7 9700 bin ich von der P/L nicht zufrieden.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh