Gerüchteküche: Start von Ryzen 2 im Februar – bis zu 12 Kerne und über 5 GHz Boost-Takt

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
fortunes hat völlig recht. Gerade um den Sweet Spot ist Ryzen effizienter als die Intel-Pendants. Sicherlich könnte man da im Takt auf Kosten der Energieeffizienz noch etwas schrauben, aber das geschieht ja möglicherweise auch mit der kommenden Generation.
 
Wie ist denn bitte der Ryzen effizienter als die Intel Pendants, wenn er zwar etwas weniger verbraucht, aber dafür deutlich langsamer ist?
 
Könnte der höhere Verbrauch nicht auch durch eine höher ausgelastete GPU zustandekommen?
 
Ja eigentlich schon, aber ich glaube bei unserem Experten Fortunes nicht. :fresse:

Bei Gesamtsystemverbrauchsangaben zu versuchen die Effizienz einer einzelnen Komponente zu bestimmen ist jetzt nicht gerade der schlauste Ansatz. Es gibt einfach zu viele Faktoren, die das Ergebnis verfälschen können. Gerade bei solchen Gaming-Tests fällt eine unterschiedlich stark ausgelastete Grafikkarte deutlich mehr ins Gewicht bezüglich des Verbrauchs, da diese allgemein deutlich mehr verbraucht als ein Prozessor.

Wenn man sogar ganz kleinlich ist, dann kann man sogar alle Verbrauchstests in der Pfeife rauchen, da allein schon unterschiedlich Boards dafür sorgen können, dass die gleiche CPU bei den gleichen Tests unterschiedlich viel verbraucht, je nachdem wie viele Spannung das Mainboard gibt und wie stark es sich an die TDP-Grenzen hält. :d


Merkste selbst, ne?

Merkste eigentlich selber noch, was für eine scheiße du hier von dir gibst? Wen willst du eigentlich verarschen oder bist du einfach nur am trollen?

Jetzt musst du dir sogar schon von irgendwelchen unseriösen Leuten, welche nicht einen einzigen Beweis geliefert haben, dass sie die Hardware überhaupt besitzen, bei Youtube Videos zusammensuchen bzw. Cherrypicks betreiben, nur um deine Aussage irgendwie zu belegen. Wieso bleibst du nicht bei dem Test, welchen du zuvor verlinkt hast? Haste gemerkt, dass er mit deiner Aussage nicht so ganz übereinstimmt? :hust: sTOrM41 hats dir in dem anderen Thread ja schon so schön aufgezeigt.


Hier ich helfe dir mal und liefere dir einen Cherrypick, der dich in deiner Aussage bestärkt. In diesem Test macht Intel jetzt nicht den besten Eindruck: Intel Core i7-8700K Review: The New Gaming King > Power, Temps, Overclocking - TechSpot

Natürlich mache ich das nicht komplett selbstlos. Vergleich mal die Verbrauchswerte (Last und Idle) von dem 1800x und dem 8700k, aus diesem reinen CPU-Benchmark, mit dem Gesamtverbrauchswerten aus dem von dir geposteten Video. Na, was fällt dir auf? Komischerweise sind sie gleich... Sagt wohl alles, wie seriös solche Videos sind, wo sich einfach irgendwelche Werte zusammengesucht und irgendwie zusammengepackt werden...
 
Bei Gesamtsystemverbrauchsangaben zu versuchen die Effizienz einer einzelnen Komponente zu bestimmen ist jetzt nicht gerade der schlauste Ansatz. Es gibt einfach zu viele Faktoren, die das Ergebnis verfälschen können.
Klar, das kann sein. Ist ja bekannt, dass die Mobo-Hersteller OC betreiben - und Intel nichts dagegen tut, weil es ja extra-FPS bedeutet. ;)

Gerade bei solchen Gaming-Tests fällt eine unterschiedlich stark ausgelastete Grafikkarte deutlich mehr ins Gewicht bezüglich des Verbrauchs, da diese allgemein deutlich mehr verbraucht als ein Prozessor.
Achso, ja klar, jetzt sind die anderen schuld. :d

Und nicht vielleicht die Mobo-Hersteller mit ihrem "illegalen" OC, bei dem Intel nichts dagegen hat? ;)

Natürlich mache ich das nicht komplett selbstlos. Vergleich mal die Verbrauchswerte (Last und Idle) von dem 1800x und dem 8700k, aus diesem reinen CPU-Benchmark, mit dem Gesamtverbrauchswerten aus dem von dir geposteten Video. Na, was fällt dir auf? Komischerweise sind sie gleich... Sagt wohl alles, wie seriös solche Videos sind, wo sich einfach irgendwelche Werte zusammengesucht und irgendwie zusammengepackt werden...
Komisch, dass der Verbrauch bei THG im GameLoop ebenfalls deutlich höher ausfällt. :rolleyes:
 
Zuletzt bearbeitet:
Auch die kommenden AMD Raven Ridge Notebook-CPUs haben ja offenbar trotz des deutlich leistungsfähigeren IGPs und etwa gleich starker CPU einen niedrigeren Energieverbrauch. Jetzt kann man natürlich sagen, dass möglicherweise der Ryzen für den Desktop nicht auf dem gleichen Verfahren basiert - aber auch die Undervolting-Tests, die es zum Launch von Ryzen gab, bestätigen eigentlich, dass Ryzen im Sweetspot deutlich effizienter ist. Daraus habe ich damals nämlich überhaupt erst geschlossen, dass AMD 4 Kerne ins Notebook bringen können müsste, ohne den Energieverbrauch zu erhöhen. Und so ist es nun auch gekommen - der Raven Ridge ist sogar noch mit 1W unter den Intel-Notebooks in der niedrigsten Stufe spezifiziert.
 
Achso, ja klar, jetzt sind die anderen schuld. :d

:confused:

Gleiche Grafikkarte liefert mit beiden Prozessoren unterschiedliche FPS-Werte => Grafikkarte wird unterschiedlich stark ausgelastet => Grafikkarte verbraucht daher unterschiedlich viel. Oder nicht?


Komisch, dass der Verbrauch bei THG im GameLoop ebenfalls deutlich höher ausfällt. :rolleyes:

1. 10 respektive 11 Watt sind deutlich höher? Aha erzähl mir mehr :rolleyes:
2. dafür liefert die CPU von Intel auch deutlich mehr Frames...
3. Darum ging es mir nicht.

Ich wollte dir nur aufzeigen, dass solche unseriösen Videos totaler Schwachsinn sind. Weil A) die Werte womöglich einfach nur von Techspot kopiert wurden, ohne den Kontext zu betrachten und B) es einfach nicht zusammenpasst, dass die Werte von einem Gesamtsystemtest genauso ausfallen wie bei einem reinen CPU-Bench....


Auch die kommenden AMD Raven Ridge Notebook-CPUs haben ja offenbar trotz des deutlich leistungsfähigeren IGPs und etwa gleich starker CPU einen niedrigeren Energieverbrauch.

Die IGP von Raven Ridge basiert ja auf Vega. Ist da irgendwie bekannt, ob an der IGP irgendetwas bezgl. der Hardware-Decoder geändert wurde? Denn Vega beschleunigt u.a. VP9 nicht vollständig, sodass die CPU auch noch Teile von dem Video berechnen muss, was sich negativ auf den Energieverbrauch auswirkt.

GPU-Beschleunigung für VP9: Pascal und Vega verbrauchen weniger Strom auf YouTube - ComputerBase
HEVC-/VP9-Support fr Mini-PCs und Ultrabooks vor - Golem.de
 
Gleiche Grafikkarte liefert mit beiden Prozessoren unterschiedliche FPS-Werte => Grafikkarte wird unterschiedlich stark ausgelastet => Grafikkarte verbraucht daher unterschiedlich viel. Oder nicht?
In der Theorie hast du vollkommen Recht.

Aber dieses von Intel-Fanatikern nur all zu gerne ins Feld geführte Argument macht keinen Sinn, weil die GPU-Last schwankt und nicht permanent 20% oder gar 30% hinter einem 8700K-Setup zurückliegt.

Schauen wir auf einen Vergleich mit einem 8600K, der ohne OC ebenfalls bei einigen Games Auslastungsprobleme der GPU bekommt, können wir sehen, dass sich rein gar nichts ändert:
Intel Core i5-8600K: Overclocking, Power Consumption & Temperatures

Intels CoffeeLakes sind nicht sparsam im Vergleich zu AMD.

1. 10 respektive 11 Watt sind deutlich höher? Aha erzähl mir mehr :rolleyes:
Äh, das sind 18% mehr Verbrauch. Hunderttausende Menschen entscheiden sich für einen Motor, der nur 5L/100km verbraucht statt 6L/100km. Und du möchtest den Vergleich unter den teppich kehren? Aha...

2. dafür liefert die CPU von Intel auch deutlich mehr Frames...
Dafür wurde der 8700K auch erst im September vorgestellt, ich rede mal lieber von "Verfügbarkeit" im Oktober. Intel hatte also -7- Monate mehr Zeit, Hand anzulegen. Dafür ist das Ergebnis von Intel aber ganz schön mager - also was Verbrauch und Temperatur angeht. Die Leistung war schon vorher hoch. ;)

Die IGP von Raven Ridge basiert ja auf Vega. Ist da irgendwie bekannt, ob an der IGP irgendetwas bezgl. der Hardware-Decoder geändert wurde? Denn Vega beschleunigt u.a. VP9 nicht vollständig, sodass die CPU auch noch Teile von dem Video berechnen muss, was sich negativ auf den Energieverbrauch auswirkt.
Das weiß man noch nicht, ob der "kleine Vega" eine optimierte UVD-Einheit "7.1" oder sowas bekommt. Bei nVidia gibt es ein Treiberproblem, das die niedrigeren Taktraten unter bestimmten Umständen verhindert (siehe dein Link bei CB). Bei Intel ist dafür bei 4K/60Hz Schluss, bei AMD gibt's 4K/120Hz und 5K/60Hz.
 
Gibt es den Anhaltspunkte was Ryzen zur Zeit bei rund 4 Ghz +- gegen ne Wall laufen läßt ? Design, oder Fertigung ?
Ich würde auf beides tippen. Mal ein paar Anhaltspunkte. Zen hat eine kürzere Pipeline als sein Vorgänger, Bulldozer. Eventuell sogar kürzer als Intels aktuelle Architektur. Gut für Performance pro Takt, dafür aber nicht so gut zu takten. Der aktuelle Zen SOG spricht von Minimum 12 Takten L2 Latenz (durchschnittlich vermutlich etwas mehr). Was ein relativ guter Indikator für die Länge der Integer-Pipeline ist. 12 Takte hatte zB auch K8/K10, die eine relativ kurze Pipeline für eine x86 OoO Architektur hatten. Der 14LP Prozess wiederum wurde von Samsung entwickelt und von Glofo lediglich lizenziert. Samsung hat sicherlich mehr auf mobile als auf Desktop/Server Bedürfnisse hin optimiert. 7LP ist wieder eine Eigenentwicklung von Glofo. Da sollte im Verhältnis auch wieder mehr Takt drin sein. Die offiziellen Infos sprechen von >40%.
 
In der Theorie hast du vollkommen Recht.

Aber dieses von Intel-Fanatikern nur all zu gerne ins Feld geführte Argument macht keinen Sinn, weil die GPU-Last schwankt und nicht permanent 20% oder gar 30% hinter einem 8700K-Setup zurückliegt.

Schauen wir auf einen Vergleich mit einem 8600K, der ohne OC ebenfalls bei einigen Games Auslastungsprobleme der GPU bekommt, können wir sehen, dass sich rein gar nichts ändert:
Intel Core i5-8600K: Overclocking, Power Consumption & Temperatures

Intels CoffeeLakes sind nicht sparsam im Vergleich zu AMD.


Kannst du bitte aufhören von Test zu Test zu springen, denn bei THG wird der Stromverbrauch nur von der CPU durch spezielles Equipment ermittelt, während in dem Video (auf welches sich die Aussage bezog) der Verbrauch von dem gesamten System angegeben wird. Bei THG hat die Grafikkarte also keinen Einfluss auf das Ergebnis (außer sie würde die CPU ausbremsen), aber in dem Video schon.

Die Intel CPUs verbrauchen zwar mehr, aber dafür liefern sie auch mehr Performance. Ihr schreibt doch von Effizienz. Effizienz ist Performance per Watt, welche bei Intel besser ist. Jetzt verstanden?
sTOrM41 hat es dir doch schon in den anderen Thread aufgezeigt.

Äh, das sind 18% mehr Verbrauch. Hunderttausende Menschen entscheiden sich für einen Motor, der nur 5L/100km verbraucht statt 6L/100km. Und du möchtest den Vergleich unter den teppich kehren? Aha...

Wieso vergleichst du Äpfel mit Birnen?

Was sind denn bitte 10 Watt im Vergleich zu den 150-200Watt, welche die Grafikkarte verballert? Vor allem nur unter Last! Rechner befinden die meiste Zeit im Idle und da verbraucht der Ryzen 1700 gute 37%!!! Skandal!!!! Und du willst mir einen von sparsamer erzählen :d

Du merkst selber, was für ein Schwachsinn das ist oder?

Dafür wurde der 8700K auch erst im September vorgestellt, ich rede mal lieber von "Verfügbarkeit" im Oktober. Intel hatte also -7- Monate mehr Zeit, Hand anzulegen. Dafür ist das Ergebnis von Intel aber ganz schön mager - also was Verbrauch und Temperatur angeht. Die Leistung war schon vorher hoch. ;)

Intel kann auch nicht zaubern und kann auch nicht einfach physikalische Grenzen umgehen...

Bei nVidia gibt es ein Treiberproblem

Nicht gibt, sondern gab. Die Probleme wurden mittlerweile behoben. wink:
 
Rechner befinden die meiste Zeit im Idle und da verbraucht der Ryzen 1700 gute 37%!!! Skandal!!!! Und du willst mir einen von sparsamer erzählen :d
Ja, 4W mehr. Das diskutiert ja auch keiner weg. Fakt ist aber, dass der Intel unter Last eine schlechtere P/W hat. Und was interessieren einen die 4W im IDLE, wenn er unter Last mehr als doppelt so viel zieht?

Intel kann auch nicht zaubern und kann auch nicht einfach physikalische Grenzen umgehen...
AMD schon, oder wie? :fresse:

Nicht gibt, sondern gab. Die Probleme wurden mittlerweile behoben. wink:
Negativ. Das Problem mit der nVidia-Last auf Youtubes VP9-Videos besteht noch immer, sobald man in den Videos "spult". Genau wie von CB beschrieben.

Wann gibt's eigentlich 5K bei Intel? Oder 4K@120Hz?
 
wäre schön, wenn wir wieder bei den News oder Gerüchten zu Zen+ oder Zen2 bleiben würden. Ob Ryzen oder CL energieeffizienter ist, kann man auch in einem anderen Thread diskutieren :)
 
Mit Google-/ oder Forensuche hättest du erfahren, dass AM4 bis 2020 beseht und nein, AMD meint damit nicht, dass Sie bis dahin Ryzen1 CPUs herstellen....
 
Wurde von AMD so kommuniziert. Es sollen aber auch neue Chipsätze kommen.

Viel mehr sollen aber die A300-/X300-Platinen kommen, die viel interessanter sind. Denn letztlich sind das Platinen ohne Chipsatz, so dass der Ryzen als SoC alles zur Verfügung stellt.

Gerade für ITX- und STX-Maschinen mit AMD-APU ist das vielversprechend. Wirft aber kaum Gewinn für die Platinen ab, weil der Chipsatz "fehlt".
 
Ja, 4W mehr. Das diskutiert ja auch keiner weg. Fakt ist aber, dass der Intel unter Last eine schlechtere P/W hat. Und was interessieren einen die 4W im IDLE, wenn er unter Last mehr als doppelt so viel zieht?

Denn du würdest eh nicht zugeben, dass du falsch liegst. Dein eigen verlinkter Test bestätigt Intel einen höheren Verbrauch, dafür aber eine viel bessere Leistung. Intel hat laut diesem Test also die bessere Performance-per-Watt, aber anstatt dies einfach zuzugeben, berufst du dich plötzlich auf einen anderen Test, dabei ist es dir egal wie unseriös oder unglaubwürdig dieser ist. Hauptsache du kannst damit deine Aussage irgendwie verteidigen.

Ich habe dir sogar aufgezeigt, warum dein Test aus dem Video murks ist und woher die Verbrauchswerte womöglich geklaut wurden, aber auch das scheint dich nicht wirklich zu interessieren.

Aber Hey hiermit breche ich das ganze ab. Denn es macht einfach keinen Sinn. Denn sobald du merkst, dass du im unrecht bist, wird einfach der nächstbeste Test herausgekramt, der dich in deiner Aussage irgendwie bestärkt. So könnten wir uns den ganzen Tag irgendwelche Testergebnisse um den Kopf werfen. Nur habe ich dazu überhaupt keinen Bock und andere Leute wird dies einfach nur nerven.

Daher meine abschließende Aussage zu der ganzen Effizienz-Debatte. Je nach Workload sind mal die Ryzen effizienter und mal die Coffeelakes. Es kommt einfach darauf an, wie denen der Workload passt. Beide Architekturen sind da realtiv gut aufgestellt.

Warum der Idle-Verbrauch eigentlich relevanter ist? Ja ganz einfach, da ein Pc in der Regel öfters im Idle verweilt als im Lastbetrieb. Aber diese 4 Watt Unterschied sind vollkommen egal und werden wohl niemanden interessieren. Ich wollte dir nur aufzeigen, wie schwachsinnig es ist, sich über 10 Watt Mehr-Verbrauch zu echauffieren, nur weil es in Prozentangaben nach einem großen Unterschied aussieht.
 
Negativ, der Ryzen 1700 ist nach wie vor, was Leistung pro Watt betrifft, ungeschlagen:
Processor test results

:)

Was auch nicht verwunderlich ist, da die Cpu so ziemlich im Sweetsport des Fertigungsprozesses sitzt.
Ein 1800x dagegen läuft so ziemlich an der Kotzgrenze was die Effizienz angeht.

Was mich ein bisschen überrascht ist die Tatsache das sowohl der 8700K als auch der 7700K relativ gut aufgestellt sind.
Ich hätte erwartet das die kleineren Intels (so wie bei RyZen auch) effektiv ne bessere Effizienz haben.
 
Trifft zu wenn man den ganzen Tag vllt Cniebench spielt. Ich schätze 80% benutzen ihren PC wohl meist zum spielen.

wer es mit dem Arbeiten ernst meint, der hat 2 Systeme ;)
 
mMn. liegt Intel hauptsächlich durch Ringbus (wurde ja lange genug darauf optimiert) und den höheren Takt vorne, das wars aber schon wieder und sowas, vor allem letzteres, kann sich schnell ändern.

ka. was man davon hat Intel so wehemennt zu verteidigen, wenn AMD noch mehr Druck ausübt ist das doch nur gut für den Konsumenten *facepalm*
Selbes gilt für AMD, die wollen auch nur $$$ wobei man als Konsument profitiert wenn AMD Marktanteile gewinnt.
 
Zuletzt bearbeitet:
Na, hier geht ja viel durcheinander in Sachen Effizienz. Wer behauptet Ryzen sei ineffizient hat entweder keine Ahnung oder hat den Knall nicht gehört.
Effizienz hat auch mit Anwendungsfällen zu tun und ob die CPU für diese ausgelegt ist. Ich kann nicht einen Prozessor nehmen der kein AVX beherrscht und dort schlechter abscheidet, um dann allgemein zu sagen, dass dieser ineffizient ist. Ich kann auch nicht einfach Games nehmen, wo anderes mit rein spielt (wie Takthöhe) und dann allg. sagen... "ineffizient". CPUs werden nicht für Games designt. Sie eignen sich einfach besser oder schlechter hierfür.

Da Cinebench vorallem Floating Point Berechungen macht, eignet es sich gut um über die allg. Effizienz Aussagen zu treffen. Bei CB kann man sich Punkte und Systemverbauch anschauen und sehen wie gut sogar der 1800X mit dem 8700k mithalten kann.

Wer unzählige Messung sehen möchte der schaut sich im Anandtech-Forum "Ryzen: Strictly technical" von "Teh Stilt" an.
 
Gerüchteküche: Start von Ryzen 2 im Februar – bis zu 12 Kerne und über 5 GHz Boost-Takt

Come on, %GHz Boost Sounds like Mimimi...
5.1GHz all Core?
Yes, we can do!
 
Das ist zu 99% fake.

Das wird bereits in Beitrag #1 der Quelle vermutet.

Unabhängig davon wäre mit ein Ryzen 5 2. Generation mit 8 Kernen ganz lieb, am besten wieder für 200€. Wünschenswert wäre eine optimierte Infinity Fabric - da ist viel Potential nach oben.
 
Weiß man mittlerweile mehr?

Wird Gen2 auf den aktuellen B350 Boards mit BIOS Update laufen oder kommt ein neuer Chipsatz ähnlich wie bei Coffee lake?
 
Weiß man mittlerweile mehr?
Nur das man im März wohl mehr wissen wird.

Wird Gen2 auf den aktuellen B350 Boards mit BIOS Update laufen oder kommt ein neuer Chipsatz ähnlich wie bei Coffee lake?
Mit letzter Sicherheit lässt sich das nicht sagen, aber es sieht so aus als wenn die CPUs nicht mehr Kerne, sondern "nur" mehr Takt und ggf. kleine Optimierungen erhalten und auch auf den bisherigen Boards laufen werden, zumindest nach einen UEFI Update. Die 400er Chipsätze dürften PCIe 3.0 Lanes (also nicht wie jetzt nur als Uplink zur Anbindung an die CPU) bekommen und ab der ersten UEFI Version auch die neuen CPUs unterstützen, sind damit als der sichere Kauf für Leute die keine alte AM4 CPU für ein ggf. nötiges BIOS Update der bisherigen haben, denn bei den bisherigen Boards kann man ja nicht sicher sein vom Händler eines mit einem ausreichend aktuellen BIOS für die neue CPU zu bekommen.
 
Die 400er Chipsätze dürften PCIe 3.0 Lanes (also nicht wie jetzt nur als Uplink zur Anbindung an die CPU) bekommen ...

Müssen wir das schon wieder durch kauen? Deine Behauptung ist wie schon vor einem Jahr schlicht falsch und steht auch so nicht in den AMD Folien. Warum musst du immer wieder so einen Unsinn behaupten?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh