HWL News Bot
News
Thread Starter
- Mitglied seit
- 06.03.2017
- Beiträge
- 113.960
... weiterlesen
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Möglicherweise könnte hier der samsung Prozess in 12nm zum einsatz kommen, mal sehen ...
Hab ichs überlesen, oder wirds wirklich nicht erwähnt, das der Heatspreader des 3400G, im Gegensatz zum Vorgänger, verlötet ist?
Eben, der wichtigste Vergleich ist doch immer der mit dem Vorgänger.Wie schade, so ein schöner Test und dann fehlt bei den Benchmarks durchgehend das "Bezugsobjekt" (Ryzen 5 2400G) um den direkt vergleichbaren Leistungsunterschied bei CPU/GPU für 30-40% Preisaufschlag erkennen zu können.
Gibt es irgendwo einen Beleg für diese Aussage?Hab ichs überlesen, oder wirds wirklich nicht erwähnt, das der Heatspreader des 3400G, im Gegensatz zum Vorgänger, verlötet ist?
[...]
Gibt es irgendwo einen Beleg für diese Aussage?
Sogar in Farbe vom lieben Intelbauern
"Am Ende gibt es also nur eine kleine Takterhöhung für CPU und GPU sowie eine theoretisch geringere Leistungsaufnahme."
Gibt es nicht auch noch mehr IPC? Zen+ hat doch 4-5% mehr IPC als Zen, oder nicht?!
Das ist doch beides Zen+. Der 3400G ist nur ein 2400G mit mehr Takt, mehr nicht.
Weiß irgend jemand, warum das Gesamtsystem in Verbindung mit dem 3400G 100W verbraucht? Mich stört die Differenz von "Leistungsaufnahme nur CPU" zu "Leistungsaufnahme Gesamtsystem". Betrachtet man nur die CPU, verbraucht der 3400G etwa so viel als ein R5 3600. Beim Gesamtsystem braucht der 3600 dann aber 35W weniger. Wie lässt sich das erklären? Geht die 2080TI da nicht auf die niedrigsten P-States? In der CPU kann das ja kaum verbraten werden (siehe "nur CPU"). Und bei der Plattform kann es ja wohl auch nicht hängen bleiben, oder? Der Chipsatz kann ja wohl kaum 35W mehr verbrauchen.
Eventuell ist das die iGPU mit drin, aber generell laufen diese Teile sehr sparsam. Mit nem 150W Netzteil solltest du da keine Probleme haben.
Weiß irgend jemand, warum das Gesamtsystem in Verbindung mit dem 3400G 100W verbraucht? Mich stört die Differenz von "Leistungsaufnahme nur CPU" zu "Leistungsaufnahme Gesamtsystem". Betrachtet man nur die CPU, verbraucht der 3400G etwa so viel als ein R5 3600. Beim Gesamtsystem braucht der 3600 dann aber 35W weniger. Wie lässt sich das erklären? Geht die 2080TI da nicht auf die niedrigsten P-States? In der CPU kann das ja kaum verbraten werden (siehe "nur CPU"). Und bei der Plattform kann es ja wohl auch nicht hängen bleiben, oder? Der Chipsatz kann ja wohl kaum 35W mehr verbrauchen.
Mit hinzugeschalteter GeForce RTX 2080 Ti, die wir für unsere CPU-Tests standardmäßig benutzen, steigt der Energiehunger deutlich an, wobei die integrierte Vega-Grafik hier natürlich abgeschaltet wird. Dann genehmigt sich unser Testsystem runde 185 W, was in etwa auf dem Niveau eines Ryzen 7 1700X der ersten Ryzen-Generation liegt.
Es wird abermals deutlich, dass die Zen-2-Architektur der großen Ryzen-3000-Modelle deutlich effizienter arbeitet als die Zen+-Kerne des Ryzen 5 3400G. Der Wechsel auf die kleinere 7-nm-Technik im nächsten Jahr dürfte den APUs zu einem größeren Sprung in Sachen Performance und Leistungsaufnahme verhelfen.
Wie schade, so ein schöner Test und dann fehlt bei den Benchmarks durchgehend das "Bezugsobjekt" (Ryzen 5 2400G) um den direkt vergleichbaren Leistungsunterschied bei CPU/GPU für 30-40% Preisaufschlag erkennen zu können.
Ich hatte vorher einen 1200 drin und der 3600 liegt im Idle auch bei ~60W.
Unter Last verbrauche ich sogar ein paar Watt weniger.
Das ist in der Tat sehr seltsam, da die Testsysteme nur bzgl. der Boards (wieso überhaupt?) unterschiedlich sind:Die CPU soll angeblich gleich viel verbrauchen, das Gesamtsystem dann aber 35W mehr. Wo sollen die hin verschwinden?
Aber das ASUS ROG Crosshair VIII Hero als gut ausgestattetes X570 Board wohl kaum eine so viel geringere Leistungsaufnahme haben dürfte als ein B350 Board wie das MSI MSI B350M Mortar, wobei ich bei MSI kein B350 Mortar ohne M hinter dem B350 finde. Die Angabe ich mindestens mal unvollständig und schon damit fehlerhaft und die Bilder in der Galerie zeigen als CPU Testsystem 2019 nochmal andere Hardware, nämlich ein großes MSI Board (offenbar das MEG X399 Creation für die TR) und dazu eine GTX1660Ti, statt der angeblich verwendeten RTX 2080TI. Die einzig schlüssige Erklärung wären, dass mit unterschiedlichen Grakas oder eben deutlich anderen Einstellungen gebencht wurde.
Die ist aber im TDP Budget der CPU mit drin. Wenn die mehr verbraucht, müssen die CPU Kerne weniger verbrauchen. Und 35W wären da zu viel. Das muss andere Gründe haben (vielleicht auch mehrere).Ich kann mir höchstens vorstellen, dass die IGPU mit an war.
Vielleicht hat ja ein Redakteur hier die Erklärung. Ich könnte mir auch vorstellen, dass es z.B. Probleme mit der IGP und der D-GPU gab, vielleicht ist die 2080TI im Idle nicht auf die üblichen Taktraten runter oder so. Also, dass die Grafikkarte unnötig viel verbraucht hat (Treiber-Konflikt oder so was). 30-40W mehr auf der GPU ist der Karte im Idle ja recht egal, der Kühler bringt das auch locker weg. Aber dann müsste die im Idle deutlich höhere Temperaturen haben.Das ist in der Tat sehr seltsam, da die Testsysteme nur bzgl. der Boards (wieso überhaupt?) unterschiedlich sind.