AMD Ryzen 5 3400G im Test: Weniger Änderungen als erwartet

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.960
amd_ryzen_5_3400g-teaser.jpg
Im letzten Jahr erwiesen sich die Raven-Ridge-APUs als gute Alternative, wenn man sich einen sparsamen und günstigen Office-Rechner zusammenbauen wollte. Die Kombination aus Zen-Prozessor und Vega-Grafiklösung erwies sich als durchaus leistungsfähig für den Alltag. Ob dies auch für die Neuauflage in Form des AMD Ryzen 5 3400G gilt, das wollen wir nun auf den nachfolgenden Seiten klären. Da sich die Änderungen im Vergleich zum Vorgänger stark in Grenzen halten, sollte...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wie schade, so ein schöner Test und dann fehlt bei den Benchmarks durchgehend das "Bezugsobjekt" (Ryzen 5 2400G) um den direkt vergleichbaren Leistungsunterschied bei CPU/GPU für 30-40% Preisaufschlag erkennen zu können.
 
Zuletzt bearbeitet:
Hab ichs überlesen, oder wirds wirklich nicht erwähnt, das der Heatspreader des 3400G, im Gegensatz zum Vorgänger, verlötet ist?
 
Zuletzt bearbeitet:
Hab ichs überlesen, oder wirds wirklich nicht erwähnt, das der Heatspreader des 3400G, im Gegensatz zum Vorgänger, verlötet ist?

Shit Storm incoming ...

Ach sorry dass er verlötet ist ... das war der Vorgänger doch schon, oder?
 
Zuletzt bearbeitet:
Wie schade, so ein schöner Test und dann fehlt bei den Benchmarks durchgehend das "Bezugsobjekt" (Ryzen 5 2400G) um den direkt vergleichbaren Leistungsunterschied bei CPU/GPU für 30-40% Preisaufschlag erkennen zu können.
Eben, der wichtigste Vergleich ist doch immer der mit dem Vorgänger.

Hab ichs überlesen, oder wirds wirklich nicht erwähnt, das der Heatspreader des 3400G, im Gegensatz zum Vorgänger, verlötet ist?
Gibt es irgendwo einen Beleg für diese Aussage?
 
Ah Ok, wusste ich auch nicht, hilft aber natürlich die Taktraten zu erhöhen.
 
Macht die tatsächlich auch sehr gut kühlbar. Hab gestern einen 3400G im Deskmini verbaut und musste den von ASRock gelieferten Mini-Kühler nehmen, da dem 3400G ein Wraith Spire beiligt (auch eine Neuerung zum 2400G, der hatte glaube ich nur einen Stealth). Temps gingen in Games nicht über 62 °C.
 
Die Werte in Cinebench Multi des Ryzen 5 3600 sind zu gering.
 
Da der 2400g und 2400g auch einen anderen sinnvollen Einsatzbereich hat wie HTPC vermisse ich dazu leider ein paar Sätze.
Unter FullHD läzft er spitze. Wie macht er sich unter 4K.
Gerade wenn man die Spitzen HTPC Software Team MediaPortal einsetzt.
 
"Am Ende gibt es also nur eine kleine Takterhöhung für CPU und GPU sowie eine theoretisch geringere Leistungsaufnahme."

Gibt es nicht auch noch mehr IPC? Zen+ hat doch 4-5% mehr IPC als Zen, oder nicht?!
 
"Am Ende gibt es also nur eine kleine Takterhöhung für CPU und GPU sowie eine theoretisch geringere Leistungsaufnahme."

Gibt es nicht auch noch mehr IPC? Zen+ hat doch 4-5% mehr IPC als Zen, oder nicht?!

Das ist doch beides Zen+. Der 3400G ist nur ein 2400G mit mehr Takt, mehr nicht.
 
Jau, hast Recht.

Von der Leistung her trotzem fast gleich.
 
Na ja, im Vergleich zum 2400G sind die Taktraten marginal nach oben gegangen - wer da einen großen Sprung erwartet hat wohl etwas zu große Hoffnungen.

Der Hauptflaschenhals bei der APU ist der Systemspeicher - wenn man dort nach oben schrauben, wird sowohl die CPU als auch die GPU schneller. Da diese APU aber vor allem günstig sein soll, wäre hier die Betrachtung von günstigem, aber schnellem Speicher ganz nett gewesen. Samsung B-Die macht in der Preisklasse wohl kaum Sinn, aber mit etwas getune, kann man hier die Leistung schön um ~20% erhöhen, womit die HTPC Sparte durchaus interessant wird.
 
Weiß irgend jemand, warum das Gesamtsystem in Verbindung mit dem 3400G 100W verbraucht? Mich stört die Differenz von "Leistungsaufnahme nur CPU" zu "Leistungsaufnahme Gesamtsystem". Betrachtet man nur die CPU, verbraucht der 3400G etwa so viel als ein R5 3600. Beim Gesamtsystem braucht der 3600 dann aber 35W weniger. Wie lässt sich das erklären? Geht die 2080TI da nicht auf die niedrigsten P-States? In der CPU kann das ja kaum verbraten werden (siehe "nur CPU"). Und bei der Plattform kann es ja wohl auch nicht hängen bleiben, oder? Der Chipsatz kann ja wohl kaum 35W mehr verbrauchen:confused:.
 
Weiß irgend jemand, warum das Gesamtsystem in Verbindung mit dem 3400G 100W verbraucht? Mich stört die Differenz von "Leistungsaufnahme nur CPU" zu "Leistungsaufnahme Gesamtsystem". Betrachtet man nur die CPU, verbraucht der 3400G etwa so viel als ein R5 3600. Beim Gesamtsystem braucht der 3600 dann aber 35W weniger. Wie lässt sich das erklären? Geht die 2080TI da nicht auf die niedrigsten P-States? In der CPU kann das ja kaum verbraten werden (siehe "nur CPU"). Und bei der Plattform kann es ja wohl auch nicht hängen bleiben, oder? Der Chipsatz kann ja wohl kaum 35W mehr verbrauchen:confused:.

Eventuell ist das die iGPU mit drin, aber generell laufen diese Teile sehr sparsam. Mit nem 150W Netzteil solltest du da keine Probleme haben.
 
Eventuell ist das die iGPU mit drin, aber generell laufen diese Teile sehr sparsam. Mit nem 150W Netzteil solltest du da keine Probleme haben.

Die IGP müsste bei beim CPU Verbrauch mit drin sein, die braucht sicher auch keine 35W. Bei 35W Verbrauch auf der iGPU würden die CPU Kerne und der Uncore noch 30W brauchen dürfen, sonst legt die TDP ja irgendwann einen Deckel drüber. Ich glaube eher, dass das irgendwo anders verblasen wird, aber wo ist mir nicht klar. Dass für eine APU alleine ein 150W Netzteil reicht, ist mir klar, aber ich finde die Verbrauchswerte halt auffällig und würde halt gerne wissen, was da los ist.
 
Weiß irgend jemand, warum das Gesamtsystem in Verbindung mit dem 3400G 100W verbraucht? Mich stört die Differenz von "Leistungsaufnahme nur CPU" zu "Leistungsaufnahme Gesamtsystem". Betrachtet man nur die CPU, verbraucht der 3400G etwa so viel als ein R5 3600. Beim Gesamtsystem braucht der 3600 dann aber 35W weniger. Wie lässt sich das erklären? Geht die 2080TI da nicht auf die niedrigsten P-States? In der CPU kann das ja kaum verbraten werden (siehe "nur CPU"). Und bei der Plattform kann es ja wohl auch nicht hängen bleiben, oder? Der Chipsatz kann ja wohl kaum 35W mehr verbrauchen:confused:.
Mit hinzugeschalteter GeForce RTX 2080 Ti, die wir für unsere CPU-Tests standardmäßig benutzen, steigt der Energiehunger deutlich an, wobei die integrierte Vega-Grafik hier natürlich abgeschaltet wird. Dann genehmigt sich unser Testsystem runde 185 W, was in etwa auf dem Niveau eines Ryzen 7 1700X der ersten Ryzen-Generation liegt.

Es wird abermals deutlich, dass die Zen-2-Architektur der großen Ryzen-3000-Modelle deutlich effizienter arbeitet als die Zen+-Kerne des Ryzen 5 3400G. Der Wechsel auf die kleinere 7-nm-Technik im nächsten Jahr dürfte den APUs zu einem größeren Sprung in Sachen Performance und Leistungsaufnahme verhelfen.

Ich hatte vorher einen 1200 drin und der 3600 liegt im Idle auch bei ~60W.
Unter Last verbrauche ich sogar ein paar Watt weniger.
 
Wie schade, so ein schöner Test und dann fehlt bei den Benchmarks durchgehend das "Bezugsobjekt" (Ryzen 5 2400G) um den direkt vergleichbaren Leistungsunterschied bei CPU/GPU für 30-40% Preisaufschlag erkennen zu können.

nicht nur das, OC vermisse ich auch, samt dicken speicher... letzteres beschleunigt nämlich grad die vega ungemein.
 
Ich hatte vorher einen 1200 drin und der 3600 liegt im Idle auch bei ~60W.
Unter Last verbrauche ich sogar ein paar Watt weniger.

Ja, aber sicher keine 35W bei gleich gebliebenem CPU Verbrauch(!). Genau das ist ja mein Problem am Test! Die CPU soll angeblich gleich viel verbrauchen, das Gesamtsystem dann aber 35W mehr. Wo sollen die hin verschwinden?
CPU Verbrauch:
CPU.PNG
Gesamtsystem:
System.PNG
 
Ich kann mir höchstens vorstellen, dass die IGPU mit an war.

Oder beim 3400G werden Anschlüsse versorgt, die nicht gebraucht werden wie die Grafikanschlüsse hinten.
Kann auch sein, dass am Board noch was anderes mehr gefordert wird.
 
Die CPU soll angeblich gleich viel verbrauchen, das Gesamtsystem dann aber 35W mehr. Wo sollen die hin verschwinden?
Das ist in der Tat sehr seltsam, da die Testsysteme nur bzgl. der Boards (wieso überhaupt?) unterschiedlich sind:
Aber das ASUS ROG Crosshair VIII Hero als gut ausgestattetes X570 Board wohl kaum eine so viel geringere Leistungsaufnahme haben dürfte als ein B350 Board wie das MSI MSI B350M Mortar, wobei ich bei MSI kein B350 Mortar ohne M hinter dem B350 finde. Die Angabe ich mindestens mal unvollständig und schon damit fehlerhaft und die Bilder in der Galerie zeigen als CPU Testsystem 2019 nochmal andere Hardware, nämlich ein großes MSI Board (offenbar das MEG X399 Creation für die TR) und dazu eine GTX1660Ti, statt der angeblich verwendeten RTX 2080TI. Die einzig schlüssige Erklärung wären, dass mit unterschiedlichen Grakas oder eben deutlich anderen Einstellungen gebencht wurde.
 
Ich kann mir höchstens vorstellen, dass die IGPU mit an war.
Die ist aber im TDP Budget der CPU mit drin. Wenn die mehr verbraucht, müssen die CPU Kerne weniger verbrauchen. Und 35W wären da zu viel. Das muss andere Gründe haben (vielleicht auch mehrere).
Das ist in der Tat sehr seltsam, da die Testsysteme nur bzgl. der Boards (wieso überhaupt?) unterschiedlich sind.
Vielleicht hat ja ein Redakteur hier die Erklärung. Ich könnte mir auch vorstellen, dass es z.B. Probleme mit der IGP und der D-GPU gab, vielleicht ist die 2080TI im Idle nicht auf die üblichen Taktraten runter oder so. Also, dass die Grafikkarte unnötig viel verbraucht hat (Treiber-Konflikt oder so was). 30-40W mehr auf der GPU ist der Karte im Idle ja recht egal, der Kühler bringt das auch locker weg. Aber dann müsste die im Idle deutlich höhere Temperaturen haben.
Unterschiedliche Testsysteme finde ich auch ungünstig, da fehlt die Vergleichbarkeit. Man sollte da immer möglichst alles gleich lassen, oder, wenn das nicht geht, für die einzelnen Testsysteme auch separate Diagramme verwenden, da Leistung und Verbrauch dann nicht mehr direkt vergleichbar sind. Schon alleine der Vergleich B350 zu X570: Der X570 verbraucht sicherlich deutlich mehr, hat ja auch üblicherweise einen Lüfter. Dazu haben die X570er Boards meist noch viele Zusatz-Chips für 2xLAN, WLAN oder weiteres drauf. Da kann ein X570 kaum weniger brauchen als ein B350 aber leicht sehr viel mehr. Entsprechend sind die Werte nicht mehr vergleichbar und man sollte einfach ein Cahrt für X570 und ein separates für B350 machen, sodass man sofort erkennen kann, dass die Werte so nicht 1:1 zusammen passen. Wäre vielleicht was für zukünftige Tests.
 
Die ganze Testumgebung ist recht unsinnig, wer kauft sich eine sauteure 2080TI und dann eine APU, deren CPU Part eher lahm ist und gegen die deren GPU wie der Scheibenwischermotor im Vergleich zum Motor in einem Ferrari wirkt? Durchaus denkbar das sich da keiner der Treiberentwickler je mit dem Verbrauch so einer Kombination befasst hat.

Also ich würde mal sagen: Wer sich eine APU kaufen will, sollten auch deren GPU nutzen wollen und wer dies nicht möchte, sollte besser gleich die Finger von einer APU lassen oder deren iGPU im BIOS deaktivieren.
 
Ich habe da mal eine Frage.
Im Buyers-Guide-Komplettsystem für 800€ kommt besagter 3400G zum Einsatz, dazu dann eine RX 580, wieso? wenn Ich mit dem 2600er einen Ryzen aus der selben Generation mit mehr Kernen, mehr SMT und zum günstigeren Preis bekommen kann?
Unsterstützt die iGPU jetzt mittlerweile irgendwie die zusätzliche GPU oder wird die iGPU beim Einsatz einer dedizierten GPU abgeschalten?
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh