AMD Ryzen 7 5700G und Ryzen 5 5600G ab sofort im Handel

Ryzen 5900HS = 3,0 GHz bei 35 Watt = 85,7 Hz pro Watt
Ryzen 5700G = 3,8 GHz bei 65 Watt = 58,5 Hz pro Watt.

Man sieht also, welcher besser selektiert ist.
Max. Boost von 4,6 GHz haben beide.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Und was hat der 5900H im Vergleich zum HS. Und was der 5950X?
 
5900H = 3,10 GHz bei 45 Watt = 68,9 Hz pro Watt.

Den 5950X kann man nicht vergleichen, das ist eine völlig andere Maske / Prozessortyp und hat 16 statt 8 Kerne.
 
5700G für 307,55€ + kostenloser Versand ist nice.

 
Finde die Benchmarks ziemlich enttäuschend. Der 5700G ist mit seinem kastrierten Cache in Spielen knapp 20% langsamer als der 5800X, da wäre mehr dringewesen.
 
Diese CPU´s sind in Sache Cache immer etwas kastriert, weil sie ja Strom sparen sollen; außerdem muß die iGPU ja auch irgendwo hin...
 
Diese CPU´s sind in Sache Cache immer etwas kastriert, weil sie ja Strom sparen sollen; außerdem muß die iGPU ja auch irgendwo hin...
Das alles sind keine Naturgesetze, sondern bloß Abwägungsentscheidungen von AMD. Die kannst du gerne gut finden, ich finde sie schlecht.
 
Kann sein, aber ich habe einen 4750G und bin mehr als zufrieden. Zocke allerdings nicht; von daher ist mir das also egal. Ansonsten muss man sich eben vorher schlau machen; geringer L3 Cache ist immer schlecht(er)....
 
Zuletzt bearbeitet:
Halt nette CPUs für SFF-Desktops, waren aber die 4xxxG auch schon. Für mich auch kein Grund, meinen 4750G zu ersetzen. Die +15-20% Mehrleistung brauch ich nicht und ECC können die Retail-APUs auch nicht; der 4750 schon.
 
Die G´s sind halt eher für den Business Sektor gedacht; deswegen gab´s die anfangs auch nur als OEM und Tray. Zumindest das hat AMD entschärft....
 
Finde die Benchmarks ziemlich enttäuschend. Der 5700G ist mit seinem kastrierten Cache in Spielen knapp 20% langsamer als der 5800X, da wäre mehr dringewesen.
Das "Problem" mit den 20% ist aber kein "Allgemeines" sondern tritt auf wenn man ins CPU-Limit läuft. Dazu braucht es aktuell eine sehr gute Grafikkarte wie eine RTX 3090 oder jemand der gerne bei 1024x768 mit 600 FPS spielen möchte. Bei den meisten Limitiert allerdings die Grafikkarte und nicht die CPU.
Weiter sind es auch nur bei den allerwenigstens Spielen 20%, bei vielen Spielen sind es auch nur 1 oder 2%.
Spannend wird es, wenn man wirklich schnellen Speicher verwenden will z.B. was mit 4000 CL16. Dann geht das mit dem 5700G problemlos. Bei einem 5800X bekommt man probleme mit dem FCLK der dann von 1:1 auf 1:2 runter geht. Das kostet dann richtig Performance.
Der 5800X ist in der Theorie der "bessere" Prozessor zum Spielen. In der Praxis ist der 5700G genau so gut und bietet dafür andere Vorteile. Sehr geringer Stromverbrauch im IDLE (bis zu 20W weniger) und eben eine extra GPU über die man zusätzlich Monitore anschließen kann.
 
Hier mal eine Quelle die meine "Behauptung" bestätigt.
Wie wär es wenn du auch eine passende Quelle für deine 20% im Schnitt lieferst?
Beitrag automatisch zusammengeführt:

Hier übrigens noch ein Beispiel für einen der total sinnlosen Test:
720P low mit einer 3080 ti ist einfach sehr praxisnah ;) Aber so eine CPU ist einfach nicht gut, wenn sie keine 600 FPS schafft ^^

Um so höher die Auflösung wird, um so geringer der (vermeintliche) Nachteil des 5700G
Beitrag automatisch zusammengeführt:

Hier mit einer 6900 XT:
 
Zuletzt bearbeitet:
Kann mal einer erklären, warum der ältere 3400G (besitze ich selbst) mit Vega 11 bestückt ist und die neueren 5600G & 5700G "nur" mit Vega 8? Ist das nicht in gewisser Weise ein Rückschritt?


1629328159387.png
 
Der Rückstand auf den günstigeren Ryzen 5 5600X beträgt vier Prozent und auf den Ryzen 7 5800X gute acht Prozent.

Ist also genau so wie ich es geschrieben habe.
Deine 20% beziehen sich auf geringer Auflösung mit sehr starker GPU. Also etwas das keiner macht. Außer eben er will irgendwas mit 600 fps spielen um damit z.B. im Winter die Wohnung schön warm zu bekommen. Da wäre aber Mining deutlich sinnvoller.

Um konkreter zu werden, jemand der sich eine RTX 3090 für 2200€ kauft, der holt sich auch keinen 3800x sondern einen 3900x oder 3950x mit 64MB Cache.

Für alle Anderen mit einer 3080 und drunter spielt es einfach kaum eine Rolle ob es dann 5700g oder ein 5800x ist.

Im Bezug auf deine Quelle, wir haben da beide "recht", aber das eine macht halt mehr Sinn, das andere eher weniger.

LG, Qorr
Beitrag automatisch zusammengeführt:

Kann mal einer erklären, warum der ältere 3400G (besitze ich selbst) mit Vega 11 bestückt ist und die neueren 5600G & 5700G "nur" mit Vega 8? Ist das nicht in gewisser Weise ein Rückschritt?
Die neueren Vegas sind höher getacktet und haben auch so ein paar Optimierungen. Deshalb reichen ihnen weniger Kerne für die gleiche Leistung.
Mehr Leistung kann die iGPU nicht bringen, da sie vom Speicher limitiert ist.

Schau mal hier die Benchmarks an. Gut zu sehen, wie sehr der Speicher hier limitiert, die GPU könnte noch "mehr":


Der Rückstand auf den günstigeren Ryzen 5 5600X beträgt vier Prozent und auf den Ryzen 7 5800X gute acht Prozent.

LG, Qorr
 
Zuletzt bearbeitet:
Schau mal hier die Benchmarks an.
Ich hatte mir nur kurz im UserBenchmark ein Vergleich angeguckt. Dort war die Vega 11 etwas besser als die Vega 8. Der Vergleich war wohl jedoch mit meiner Vega 8 von 2018.


Die neueren Vegas sind höher getacktet und haben auch so ein paar Optimierungen. Deshalb reichen ihnen weniger Kerne für die gleiche Leistung.
Da stellt sich mir die Frage, warum man das nicht mit der Vega 11 Grafikeinheit gemacht hat, wenn das denn so gut funktioniert.


Mal ne andere Frage, vielleicht weißt du es ja. Ich betreibe meinen 3400G auf einem B450 i Aorus Pro WiFi überwiegend als Werkstatt-Rechner. Übergangsweise wollte ich ihn jetzt für einige Monate als Büro-Rechner nutzen. Das ITX-Board hat 2x HDMI und 1x DP. Weißt du zufällig was der 3400G (oder auch die neuen APUs) maximal ausgeben kann? Ich hatte gestern mal probeweise zwei QHD Monitore (2560 x 1440p) + ein FHD Monitor (1920 x 1080p) angeschlossen. Das lief soweit problemlos. Ich habe jedoch keine Angabe gefunden, was maximal geht. Auf der AMD-Seite steht nichts dazu, jedenfalls hab ich nichts Offizielles gesehen.
 
Ich hatte mir nur kurz im UserBenchmark ein Vergleich angeguckt. Dort war die Vega 11 etwas besser als die Vega 8. Der Vergleich war wohl jedoch mit meiner Vega 8 von 2018.



Da stellt sich mir die Frage, warum man das nicht mit der Vega 11 Grafikeinheit gemacht hat, wenn das denn so gut funktioniert.

Der 3200G ist in einer anderen / alten Strukturbreite gefertigt. Mit dem neueren Design und Fertigungsverfahren in 7nm kann die iGPU höher tackten.

Mal ne andere Frage, vielleicht weißt du es ja. Ich betreibe meinen 3400G auf einem B450 i Aorus Pro WiFi überwiegend als Werkstatt-Rechner. Übergangsweise wollte ich ihn jetzt für einige Monate als Büro-Rechner nutzen. Das ITX-Board hat 2x HDMI und 1x DP. Weißt du zufällig was der 3400G (oder auch die neuen APUs) maximal ausgeben kann? Ich hatte gestern mal probeweise zwei QHD Monitore (2560 x 1440p) + ein FHD Monitor (1920 x 1080p) angeschlossen. Das lief soweit problemlos. Ich habe jedoch keine Angabe gefunden, was maximal geht. Auf der AMD-Seite steht nichts dazu, jedenfalls hab ich nichts Offizielles gesehen.
Dazu kann ich dir leider nichts sagen.
Beitrag automatisch zusammengeführt:

Sorry, oben hatte noch der Link gefehlt:
 
Kann mal einer erklären, warum der ältere 3400G (besitze ich selbst) mit Vega 11 bestückt ist und die neueren 5600G & 5700G "nur" mit Vega 8? Ist das nicht in gewisser Weise ein Rückschritt?
Die neuen Cezanne sind nur "Abfallprodukte" aus der Notebook Sparte und da geht es in erster Linie ums Energieparen. Weiterhin wurde der 3400G noch in 12 nM gefertigt, die neuen in 7 nM und da sind die Produktionskapazitäten knapp, daher werden nicht mehr als 8 CUs verbaut.
Dafür kann man die neuen iGPs deutlich höher takten und sie halten auch durchgehend ihren hohen Takt und sind damit der iGP des 3400G zumindest ebenbürtig, in den meisten Spielen sogar schneller.
Weißt du zufällig was der 3400G (oder auch die neuen APUs) maximal ausgeben kann?
Wenn ich mich richtig erinnere kann auf allen Ports max. 3840x2160@60Hz ausgegeben werden.
 
Wem Vega nicht ausreicht, kann sie auch übertakten....
 
Halt nette CPUs für SFF-Desktops, waren aber die 4xxxG auch schon. Für mich auch kein Grund, meinen 4750G zu ersetzen. Die +15-20% Mehrleistung brauch ich nicht und ECC können die Retail-APUs auch nicht; der 4750 schon.
Ist das sicher? In den meisten Quellen steht häufig "ECC support false", beim 4750G aber ebenfalls manchmal, daher hatte ich noch Hoffnung.
Allerdings habe ich noch keinen einzigen Bericht gefunden, der aussagt jemand habe den 5700G mit ECC zum laufen gebracht :(
 
Ist das sicher? In den meisten Quellen steht häufig "ECC support false", beim 4750G aber ebenfalls manchmal, daher hatte ich noch Hoffnung.
Allerdings habe ich noch keinen einzigen Bericht gefunden, der aussagt jemand habe den 5700G mit ECC zum laufen gebracht :(
Der 4750G ist ja die Pro Version und kann deshalb auch ECC. Das würde dann auch wieder der 5750g Pro können.
 
Zuletzt bearbeitet:
AMD PRO 4750G läuft z.B. im ASRock A520M-ITX/ac mit zwei Kingston Server Premier DIMM 32GB, DDR4-3200, CL22-22-22, ECC (KSM32ED8/32ME) Riegeln im ECC Mode.

Code:
EDAC MC: Ver: 3.0.0
EDAC amd64: F17h_M60h detected (node 0).
EDAC amd64: Node 0: DRAM ECC enabled.
EDAC amd64: MCT channel count: 2
EDAC MC0: Giving out device to module amd64_edac controller F17h_M60h: DEV 0000:00:18.3 (INTERRUPT)
EDAC MC: UMC0 chip selects:
EDAC amd64: MC: 0: 16384MB 1: 16384MB
EDAC amd64: MC: 2:     0MB 3:     0MB
EDAC MC: UMC1 chip selects:
EDAC amd64: MC: 0: 16384MB 1: 16384MB
EDAC amd64: MC: 2:     0MB 3:     0MB
EDAC amd64: using x8 syndromes.
EDAC PCI0: Giving out device to module amd64_edac controller EDAC PCI controller: DEV 0000:00:18.0 (POLLED)
AMD64 EDAC driver v3.5.0

Ich warte gespannt auf den Nachfolger AMD PRO 5750G, mir ist aber noch keine Kaufquelle bekannt.
 
Inzwischen sind die AMD Ryzen PRO 5000 CPUs (mit ECC support) kaufbar.

Ein Linux Kernel PCI ID Patch ist noch nötig, damit EDAC funktioniert.
Hier mal ein Auszug aus gepatchten Kernel 5.14.11 mit "AMD Ryzen 7 PRO 5750GE with Radeon Graphics" (Family 0x19 Model 0x50)
Code:
processor       : 0
vendor_id       : AuthenticAMD
cpu family      : 25
model           : 80
model name      : AMD Ryzen 7 PRO 5750GE with Radeon Graphics
stepping        : 0
microcode       : 0xa50000c
cpu MHz         : 3549.616
cache size      : 512 KB
physical id     : 0
siblings        : 16
core id         : 0
cpu cores       : 8
apicid          : 0
initial apicid  : 0
fpu             : yes
fpu_exception   : yes
cpuid level     : 16
wp              : yes
flags           : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush mmx fxsr sse sse2 ht syscall nx mmxext fxsr_opt pdpe1gb rdtscp lm constant_tsc rep_good nopl nonstop_tsc cpuid extd_apicid aperfmperf rapl pni pclmulqdq monitor ssse3 fma cx16 sse4_1 sse4_2 movbe popcnt aes xsave avx f16c rdrand lahf_lm cmp_legacy svm extapic cr8_legacy abm sse4a misalignsse 3dnowprefetch osvw ibs skinit wdt tce topoext perfctr_core perfctr_nb bpext perfctr_llc mwaitx cpb cat_l3 cdp_l3 hw_pstate ssbd mba ibrs ibpb stibp vmmcall fsgsbase bmi1 avx2 smep bmi2 erms invpcid cqm rdt_a rdseed adx smap clflushopt clwb sha_ni xsaveopt xsavec xgetbv1 xsaves cqm_llc cqm_occup_llc cqm_mbm_total cqm_mbm_local clzero irperf xsaveerptr rdpru wbnoinvd arat npt lbrv svm_lock nrip_save tsc_scale vmcb_clean flushbyasid decodeassists pausefilter pfthreshold avic v_vmsave_vmload vgif v_spec_ctrl umip pku vaes vpclmulqdq rdpid overflow_recov succor smca fsrm
bugs            : sysret_ss_attrs spectre_v1 spectre_v2 spec_store_bypass
bogomips        : 6388.20
TLB size        : 2560 4K pages
clflush size    : 64
cache_alignment : 64
address sizes   : 48 bits physical, 48 bits virtual
power management: ts ttp tm hwpstate cpb eff_freq_ro [13] [14]
Code:
EDAC MC: Ver: 3.0.0
EDAC amd64: MCT channel count: 2
EDAC MC0: Giving out device to module amd64_edac controller F19h_M50h: DEV 0000:00:18.3 (INTERRUPT)
EDAC amd64: F19h_M50h detected (node 0).
EDAC MC: UMC0 chip selects:
EDAC amd64: MC: 0: 16384MB 1: 16384MB
EDAC amd64: MC: 2:     0MB 3:     0MB
EDAC MC: UMC1 chip selects:
EDAC amd64: MC: 0: 16384MB 1: 16384MB
EDAC amd64: MC: 2:     0MB 3:     0MB
EDAC amd64: using x8 syndromes.
EDAC PCI0: Giving out device to module amd64_edac controller EDAC PCI controller: DEV 0000:00:18.6 (POLLED)
AMD64 EDAC driver v3.5.0

HWMon/k10temp braucht ein CPUID Patch, dann wird ebenfalls die Tctl/Tdie wie gewohnt angezeigt.
Code:
k10temp-pci-00c3
Adapter: PCI adapter
Tctl:         +57.9°C  
Tdie:         +57.9°C

 
Ich weiß ja, dass die 5XXX zu konvexen Heatspreadern neigen, aber ist es normal, dass der Kühler auf der CPU so richtig kippelt? Mein 5700G ist gefühlt kugelförmig.
 
Liegts dann vielleicht am Kühler?
 
Möglich, aber auf dem 3700X wackelt er nicht so (TechN).

Du hast Recht:eek: auf Glasplatte und Handydisplay liegt er auf, alter Athlon wackelt auch auf der Coldplate.
Techn hat aber auch sinnvoll auf die Konstruktion bezogen erklärt, wieso das so muss.
 
Zuletzt bearbeitet:
Witcher 3, Doom, Alien Isolation, R-Type und viele andere Games wurden mit meiner Ryzen 5 2400G Vega 11 APU bereits erfolgreich getestet diese Woche, und Videos auf YouTube hochgeladen - allerdings auf ULTRA und 1600x900 und mit Kantenglättung, und nicht auf "alle Settings so lowest wie möglich, Schatten und Objekte poppen einen Meter vorm Charakter auf, und dafür am besten sinnfreies 10k Auflösungsgedöns" so wie alle anderen YouTuber diese genialen APUs verpfuscht testen, indem die gesamte Renderperformance für endloses k-Auflösungsgedöns verschleudert wird.

Selbst Nightmare Settings auf Doom funktionieren problemlos mit der Vega 11, und Witcher 3 läuft flüssig (wenn auch zurzeit noch ohne Mods) flüssig in Novigrad.
Die durchschnittliche Framerate ist je nach Situation und Game 25-45.
(Einzige Probleme gibt es nach wie vor bei den Spielen Blair Witch und Final Fantasy XV, wo bei Final Fantasy XV auch bei Medium Settings und alle Nvidia Grafikeffekte aus, und 1440x900 und niedriger beinahe unabhängig von den Settings höchstens so 15FPS Geruckel zustande kommt, Blair Witch lässt sich mit der Ryzen APU aber besser handhaben.)

Wieviel Performance plus kriege ich in etwa nach dem Upgrade von Vega 11 auf Vega 7 im Ryzen 7 5700G? :) Doppelte Rechenpower?
 
Wieviel Performance plus kriege ich in etwa nach dem Upgrade von Vega 11 auf Vega 7 im Ryzen 7 5700G? :) Doppelte Rechenpower?
Das kommt ziemlich stark auf den verwendeten Speicher an. Ist der limitierende Faktor...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh