Ryzen 7 7800X3D: AMD stellt ihn gegen den Core i9-13900K

Nah, 1KW minimum mit eigenen Reaktor.
und der passenden kühlung. ltt hat versucht den 13900k mit einem 5000w industrie chiller zu kühlen.
ging besser als mit einer sehr guten, normalen wasserkühlung, bei 380w verbrauch hat die cpu dann 40k in cinebench R23 geknackt, kam dann aber wieder ins throttlen.
fazit, der 13900ks ist für normale anwender nicht zu kühlen und potential liegt brach.

sie hatten den chiller auch an einer 4090 ausprobiert, die wurde nur 18°C warm und schaffte so 4 fps in forza horizon (?) mehr.

ltt video link
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Denke auch, dass wir wohl eher Kopf an Kopf sehen werden.
Für Einzelne Spiele kann das aber schon hin hauen aber da finden sich bestimmt auch welche wo es andersrum ist.
Ist halt eher Marketing und AMD wäre besser beraten, Benchmarks denn unabhängigen Testern zu überlassen.Anhang anzeigen 865195
Eine Simulation ist aber auch nur ein besseres Marketing der unabhängigen Testern...
 
Eine Simulation ist aber auch nur ein besseres Marketing der unabhängigen Testern...
Jein.

Es wird darauf hingewiesen, dass es nur eine Simulation und der darin innewohnenden Ungenauigkeiten und Annäherungen an tatsächliche Werte ist.

So etwas in der Art vermisse ich bei jeglichen PR-Folien jeglicher Hardware-Hersteller.
 
und der passenden kühlung. ltt hat versucht den 13900k mit einem 5000w industrie chiller zu kühlen.
ging besser als mit eienr sehr guten, normalen wasserkühlung, bei 380w verbrauch hat die cpu dann 40k in cinebench geknackt, kam dann aber wieder ins throttlen.
fazit, der 13900ks ist für normale anwender nicht zu kühlen und potential liegt brach.

sie hatten den chiller auch an einer 4090 ausprobiert, die wurde nur 18°C warm und schaffte so 4 fps in forza horizon (?) mehr.

ltt video link
40k Punkte schafft ein Stock 13900k ohne spezial Kühlung und mit 100W weniger.
 
Hab Gehört
40k Punkte schafft ein Stock 13900k ohne spezial Kühlung und mit 100W weniger.
Ja bei der Leistungsaufnahme im idle und temps bei multicore Anwendungen ist noch Verbesserungspotential.

Garnicht gewusst das Intel schon jetzt die 500w knackt
 

Anhänge

  • Screenshot_20230313_082550_Firefox.jpg
    Screenshot_20230313_082550_Firefox.jpg
    245,4 KB · Aufrufe: 108
  • Screenshot_20230313_082511_Firefox.jpg
    Screenshot_20230313_082511_Firefox.jpg
    228,7 KB · Aufrufe: 106
Zuletzt bearbeitet:
@Nuestrass

Hättest die Screenshots gleich so wählen können, dass man die X3D CPUs mit sieht. ;)
Da hat zumindest AMD im Idle Verbrauch noch ein bisschen mehr Verbesserungspotenzial.

Und nein, ich will Intel nicht verteidigen, weil ich selber einen habe, sondern wenn schon solche Kommentare kommen, sollte man bei der ganzen Wahrheit bleiben. ;)

Edit:
Der Beitrag von @Nuestrass wurde nun im Nachgang editiert.
 
Zuletzt bearbeitet:
Dazu müsste man lesen können. Das sind die Werte vom ganzen System, nicht von der CPU.
Stimmt package power geht nur bis 350w
Beitrag automatisch zusammengeführt:

@Nuestrass

Hättest die Screenshots gleich so wählen können, dass man die X3D CPUs mit sieht. ;)
Da hat zumindest AMD im Idle Verbrauch noch ein bisschen mehr Verbesserungspotenzial.

Und nein, ich will Intel nicht verteidigen, weil ich selber einen habe, sondern wenn schon solche Kommentare kommen, sollte man bei der ganzen Wahrheit bleiben. ;)
Skandal :) der 5800x3d ist doch zu sehen und bei den 7950x3d ist noch Verbesserungspotential
 

Anhänge

  • Screenshot_20230313_084534_Firefox.jpg
    Screenshot_20230313_084534_Firefox.jpg
    245 KB · Aufrufe: 101
Zuletzt bearbeitet:
Wieder zum Thema lesen lernen, er redet vom Idle, nicht von Last.
 
und der passenden kühlung. ltt hat versucht den 13900k mit einem 5000w industrie chiller zu kühlen.
ging besser als mit eienr sehr guten, normalen wasserkühlung, bei 380w verbrauch hat die cpu dann 40k in cinebench geknackt, kam dann aber wieder ins throttlen.
fazit, der 13900ks ist für normale anwender nicht zu kühlen und potential liegt brach.

sie hatten den chiller auch an einer 4090 ausprobiert, die wurde nur 18°C warm und schaffte so 4 fps in forza horizon (?) mehr.

ltt video link
Mit den richtigen Einstellungen knack ich die 40k locker mit meiner 360er AiO für 140 €, lol.
 
Im Beitrag 66 ist sowohl Idle, als auch Last per Screenshot gezeigt worden. Lesen ohne es verstehen zu können ist keine Kunst.
Um was geht es dir eigentlich? Unbedingt ans Bein pinkeln zu wollen?

Ich habe mich jedoch auf den Idle Vebrauch bezogen und da waren erst Screenshots im Beitrag, die nur den Idle Verbrauch von den Intel CPUs zeigen, aber der Mehrvebrauch der AMD CPUs im Idle wurde gekonnt weggelassen. Das wurde nun im Nachgang editiert.
 
Das wurde nun im Nachgang editiert.
Zuletzt bearbeitet: Heute um 08:26

Dein Kommentar kam um 8:29
Also praktisch gleichzeitig. Insofern wohl eher ein Missverständnis.

Fakt ist, AMD hat im Idle Verbesserungspotenzial.
Messungen auf beiden Seiten zeigen, dass Verbesserungen bei beiden Hersteller schön wären. Aber es gibt kein gemeinsames ankreiden durch den Kunden, sondern ein gegeneinander und die Hersteller lachen sich die Gewinne aufs Konto.
 
AMD muss mehr im Idle haben sonst hätten auch die nur 30°C.
 
Für alle die auf 720p und 1080p spielen und eine 2000 Euro teure Grafikkarte haben, sind die 3D CPUs ja sinnvoll. Aber ich denke diese Kombination gibt es einfach nicht. Der Normalo mit seiner Mittelklasse GPU und dem 1440p Monitor hat eh nur 10% CPU Auslastung beim Spielen und 100% GPU Auslastung!
 
Da kann man doch eh keine pauschale Aussage treffen. Gibt Games die nagen gut an einer CPU (egal welche Auflösung) und dann gibts welche die das nicht machen.
 
Viele Spiele haben eine Auslastung von 40-70%.

Eine 1070 ist für WQHD auch zu schwach auf der Brust, die könnte man auch locker mit einem ältereren 6 Kerner befeuern.

Von daher ist die Leistung deiner CPU + GPU nicht sinnvoll abgestimmt.

Sinn würde diese Kombo allenfalls machen wenns Sparschwein halt nicht mehr hergibt oder man überwiegend CPU-lastige Titel wie Anno spielt. :oops:
 
Die PPT der CPU liegt schon bei mir bei 19% von 142W im Idle. Das sind 27W fürs nichts tun!

Das kann ich bestätigen. Mein 5600X verbraucht als Gesamtleistungsaufnahme 30 Watt. Egal ob ich im Bios auf Eco-mode gehe, PBO Curve O. nutze oder manuell vcore und Frequenz einstelle.
Die 30 Watt Idle der CPU bleiben immer, egal welche Einstellung.
 
Nebulus ist ein enormer AMD Kritiker, der dann laut Sig AMD Hardware haben soll. Irgendwie Schizophren.

Performancerating 3.840 × 2.160 + Upsampling
13900K +6% zum 7950X
Frametimes +8% für den 13900K.
 
Die PPT der CPU liegt schon bei mir bei 19% von 142W im Idle. Das sind 27W fürs nichts tun!

Daher tue ich mich momentan schwer damit, für meine Alltagsmühle einen Ryzen anzuschaffen.

Wäre jetzt noch interessant wie sich Last auf dem SOC bei gleichzeitig geringer CPU Last z.B. kopieren/verschieben größerer Datenmengen via LAN/SATA auf den Verbrauch auswirkt.
 
Die 30 Watt Idle der CPU bleiben immer, egal welche Einstellung.
30 Watt Idle für eine 5600X? :unsure:

..sicher, dass das stimmt oder wird das nur in diesen AMD Tool so angezeigt? Schon einmal zb. mit CoreTemp gegen gecheckt?

Also bei mir liest CoreTemp und Intel XTU für eine 12400, egal ob nun Windows Energieplan auf "Energiesparend" (400~500MHz) oder "Ultimative Leistung" (4,3~4,4GHz) nur selten über 3~3,5 Watt aus.
 
Ist der Nuestrass eigentlich der AMD Werksstudent im Community Management?
Gerne spreche ich auch mit Intel Vertretern über die aktuell best entwickelten CPUs.

Ich hab noch einen 9900k im notebook und bin bis auf die effizients und Temperatur zufrieden. Alles danach von intel war nicht so nice. Die 13000 Generation ist bis auf die effizients aber wieder in Ordnung:)
 
Zuletzt bearbeitet:
Die 13000 Generation ist bis auf die effizients aber wieder in Ordnung:)
Und wieso die 12er nicht? Ist doch die selbe Entwicklung, takten nur geringer, was aber auch gut sein kann, da die nicht solchen spitzen beim Verbrauch haben.

Mir sagen die 13er absolut nicht zu da es Spiele gibt wo die bis 200W verbrauchen können, auch im GPU Limit.

Das macht der 12er deutlich besser, auch wenn etwas langsamer.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh