Ryzen 9 7950X3D: Im Schnitt bis zu 6 % schneller als Core i9-13900K

Schon beim ersten Bench im Video ist die Differenz zwischen 6.000 und 8.000MHz ca. 4,3 ;)
Wieviel mehr, als 6.000 kann der X3D laufen? 6.000 kann ja nicht das Ende sein, oder doch?
Schau dir einen Test zu den anderen 7000er an, dann weißt du was der RAM Controller kann.
Schau dir einen Test zum 5800x3d an, dann weißt du was du erwarten kannst und wo du was erwarten kannst.
Und dann brauchst du nur 1+1 zusammenzählen.

Ist das gleiche Thema wie CPU und GPU Limit.
Wer weiß wonach er schauen muss ist mit den vorhandenen Daten mehr als zufrieden.
Wer keinen Plan hat und keine Zusammenhänge kennt und nicht weiß was er sieht und wonach er schauen muss will halt immer mehr Tests.
Dabei ist das komplett überflüssig.

Und benches in einem Bereich wo es nur noch nach silicon lottery geht, und wo die Ergebnisse nur noch mit 500€+ Boards wie einem apex oder dark erreicht werden... Das ist evtl für die xoc/ln2 Fraktion interessant. Aber nicht für 0815 YouTube Kundschaft.
Und wenn dich die Ergebnisse der xoc/ln2 Fraktion interessieren und du danach deine Kaufentscheidung treffen willst... Dann schau da nach.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Freu mich richtig auf den 7800X3D das Teil wird wieder ne richtige Rakete!
Zusammen mit der 4090 ein Klasse Gespann.
Das sollte bis zum 9000X3D reichen der dan die 5090 antreibt und das ganze schön auf dem X670E.
 
Der 720p Test als CPU Test ist ok, aber eine Extreme. Es wird einem suggeriert das die AMD super effizient ist und die Intel CPU das Doppelte an Verlustleistung erzeugt...

Ist aber nur halbe Wahrheit. Bei Teil-Last-Szenarien sieht es schon deutlich besser
... für Intel und auf die hohe Idel Verlustleistung der AMD wird nicht wirklich eingegangen.
Ob meine cpu in 720p bei 80fps 60w brauch oder in 4k bei 80 fps 60w brauch ist doch das gleiche.
 
Falsch. Bei 720p arbeitet deine CPU an der Kotzgrenze. Bei 4K biste im GPU Limit und die CPU ist bei Teil-Last bzw. man bedient
die Regler richtig und CPU / GPU laufen
"ausgeglichen"
 
Du erklärst den leuten aber, dass die CPU Leistung zusammenrückt.

Das was auf deinem Bildschirm ankommt, rückt zusammen, wenn die GPU das schwächste Glied in der Kette ist. Dadurch spuckt die CPU selbst vielleicht nicht weniger fps aus, aber dem Enduser kann das mehr oder weniger egal sein.

Rückt vielleicht zusammen, aber nicht weil die CPU weniger macht oder kann. Das ist nicht das selbe und sollte dem Enduser eben nicht egal sein.


@Don
Wie wärs, wenn ihr beim Test dazu schreibt, wo und wie ich gebenchmarkt habt, damit User hier die Benchmarks nachstellen können?
Glaube CB macht oder hat das mal gemacht, fände ich am interessantesten.
 
Am Ende ist es so: Das was auf deinem Bildschirm ankommt, rückt zusammen, wenn die GPU das schwächste Glied in der Kette ist. Dadurch spuckt die CPU selbst vielleicht nicht weniger fps aus, aber dem Enduser kann das mehr oder weniger egal sein. Wenn jemand einen 12400f mit ner RTX 4090 kombiniert, weil ich in nem Video 7950x3D, 7900x und 13900K gegeneinander verglichen habe, dann ist ja auch nicht meine Schuld.
Die Kritik ist, dass du in einem CPU Test das GPU Limit verschweigst.
Es ist korrekt dass resultierende FPS gleich sind, aber das "warum" benennst du nicht, oder bestenfalls ungelenk bzw. Missverständlich.
Das ist leicht vermeidbar!

Korrekt wäre zu sagen, um ein plastisches Beispiel zu nennen:
720p = soviel
1080p = genau so viel
1440p = weniger als 720p und 1080p und damit GPU Limit. Tests werden hier abgebrochen, die 4090 ist am Ende. Keine Aussage mehr über die CPU möglich. 4k werden die FPS deutlich weiter runter gehen, schaut in einen 4090 benchmark.

(Es kann natürlich auch sein dass 1080p schon weniger ist als 720p und damit 1080p schon GPU Limit ist)

Dennoch räume ich ein: Die Erklärung war ungelenk. Der Umstand bleibt aber dennoch bestehen. Und das ist theoretisch das, was den Enduser dann auch wirklich interessiert.
Das ist der Kern der Kritik:
Du stellst Zusammenhänge nicht korrekt dar.
Und ich verstehe nicht warum.
LTT, Gamers Nexus, Hardware unboxed, die sind da alle sehr viel sauberer unterwegs und mit deren Methodik und Präsentation wirst du natürlich verglichen.
 
Zuletzt bearbeitet:
Ich bin echt ziemlich beeindruckt von dem Ding. Jetzt erst brilliert AMD mit dem Zen4 und das wird für einen Umrüstansporn bei Einigen sorgen! Hat gut Leistung und ist extrem effizient, naja gut der Preis etwas teuer.

Was mich interessieren würde, ist der max. und average Boosttakt des Cache CCD aller Reviews da draußen! Liegen die Unterschiede an dem jeweiligen Mainboard oder einfach nur an der Chipgüte der jeweiligen CPU? Der Unterschied scheint ja doch signifikant auszufallen und da werden wohl viele Leute wieder das FAG bis zum Erbrechen nutzen. :d
 
Zuletzt bearbeitet:
Die Kritik ist, dass du in einem CPU Test das GPU Limit verschweigst.
Es ist korrekt dass resultierende FPS gleich sind, aber das "warum" benennst du nicht, oder bestenfalls ungelenk bzw. Missverständlich.
Das ist leicht vermeidbar!

Korrekt wäre zu sagen, um ein plastisches Beispiel zu nennen:
720p = soviel
1080p = genau so viel
1440p = weniger als 720p und 1080p und damit GPU Limit. Tests werden hier abgebrochen, die 4090 ist am Ende. Keine Aussage mehr über die CPU möglich. 4k werden die FPS deutlich weiter runter gehen, schaut in einen 4090 benchmark.

(Es kann natürlich auch sein dass 1080p schon weniger ist als 720p und damit 1080p schon GPU Limit ist)


Das ist der Kern der Kritik:
Du stellst Zusammenhänge nicht korrekt dar.
Und ich verstehe nicht warum.
LTT, Gamers Nexus, Hardware unboxed, die sind da alle sehr viel sauberer unterwegs und mit deren Methodik und Präsentation wirst du natürlich verglichen.
Warum? okay! Hab die CPU seit Freitag! Habe den größten Teil der Zeit auf die Benchmarks + Retest der anderen CPU. Plus Auswertung der Ergebnisse, Skript und Videoschnitt hat das schon Zeit gekostet bis Montag 10:00 Uhr! Genau da war das Video fertig. Und daher habe ich mich da ungelenk ausgedrückt. Tut aber nichts zur Sache. Habe 10 Games getestet! 3 davon auf allen 4 Auflösungen. Die anderen 7 nur auf 720p, eben genau aus deinem genannten Grund. Nur weil auf 1440p und UHD (4K btw. nicht gleich UHD, wenn wir hier schon so genau sind, denn auf 4K habe ich keine der CPUs getestet) die GPU das schwächste Glied in der Kette ist, braucht man ja nicht den Test abbrechen. Fakt ist: Diese gemessenen fps sind und bleiben theoretisch. Auf ner realistischen Auflösungen wird in nem ausgeglichenen System die GPU immer limitieren. Und das sollten User wissen. Daher habe ich das auch mit reingenommen.
 
Da Problem hier im Forum ist, dass die einen nur theoretische Leistung ohne Bezug zum reellen Eimsatz getestet sehen wollen. Die anderen die einen Bezug zu praktischen Anwendungsfällen haben möchten, werden hier immer gerne klein geredet. Das artet dann immer, wie jetzt auch, in unendlichen walls of text aus.
 
Falsch. Bei 720p arbeitet deine CPU an der Kotzgrenze. Bei 4K biste im GPU Limit und die CPU ist bei Teil-Last bzw. man bedient
die Regler richtig und CPU / GPU laufen
"ausgeglichen"
Du bist im gpu limit.

Nicht ich oder andere.

Warum geht ihr davon aus dass andere die gleichen Einstellungen nutzen wie ihr selbst?

Das ist euer Problem.

Guck dir meinen Screenshot von hogwarts an

In meiner nativen Auflösung 3440x1440 hab ich ohne Framegeneration 90 fps. Würde ich ohne FG spielen wäre mein fps cap bei 90.

Ergo wird meine cpu nicht weniger verbrauchen als in 720p.

Meine graka ist natürlich auch stark genug. Und das ist der springende Punkt.
 
Zuletzt bearbeitet:
Ich bin echt ziemlich beeindruckt von dem Ding. Jetzt erst brilliert AMD mit dem Zen4 und das wird für einen Umrüstansporn bei Einigen sorgen! Hat gut Leistung und ist extrem effizient, naja gut der Preis etwas teuer.

Was mich interessieren würde, ist der max. und average Boosttakt des Cache CCD aller Reviews da draußen! Liegen die Unterschiede an dem jeweiligen Mainboard oder einfach nur an der Chipgüte der jeweilige CPU? Der Unterschied scheint ja doch signifikant auszufallen und da werden wohl viele Leute wieder das FAG bis zum Erbrechen nutzen. :d
Ja die x3d cpus sind wirklich ungeschlagen was Leistung / effizients angeht und sind die neuen gaming Könige und das auch noch auf eine Plattform die einige Jahre halten wird.

Leider wollen sich viele das nicht eingestehen und versuchen Krampfhaft mit irgendwelchen teuren Ram Kits oder der viel zu ineffizienten cpu 13900ks Ihren Plattformkauf rechtzufertigen. Selbst igor meint der 13900ks ist raus da er einfach keinen Sinn macht was Leistung / effizients betrifft.

Bleibt einfach cool und werden nicht aggressiv den es ist nur hardware und akzeptiert den gamechanger x3d cache.
 

Anhänge

  • Screenshot_20230228_083445_Firefox.jpg
    Screenshot_20230228_083445_Firefox.jpg
    392,8 KB · Aufrufe: 62
Da Problem hier im Forum ist, dass die einen nur theoretische Leistung ohne Bezug zum reellen Eimsatz getestet sehen wollen. Die anderen die einen Bezug zu praktischen Anwendungsfällen haben möchten, werden hier immer gerne klein geredet. Das artet dann immer, wie jetzt auch, in unendlichen walls of text aus.
Wie ich das hier lese verläuft die Diskussion wo anders:
Es gibt User die Hintergrundwissen um CPU Limit und GPU Limit haben und 1+1 zusammenzählen können.
Und es gibt User die das Hintergrundwissen nicht haben und die "praktische Anwendungsfälle" getestet haben möchten.

Und die Debatte ist viel mehr ob "praktische Anwendungsfälle" getestet werden sollen oder ob Wissen verbreitet werden soll damit mehr Leute 1+1 zusammenzählen können.
 
Zuletzt bearbeitet:
Wir haben gar nichts verpennt. AMD hat sich dazu entschlossen, unserer Redaktion kein Sample zum Ryzen 9 7950X3D zukommen zu lassen. Bedank dich daher bei AMD. ;)
Würde hierfür gerne die Gründe wissen.
Das Luxx ist ja nicht unbedingt ein Hinterhof-Forum.
 
Wie ich das hier lese verläuft die Diskussion wo anders:
Es gibt User die Hintergrundwissen um CPU Limit und GPU Limit haben und 1+1 zusammenzählen können.
Und es gibt User die das Hintergrundwissen nicht haben und die "praktische Anwendungsfälle" getestet haben möchten.

Und die Debatte ist viel mehr ob "praktische Anwendungsfälle" getestet werden soll oder ob Wissen verbreitet werden soll damit mehr Leute 1+1 zusammenzählen können.
Das halte ich für eine Unterstellung. Das ist der Knackpunkt. Wenn Aussagen wie "die CPUs rücken zusammen" so gedeutet werden, dass ein GPU Limit angeblich verschwiegen wird, kann ich nur schmunzeln. Seriosität ist für mich wenn Theorie und Praxis den gleichen Stellenwert in einem Test bekommen. Nur weil irgendwann ein GPU Limit erreicht wird, muss man einen Test noch lange nicht abbrechen und diese Beobachtung aus der Berichterstattung ausschließen. Hier wird in den Krümeln gesucht um Foristen nachzuweisen, dass sie eins und eins nicht zusammenzählen können. Das ist gaslighting und trägt überhaupt nicht dazu bei ein umfassendes Bild zum eigentlichen Thema darzustellen.
 
Nehmt euch doch erst mal in arm und vertraut euch. Wir bekommen das schon noch geklärt 2025
 
Hi,

ist richtig! Ich hab mich mit Igor ausgetauscht weil ich mit einigen Beta Bios Versionen Probleme hatte. Habe aber ja alles zum Laufen bekommen, was ich übrigens auch im Video erkläre. Daher ist mir das Rätsel, worüber du rätselst. 😅 ich meine in 10 getesteten Games sieht man auch bei mir sehr gut wie viel stärker der x3D ist. Man sieht auch wie effizient er ist. Enttäuscht bin ich, weil das wieder Bastelei kostet damit die CPU so läuft wie die laufen soll. In CS GO ist er relativ langsam… ich vermute , dass das ein Game mit ner sehr alten Engine ist, das weniger von der Größe des Caches abhängig ist. Sonst komme ich ja aber auf gleiche Ergebnisse
Beitrag automatisch zusammengeführt:


Leider hab ich auch keine CPU von AMD bekommen. Hab mir aber trotzdem eine organisiert. Ich weiß aber nicht ob ich ne Pflaume bin… dazu hab ich zu viele menschliche Merkmale. Ich werd das mal überprüfen
titel von igor auf yt "

AMD Ryzen 9 7950X3D schlägt Intel Core i9-13900K(S) - Die Gaming- und Effizienz-Krone ist zurück!"​


und jetzt deiner "

ENTTÄUSCHUNG: AMD Ryzen 9 7950x3D! DIESE CPU hat SO VIELE PROBLEME gemacht und ich hab mehr erwartet"​

kommst aber auf gleiche ergebnisse wie igor ? alles klar xD
nur weil du zu release einer neuen cpu "basteln" musstest ist sie automatisch eine entäuschung ? und was hast du dir "mehr erwartet" ? noch mehr leistung ? noch mehr effizienz?

sorry aber das ist nur clickbaiting sonst nix.

 
Also ich finde es echt anstrengend hier noch zu lesen mittlerweile....

Es ist schön und gut, dass hier versucht wird einen Lehrauftrag auszuführen, nur muss man da auch mal die Kirche im Dorf lassen. Es gibt auch Menschen, die gar nicht so weit in die Materie abtauchen MÖCHTEN. Es gibt auch Menschen, denen reichen Nachrichten aus der Bild und wollen nicht die Fallstudie im Kleingedruckten nachlesen, um jeden einzelnen Zusammenhang zu verstehen.

Versteht mich nicht falsch, ich bin generell dafür einen hohen Bildungsstandard zu haben, aber das nimmt hier mittlerweile Züge an...

Ich schau so gut wie garkein Youtube oder ähnliches, weil halt das meiste was ich so gesehen habe Müll ist inhaltlich.
Ich hab mir das Video von Kreativecke extra geschaut und mal ganz im Ernst, er bringt alle Infos gut rüber. Das ist doch absolute Haarspalterei was hier gemacht wird.
Und wer es nicht schafft dabei 1+1 zusammen zu zählen, wenn er quasi das GPU Limit erklärt, der kann auch mit einer anderen Erklärung kein 1+1 zusammen zählen.

Wenn ihr hier nur noch elitäres Gerede haben wollt, dann braucht ihr hier eine Foren-Zensur, damit nur noch Auserwählte schreiben dürfen.
Aber da bin ich jetzt mal frech, dann sind hier 99% aller Posts weg, weil auch ziemlich viele von denen die hier immer die Klappe ganz groß aufreißen, absolut keinen Plan haben und nur nachplappern.

Man kann das Bildungsniveau auch verbessern ohne missionarisch und kleinkariert bei allem vorzugehen. Wir sind hier nicht mehr bei den Kreuzzügen.
 
"...sind einige Folien aufgetaucht, die offenbar direkt von AMD stammen..."

Das hier sich hier überhaupt schon wieder diskutiert wird wie blöde... man sollte meinen das man nach all den Jahren schlauer ist :ROFLMAO:
Alleine das es am Anfang 20% Schneller hieß, jetzt nur noch 6% auf ner geschönten AMD Folie... naja wo es in der Realität dann hingeht wird man sehen.
 
Das HWLUXX... die größte HW site Deutschlands... kein review sample bekommen hat, ist ein Unding.

Lässt tief blicken...

Gab wohl zu viel Berichterstattung in Sachen Intel, muss abgestraft werden, anders kann ich das nicht deuten. :oops:
Und wenn dich die Ergebnisse der xoc/ln2 Fraktion interessieren und du danach deine Kaufentscheidung treffen willst... Dann schau da nach.

Zwischen Stock Betrieb und XOC mit LN2 ist reichlich Raum für alltagstaugliches OC, also zumindest bei den Intel Prozessoren.
 
"...sind einige Folien aufgetaucht, die offenbar direkt von AMD stammen..."

Das hier sich hier überhaupt schon wieder diskutiert wird wie blöde... man sollte meinen das man nach all den Jahren schlauer ist :ROFLMAO:
Alleine das es am Anfang 20% Schneller hieß, jetzt nur noch 6% auf ner geschönten AMD Folie... naja wo es in der Realität dann hingeht wird man sehen.
Nein es war nie von 20% die Rede:)
 
Wenn Aussagen wie "die CPUs rücken zusammen" so gedeutet werden, dass ein GPU Limit angeblich verschwiegen wird, kann ich nur schmunzeln.
Es ist schlicht falsch. Die CPUen rücken nicht zusammen. Bestenfalls rücken die Ergebnisse zusammen. Und das tun sie weil die Grafikkarte limitiert.
Damit ist die Aussage: Die eine Grafikkarte die zum Testen genutzt wird verhält sich mit beiden mehr als zu schnellen CPUen identisch. Gratulation!
Das alles hat aber nix mit den CPUen zu tun.

@def:
Es geht um absolute Basics, darüber was ne CPU tut und was ne GPU tut beim Daddeln.
Und es geht darum warum CPU und GPU Benchmarks so gemacht werden wie sie gemacht werden und die Erkenntnis: Du bekommst immer das mit dem niedrigeren Limit.
Das ist weder kleingedruckt, noch sonstwelche Rocketscience.

Und ja:
Es gibt viel Murks da draußen, weil die Leute diesen Zusammenhang zwischen CPU und GPU nicht verstehen können oder wollen.
Es geht nicht um Meinungen und Bewertungen. Es geht um Fakten, um Zusammenhänge, um Evidenz.
 
Es ist schlicht falsch. Die CPUen rücken nicht zusammen. Bestenfalls rücken die Ergebnisse zusammen. Und das tun sie weil die Grafikkarte limitiert.
Damit ist die Aussage: Die eine Grafikkarte die zum Testen genutzt wird verhält sich mit beiden mehr als zu schnellen CPUen identisch. Gratulation!

@def:
Es geht um absolute Basics, darüber was ne CPU tut und was ne GPU tut beim Daddeln.
Und es geht darum warum CPU und GPU Benchmarks so gemacht werden wie sie gemacht werden und die Erkenntnis: Du bekommst immer das mit dem niedrigeren Limit.
Das ist weder kleingedruckt, noch sonstwelche Rocketscience.

Und ja:
Es gibt so viel Murks dadraußen, weil die Leute diesen Zusammenhang zwischen CPU und GPU nicht verstehen können oder wollen.
Es geht nicht um Meinungen und Bewertungen. Es geht um Fakten, um Zusammenhänge, um Evidenz.
Ja, für dich und mich sind das vielleicht Basics, für andere aber nicht.
Und es ist doch absolut legitim, wenn Inhalte für BEIDE Seiten verständlich rüber gebracht werden.
Der ganz normale Nutzer da draußen, den interessiert es doch nicht die Bohne wo welche Limits sind. Der will nur wissen läuft das oder nicht.
Ich finde es ja auch löblich, wie hier in den Empfehlungsforen Leute versucht werden in die Richtung zu bringen, die Limits selbst festzustellen. Aber um ehrlich zu sein sehe ich da auch größtenteils eine riesige Resignation, weil der Wille sich mit der Materie so weit zu beschäftigen einfach nicht da ist. Man kommt hier in ein Forum, oder schaut sich ein Video an, weil man eine EINFACHE Empfehlung haben will für XY, weil man abseits davon ein neues laufendes System haben zu wollen, absolut gar kein Interesse an der tieferen Technik besteht. Solche Menschen gibt es, und das ist die Mehrheit da draußen.
 
Es ist schlicht falsch. Die CPUen rücken nicht zusammen. Bestenfalls rücken die Ergebnisse zusammen. Und das tun sie weil die Grafikkarte limitiert.
Damit ist die Aussage: Die eine Grafikkarte die zum Testen genutzt wird verhält sich mit beiden mehr als zu schnellen CPUen identisch. Gratulation!
Das ist genau das was Def meinte mit "die Kirche im Dorf lassen". Es wird draussen nachts auch nicht dunkel, wir drehen uns nur täglich in den Erdschatten. Wenn man so eine Aussage trifft, heisst es noch lange nicht, dass man meint die Sonne würde ausgeknipst. Du pickst Rosinen.
 
Warum erwartest du Spiele, die du spielst? Dann wäre das ein spieletest.

Das hier ist aber ein cpu test. Die Spiele sind dabei fast egal. Es interessiert nicht ob die games hier über 144fps landen oder nicht. Und selbst wenns 5000fps sind. Es geht hier in diesem test lediglich um den Unterschied zwischen den cpus. Bitte verstehen und akzeptieren
FALSCH.

Oder wuerden dich Startzeit Benches von Notepad.exe bei M.2 SSDs intressieren?
Auf SSD1 startet Notepad in 0.2 Sekunden, aber auf der anderen SSD2 startet es in 0.1 Sekunden. DIE SSD IST DOPPELT SO SCHNELL!!!!!!!!!

Intressiert keine Sau sowas. Uralte Software und Engines testen ist bescheuert.
Dann lieber testen wielange ein 30GB Patch bei einem 200GB Spiel zum installieren dauert. Das hat wenigstens realen Mehrwert!

Von mir aus kann CPU X in CS:GO 5000fps haben statt 500 der Konkurrenz.
IST MIR EGAL, wenn CPU X dafuer im MS Flightsim keine 5% mehr bringen wuerde!!!!!

Zumal solche sinnlosen Tests schon wie Sand am Meer vorhanden sind. Da braucht HWLUXX nicht nochmal dasselbe Testen!

Ausserdem. Don hat uns User gefragt, was wir gerne sehen wuerde. Ich hab gepostet was ich gerne sehen wuerde.
Wer bist Du, mir zu verbieten meine Meinung zu aeussern wenn danach gefragt wurde? (oder sie laecherlich zu machen)
 
Zuletzt bearbeitet:
Das HWLUXX... die größte HW site Deutschlands... kein review sample bekommen hat, ist ein Unding.
Gibts da ne Quelle für? Bzw. was ist der Messwert dafür?
Wenn sowas wie CB oder PCGH schon die Nische sind, halte ich das Luxx eher für die Nische der Nische, so vom Forum und der Zahl und Qualität der Newsbeiträge ausgehend.
 
Das was auf deinem Bildschirm ankommt, rückt zusammen, wenn die GPU das schwächste Glied in der Kette ist. Dadurch spuckt die CPU selbst vielleicht nicht weniger fps aus, aber dem Enduser kann das mehr oder weniger egal sein.

Nochmal: Das ist ein CPU-Vergleichs-Test. GPU-bedingte Restriktionen sind hierfür vollkommen irrelevant.

Du kannst das doch nicht ernsthaft präsentieren wollen, als würdest Du einen Chiron neben 'nem Fiat 500 durch 'ne geschlossene Ortschaft fahren lassen, und dann aus dieser konkreten Situation schlussfolgern: "Dat is alles janz nah beieinanda!"
EXAKT das tutst du, wenn Du bei 4k im GPU Limit unpräzise oder irreführende Aussagen tätigst. Diejenigen, die mit der Materie vertraut sind, können das differenzieren. Wenn jemand nicht den Unterschied zwischen Bugatti und Fiat kennt und sich der einschränkenden Parameter im Testszenario nicht bewusst ist, WIRD er falsche Schlussfolgerungen aus sowas ziehen.

Das kann nicht wirklich deine absicht sein, oder? Und auf die beiden vollkommen unterschiedlichen YT Titel von dir und Igor ist auch schon hingewiesen worden. Wenn Du der Meinung bist, Eure Ergebnisse seien weitestgehend kongruent, wie kann man dann zu komplett gegenläufigen Schlussfolgerungen kommen? Kann nur bedeuten, dass irgendwo ein Lapsus vorliegt.
 
Zuletzt bearbeitet:
Wenn Autovergleiche gemacht werden weiss man, dass ab jetzt nicht interessantes mehr kommt.
 
Du pickst Rosinen.
Dann ein neuer Autovergleich:
Das klingt wie
"Geschwindigkeit tötet nicht. Es ist unendliche (negative) Beschleunigung die dich umbringt."

Im Fall von CPU Limit und GPU Limit ist es aber nicht so egal wie bei Tag und Nacht, sondern es stehen halt ein paar hundert Euro auf dem Spiel.
Im übertriebenen Fall ne 4090 mit 12400 vs 3050 mit 13900ks. Und dann noch 1080p/60 oder 2160p/120.
Da hilft es dann schon zu verstehen was abgeht und nicht einfach einen 13900k zu kaufen, um ihn hart GPU limitiert zu betreiben.
 
Wenn Autovergleiche gemacht werden weiss man, dass ab jetzt nicht interessantes mehr kommt.
Ja reden wir lieber wieder über die effizients.

Nach meinem 5950x hatte ich es aufgegeben eine sparsame 16 core cpu zu bekommen. Wurde zum Glück widerlegt.

Mit der Kühlung sollte es auch wieder gut sein oder ist da der 3d cache negativ?
 

Anhänge

  • Screenshot_20230228_094823_Firefox.jpg
    Screenshot_20230228_094823_Firefox.jpg
    207,1 KB · Aufrufe: 78
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh