Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
AMD spricht erneut über Big Navi: Desktop-Karten vor den Konsolen am Markt
During AMD's Ryzen 5000 launch even, the company provided a performance preview of its upcoming Radeon RX 6000 graphics cards, and they look ready to go toe-to-toe with Nvidia's beastly RTX 3080.
www.pcworld.com
Jeba....
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
So geil dies auch wäre - Nix da.
Drei Lüfter Modell ist nicht Navi22 (40 CU) oder gar Navi23. Braucht man nicht wegen Stromverbrauch und zu hohen Produktionskosten.
" which Radeon RX 6000 graphics card " kann halt alles bedeuten. Auch die Unterscheidung zwischen dem gddr6- und hbm-Speicher Modell.
Die Leaks geben doch keine 60 - 70 CU Modell her? Selbst wenn es solch ein Modell gäbe, kommt die Hochrechnung nicht auf deutlich über 3080/3090 Leistung hinaus.
So geil dies auch wäre - Nix da.
Die Leaks geben doch keine 60 - 70 CU Modell her? Selbst wenn es solch ein Modell gäbe, kommt die Hochrechnung nicht auf deutlich über 3080/3090 Leistung hinaus.
Nein, aber zwei 80CU Modelle, die BN 21 XT und XTX, beim Tweet von Videocardz wurde erstere schon als > 3070 betitelt, laut Aussagen der AIBs!
Dann gibt es noch die AMD only BN 21 XTX.... Da gibt es keine Daten von den AIBs oder Leaks.
Ist halt die Frage was AMD da heute gezeigt hat?
Die XT oder die XTX und in wie fern unterscheiden die beiden sich ?
Ich glaube nicht dass diese Benches der RX6000 vom Top Dog sind. Warum sollte man diese bereits vor der eigentlichen Präsentation raushauen in Verbindung mit der obenstehend Pressemitteilung von Herkelman? Es sind doch noch fast 3 Wochen bis zur Vorstellung......
Bis heute haben auch einige geglaubt, es wäre für AMD ein Ding der Unmöglichkeit auf Höhe der 3080 zu landen. Da gab es Hochrechnungen, da kam die Big Navi nur irgendwo mit einem blauen Auge bei der 2080TI raus. Und dabei haben die Heute noch nicht mal darüber geredet bei welchem Stromverbrauch die Holy BFN das macht.
Mit den Benches muss man mal abwarten ob nicht hier vielleicht das Best Case Szenario dargestellt wurde. Aber ist AMD hierbei bekannt für`s hochstapeln? Weiß nicht...dass ist doch eher Jensen`s Cooking Style.
Weiß keiner außer bei amd und tsmc^^
Eine extra Gpu über dem 80 CU Modell - 96 oder mehr als 100 CU - ist absolut ausgeschlossen. Das macht keiner, auch nicht bei nvidia. Viel zu teuer und unvernünftig.
Die positivste Prognose ist dass das 6900 XTX Modell halt der rtx 3090 Gegenspieler mit hbm2e Speicher wird. Gleiche Anzahl an Hardwareeinheiten wie das 6900 XT Modell.
Das was aus dem PowerPlay Treibern der amd Pro Grafikkarten herausgefischt wurde, aus den Mac Treiber, anderen verlässlichen Gerüchten etc. zeigt das Navi 21 a/b die gleichen Hardwareeinheiten aufweisen werden.
Der eine Chip wird höher gebinnt sein und schafft höhere Taktraten. Also ähnlich wie 5700 XT und limited Edition.
Navi22 als 40 CU Modell mit 192-Bit Speicherschnitstelle geht für 80 CUs einfach mal gar nicht. Da kann die Secret-Sauße mit dem extra shared L1-Cache, irgendeinem Infinity Cache der an jedem großen Hardwareeinheiten-Block nahe der Speichercontroller hängt, noch so gut sein. Die Speicherschnittstellen würden nicht "breit" genug sein um Vram-GPU mit genug Datenrate zu füttern.
Und was anderes als 192 oder 256 Bit Speicherschnittstelle gibt es halt nicht. Okay noch so ein krummes Ding mit 224-Bit.
Jedenfalls gibt es keinen Leak oder Ausgrabung der momentan ein Modell zwischen 40 und 80 CU zeigt.
60 CUs machen nach der Aufteilung der Einheiten auch hin einen Sinn.
Würde aber nicht so nah an eine Rtx 3080 heranreichen wie bei den drei gezeigten Spielen.
Dieser Twitter Post von videocardz ist nach dem gezeigten Benchmarks also falsch.
Naja nicht ganz, die heute gezeigte Karte ist ziemlich sicher schneller als die 3070... und evtl. etwas langsamer als 3080.
Schneller als 3070 kann ja vieles bedeuten
Könnte also durchaus die XT ohne X gewesen sein!
Vergiss nicht die 3070 Fe hat nur 220 watt, die 3070 Customs Strix 300 Watt die ist nicht auf Kante genäht wie die 3080, da geht noch was. +10% min da ist man schon knapp an der Navi dran.
custom 3070 = big navi - 5% .
Amd fanboys ne war ne kleine navikarte... Man stelle sich vor man hat noch was was die 3080 deklassiert natürlich würde man dies stolz präsentieren und die Leute davon abhalten die 3080 zu kaufen bis zum 28 okt. und auch danach. Aber ne wir haben zwar was schnelleres aber zeigen wir nicht weil????? nvidia bis dahin munter weiter profiten soll ja so wird es sein. bnl3 hat in den sekunden geruckelt wie sau was die da gezeigt haben bringt mir viel wenn man 60 fps erreicht wenn die frametimes aussehen wie eine ungeschmierte kette. Das war die legendäre amd software im vor alpha status und bei release dann in alpha beim kunden . 5700 blackscreenen ja heute noch sehe ich jeden tag die threads . wie kann man so einen müll kaufen.
Edit die karte im video hat: 80CU and 256bit bus 100%. was grösseres wie 80 cu ist unwahrscheinlich oder?
Es nur ein Teaser war?
Treiber/Bios nicht Final?
Überraschung (So wie heute der 5950X...)?
Sie wissen das Nvidia vor 2021 keine vernünftigen Mengen liefern kann?
Es ist völlig Wumpe warum... Das was sie gezeigt haben hilft auch den Nvidia Fanboys oder glaubst du du würdest eine 3080 für den Preis bekommen wenn AMD jetzt nicht mal was in der Nähe hätte?
Also wenn du sie denn irgendwann bekommst und sie läuft.. und die Preise da sind wo sie sein würden könnte Nvidia wenigstens liefern...
Das mag indirekt so rüberkommen.
Liegt einfach daran, dass manche Firmen seit Jahren liefern. Die bekommen verdient einen Vertrauensvorschuss. Andere liefern nicht, die werden skeptisch behandelt.
Sobald Benchmarks vorliegen, ist das aber eh total irrelevant. Fakten, schwarz auf Weiß. Einfach Zahlen ablesen und fertig.
Für die Gerüchte "davor" sehe ich die nähere Vergangenheit (2-3 Generationen, evtl. 4) als sehr relevante Eckdaten an. Woran sonst soll man deren Marketing messen?
NVidia liegt z.B. meist relativ nah an der Realität, macht dafür cherry picking. Die Ansagen sind aber dafür trotzdem "ehrlich" in meinen Augen. Nur nicht allgemeingültig.
AMD hingegen ist sehr bemüht das gesamte Bild zu zeigen, beschönigt das dafür sehr gerne und macht es schwer die gezeigten Zahlen nachzustellen.
Welche der zwei Varianten jemand besser findet, ist jedem selber überlassen. Beides bleibt Marketing. Ich finde nur, dass man es korrekt gewichtet (Anhand der Erfahrungswerte z.B.) bewerten sollte und nicht Sachen gleich machen, die nicht gleich sind.
Ob NVidia da nun nen total miesen, oder total tollen Launch hatte, ist aus irgendeinem Grund kontrovers. Persönlich verstehe ich das wirklich nicht. Wie sie die extra Leistung herzaubern, ist mir persönlich total egal. Und wenn sie ein Atomkraftwerk mitliefern dafür.
Das wird für mich genau in einem Fall relevant: Wenn die Gegenspieler die Gleichen Ergebnisse liefern mit weniger Strom. Dann und nur dann bewerte ich Stromverbrauch als Problem.
Andere dürfen das gerne anders werten. Das ist komplett legitim.
Wenn "The Beast" von MonsterLabo echt so kommt wie vorgestellt, dann achte ich evtl. auch mehr auf den Strom,... mit einem komplett passivem System. Wobei 250watt für GPU und 250Watt für CPU an Kühlleistung,... da muss man eigentlich nicht viel sparen an Strom. ;-)
Das NV der bammel ging hat man doch eigendlich schon bei dem caos launch der schluckspechte heizbirnen die am limmit rotieren die sie ohne wirkliche verfügbarkeit noch schnell auf den markt geschmissen haben gemerkt.
Wer da noch denkt das amd mit big navi nicht was bringen wird das NV zeigt das samsung mit NV 8nm nicht der bringer ist hat wohl den schuß nicht gehört
Launch 7nm big navi wann?
NV wustse genau was das für ihre penner bedeutet denke ich.
Ist die "Panik" vor dem Gegenspieler nicht genau das, was wir alle wollen?
Wenn NVidia deswegen so schnelle GPUs bringt, ist das doch gewollt, oder? Warum ist das auf einmal negativ behaftet?
Erst hofft man 10 Jahre darauf und dann ist es auf einmal doch nicht recht? Hmm.
Und allgemein lieber den Ball flach halten. AMD muss erst mal liefern. Sonst fressen wir noch unsere eigenen Worte, wenn man den Aluhut zu früh aufzieht und NVidias Motive ohne jegliches Hintergrundwissen erraten will. Es mag Grund zu den Vermutungen geben, aber es gibt auch einige andere mögliche Erklärungen.
Wenn TSMC kein Volumen frei hat, ist die Option Samsung, oder gar nix veröffentlichen zum Beispiel. GPU ans Limit pushen kann auch als Ziel haben, dass man fürs Marketing den "größter Sprung ever!" machen kann.
Beides halte ich für realistischer, als dass NVidia von AMD ein voll funktionsfähiges Sample hat zum testen und das alle paar Wochen updated wird, damit sie auch immer genau wissen wo sie stehen. Gleichzeitig hat AMD das natürlich nicht von Nvidia und kann damit selber nicht "gegen reagieren".
Sie werden beide grob wissen wo der andere steht, aber eher "ein Verlobter einer Azubine hat einen Benchmark gesehen, da lag eine GPU bei XXX Punkten." - grob. Dann müssen sie raten, ob das die top GPU ist, oder ne andere und welche Settings und wie weit die Entwicklung ist, die Treiber, der Bios...
... ich glaube einfach nicht daran, dass die hohe Wattzahl von Ampere der "Beweis" für ein Killer Big Navi Produkt ist. Da gibt es mehr Lücken in der Theorie, als in einem Schweizer Käse.
Es soll hier ja auch nicht Thema sein ob Lager a) eventuell irgendwie auf Gerüchte aus Lager b) reagiert hat.
Grundsätzlich steht die Frage im Raum: Was wird die AMD Karte können?
Wie gezeigt wurde: Wahrscheinlich genug für alle.
Okok... wie performt eine RX3080 auf dem 5900x? ^^
Ich freue mich wie ein Schneekönig auf die Benchmarks die da kommen
dank dem "tollen" start der ampere gen, muss amd momentan nicht stressen.
theoretisch haben sie mit den zahlen ja allen 3080er-kunden gezeigt, dass sich das warten evtl lohnen könnte und sie eine gleichwertige karte mit 60% mehr ram liefern werden.
rein daher wärs schon möglich, dass sie noch nicht die max-leistung gezeigt haben. aber da amd auch nur mit wasser kocht, ist imo schon das aufschliessen zur 3080 eine tolle leistung.
an noch mehr glaube ich nicht...
Das mag indirekt so rüberkommen.
Liegt einfach daran, dass manche Firmen seit Jahren liefern. Die bekommen verdient einen Vertrauensvorschuss. Andere liefern nicht, die werden skeptisch behandelt.
Sobald Benchmarks vorliegen, ist das aber eh total irrelevant. Fakten, schwarz auf Weiß. Einfach Zahlen ablesen und fertig.
Passt, aber wenn man ne Zeit lang in Foren unterwegs ist und ich hoffe du weißt wie viele Trolle und Fanboys unterwegs sind, nicht nur Luxx, dann ist man überaus skeptisch.
Für die Gerüchte "davor" sehe ich die nähere Vergangenheit (2-3 Generationen, evtl. 4) als sehr relevante Eckdaten an. Woran sonst soll man deren Marketing messen?
Dem Stimme ich zu, aber AMD liefert seit Zen IMMER ab und RDNA 1 war auch "gut", dementsprechend kann man einen Trend sehen.
Dass alles davor (naja Polaris war auch ok) eher mies war, da stimme ich zu, ein Grund warum ich über Jahre nur Nvidia bei mir verbaut habe.
NVidia liegt z.B. meist relativ nah an der Realität, macht dafür cherry picking. Die Ansagen sind aber dafür trotzdem "ehrlich" in meinen Augen. Nur nicht allgemeingültig.
Nvidia nennt zwar echte Zahlen, lügt also per se nicht, aber Jensen nennt dabei auch nur die extremsten, positiven Ausreiser was ich für problematisch halte, das grenzt schon an overpromising wie es AMD in der Vergangenheit gemacht hat (vor Zen und bis Vega)
AMD ist relativ Transparent für Marketingzahlen, sah man sehr gut im gestrigen Zen 3 Stream.
Aber ich geb dir recht in einigen Events haben sie den Vogel abgeschossen.
Ob NVidia da nun nen total miesen, oder total tollen Launch hatte, ist aus irgendeinem Grund kontrovers. Persönlich verstehe ich das wirklich nicht. Wie sie die extra Leistung herzaubern, ist mir persönlich total egal. Und wenn sie ein Atomkraftwerk mitliefern dafür.
Naja der Launch war Problembehaftet (Abstürze) und die Verfügbarkeit ist miserabel, immerhink ein totaler Paperlaunch.
Ich denke immernoch, dass Nvidia sich "verpokert" hat, indem sie bei TSMC die Preise drücken wollten und am Ende, weil Samsung ihren 7nm nicht in den Griff bekommen bzw. nicht rechtzeitig, müssen sie nun mit dem 8nm (eigentlich 10nm) Prozess leben der sicher super günstig ist, aber dank der Platine + Kühlern im Endeffekt gleicht teuer bzw. teurer als mit 7nm sind.
Dazu noch die Nachteile der nicht so tollen Yields (Gerücht) und dem sehr sehr hohen Stromverbrauch.
Letzterer würde mich auch nicht stören, aber im Sommer heizt sogar die 2070Super einen relativ großen Raum recht ordentlich, dafür muss ich meist die Heizung im Raum nicht bemühen.
Immerhin haben es die Boardpartner geschafft die 320/340W leise abzuführen, zumindest einige BP.
NVidias Motive ohne jegliches Hintergrundwissen erraten will. Es mag Grund zu den Vermutungen geben, aber es gibt auch einige andere mögliche Erklärungen.
Naja freiwillig arbeitet Nvidia nicht mit einer geringeren Marge, muss also einen Grund haben und es könnte BigNavi sein, wenn ich mir den Sneak Peak vom Zen 3 Event anschaue was die reine Leistung angeht. Raytracing, DLSS Konkurrent, Stromverbrauch, OC etc. sind noch unbekannt.
Wenn TSMC kein Volumen frei hat, ist die Option Samsung, oder gar nix veröffentlichen zum Beispiel. GPU ans Limit pushen kann auch als Ziel haben, dass man fürs Marketing den "größter Sprung ever!" machen kann.
Dass TSMC kein Volumen frei hat ist bestimmt richtig, ein Grund dafür kann aber auch sein, dass Nvidia zu spät gebucht hat oder zu den Preisen nicht wollte und TSMC unter Druck setzen soll (ganz normal auf der Ebene), haben aber wohl nicht damit gerechnet, dass sie am Ende doch mit Samsung arbeiten müssen, wobei das Geld gut angelegt ist, wir wollen ja kein TSMC Monopol.
Den "biggest leap ever" Spruch hätte er sich sparen können, der ist schlicht nicht wahr.
... ich glaube einfach nicht daran, dass die hohe Wattzahl von Ampere der "Beweis" für ein Killer Big Navi Produkt ist. Da gibt es mehr Lücken in der Theorie, als in einem Schweizer Käse.
This fall, Microsoft’s hardware partners are rolling out hardware accelerated AV1 video support on new Windows 10 systems with the latest GPUs. With video..
Der ist eigentlich mit dir überhaupt nicht einig, weil er viel wohlwollender (gerechtfertigterweise) auf AMD blickt. Und was Mister Lederjacke in seiner Präsentation verprochen hat und dann beim Launch nicht eingehalten wurde, die 1.9x Effizienz die du immer so hochgelobt hast, sind schon ein Grund keine Nvidia Karte zu kaufen. Du kannst doch nicht auf der einen Seite AMD immer nieder machen, und auf der anderen Seite jeden Scheiss von Jensen für bare Münze nehmen. Und wenn dir jemand sagt: hey warum hast du Mister Lederjacke's Zeug einfach weiterverbreitet ohne es zu hinterfragen, dann muss man ganz klar an deinen analytischen Fähigkeiten zweifeln.
Die Frage ist auch ob Navi echt an die 3080 rankommt aber immerhin hat sie 5120 Shader (!), ich kann mir bei bestem Willen nicht vorstellen dass das bei ~2,1 GHz dann nur bei 3070-Leistung rauskommt. RDNA1 hielt schon gut mit Turing mit Pro-Shader gerechnet, die 3080 mag zwar auf dem Papier über ~8700 Shader haben aber das ist Marketing, denn sonst wäre wenn man mal rein von Shadern und Takt ausgeht ja mindestens doppelte 2080-Ti-Leistung, ist aber nicht so. Also kein Grund Big Navi schlechter zu machen als es ist - Selbst konservativ geschätzt denke ich wird es schon halbwegs mithalten. Nur beim Speicherinterface wundert es mich, 256-Bit wären etwas eng, wobei die 3080 auch "nur" 320-Bit aber GDDR6X hat, entweder werden es 512-Bit oder AMD muss ein Wunder geglückt sein falls dieser spezielle Cache irgendwie die fehlende Bandbreite ausgleichen kann. Aber das werden wir bald sehen.
hey warum hast du Mister Lederjacke's Zeug einfach weiterverbreitet ohne es zu hinterfragen, dann muss man ganz klar an deinen analytischen Fähigkeiten zweifeln.
Nur weil Du nicht verstehst was Effizienz bedeutet und wie sie sich verhält, ist die Aussage noch lange nicht falsch.
Ich habe das auch niemals nachgeplappert, sondern deutlich erklärt, wie es entsteht und warum es nicht falsch ist. Auch bei AMD werden die +50% stimmen und auch bei AMD werden die +50% niemandem auffallen, weil es kein Produkt in dem Sweetspot geben wird.
Glaubst mir nicht? Google Effizienzkurven und warte die BN Benches ab. Dann kannst Dich ja per PN melden.
Ich freu mich auch schon auf die neue AMD graka die wird bestellt.
Ein Vorsprungs hat nivida das ist dlss.
Das funktioniert auch schon gut in der Video Box fûr tv. Ich vermute genau daran forschen die schon länger darum haben sie jetzt den aufgebohrten tracktor gebaut.
ja logo.... 1080P geht das gut...
Seit windof multicore optimiert ist läuft das recht gut.
Ram 1070mhz und Cpu 5ghz boadrd 2,6ghz laufen am limit die rx580 1475mhz mit 8gb läuft mit den neusten treiber seiden weich stabil.
Einkaufs wagen ist schon gefüllt ich warte nur noch auf die neue Graka.
Mit etwas glück prügle ich dann CPU auf 4,6-4,8ghz Ram auf 3800 CL14 Das reicht dann für mich.
Dann gibt es noch einen neuen monitor vermutlich ein LG breitbild und später irgendwann eine 8 Core oder 12 core cpu die
sich gut takten lässt.
Warum den 3300X? Der lohnt sich doch kaum. Der 3600 kostet ja nur 30 mehr (also hier) und bietet satte 2 Kerne mehr. Würde sogar eher die SSD gegen ein SATA-Modell austauschen, weil der 3600 deutlich zukunftssicherer wäre. Oder den RAM. 4000 sind wohl günstiger geworden aber 3600er dürften noch deutlich günstiger sein und reichen auch völlig aus - Mit Glück gehen die auch auf 3800 CL16-18. Die 4000 laufen auf Zen 2 mitunter gar nicht. Den 3300X wirst du nicht auf 4,8 GHz bringen, 4,6 wären glaube ich schon extrem gut.
Was den RAM betrifft: CL14 braucht man nicht. Ich habe mal den selben Fehler gemacht, jetzt sitze ich hier mit einem R7 1700 und einem 4266er Kit - Das läuft dank neuem Board immerhin mit 3200 CL16. Lieber die bessere CPU und notfalls den RAM später aufrüsten. Für mehr RAM-Speed braucht es dann ohnehin eine neuere CPU (Zen 3). Mit Zen 2 machst du aber nichts falsch, selbst ein 1700 ist noch relativ gut (für das was er heutzutage kostet).
Warum den 3300X? Der lohnt sich doch kaum. Der 3600 kostet ja nur 30 mehr (also hier) und bietet satte 2 Kerne mehr. Würde sogar eher die SSD gegen ein SATA-Modell austauschen, weil der 3600 deutlich zukunftssicherer wäre. Oder den RAM. 4000 sind wohl günstiger geworden aber 3600er dürften noch deutlich günstiger sein und reichen auch völlig aus - Mit Glück gehen die auch auf 3800 CL16-18. Die 4000 laufen auf Zen 2 mitunter gar nicht. Den 3300X wirst du nicht auf 4,8 GHz bringen, 4,6 wären glaube ich schon extrem gut.
Was den RAM betrifft: CL14 braucht man nicht. Ich habe mal den selben Fehler gemacht, jetzt sitze ich hier mit einem R7 1700 und einem 4266er Kit - Das läuft dank neuem Board immerhin mit 3200 CL16. Lieber die bessere CPU und notfalls den RAM später aufrüsten. Für mehr RAM-Speed braucht es dann ohnehin eine neuere CPU (Zen 3). Mit Zen 2 machst du aber nichts falsch, selbst ein 1700 ist noch relativ gut (für das was er heutzutage kostet).
Teils spiele läuft der 3300x besser auch der Fabric clok geht höher. kann gut sein das er Locker 3800 packt.
Er lässt sich schon etwas höher tackten wie der 3600er.
Dabei kostet er fast nix... und nach 1-2 jahren dann eine Feine Ryzen 5xxx CPU im angebot packen.
Ich finde deine entscheidung nicht falsch den der ram hast du zukunftssicher eingekauft. Wirst du bald den neuen ryzen 5xxx einkaufen wirst du sehen hast
du richtig gehandelt mit deinem RAM.
die berühmten FlareX 2x8gb kosten momentan 125.- eine grosse einsparung wäre es nicht.
Ich habe momentan auf AM3 die HyperX verbaut bin darum gut gesonnen ihnen gegenüber. Wenn die nicht sauber laufen wird getauscht.
In a major upset, AMD’s Ryzen 3 3300X has managed to beat Intel’s fastest gaming CPU on the market, the Core i9-9900KS upon being overclocked to 4.6GHz. We know that the new Matisse budget offerings were supposed to be aimed at gamers, but this is quite unexpected. The test was conducted by a...
www.hardwaretimes.com
Datenschutzhinweis für Youtube
An dieser Stelle möchten wir Ihnen ein Youtube-Video zeigen. Ihre Daten zu schützen, liegt uns aber am Herzen: Youtube setzt durch das Einbinden und Abspielen Cookies auf ihrem Rechner, mit welchen sie eventuell getracked werden können. Wenn Sie dies zulassen möchten, klicken Sie einfach auf den Play-Button. Das Video wird anschließend geladen und danach abgespielt.
Aber 4C/8T... Und es ist fast 2021. Als Übergangslösung vielleicht noch OK, du wirst aber früher oder später wieder aufrüsten müssen. Die heutigen Spiele laufen mit nativen sechs Kernen meist am Besten.
Geht, der RAM hat damals 270 € gekostet und läuft seit Jahren weit unter seiner Kapazität. Dabei bekomme ich jetzt solchen RAM fast zu einem Drittel das damaligen Preises (wobei das zu der Inflationszeit war und selbst ein 0815 16 GB Kit da schon fast 200 € kostete). Später aufrüsten lohnt meist mehr.
Laufen werden die, nur wahrscheinlich nicht auf dem XMP-Profil.
Aber 4C/8T... Und es ist fast 2021. Als Übergangslösung vielleicht noch OK, du wirst aber früher oder später wieder aufrüsten müssen. Die heutigen Spiele laufen mit nativen sechs Kernen meist am Besten.
Geht, der RAM hat damals 270 € gekostet und läuft seit Jahren weit unter seiner Kapazität. Dabei bekomme ich jetzt solchen RAM fast zu einem Drittel das damaligen Preises (wobei das zu der Inflationszeit war und selbst ein 0815 16 GB Kit da schon fast 200 € kostete). Später aufrüsten lohnt meist mehr.
Laufen werden die, nur wahrscheinlich nicht auf dem XMP-Profil.
Naja, ich würde trotzdem eher mit den 6C/12T gehen. Die meisten haben auch so 4,4 - 4,5 GHz auf den 3600ern - 5 oder 10 % weniger Singlethreadleistung für mindestens 40 % mehr Multithread. Das war damals zu Zeiten vom 7700K ja schon so, die Kerne haben viel Dampf, federn aber möglicherweise auftretende Hintergrundprozesse kaum mehr ab - Was dann zu kurzen Rucklern führt. Und heute hat ein Jeder ein Dutzend Programme im Hintergrund laufen, Browser, Videos, Steam / Origin / Uplay, Chats und wer weiß was noch.
3800 CL14 wären schon heftig. Ob das klappt hängt dann wohl vom Speichercontroller der CPU ab. Ich habe noch einen 2700X, da gingen zwar 3600 aber CL14 sind sehr instabil, mal ging es und mal nicht (Cold Boot), 3533 gingen dann. Auf dem 1700 gehen 3466 aber das gleiche Problem, ich bin es auch leid da hinterherzulaufen wenn man stattdessen einfach die 3200 einstellt die ~2 % langsamer im Benchmark sind und zu 100 % laufen.
Wie wäre sowas denn eigentlich realisierbar? Dachte immer wenn man einen Chip beschneidet muss man zwangsläufig auch die Speicheranbindung beschneiden und an die widerum ist gekoppelt wieviele vRam Chips man anbinden kann.
D.h. man kann verschiedene Ausbaustufen eines Chips nicht mit der selben vRam Menge ausstatten.
AMD wird sicher nicht drei Chips bringen die sich nur im Takt unterscheiden. Ausser wenn es durch eine schlechte Fertigung erfordert wird, wäre das wirtschaftlich inefizient.
Wo ist mein Denkfehler?
Wie wäre sowas denn eigentlich realisierbar? Dachte immer wenn man einen Chip beschneidet muss man zwangsläufig auch die Speicheranbindung beschneiden und an die widerum ist gekoppelt wieviele vRam Chips man anbinden kann.
D.h. man kann verschiedene Ausbaustufen eines Chips nicht mit der selben vRam Menge ausstatten.
AMD wird sicher nicht drei Chips bringen die sich nur im Takt unterscheiden. Ausser wenn es durch eine schlechte Fertigung erfordert wird, wäre das wirtschaftlich inefizient.
Wo ist mein Denkfehler?
Speicheranbindung ist nicht an die Anzahl an Chips gebunden. Es ist einfacher mehr Chips anzubinden an eine tiefere Bandbreite braucht dann weniger Lans zur gpu somit weniger chichten auf den PCB.
Ich vermute auch wird sicher 2-3 unterschiedliche Chips geben.