Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
AMD stellt die Ryzen-7000-Serie in allen Details vor
Ganz persönliche Meinung:
Ne Bildausgabe für Diagnose und Youtube+Rimworld (falls meine Graka mal verreckt zum Überbrücken) nehme ich sehr gerne. Was ich ein wenig vermisse sind Infos über Hardwaredecoding (youtube, Kram) und Bildschirmschnittstellen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Laut CB will AMD zu einem späteren Zeitpunkt über die iGPU reden.
Da aber schon Rembrandt zumindest AV1 Decode kann und AMD eben Multimedia-Ansprüche bedienen will, wird es wohl sicherlich nicht weniger Codecs geben mit der iGPU beim Ryzen.
Da aber schon Rembrandt zumindest AV1 Decode kann und AMD eben Multimedia-Ansprüche bedienen will, wird es wohl sicherlich nicht weniger Codecs geben mit der iGPU beim Ryzen.
Die GPUs 6500 und 6400 sind bewusst beschnitten worden. Encode komplett weg inkl. AV1. Nur noch decode natürlich ohne AV1.
Die 6500XT ist mit ihren 16 CU und eigenem GDDR6 Speicher klar schneller als die Rembrandt 680M iGPU mit ihren 12 CU ohne eigenen Grafikspeicher.
Dieser Navi 24 war nur für mobile Geräte gedacht.
Meine Spekulation. AMD ist wohl davon ausgegangen, dass man diesen mobilen Chip eh nur mit CPUs + iGPU und APUs verbaut, die alle Codecs können. Zumindest alles decodieren. Offensichtlich, ich habe ja nur Geizhals und finde kein Notebook mit Intel CPU und einem Navi 24 Chip, wollte nur Lenovo diese GPU verbauen. Natürlich mit einer Rembrandt APU.
Jetzt war man wahrscheinlich wohl auf einer bestimmten Menge Navi 24 Chips gesessen und wollte die los werden. Der angespannte Markt war wohl eine Fügung Gottes für AMD (viele in den Staaten sind ja so gläubig ) und somit konnte man locker diese Chips, die für mich für den Desktop Müll sind, zu Geld machen. Wie sagt man so schön, aus Schei.e Geld machen.
Deswegen sehe ich jetzt nicht diesen 6500/6400 Dreck als Zeichen, dass man die Ryzen 7000 iGPU um AV1 beschneiden wird. Denn andere Media Codecs werden ja zumindest mit einer 6500/6400 decodiert.
Hier die Specs einer 6500XT
Mal eine technische Frage. Die 5nm mit den AMD wirbt ist das nur Marketing?
In der offiziellen Presse Mitteilung (https://www.amd.com/en/press-releas...ies-desktop-processors-zen-4-architecture-the) konnte ich nichts dazu finden.
Während z.B. es in den Fussnoten zur Maximalen Taktfrequenz durch aus etwas gibt: "10. Max boost for AMD Ryzen processors is the maximum frequency achievable by a single core on the processor running a bursty single-threaded workload. Max boost will vary based on several factors, including, but not limited to: thermal paste; system cooling; motherboard design and BIOS; the latest AMD chipset driver; and the latest OS updates. GD-150."
Ich wunder mich nur da ja ASML der Hersteller für die Belichtungmaschinen ist. Dort spricht man bei tatsächlichen 13 nm von "The TWINSCAN NXE:3600D is ASML’s latest-generation lithography system, supporting EUV volume production at the 5 and 3 nm Logic nodes and leading-edge DRAM nodes." (https://www.asml.com/en/products/euv-lithography-systems/twinscan-nxe-3600d)
Ansonten scheint AMD, ähnlich wie Nvidia, die Strombrechstange rausgeholt zu haben. Mehr Leistung durch mehr Saft. Denn ich kann mich erinnern das vor einigen Jahren die Leute noch über 75+ W TDP CPUs den Kopf geschüttelt haben.
Scheinbar hast du dich noch nicht mit der EUV Technik auseinander gesetzt bzw. davon keine Ahnung. Die 13 nm beziehen sich auf die Wellenlänge des Lichts und haben erstmal "nichts" mit den möglichen Strukturbreiten zu tun. Diese können weit unter der Wellenlänge des emittierten Lichts liegen. Wie das erreicht wird kannst du googeln (mehrfach Brechung).
Allerdings wird mittlerweile auch einiges an Marketing betrieben und ein 5nm Prozess meint nicht mehr automatisch, das alles in 5nm "gegossen" wurden. Ohnehin finden wir in modernen Chips immer Bereiche mit unterschiedlichen Strukturbreiten.
Eigentlich hast du recht, aber dann würde noch weniger Kunden die 'großen' CPU's kaufen deswegen begrenzt man halt den maximalen Takt der kleineren CPU's stärker und dazu kann man durch Chipselektion noch etwas mehr Performance rausholen.
Völlig falsch.
Wir leben im Kapitalismus. Wer das schnellste Teil haben will, muss zahlen. Deswegen kaufen die Leute auch einen 12900K/S und beteuern ständig, dass doch bei Games die Leistungsaufnahme gering ist. Bestimmt wird auch mal dann der 12900K/S - 7950X in der Zockerkiste 5 mal pro Dekade irgendetwas für 3 Minuten umwandeln.
Ganz persönliche Meinung:
Ne Bildausgabe für Diagnose und Youtube+Rimworld (falls meine Graka mal verreckt zum Überbrücken) nehme ich sehr gerne. Was ich ein wenig vermisse sind Infos über Hardwaredecoding (youtube, Kram) und Bildschirmschnittstellen.
Empfand ich auch immer als größten Kritikpunkt an AMD CPUs, aber aufgrund der Tatsache das es keine alternative die Preiswert ist mehr Kerne zu bekommen gegeben hat nimmt man es doch irgendwie in Kauf.
Eigentlich hast du recht, aber dann würde noch weniger Kunden die 'großen' CPU's kaufen deswegen begrenzt man halt den maximalen Takt der kleineren CPU's stärker und dazu kann man durch Chipselektion noch etwas mehr Performance rausholen.
Das hat eher damit zu tun, das die die wenigen Kerne, so zu sagen der "Abfall" ist der nicht mehr die Leistung für den hohen Takt geschafft hat, wobei Abfall natürlich relativ ist.
Ja es gibt auch große CPUs die weniger Takt haben, z. B die non-K die typisch für OEMs sind.
Da werden Chargen hergestellt um die Streuung der Chips zu testen, also wie gut kann das beste Muster häufig werden und wie schlecht kann das häufigste Muster sein.
Das heißt nicht notwendigerweise das vereinzelt ein 7600x auch mehr Takt erreichen kann, sondern das stellt in der Regel quasi den durchschnitt was er immer können muss. #
Weil das zu teuer wäre das alles von Hand zu machen, gibt es eben auch unterschiede bei der benötigten Spannung um Wert X zu erreichen. Es gibt Chips sind besonders effizient und welche die sind halt eher mäh, aber sie schaffen die Werte.
Uuuuund schon wieder hat AMD bei der IPC Uplift einige Games einbezogen...ach komm schon, so kann man das doch nicht vergleichen...gemittelter SPECviewperf Uplift wäre stimmiger.
Uuuuund schon wieder hat AMD bei der IPC Uplift einige Games einbezogen...ach komm schon, so kann man das doch nicht vergleichen...gemittelter SPECviewperf Uplift wäre stimmiger.
Ich finde man kann das schon so machen, zumal sie ja mit 4 Ghz als Referenz gebencht haben. Nicht jeder kann mit werten von Benchmarks was anfangen. Dem Fortnite Kiddie sagen 3% mehr FPS mehr.
Sie zeigen aber auch Werte die eher nicht so toll sind an. Die Techtuber werden doch schon dafür sorgen, dass alles zerlegt wird was AMD behauptet, da mach ich mir keine Sorgen.
Um genau zu sein so hoch das sie nicht Konkurenzfähig waren und deswegen sind die Straßenpreise der (vorallen dicken) 5000er soweit unter der Release UVP.
Die Preise waren so hoch weil es keine ernstzunehmende Konkurrenz gab und die Leute AMD trotzdem alles aus den Händen gerissen haben.
Die sind erst gesunken als es Konkurrenz gab und sich die liefersituation wieder etwas entspannt hat.
Angeblich hat sich AMD ja jetzt deutlich mehr Kapazität gesichert und könnte theoretisch versuchen über den Preis mehr Marktanteile zu gewinnen.
Ich glaube aber eher, dass Intel und AMD dieses Mal einfach recht nahe beieinander liegen und es kaum Raum für so Mondpreise gibt (auf beiden Seiten)....kann nur gut für uns Kunden sein.
Gibt zwei Gründe. Einen technischen und einen wirtschaftlichen.
Technisch kommen die "kleinen" CPUs und insbesondere die 6 Kerner oft von Rand des Wafers. Da ist die Qualität schlechter und Wahrscheinlichkeit für Defekte Cores höher.
Es kann also gut sein dass ein Teildefekter CCD mit 8 Kernen als niedrig taktender 6 Kerner verkauft wird.
Selbes Spiel bei den 12 Kernern (einfach 2 CCDs).
Wirtschaftlich möchte man gerne die Top CPUs in allen Bereichen von den günstigeren abgrenzen. Wer die höchste single core Leistung will muss halt das Top Modell nehmen.
Hinzu kommt noch, dass die qualitativ guten Cores den Takt auch mit weniger Energieverbrauch schaffen. Damit erzeugt man weniger Hitze und hat weniger Probleme einen 16 Kerner zu kühlen.
Aus diesen Gründen landen letztendlich in den 16 Kern Varianten die besten Cores (tendenziell zumindest).
Ausnahmen kann es für spezial CPUs wie z.b. eine hypothetische hochtaktende 8 Kern gaming CPU mit 3D cache geben. Gut möglich, dass auch da nur sehr gute Cores landen.
Hmm ich finde das Argument wird nicht richtiger nur weil man es wiederholt.
Mal ganz abgesehen davon dass wir nicht wissen wie viel die CPUs in welchem Szenario genau verbrauchen.
Der am4 mit seiner TDP wurde nicht primär für hoch taktende 16 Kerner designed. Um kompatibel zu bleiben hat AMD die Nummer aber 6 Jahre lang mit der gleichen maximalen TDP durchgezogen (und eben nicht wie Intel jedes bis jedes zweites Jahr alles inkompatibel gemacht) und man hat ja gerade bei 5950x und 3950x deutlich gesehen, dass damit 16 gleichzeitig hochtaktende Kerne einfach nicht möglich sind.
Dieses Problem hat AMD nun behoben und das macht ja auch nur Sinn. Wenn man schon 16 kerne hat will man die ja gerne auch nutzen können.
Das hat mit Brechstange absolut gar nichts zu tun wenn AMD nach so langer Zeit Mal die TDP an die aktuellen Gegebenheiten anpasst.
Das mit Intels hochgeprügelten KS Brechstangen CPUs gleichzusetzen die für 5% Mehrleistung Mal eben 50% mehr verbrauchen und aiux gern Mal über 300w ziehen ist schon..... Naja sehr weit hergeholt einfach.
Und Intel wird doch eh ihre DDR4/5 Plattform 2023 versenken. Und AMD soll dann 2022, 2023, 2024, 2025 und möglich auch noch +, immer einen DDR4 Speichercontroller verbauen? Die Platinenhersteller haben dann doppelte Arbeit und freuen sich ganz bestimmt.
Du hast völlig Recht. DDR4 für AM5 zu fordern ist ne absolute Schnappsidee... Keine Ahnung wieso das hier so viele ernsthaft vertreten.
Es macht weder technisch noch wirtschaftlich Sinn und wäre auch für uns Kunden nur von Nachteil.
Apple läuft da außer Konkurrenz. Schau dir Mal an was Apple so macht um diese Leistung zu erreichen. Ja die CPUs sind cool aber so extrem breite teure Designs auf modernster Technologie kann man weder in Massen produzieren um mehr als den eigenen Bedarf zu decken noch wären sie preislich irgendwie konkurrenzfähig.
Intel wird 2023 mit Meteor die 1700 Plattform entsorgen. Sicherlich 2025 dann die Meteor und ? Plattform.
Auf dem AMD Fest kam folgende Aussage: Los gehen soll es ab 125 US-Dollar, für ein günstiges B650-Board versteht sich. Dennoch sollten Käufer die Augen offen halten, beispielsweise danach, ob das jeweilige Board auch bis zu 230 Watt unterstützt und der Hersteller guten Support leistet, sodass der heute beworbene Betrieb bis in das Jahr „2025+“ auch tatsächlich gewährleistet ist.
Alder 241W und Raptor auf der gleichen Plattform 253W.
Da kann man nur gespannt sein, welche Höhen bei Meteor und über 2025 hinaus bei Intel noch kommen werden.
Und wenn man nun bedenkt, dass möglicherweise ein Rembrandt noch kommt, mit einer 2400MHz iGPU und 768 Shader und nicht in einer 45W Klasse, sondern in einer 105W Klasse, dann hat man sicherlich eine Zen 3 CPU mit GTX 1050 Ti Leistung und dazu 6000MHz RAM.
Zudem muss ja AMD gerüstet sein, denn Intel wird ja weiter machen. Und während Intel alle 2 Jahre die Plattform im Pazifik entsorgt, will AMD langen Support geben. Da erscheinen die maximal 230W doch als sehr moderat. Zudem wissen wir nicht, AMD aber ganz sicher, was noch kommen wird. Vielleicht eine noch stärkere APU mit Zen 4 und RDMA 3.
Dein Kommentar will die Stimmung zeichnen, dass man Intel mit Brechstange verunglimpft, während man bei AMD milde ist. Ich kann das nicht verstehen, wenn man den langen Support von AM5 sich mal hinter die Großhirnrinde jagt. Ich sehe hier eher ein cleveres Handeln bei AMD, also zukunftsorientiert, vorrausschauend und bei Intel nur kurzgedacht
Also ich fühle mich jetzt irgendwie argumentativ gut aufgestellt 😜
Ich hoffe ja dass AMD tatsächlich Mal gaming taugliche APUs raushaut (also mit GPUs in vergleichbarer Größe wie in der Ps5...). Spätestens da sind die 230w völlig angemessen und unumgänglich.
Weil wäre ja ein Produkt für Gamer und Gamer wollen ja meist einfach nur Maximale Leistung
Wenn man dann bedenkt das aktuelle GPU‘s sich den 500w nähern und CPU‘s den 400w wird es dann wohl schwierig das noch irgendwie zu kühlen wenn beides unter einem HS wäre
Vielleicht wenn du APU‘s dann doppelt oder 3 Fach so groß wie derzeit sind machbar aber anders kann ich mir das nicht kühlbar vorstellen
Aber mal schauen wo derzeitige Strompreissteigerungen noch hinführen
Vielleicht haben wir ja bald 1€/kw oder gar 2€/kw
Dann gibt es plötzlich haufenweise 4-500w CPU‘s & GPU’s am MP und alle suchen nach 17“ TFT und 50w APU’s fürs zocken 😂
Also mit 230W für die AM5 Plattform, sind diese Werte weit weg von 400W. Und wenn Rembrandt schon mit einer 45W APU auf dem Niveau einer 1050 Ti ist, ist sicherlich genug W noch übrig, um zum Beispiel mit einer 170W TDP APU noch mehr Leistung bieten zu können.
Vergiss nicht den RAM Durchsatz, der limitiert die APUs nämlich ebenfalls. Bei bei der PS5 ist GDDR6 mit 256 Bit Datenbreite angebunden und bei der XBOX X sogar mit 320 Bit Breite. Dies wäre für eine CPU unsinnig und damit müsste der Sockel dann entweder eine Menge zusätzlicher Pins für das RAM der iGPU haben, die bei CPUs unnötig sind und die Mainboards müssten diese RAM dann verlötet haben oder man müsste z.B. HBM verwenden, was aber die Größe des Prozessors deutlich erhöhen würde. Denkt nur an die Kaby Lake-G bei denen die GPU und deren HBM doppelt so viel Platz benötigen wie die eigentliche CPU. Oder man müsste halt die Dies übereinander stapeln, was aber ggf. Probleme mit deren Kühlung bedeuten könnte und natürlich auch zusätzliche Kosten verursacht.
Die Kaby Lake-G waren aber offenbar kein Erfolg, denn Intel hat nie einen Nachfolger gebracht und die waren eben auch nicht gesockelt, sondern verlötet. Sowas kann man in Notebooks und eben Custom Geräte wie den Konsolen machen, aber für die normalen PC Mainboards für gesockelte Prozessoren ist das nichts und da braucht man auch keine starke APU, da man ja eben dort einfach eine Graka verbauen kann. Eine APU braucht also nicht mehr zu können als den Desktop anzuzeigen und Multimedia zu können. Für alles darüber nimmt man eine Graka und dies hat auch den Vorteil, dass man damit die beiden Hitzequellen (CPU und GPU) räumlich getrennt hat und einzeln besser kühlen kann.
Najaaaa. Grundsätzlich richtig aber für das Problem hat AMD ja inzwischen den 3D Cache bzw Infinity-Cache.
Dadurch wird RAM Durchsatz nicht irrelevant aber ich könnte mir gut vorstellen, dass man dann mit dual ddr5 6000 schon auf sehr brauchbare Ergebnisse kommt.
Natürlich wäre eine große GPU immer noch weit schneller, aber das Einsteiger Gaming Segment mit einer APU abdecken zu können wäre schon ein echtes Alleinstellungsmerkmal.
und da braucht man auch keine starke APU, da man ja eben dort einfach eine Graka verbauen kann. Eine APU braucht also nicht mehr zu können als den Desktop anzuzeigen und Multimedia zu können.
IMO völliger Unsinn.
Wie viele Leute kauften sich einen 3600(X) oder einen 10400F und ne 2060(TI )oder 3060(TI) dazu, weil sie etwas einigermaßen Gaming taugliches haben wollten aber schlicht kein Geld haben um die Mondpreise für High End Hardware zu zahlen?
Rein technisch kann man das Gebiet mit einer APU abdecken.... Und das definitiv günstiger als mit einer dedizierten GPU und auch noch energiesparender.
Eigentlich hat AMD alles was man dafür braucht schon Mal in irgendeinem Produkt gemacht. Der einzige gute Grund so was nicht anzubieten, wäre die eigenen Low end GPUs nicht zu torpedieren und Sony und Microsoft nicht die Konsolen Käufer abzujagen (evtl gibt es Verträge die AMD daran hindern Chips der Ps5 Dimension in den freien x86 Handel zu entlassen).
Von Kaby auf APU zu kommen und überhaupt diesen von mir zitierten Satz auch noch zu meinen, ist einfach nur falsch.
Intel hat keine APU und wird auch wohl nie eine APU.
AMD hat mit andere Firmen einen Standard dafür erklärt, was eine APU ist. Ist die iGPU rein für die Grafikausgabe verwendbar, ist es CPU+iGPU, kann man damit aber universelle Berechnungen (OpenCL, Direct Compute, generell GPGPU) abseits der reinen Grafikausgabe durchführen, kann man es als APU bezeichnen.
Kurz, kann man mit der iGPU eine dGPU komplett ersetzen, ist es eine APU, braucht man für bestimmte Sachen immer noch eine dGPU, ist es keine APU.
In diesem Zusammenhang fallen bei mir vor allem die Persönlichkeiten auf, die am Rockzipfel von Intel hängen.
Aber bei Intel hast du zumindest eine iGPU und wenn deine Grafikkarte kaputt geht, ist immer noch eine Bildausgabe da.***
Gleichzeitig sind sich dann einige von diesen Intel Freunde nicht zu schade eine Intel F CPU zu empfehlen, um visuell einen günstigen Preis zu propagieren
***Wobei ich mich dann auch immer frage, haben diese Leute wirklich ständig kaputte Grafikkarten erlebt?
Wenn ich dann eine iGPU habe, wird man dann nie einen Defekt bei Netzteile, Motherboard, Tastatur, Maus SSD/HDD W-LAN usw. haben?
Wie viel ein Cache bringt, hängt immer davon ab wie die Art der Zugriffe ist, mal bringt er mehr und mal weniger. Aber AMD verbaut den auf dem 5800X3D und den EPYC immer in der Mitte des CPU Chiplets über dem L3 Cache, vermutlich auch wegen der Wärme die die Kerne abgeben und keine Ahnung ob man diese Technik einfach für APUs adaptieren könnte.
Wie viele Leute kauften sich einen 3600(X) oder einen 10400F und ne 2060(TI )oder 3060(TI) dazu, weil sie etwas einigermaßen Gaming taugliches haben wollten aber schlicht kein Geld haben um die Mondpreise für High End Hardware zu zahlen?
Keine Ahnung wie viele sich das kaufen, in diesem Forum (Luxx) wohl eher wenige, aber dies wäre ja nicht mehr die Einsteigerklasse, sondern schon die Mittelklasse.
Sony und Microsoft nicht die Konsolen Käufer abzujagen (evtl gibt es Verträge die AMD daran hindern Chips der Ps5 Dimension in den freien x86 Handel zu entlassen).
Vergiss nicht die andere RAM Anbindung, 320 Bit breit mit GDDR6 bei der XBOX X und 256 Bit breit bei der PS5. Dies kann man nicht in einem Sockel machen, wie ich schon im letzten Post schrieb.
Bevor der Strompreis auf 2€/kwh steigt, haben wir einen Buergerkrieg.
Das wird also sicher nicht passieren.
Um den Stromverbrauch der Ryzen7000 mach ich mir jetzt ueberhaupt keine Gedanken. Warum auch?
Nur weil dort 230W PPT steht, kann ich nicht sinnvoll herleiten wieviel er denn wirklich verbrauchen wird.
Alle Kerne zu 100% mit AVX512 auslasten tut ja kein Heimanwender .....
Auch mein aktueller 5900X verbraucht meistens nur 60-70W in Games.
Deshalb auf Reviews warten.
Da mach ich mir mehr Gedanken um den Verbrauch der neuen GPUs.