AMD zeigt Pläne für RYZEN 5 und RYZEN 3 sowie CPUs mit integrierter Grafik

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
26.945
<p><img src="/images/stories/logos-2017/amd_ryzen_teaser_100.jpg" style="margin: 10px; float: left;" />Nachdem wir gestern den <a href="index.php/artikel/hardware/prozessoren/42068-acht-kerne-und-16-threads-fuer-550-euro-amd-ryzen-7-1800x-im-test.html" target="_self">Test des RYZEN 7 1800X</a> präsentierten und sämtliche technische Daten dazu nennen konnten, setzen wir den Fokus nun noch einmal auf die kleineren Modelle, die bisher allerdings nur angekündigt wurden. Derzeit einzig erhältlich sind die Modelle der RYZEN-7-Serie 1800X, 1700X und 1700.</p>
<p>Bereits in diesem Test gingen wir auch etwas auf die RYZEN-5- und RYZEN-3-Serie ein. Da sich aber vieles auf eben die Topmodelle konzentriert hat, wollen wir noch einmal etwas genauer darauf eingehen, was uns bei den kleineren...<br /><br /><a href="/index.php/news/hardware/prozessoren/42167-amd-zeigt-plaene-fuer-ryzen-5-und-ryzen-3-sowie-cpus-mit-integrierter-grafik.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
könnt ihr bitte mal beim 1800x 2 oder 4 kerne deaktivieren, übertakten und das ding dann durch ein paar spiele jagen :)?
 
Zuletzt bearbeitet:
R5 und R3 ist sowieso viel interessanter für Spieler, auf die warten wohl die Spieler am meisten, vor allem weil sie (Hoffentlich - Daumen drück!) deutlich besser zu takten sein werden.
 
nur werden die den Spielern wohl leider nicht viel helfen wenn die nicht @stock wesentlich höher takten als die 8 Kerner.

Den mit demselben Takt wie die 8Kerner werden die 4 und 6 Kerner kaum mit den hochtaktenten 4 Kern Intels mitkommen beim Gaming :(
 
R5 und R3 ist sowieso viel interessanter für Spieler, auf die warten wohl die Spieler am meisten, vor allem weil sie (Hoffentlich - Daumen drück!) deutlich besser zu takten sein werden.

Genau so siehts aus. Finde den 1600X deutlich interessanter als den 1700. Finde den 1600X für Gamer was P/L deutlich besser.
 
Ich hoffe bis dahin ist alles so optimiert dass die Sechskerner besser in Games abschneiden. Wenn die genau so mau sind wie jetzt, oder schlechter (weil 2 kerne weniger) dann gute Nacht
 
Vielleicht kommt da ja mal ne Spielbare APU mit wenig Verbrauch.
Warte auf eine APU die deutlich mehr leistet als Intels Iris Pro aber maximal 35W verbraucht.
 
Vielleicht kommt da ja mal ne Spielbare APU mit wenig Verbrauch.
Warte auf eine APU die deutlich mehr leistet als Intels Iris Pro aber maximal 35W verbraucht.

Wieso max 35 Watt?

Eine tolle APU für nen ITX oder µATX PC wäre schon toll, insbesondere als nützlicher Gaming PC für Leute die nicht immer das neuste und schönste spielen möchten. (Vorallem wenn HBM in der APU ist)

Außerdem würde dies wohl bei dem OEMs insbesondere im Schulbereich (Schulrechner welche leichte CAD Aufgaben im Unterricht rechnen müssen zum Beispiel) auf (hoffentlich) eine kleine Liebe sorgen, und natürlich auch als sehr guter Multimedia PC (Im Doofmarkt z.B.) sind die APUs interessant.
 
Wäre nat. geil, wenn man die 4-6 Kerner deutlicher höher takten könnte als die High-End-Modelle.
 
Wieso max 35 Watt?

Das habe ich jetzt mal so aufgegriffen von den Intel T-CPUs.
Generell würde ich halt eine niedrige TDP und damit auch niedrige Leistungsaufnahme begrüßen. Dann können die Systeme kompakter werden und dabei leise bleiben. Wenn man jetzt nen thin-ITX mit passiver Kühlung anvisiert, dann kann man da keine APU mit 90W Verlustleistung gebrauchen..
 
könnt ihr bitte mal beim 1800x 2 oder 4 kerne deaktivieren, übertakten und das ding dann durch ein paar spiele jagen :)?

Gabs bei PCGH
Fazit ist, die Skalierbarkeit ist echt Krass:
http://www.pcgameshardware.de/screenshots/original/2017/03/Ryzen-R7-1800X-Test-CPU-Core-Scaling-Battlefield-1-pcgh.png

Wenn AMD eine Maske mit einem CCX bringt, dann kann da auch kein Intel I3 mehr gegenan stinken.
Die APUs werden Interessant, denn AMDs µArch mag zwar Fehler haben, aber auch verdammt viel Potenzial

@Ilovebytes:
Über Menschen wie dich, kann man echt nur noch den Kopf schütteln

@NootyBooty:
Denke der LPP Prozess wird da nicht viel hergeben, Ryzen läuft mit dem 1700X im Sweepspot mit dem 1800X aber schon darüber..
OC wird gehen, aber die Effizienz wird massiv einbrechen. Schau dir nen i7 7700K bei 5Ghz an, da verbrennt er 150W
Ich denke wenn man die Dinger bis auf 4Ghz bekommt, dann hat man eben eine sehr gute Alternative zum I5K oder gar darunter..
Interessant wird das mit den APUs, denn der Fabric soll auch auf die GPU zugreifen könnnen..
 
Zuletzt bearbeitet:
Nanu? Wieso hat AMD pötzlich die Taktraten für den 6-Kerner 1600X erhöht? im ursprünglichen Portfolio wars doch viel niedriger.*kopfkratz* plötzlich 400mhz ausm Hut gezaubert.
 
Nanu? Wieso hat AMD pötzlich die Taktraten für den 6-Kerner 1600X erhöht? im ursprünglichen Portfolio wars doch viel niedriger.*kopfkratz* plötzlich 400mhz ausm Hut gezaubert.

Nunja ein 1600X kann mit 4GHz laufen.. Und wird dabei vermutlich die 65W nicht halten..
Ein 1600X mit der Leistung zwischen i5K und I7 ist aber schon ein Kaufgrund, auch wenn man wohl mehr Strom verbraucht
 
4 ghz auf Turbo ,heisst 2 kerne oder? +x is ja nur nen Leckerli für die 2 kerne.Rede jetz nicht von OC.Allcore geht quasi nur basetakt richtig?
 
wenns nur deaktivierte Kerne sind,vergess das mit den 4ghz ganz schnell wieder. 65w gilt zu halten.
 
Na hoffentlich all core und dann per OC auf 4,5GHz für einen 7700K Vergleich. Wenn er fast genauso schnell ist kommt es auf den Preis an. 249€ wäre super, aber 299€ ist realistisch.
Spannend wird das OC Potenzial vom R5 1500X. Wenn der 4,5Ghz packt und nur 199€ kostet könnte OC endlich mal wieder günstig sein und trotzdem einen Performanceschub liefern.

Wenn es eine eigne Maske mit einem CCX ist könnte mal bei der XFR Obergrenze von 128W sicherlich die Werte erreichen.. Die frage ist nur: macht das Sinn?
Und Gribasu: Derzeit ja. Solange das XFR nicht aufgedröselt ist muss man davon ausgehen dass Allcore 4,0 Ghz nicht machbar ist

AMD Ryzen 7 1800X: Overclocking & Test Setup
Wobei ich eine Spieleleistung eines 4790K für ein Geld von 199€ nicht schlecht fände.. Was bietet da Intel? Ne 4 Core Möhre
 
Zuletzt bearbeitet:
bevor jemand vorbestellt....BITTE WARTET DEN TEST AB @games im CPU Limit....nur so ein Tip *hust*
 
Genau, und kauft dann einen R5 oder R3, auch wenn ihr nicht spielt. :rolleyes:
 
Theoretisch könnte man den R5 1600X ja schon mal "simulieren". Dürfte ja auch nur ein großer R7 1800X mit zwei deaktivierten/defekten Kernen sein.
Tendenziell wird er leistungstechnisch also darunter liegen, da er out of the box mit den selben Taktraten kommt. Bleibt nur die Frage, ob er durch die geringere Abwärme bei gleichem TDP Budget (95W) mehr Spielraum beim Übertakten hat und wie gut das Taktplus in Mehrleistung umsetzbar ist.
Wunder erwarte ich aber ehrlichgesagt keine und wahrscheinlich wird hier der Infinity Fabric genauso ein Stück weit limitieren. Bleibt die Hoffnung, dass sie bis zum Release irgendwann in Q2 ein paar der Probleme beheben können.
 
Na hoffentlich all core und dann per OC auf 4,5GHz für einen 7700K Vergleich. Wenn er fast genauso schnell ist kommt es auf den Preis an. 249€ wäre super, aber 299€ ist realistisch.
Spannend wird das OC Potenzial vom R5 1500X. Wenn der 4,5Ghz packt und nur 199€ kostet könnte OC endlich mal wieder günstig sein und trotzdem einen Performanceschub liefern.
Interessant wird der Vergleich zu einem i5-k, denn das ist -seit nunmehr 6 Generationen- die CPU, die es in Spielen in Punkto P/L zu schlagen gilt...

Mit 4/8 und der jetzt bekannten IPC wird sich der R5 1500x vermutlich auf Leistungsniveau eines i7-4770k bewegen




Ryzen 7 scheint einfach die CPU zu sein, wenn man gepaart mit einer 600€ GPU auf 720p ohne AA/AF zocken möchte

Wenn AMD eine Maske mit einem CCX bringt, dann kann da auch kein Intel I3 mehr gegenan stinken.
Bleibt die Frage was für eine Relevanz ein i3 in Zeiten von <60€ HT-Pentiums noch haben soll
 
Zuletzt bearbeitet:
Ryzen 7 1800X im Test: AMDs Rückkehr in den High-End-Markt - Seite 35

Zitat: Es ist eigentlich ganz einfach: Wenn du irgendwas Spezifisches messen willst, musst du es möglichst isoliert betrachten, damit nicht irgendwas anderes die Ergebnisse verfälscht.

Und das kann ich tun in dem ich Anwendungen nutze in denen die GPU absolut keine Rolle spielt, statt Anwendungen zu nutzen in denen fast nur die GPU eine Rolle spielt, die ich dann aber so vollkomen realitätsfern einstelle, dass die Aussagekraft keinerlei Relevanz mehr besitzt...
Spezifisch zu messen wäre, in wie weit sich CPUs von 200€ bis hin zu fast 1000€ in Spielen bei relevanten Grafiksettings unterscheiden um eine relevante Aussage darüber treffen zu können, was man sich als Spieler zulegen sollte... wenn man das nicht tut, kann man sich Spiele Benchmarks auch komplett sparen!

Wenn ich zwei unterschiedliche Reifen eines Formel 1 Autos testen möchte, dann fahre ich damit auf eine kurvenreiche Formel 1 Rennstrecke und nicht auf eine Rallye-Schotterpiste über die ich vorher drei mal drüber gefegt habe...
 
Zuletzt bearbeitet:
Damit man relevante Aussagen treffen kann, testet man CPUs eben nicht im GPU-Limit.

Und die einfachste Möglichkeit, um das GPU-Limit zu vermeiden, ist, die Auflösung runterzustellen. Wo genau ist jetzt das Problem?

PS: Und um bei deinem Autovergleich zu bleiben. CPU-Tests in 720p sind Tests auf der Rennstrecke, weil da nichts limitiert.

1440p wäre Landstraße, 4k wäre Innenstadt. Da ist ein 50PS Golf genauso schnell wie eine 1000PS Dodge Viper, eben weil sie beide durch das Tempolimit (GPU) limitiert werden.
 
Zuletzt bearbeitet:
Damit man relevante Aussagen treffen kann, testet man CPUs eben nicht im GPU-Limit.
Du scheinst Schwierigkeiten mit dem Ausdruck "Relevanz" zu haben...

Spiele mit überteurer Hardware und anspruchslosesten Settings ins CPU Limit zu treiben ist nicht relevant, weil das in der Realität niemand tut!
Ab einer 150€ CPU hängen 99% der Spiele, die in Haushalten der Konsumenten auf den Schirm kommen defacto im GPU Limit... "relevant" für all diese Menschen wäre es zu wissen, wie sich (teurere) CPUs unter diesen Bedingungen unterscheiden. Die Antwort ist: so gut wie gar nicht - nur das gibt kein deutscher Test her.
 
Zuletzt bearbeitet:
Du scheinst Schwierigkeiten mit dem Ausdruck "Relevanz" zu haben...

Spiele mit überteurer Hardware und anspruchslosesten Settings ins CPU Limit zu treiben ist nicht relevant, weil das in der Realität niemand tut!
Ab einer 150€ CPU hängen 99% der Spiele die in Haushalten der Konsumenten auf den Schirm kommen defacto im GPU Limit, entsprechend wäre es für alle diese Menschen relevant zu wissen, wie sich (teurere) CPUs unter diesen Bedingen unterscheiden. Die Antwort ist: so gut wie gar nicht

Na dann erklär mir mal, wie man die Leistung der CPU im GPU-Limit misst und mit anderen CPUs vergleicht, um Unterschiede festzustellen?

Jetzt bin ich mal gespannt.
 
Das ist genau das was er damit ausdrücken wollte: Ein künstliches CPU-Limit zu erzeugen ist wenig relevant, da es aktuell ein realitätsfernes Szenario ist.
Das Gegenargument ist eigentlich immer, dass die GPUs stärker werden und das CPU Limit mit der Zeit wieder relevanter wird.
 
PS: Und um bei deinem Autovergleich zu bleiben. CPU-Tests in 720p sind Tests auf der Rennstrecke, weil da nichts limitiert.

1440p wäre Landstraße, 4k wäre Innenstadt. Da ist ein 50PS Golf genauso schnell wie eine 1000PS Dodge Viper, eben weil sie beide durch das Tempolimit (GPU) limitiert werden.

Und hier sieht man wunderbar wo das Problem ist...
Ich habe keinen Autovergleich angesprochen, es ging um Reifen
Reifen teste ich (natürlich an einem Auto... die CPU teste ich ja auch in einem PC, bei beiden sind jeweils noch andere Komponenten verbaut, die teilweise entscheidenen Einfluss auf das Ergebnis haben) dort wo sie eingesetzt werden: Bei einem Formel 1 Auto auf der Formel 1 Rennstrecke - nicht dort wo ich vielleicht die größten Unterschiede sehen könnte (Rallye Schotterpiste, wo Gripp deutlich relevanter ist als auf Asphalt), die aber absolut keine Relevanz für das abbildet, was ich wissen will.


Das ist genau das was er damit ausdrücken wollte: Ein künstliches CPU-Limit zu erzeugen ist wenig relevant, da es aktuell ein realitätsfernes Szenario ist.
Das Gegenargument ist eigentlich immer, dass die GPUs stärker werden und das CPU Limit mit der Zeit wieder relevanter wird.
Ein "realitätsfernes Szenario?" :lol:

Spiele Tests mit einer 600€ Grafikkarte bei Grafiksettings aus dem letzten Jahrtausend sind für dich also realitätsnah, während Tests bei FHD/WQHD mit aktivierten Bildverbesserern (also genau das, was jeder einstellen wird, wenn er sich schon so eine teure GPU kauft) ein "realitätsfernes Szenario" darstellen?

index.php

Realitätsfern - Wer spielt ein aktuelles DX12 Spiel mit einer GTX1080 schon auf WQHD mit AA/AF wenn das für über 80 Average-FPS reicht


Natürlich werden GPUs immer stärker... Engines werden ja auch immer leistungshungriger und Auflösungen immer höher.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh