AMD Zen soll am 17. Januar starten - erstes Modell mit 8 Kernen für 275 Euro

Gibts doch auch bei Intel leider meistens erst so ca 3-4 Monate nach Einführung.
Das wird bei Zen leider nicht anders sein. :(

Cool wären ja DTX Mainboards (ITX mit 2x PCIe) aber das ist unwahrscheinlich, auch wenn 80-90% der iTX Gehäuse damit kompatibel wären!

Ja wie gesagt stört mich nicht ich muss nicht umrüsten :d

Ich hab ein NZXT Manta und bau das grade mit wakü auf deswegen die Überlegung immoment hab ich nur ne kleine cpu auf dem Z170 sitzen da ich die letzen Monate nicht zum zocken kam und für die par spiele reicht es dennoch für max :)

Aber Zen währe halt vermutlich von der P/L interesant gewesen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja wie gesagt stört mich nicht ich muss nicht umrüsten :d

Ich hab ein NZXT Manta und bau das grade mit wakü auf deswegen die Überlegung immoment hab ich nur ne kleine cpu auf dem Z170 sitzen da ich die letzen Monate nicht zum zocken kam und für die par spiele reicht es dennoch für max :)

Aber Zen währe halt vermutlich von der P/L interesant gewesen.
ZEN+ ist ja schon beim Architekten, von daher könnte man den Markt einfach fluten...
Ansprüche kommen erst mit der Bildqualität -> oben raus. :drool:
 
- RYZEN ( "Risen" - Auferstanden .. ) ...
- 3,4Ghz+
- Takt abhängig der Kühlleistung bzw. full auto OC
- 16mb L3

Anhand der Grafik mögliche Taktraten (OC): 3,4Ghz+ | 4Ghz | 4,5Ghz

http://videocardz.com/64741/ryzen
Vermutlich Leaks für den Stream Heute Abend um 22 Uhr
http://www.amd.com/en-us/innovations/new-horizon


Speku:


Cores | Gen=1 | Takt 34=3,4Ghz | C = Consumer | R = iGP | E = Enthusiast

Octas:

RY-8134-C
RY-8134-E

Hexas:

RY-6136-C
RY-6136-E

Quads:

RY-4138-C
RY-4138-R
RY-4138-E
 
Zuletzt bearbeitet:
Habs auch auf Videocardz kurz gelesen und dann nach 5 Sekunden mir nur gedacht, das die Marketingabteilung wohl zuviel DayZ oder weiß der Geier was gedaddelt hat und damit wohl auch genau diese Zielgruppe im Auge hat...naja, ich persönlich fande schon die Core2Duo Namensgebeung von Intel arg peinlich, also darf man mich hier net über meine Meinung diesbezüglich fragen...

Ryzen...laughs maniacally
 
ist doch egal wie das ding heißt.. hauptsache da ist ordentlich power hinter.
 
R = IGP?!
Es war bislang doch nirgends die Rede dass schon APUs kommen würden, oder?
Das könnte eher eine Stromspar Variante sein auch wenn mir da ausser regenerative, nichts mit R einfällt...

Was Namensgebung angeht, naja, gibt schlimmeres. Hoffen wir mal dass die Zahlen nicht ganz so ausarten wie bei Intel.

Ein rein kühlungslimitierter Takt ist jedenfalls eine sehr interessante Idee!
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Meinte das XFR.

Ich glaube immer mehr daran, dass Zen(Ryzen?) nen Desktop Treiber mit Wattman bekommt. Dort könnte man dann noch etwas Spannung dazu geben um evtl bessere Ergebnisse zu erzielen.
 
Dann hoffe ich mal das ich bald meine 8 jahre alte plattform in rente schicken kann - wobei abgesehen von dem etwas mehrstrom verbrauch hält se wiederrum noch tadellos mit hmmm
 
Ich glaube immer mehr daran, dass Zen(Ryzen?) nen Desktop Treiber mit Wattman bekommt. Dort könnte man dann noch etwas Spannung dazu geben um evtl bessere Ergebnisse zu erzielen.
Wäre jetzt nichts sooo besonderes...
Früher gabs für Cool'N'Quiet schonmal ein Tool von AMD und Intel bietet XTU an.
Interessant wäre halt ein feature das von selbst funktioniert um ohne ein gesetztes Takt-Limit, das Maximum raus zu holen.
 
Wäre jetzt nichts sooo besonderes...
Früher gabs für Cool'N'Quiet schonmal ein Tool von AMD und Intel bietet XTU an.
Interessant wäre halt ein feature das von selbst funktioniert um ohne ein gesetztes Takt-Limit, das Maximum raus zu holen.

Turbo Boost 3.0 von Intel benötigt auch einen Treiber.
 
Turbo Boost 3.0 von Intel benötigt auch einen Treiber.
So meinte ich das nicht mit "von selbst funktionieren". Natürlich darf das nen Treiber brauchen.
Es soll nur im Endefekt ohne Zutun des Users, das Maximum rausholen. Turbo Boost hat ja immer ein festes Limit das man als User anheben (und mit den Spannungen ausloten) muss.
 
So meinte ich das nicht mit "von selbst funktionieren". Natürlich darf das nen Treiber brauchen.
Es soll nur im Endefekt ohne Zutun des Users, das Maximum rausholen. Turbo Boost hat ja immer ein festes Limit das man als User anheben (und mit den Spannungen ausloten) muss.

Hmm zumindest auf der einen Folie steht zu XFR:
Fully automated; no user interventation required....
 
ja aber bei ner Nano wenn man das Powertarget erhöht ist oftmals auch noch viel zu viel Spannung drauf, wie AMD es gerne macht damit es auch 100% bei jedem Stabil ist. Und das genauere Ausloten wäre dann schon ganz praktisch. Wenns an sich schon perfekt ist braucht man das natürlich nicht, aber das bezweifle ich.
 
Zuletzt bearbeitet:
Denke mal Spannung ausloten wird das System wohl kaum, denn dafür müsste es ja selbstständig wiederholt Belastungstests durchführen und in dieser Zeit Instabilität in Kauf nehmen.

Softwaretechnisch über das Bios (also einmalig, nicht während dem aktiven System) könnte man sowas theoretisch schon durchführen - wundert mich eigentlich wieso noch kein OC crack sowas gebastelt hat - es wäre ja nur ne einfache Regelsteuerung notwendig um das was der Übertakter macht, in Software nach zu bilden. Einen absturzsicheren Speicher bieten moderne BIOSe (UEFI) auch und stupide Belastungstests wie von Prime95 sind ebenfalls kein Hexenwerk.

Sowas wird es allerdings wohl kaum in einem Endkundenprodukt geben. Denke man wird eher massig Spannung nehmen und eben mit der Temperatur regeln.

Richtig genial wäre natürlich wenn AMD eine zuverlässige (Hardware-) Technik hätte um auf andere Weise als Try and Error die benötigte Minimal-Spannung zu bestimmen, aber das ist wohl ein Traum.
 
Zuletzt bearbeitet:
Sowas wird es allerdings wohl kaum in einem Endkundenprodukt geben. Denke man wird eher massig Spannung nehmen und eben mit der Temperatur regeln.

Richtig genial wäre natürlich wenn AMD eine zuverlässige (Hardware-) Technik hätte um auf andere Weise als Try and Error die benötigte Minimal-Spannung zu bestimmen, aber das ist wohl ein Traum.

Irgendwie widerspricht sich das erste... massig Spannung = massig Temperatur = massig Verbrauch. Wie soll das aufgehen?
Es würde übrigens reichen, wenn man ähnlich der NV Boostgeschichte einfach die Spannung abhängig der Taktraten anlegt. Sprich jede Stufe am Multiplikator einfach die Spannung etwas nach oben drückt. Einzige Vorraussetzung dafür wäre, die Geschichte auszuloten. Aber auch das bekommt NV auf der GPU schon hin seit spätestens GK110. Nicht alle GPUs gehen gleich oder boosten gleich. Es muss also recht einfache Mittel geben, um die "Güte" des Chips irgendwo festzuschreiben und anhand dessen die Taktraten und Spannungen zu steuern.

Warum das bis dato auf der CPU nicht eingesetzt wird ist mir ein Rätzel. Möglicherweise weil man sich bei CPUs in gewissen Modellkreisen einzig durch ein paar Mhz Takt unterscheidet? Aber wir werden sehen... AMD brachte bis dato keine Tonnen von um 100MHz unterschiedliche CPUs. Man könnte ggf. über mehr oder weniger fixe TDP Decklungen die Unterschiede ziehen -> und diese uminösen Special Editions können das Limit dann ganz aushebeln oder irgendwie so...


Wenn das so funktioniert, wäre das echt ein ziemlich interessantes Feature...
 
Es soll nur im Endefekt ohne Zutun des Users, das Maximum rausholen.
Wie soll das gehen, denn wenn man das Maximum rausholen will, muss man die Grenzen auch immer wieder überschreiten und dann ist das System instabil und stützt ab. Es ging allenfalls so wie DragonTear dies beschrieben hat, aber dann muss eben im System noch eine Überwachung sein die dies alles steuert, da die CPU selbst beim Überschreiten der Grenzen ja nicht mehr (zuverlässig) arbeitet.

Warum das bis dato auf der CPU nicht eingesetzt wird ist mir ein Rätzel.
Weil es bei einer GPU vielleicht auf dem Bildschirm flackert und dann kann der Treiber die Einstellungen zurücknehmen und es geht in Kürze weiter, bei einer CPU geht das eben nicht, da müsste mindestens neu gebootet werden.
 
Irgendwie widerspricht sich das erste... massig Spannung = massig Temperatur = massig Verbrauch. Wie soll das aufgehen?
Naja, ich will ja damit nur bestätigen was NasaGTR gesagt hat. Dieses feature muss dafür sorgen dass es bei jedem 100% stabil läuft, deswegen wird das nicht automatisiert so hoch regeln können wie ein manueller übertakter der die Spannung auslotet. Dass die Spannung auch mit dem Takt steigen wird, ist wahrscheinlich, nur eben wird man auch da "massig" Spannung geben damit es überall funktioniert und die Temperatur oder das Powertarget deckelt bevor es zu Unstabilität kommen würde.
Dennoch ist da sicher etwas Spielraum von ein paar Hundert MHZ.

Bei den GPUs ist doch auch bei NV das Powertarget das deckelt, oder? Durch die unterschiedliche Chip-Güte ergibt sich dass eine graka mehr als die andere verbraucht und dadurch weniger hoch boosten kann.
Denke eher nicht dass die graka wirklich genau weiss wieviel Spannung notwendig ist, oder wurde das irgendwo bestätigt?
 
Zuletzt bearbeitet:
Nur flackert da nix auf der GPU... Einzig ein paar der Werks OC Modelle sind/waren nicht stabil. Aber das ist nunmal so, wenn man zu viel anlegt. Es spricht von dieser Seite her trotzdem nix dagegen. Denn keine NV GPU mit default Taktraten hat Probleme mit dem Boost.

Mal davon ab, man macht ja was ähnliches mit dem Turbo auf der CPU heute schon, nur eben in fixen pro Prozessormodell definierten Sprüngen anstatt einer Dynamik. Der nächste Schritt wäre folgerichtig, die Chips mit besserer Güte einfach höher zu boosten als die mit niedrigerer. -> so wie es eben auf der GPU funktioniert.
 
Eben, wenn es nicht geflackert hat, war man nicht über Limit hinaus und weiß daher nicht ob man am Limit war, also das Maximum erreicht hat. Das wird am Ende wohl nicht mehr als ein neuer Name für das nochmal etwas verbesserte System der Turbo Takte.
 
Zuletzt bearbeitet:
Ich behaupte dennoch mal dass sowas wie GPU Boost von Nvidia für CPUs ein Wahnsinnig gutes Feature wird.
Dann halt noch ein CPU-WattMan für die Enthusiasten um die letzten paar Prozentpunkte zu bekommen.
 
Abwarten, es gibt einige Spekulationen darüber das es mit AM4/Zen auch ITX Board geben soll....
 
Zuletzt bearbeitet:
Abwarten, es gibt einige Spekulationen darüber das es mit AM4/Zen auch ITX Board geben soll....
Halte ich für sehr wahrscheinlich. Meine was spräche denn dagegen?
Bei AM3 war es der Verbrauch - man hätte nicht alle CPUs unterstützen können. Außerdem ist dieser Markt bis heute wohl sicher gewachsen. Zu Bulldozer Zeiten gab es noch nicht mal intel NUCs.
 
Natürlich werden iTX Boards kommen, AMD hat mit seiner seltsammen Wakü Prototyp Box doch selbst gezeigt das sie wissen was iTX für ein Markt ist.

Aber so schnell werden halt keine iTX Mainboards kommen, sondern später.


Warum sollte es auch nicht kommen, der Verbrauch scheint wie normale 11xxer zu sein und es hat eh nur DualChannel. Wobei es ja sogar 2011er iTX Bords gibt (allerdings auch nur dualchannel).
 
Der neue Name :haha::shot: Der wurde bestimmt bei der letzten Betriebsfeier mit Freibier gewürfelt und der Nerd Praktikant hat gewonnen.

Athlon,Duron,Phenom ...Ryzen pewdepie approved :lol:

BTT: hoffe das Turbofeature ist nicht so restriktiv und lässt Usereingriffe zu .
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh