AMD Ryzen 3000: Acht Zen-2-Kerne mit PCIe 4.0 ab Mitte 2019

Aber wahrscheinlich auch noch deine SSD neu, oder eben gar nicht versucht alle 4 Threads auszulasten (denn dann findet man im Internet andere Zeiten und außer du hast irgendetwas ganz besonderes gemacht Speeding up AOSP Builds System Temp Directory | Christopher Piekarski Und wenn du nebenbei noch deinen Browser bedienen willst, hilft HT eben schon enorm...? Ansonsten ist das ja tatsächlich mal ein valider Use-Case, aber wenn du da wirklich entwickelst musst du ja nicht immer alles neu kompilieren (und auch beim Abbruch bei 97%?)? :eek:

Und bei der Preisgestaltung muss man halt sagen, dass man a) ganz klar noch ein paar (klassischerweise teure) Features nicht hat, b) eben auch irgendwann in den meisten Geldbeuteln der Widerstand mit dem Preis stark zunimmt und c) Marktanteile nicht mit "ich bin 2% billiger für 2% mehr leistung" gewonnen werden (gerade nachdem, was die FXe waren).

Doch muss man leider, weil nicht ich bestimme was da gepusht wird, sondern die Lineage Community.
Ich kompiliere noch immer auf der 840 Evo, die hatte ich damals auch schon und ja, die Zeit ist nicht direkt mit AOSP vergleichbar, da es sich um ein Custom ROM handelt und da mehr Bibliotheken drin sind. (in dem Fall)
Android ist seit 2013 ja nun auch etwas gewachsen ;)
Wie ich alle Threads auslaste weiß ich natürlich, außerdem benutze ich auch nicht Googles normalen GCC sondern Linaro, dadurch verändert sich die Compiling Zeit auch.
Nebenbei Surfen tue ich aus RAM Gründen schon allein nicht ;D
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Im anderen Bericht habe ich gelesen, dass in Cinebench R15 der Ryzen-3000, mit acht Kernen und 16 Threads, mehr Punkte erreicht hat als Intel (Rysen-3000 = 2.057 Punkte vs.
i9 9900k = 2.040 Punkte.)
In diesem Bericht ist allerdings der i9 vorne, was stimmt denn nun?
 
Im anderen Bericht habe ich gelesen, dass in Cinebench R15 der Ryzen-3000, mit acht Kernen und 16 Threads, mehr Punkte erreicht hat als Intel (Rysen-3000 = 2.057 Punkte vs.
i9 9900k = 2.040 Punkte.)
In diesem Bericht ist allerdings der i9 vorne, was stimmt denn nun?

Der AMD ist vorne und braucht dafür 50 Watt weniger.
 
Beides, in der Vorstellung war "live" der Ryzen schneller, wärenddessen in AMDs Notes der i9 mehr Punkte hat.
Insgesamt gesehen sind sie also einfach gleich schnell, weil das innerhalb der Messtoleranz liegt
 
so ist es. 2057 zu 2040 punkten. das ist ja wohl gar nichts.

der stromverbrauch ist dafür bei amd wesentlich geringer. (dass es so eine situation noch mal geben wird hätte ich vor 4 jahren nicht geglaubt.
 
Das ist es auch was mich irgendwo beeindruckt hatte mit dem verbrauch.
Weil wenn man sieht das der CPU so wenig verbraucht bei 9900K leistung dann kann man davon ausgehen das der 16kerner auch richtig viel takt machen wird.
der 9900k hatte ja ~175Watt (schätze mal bei 4,5Ghz)
der 3000er Ryzen 133Watt ( ca. 4,5Ghz+)
da sollte der der 16kerner Ryzen im bereich von <250Watt@4,5Ghz+ liegen können und das wäre schon sehr fett

Bei nem 16Kerner Ryzen @4,5Ghz würde ich garnicht übertakten weil es einfach hammer viel leistung ist
 
Zuletzt bearbeitet:
so ist es. 2057 zu 2040 punkten. das ist ja wohl gar nichts.

der stromverbrauch ist dafür bei amd wesentlich geringer. (dass es so eine situation noch mal geben wird hätte ich vor 4 jahren nicht geglaubt.

Wundert das Jemanden bei 14nm vs 7nm Lithographie ?
 
Im Endeffekt ist die Lithographie egal.
Es geht ja viel mehr darum, welche Leistung (im Gesamten) zu welcher Zeit angeboten wird.
 
Dafür hatte der FX aber null Leistung :lol:
 
Man denke zurück an den FX-9590. Wer den hatte, brauchte im Winter keine Heizung, in Wladiwostok :d
 
Naja, gegenüber einem i7-2700k mit 32nm war der FX aber auch ein Stromfresser https://www.computerbase.de/2012-10/test-amd-fx-8350-vishera/9/#abschnitt_leistungsaufnahme, bei 51 % Mehrverbrauch bei Prime95 Volllast.
B2T ;)
takte den 2700k (quad) mal so hoch wie den FX8350, du wärst überrascht. den piledriver octacore gabs ab 65 watt tdp als opteron. ABER:

Dafür hatte der FX aber null Leistung :lol:
genau da lag sein problem ;) amd musste das teil wie blöde takten, damit überhaupt leistung dabei rauskommt. die effizienz is dann natürlich fürn ar***

und genau da leigt grad das problem vom 9900k: der braucht einfach ineffizient hohen takt um die leistung abliefern zu können. zen2 läuft noch moderat und ist daher effizienter...

der 9900k kann auch deutlich sparsamer... aber dann isser auch deutlich langsamer als die konkurrenz aus dem hause amd. ich könnte mir sogar vorstellen dass intel einen fiktiven "i9 9900U" rausbringen könnte, der die effizienz von zen2 erreicht bei taktraten von vllt um 3 ghz...
 
Zuletzt bearbeitet:
ja da haste recht aber ich denke das man bei intel sobald man den 10nm Fertigungsprozess im griff hat, AMD wieder abhängen wird.
 
Hängt meiner Meinung nach davon ab, wie man sich das künftige CPU Design bei Intel vorstellt. Solange es Monolitisch bleibt, wird AMD wohl noch eine gute Zeit lang die Schnauze bei MC Anwendungsfällen vorn haben. SC ist und bleibt wohl Intel erstmal vorne.
 
Ja und MC wird immer wichtiger auch bei spielen findet das immer mehr unterstüzung.
Tombraider, Assassins Creed und Frostbite engine sind da gute beispiele wie es laufen kann
Denke das wird auch bei The Division 2 so kommen
 
ja da haste recht aber ich denke das man bei intel sobald man den 10nm Fertigungsprozess im griff hat, AMD wieder abhängen wird.

Vorrausgesetzt, sie erreichen die Taktraten, die sie mit 14nm fahren.
Intel hat selbst gesagt, dass 10nm und 10nm+ die Taktraten von 14nm++ wohl nicht erreichen werden.
Außerdem gabs ein Downgrade beim 10nm Fertigungsprozess weil die Ziele einfach zu hoch gesteckt waren.

Sobald AMD die Latenzen im Griff haben, sind sie zumindest gleichauf mit Intel.
 
ach echt? hätte ich nicht gedacht das die taktraten dann nicht erreicht werden können
 
Powerplay, das neue Prozesse mit kleineren Strukturen die gleichen Taktraten nicht erreichen, schreibe doch die ganze Zeit. Die 5Ghz des FX schafft auch auch kein RYZEN, außer bei Extremübertaktung mit entsprechender Leistungsaufnahme und damit Kühlung die nicht alltagstauglich ist.
 
Der kommende 10nm Prozess von Intel, falls er überhaupt kommt sollte eher 12nm genannt werden.
Aber ich vermute ja, daß man nie viel in "10nm" von Intel sehen wird, die werden direkt auf 7nm springen!

Aber vielleicht erleben wir mit dem neuen CEO ja recht bald den Verkauf der Fabs, dieser Klotz am Bein bremst Intel aktuell am meisten aus!
 
und genau da leigt grad das problem vom 9900k: der braucht einfach ineffizient hohen takt um die leistung abliefern zu können. zen2 läuft noch moderat und ist daher effizienter...

Was wäre wohl passiert, wenn man hätte anstatt dem von der Leine befreiten 9900k in der AMD Presentation nen 95W limitierten 9900k genommen?
~1800-1850 Punkte CB-MT bei hartem Limit von 95W auf der CPU. Da kommt noch bisschen Kleinkram vom Restsystem drauf - Overall wären das vllt 120-130W Gesamt. Geht man von 105W TDP beim 3000er Ryzen aus wäre das möglicherweise gar leicht drüber.
Die Vergleiche ggü. dem 3000er Ryzen wären dann alles andere als rosig, denn die Assbach 14nm Fertigung scheint so gerade mal um die 13% im absoluten Leistungsnachteil (und das sogar in CB, wo Ryzen so oder so schon sehr gut performt) Real sollten das dann sogar noch bisschen weniger sein. Würden die Leute hier immernoch so abgehen? Ich denke nicht... So wie man es zeigte passt es doch viel eher in den Hypetrain. Massiv weniger Verbrauch bei gleicher Leistung schmeckt schon eher, oder??

Hängt meiner Meinung nach davon ab, wie man sich das künftige CPU Design bei Intel vorstellt. Solange es Monolitisch bleibt, wird AMD wohl noch eine gute Zeit lang die Schnauze bei MC Anwendungsfällen vorn haben. SC ist und bleibt wohl Intel erstmal vorne.

Das ganze Monolitisch und nicht Monolitisch Geschwafel -> mMn einfach nur Marketing Geblubber. Am Ende ist es dem Endkunden völlig Bumms wie der Prozessor unterm Deckel aufgebaut ist. Abseits der paar Selbstschrauberhanseln in den Foren zählen andere Faktoren wie Kompatibilität, Support, Verfügbarkeiten usw. mindestens mal genau so wie in gewissem Maße absolute Leistung, wenn nicht sogar mehr als Leistung.
Leider ist man in den Foren mittlerweile extremst gehässig, vor allem bei Themen die man selbst nie praktisch erfahren hat. Hier hat fast Niemand von den Anwesenden jemals selbst ein (Dual) Eypc oder Xeon System aktueller Bauart in der Hand gehabt geschweige denn eigene Erfahrung mit Anforderungen quer Beet an solche Systeme - aber alle wissen immer was gut und was schlecht ist. Vor allem wenn es darum geht, AMD und/oder Intel in den Himmel zu loben...

Ja und MC wird immer wichtiger auch bei spielen findet das immer mehr unterstüzung.

Es besteht aber immernoch ein Unterschied zwischen dem Dranpappen von mehr Aufgaben (das ist das, was du in aktuellen Spielen mit vergleichsweise hoher Threadbelastung siehst) und dem optimieren der einzelnen Limits über Multithreading.
Du kannst noch so viel mehr Aufgaben da dran bauen -> und somit auch die breitesten CPUs ins Auslastungslimit zwingen, es wird nicht schneller. Das ist aber der eigentliche Faktor, der seit Jahren ein Problem ist.

Technisch müsste man den Detailgrad in den Games um ein vielfahres steigern, damit die Optik endlich mal wieder einen sichtbaren Sprung nach vorn macht - kann man aber nicht, weil man ohne Low(er) Level APIs nicht genügend Objekte zeichnen kann, es fehlt einfach der Bumms in der pro Thread Performance.
Frühstens 2020-2022 rechne ich mit ersten Titeln, die da signifikant mehr liefern als heute zu sehen. Warum? Kein Win7 Support mehr, flächendeckende Verfügbarkeit von CPUs >4C bei den Gamern und so ziemlich jeder drüfte dann auch in Sachen API auf DX12/Vulkan sein.
 
Powerplay, das neue Prozesse mit kleineren Strukturen die gleichen Taktraten nicht erreichen, schreibe doch die ganze Zeit. Die 5Ghz des FX schafft auch auch kein RYZEN, außer bei Extremübertaktung mit entsprechender Leistungsaufnahme und damit Kühlung die nicht alltagstauglich ist.

Gilt halt nicht für alle Prozesse gleichermaßen ;)
 
Der Konkurrent zum 7700K war eher der 1600X und der war günstiger zu haben. Wesentlich günstiger

Intel hat sogar noch den Käufern von 1151 gedankt, in dem man selbst nach Reisse von 1151-2 den Preis für den i7 nicht gesenkt hat. Sollen sie doch Kuchen essen ich meine ein neues Board kaufen. Gut bei dem Preisunterschied zwischen "altem" i7 und neuem i5 ging das sogar.
 
Das ganze Monolitisch und nicht Monolitisch Geschwafel -> mMn einfach nur Marketing Geblubber. Am Ende ist es dem Endkunden völlig Bumms wie der Prozessor unterm Deckel aufgebaut ist.

Die interne Technik mag den meisten Endkunden zwar egal sein, aber wenn man bei AMD fürs gleiche Geld plötzlich die doppelte Kernanzahl wie bei Intel bekommt (bei vergleichbarer IPC), dann ist das kein Zufall oder Zauberei, sondern das Ergebnis genau dieser innovativen Modularbauweise. Und dieses bessere Preis-Leistungs-Verhältnis ist den Endkunden dann nicht mehr egal, selbst wenn sie die Ursache nicht kennen.
 
Wie ich alle Threads auslaste weiß ich natürlich, außerdem benutze ich auch nicht Googles normalen GCC sondern Linaro, dadurch verändert sich die Compiling Zeit auch.
Nebenbei Surfen tue ich aus RAM Gründen schon allein nicht ;D
Hmm. Trotzdem finde ich diese 1/3-ung schon krass und es gibt eigentlich wenige Indikatoren (außer, dass Benchmarks Mist sind). Wobei da vmtl. Hyperthreading auch noch einen Boost gibt und wenn man im Internet ähnliche Fälle sieht, erscheint 30-40% zumindest vs. einem i7 realistischer Compilation : Visual Studio et MinGW-w64/GCC - AMD Ryzen 7 1800X en test, le retour d'AMD ? - HardWare.fr. Und das ist zwar viel, aber notwendige Vorraussetzung ist ein 8-Core da noch nicht, wie jemand anders mal den Tellerrand beschrieben hat ;).

Gilt halt nicht für alle Prozesse gleichermaßen ;)
Ja? Beispiele? Du kannst gerne mal die 25% bei gleicher Leistungsaufnahme auf bestehende Benchmarkkombis draufrechnen.
 
Mir stellt sich aktuell nur die Frage ob es ein Threadripper oder Ryzen wird dieses Jahr den eins ist klar der 4770K wird mich verlassen.
Wen AMD alles richtig gemacht hat tausch ich auch meine 1080Ti gegen die R7 aus.
 
Wen AMD alles richtig gemacht hat tausch ich auch meine 1080Ti gegen die R7 aus.

Weil?
Die Leistung sollte doch recht identisch sein.
Von ner 1070/ti oder auch noch 1080 würde ich ja verstehe aber von ner 1080ti ist das doch mehr als rausgeschmissenes Geld oder?

Gesendet von meinem CLT-L29 mit Tapatalk
 
Hier gehts glaub ich mehr um den Basteldrang ^^
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh