AMD Zen-Prozessoren sollen bis zu 16 Kerne besitzen

Es wird warscheinlich alles daran hängen, wie AMD die CPUs aufstellt...
Schon vom Thuban X6 und auch von den Bulldozer Ablegern kennen wir bei AMD einen Fokus auf Multithreading und weniger gelegten Wert auf ST Performance.

Intel wird aller vorraussicht nach auch mit Skylake keine grundlegende Änderung an der Technik vornehmen. Das heist, wir bekommen also vier starke Cores + SMT, welches wie üblich skalieren wird. Die Prozessoren werden bis 50% Last sehr sehr schnell zu werke gehen und mit SMT holt man dann aus den letzten paar Ecken noch ein paar Prozentpunkte MT Performance raus.

Geht AMD den Weg und setzt auf dediziert breite CPUs, wie es BD tat und auch seit dem Phenom II X4/X6 zu sehen war, dann wird sich höchstwarscheinlich am Leistungsverhalten nur dann etwas ändern, wenn AMD in Sachen Leistung pro Core/Takt extrem viel aufholt.
Leider gibt es dahingehend irgendwie noch keine wirklich greifbaren Fakten... Es kann alles und nix sein. Von einem IPC Krüppel mit 16 Threads für Mainstream bis zur IPC Rakete mit 4-8 Threads, welcher die Intel Ableger das Fürchten lehrt...
Generell fand ich ja den CMT Ansatz nicht schlecht, allerdings war die Umsetzung eher bescheiden... Zumindest für den Mainstream Bereich, da dort die Software eben alles andere als perfekt mit Multithreading kann... Es wäre also ein Mittelding wünschenswert. Das höchste der Gefühle, also Haswell IPC Region + eine MT Technik ala CMT, halte ich ehrlich gesagt für eher unwarscheinlich. Damit wäre das gute Stück mal um eine Menge Prozentpunkte schneller als die Skylake Ableger, vor allem in Sachen Multithreading.


Interessant wir der ganze Spaß aus Gamingsicht allerdings bspw. an dem Punkt, wo DX12 ins Spiel kommt... Denn dann geht deutlich mehr über die Threads als heute mit DX11 schon. Die Intel Hexacores zeigen bspw., dass viel Cache und mehr Cores durchaus in der Lage sind, pro Thread Performance zu kompensieren. Über die Breite skalierende Grafikkartentreiber bspw. tun ihr übriges dazu... Ich seh der Sache erstmal positiv entgegen, auch wenn ich mit einem X99 System wohl definitiv keine Schmerzen haben werde für die nächsten 3-4 Jahre. Wenn Sandy seinerzeit 4+ Jahre gehalten hat, dann packt das Haswell-E ebenso ;)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
AMDs letzter Wurf 16 kerne und danach Over und Ende.
AMD scheint mir am RL Leben vorbei zu leben in Zeiten wo immer noch die meisten Programme maximal 4 Kerne nutzen, und immer noch in Zweistelligen % bereich nur 1 Kern nutzen.

Ich glaube Intel lacht sich jetzt schon Platt und wissen auch das sie nicht verändern müssen bei ihren Produkten.

Naja ich lasse mich gerne Positiv überraschen von AMD.
 
Warten wir mal ab, denn das die Anzahl der Kerne und auch die GHz alleine wenig über die Performance aussagen, wissen wir ja nun alle und auch, dass AMD beim Zählen der Kerne zuweilen recht kreativ ist.
 
hatte AMD nicht selbst angekündigt mehr auf Single Thread Performance zu entwickeln?


Ich könnte mir sehr gut vorstellen das die CPUs mit 1 bzw 2 4er Clustern für den Normalen Markt und alle mit mehr einfach für den Servermarkt gedacht sind.
Sozusagen dass mit den 16 Kernen einfach das High End Server Modell gedacht ist.
AMD bringt eh anders als Intel immer zu erst die Opterons raus.
 
Interessant wir der ganze Spaß aus Gamingsicht allerdings bspw. an dem Punkt, wo DX12 ins Spiel kommt... Denn dann geht deutlich mehr über die Threads als heute mit DX11 schon. Die Intel Hexacores zeigen bspw., dass viel Cache und mehr Cores durchaus in der Lage sind, pro Thread Performance zu kompensieren. Über die Breite skalierende Grafikkartentreiber bspw. tun ihr übriges dazu... Ich seh der Sache erstmal positiv entgegen, auch wenn ich mit einem X99 System wohl definitiv keine Schmerzen haben werde für die nächsten 3-4 Jahre. Wenn Sandy seinerzeit 4+ Jahre gehalten hat, dann packt das Haswell-E ebenso ;)

Aus Gamersicht sehe ich persönlich eher kein Grund mehr mir mit DX12 vorläufig Sorgen zu machen solange die Entwickler nicht anfangen übermäßig komplexe Berechnungen durchzuführen. Nvidia und AMD hinken im Grafikkartenbereich einfach zu weit hinter Intels Fortschritt. Und wenns doch mal knapp wird und es scheint das die Sündhaft teure Grafikkarte nicht ausgelastet ist dreht man paar Regler hoch.
 
AMDs letzter Wurf 16 kerne und danach Over und Ende.
AMD scheint mir am RL Leben vorbei zu leben in Zeiten wo immer noch die meisten Programme maximal 4 Kerne nutzen, und immer noch in Zweistelligen % bereich nur 1 Kern nutzen.

Neja, wir wissen ja nicht, wo die 16 Core Version kommen soll. Als Serverableger wäre das wohl fast das Minimum, was man ggü. Haswell-EP als Konkurenz bringen sollte um halbwegs mithalten zu können... Von daher abwarten.
Von AMD könnte es dann allerdings, je nachdem, wie sich die 16 Cores zusammen bauen, auch ein größeres Desktop Modell geben. Zumindest mit dem Thuban X6 hat es AMD so getätigt. Eventuell auch mit Zen. Klappt dann wohl aber auch nur für den Desktop, wenn man keine zwei Prozessoren für den Servermarkt auf einem Träger vereint.

Er meinte wohl dass mit einer aktuellen Intel CPU, die Grafikkarte viel eher limitiert, als die CPU. Oder man muss was sündhaft teures nehmen wie ein Sli oder Titan X.
Auch ist Intel tatsächlich in der Fertigung, den Graka-Herstellern zur Zeit relativ deutlich vorraus.

Das ist dann aber immernoch eine Bildung einer "Tatsache" aus einer/mehrerer heutiger Softwareumsetzungen herraus -> und somit wenig zielführend.
Man könnte die heutigen CPUs mit "Partikelmassen" überschwemmen, wenn man wöllte. Das Problem dabei ist allerdings einfach, das A) DX11 relativ zeitig zu macht und B) keine CPU auf dem Markt dann in der Lage wäre, so ein Spiel in entsprechend hoher Qualität darzustellen.

Mit DX12 und den anderen NextGen APIs könnte sich an dem Punkt allerdings gravierend was ändern. Zumindest nach und nach...
Man schaue sich mal die 3DMark DX12 Szene an -> das hat relativ wenig mit dem zu tun, was wir heute in Games sehen. Allerdings ist ein ziemlich gewaltiger Stolperstein, sowas heute in Games einzubauen einfach die Tatsache, dass mit DX11 oder ähnlich alter Kamelle da einfach schnell Ende im Gelände wäre.

Aktuell lebt man in der Spieleindustrie da eher nach dem Motto, so viel wie nötig, so wenig wie möglich... In einigen Titeln klappt das mal besser, in anderen mal schlechter. Münzt man das bspw. 1:1 auf Mantle um, dann sieht man die Titel, wo Mantle deutlich in Front ist, auf der Seite, wo es mal schlechter klappt ;)
 
Auch DX12 wird keine Wunder vollbringen, wenn die Rohleistung nicht stimmt kannst du drehen wie du willst, es geht nicht schneller.
Lord of the Fallen kann z.b. PhysX, Kleidung und Partikel in die CPU verlagern macht es aber wahrscheinlich wegen der APIs nur bei AMD Karten.
Solch eine Anpassung/Flexibilität ist Super und auch heute schon möglich und kein Hexenwerk. Das bedeutet aber nicht zwangsläufig das es die beste Methode wäre aber immenroch besser als Ressourcen frei liegen zu lassen. Wenn aber die Texelfüllrate nicht ausreicht deine 4k Textur auf den Bildschirm zu zaubenr hilft das alles nichts. Man tut so als ob Drawcalls der Stolperstein wäre an dem alles hängt was aber nicht der Fall ist.
 
Zuletzt bearbeitet:
Ne, ganz und gar nicht... Die DrawCalls sind nicht das Maß der Dinge. Zumindest nicht primär in heutigen Umsetzungen.
Allerdings heist das nicht, dass nicht bedeutend mehr gehen würde, wenn man dort bedeutend mehr Leistung abverlangen könnte ;)

Die Spieleentwickler beklagen sich seit mehreren DX Generationen schon, dass die DrawCall Performance auf dem PC unter aller Sau wäre... Da gibts Blogs im Netz zu, wo man das wunderschön nachlesen kann. Das schon zu Zeiten von DX9.0c mit dem Wink auf eine Verbesserung in DX10 bspw. und dem immer im gleichen Atemzug aufkommenden Statement, dass die Konsolen dies bedeutend schneller können. (und das meint freilich nicht die PS4/XBOne, die es damals logisch nicht gab!)

Ich sehe das zumindest als eine Art Grundstein an, um breitere CPUs besser für Spiele tauglich zu machen... Denn bis dato verpufft die Leistung der CPUs über die Breite idR -> weswegen die AMD CPUs Stand heute auch idR relativ mau ggü. den Intel CPUs in Games abschneiden. Sollte es AMD wiedererartend nicht gelingen, da deutlich nachzulegen und es kommt mit Zen eher ein Bulldozer in neu raus, dann wird zumindest die Spieleleistung in Zukunft wohl nicht mehr derart weit auseinander klaffen, wenn die Spieleentwickler ihre Hausaufgaben dahingehend gemacht haben ;)
 
Naja die Drawcall Performance mit Konsolen zu vergleichen halte ich für Unfair einfach weil der PC Austattungstechnisch eine viel zu große Dynamik in der Hardware bietet. Der wirkliche Vorteil wäre eben nicht die Drawcalls welche heute eh kein wirkliches Hinderniss sind sondern die frei werdenen Ressourcen wie du beschreibst. Nur sollte man auch den P/L Aspekt nicht aus den Augen verlieren, die CPU ist für dieses Szenario ein teurer Spass. Nur das irgendwann Intel Server Xeons für den Desktop vermarkten muss weil andere Hersteller nicht klar kommen sehe ich auch nicht ein.
Interessanter ist eher das die CPU Auslastung bei Spielen in heutiger form eventuell deutlich sinkt was es Entwicklern und Spielern einfacher macht sich auf eine Komponente (Grafikkarte) zu konzentrieren und nicht die ewige Balance zwischen CPU und GPU Auslastung suchen.

Eher würde ich auf CPU "nahezu egal" tippen, Hauptsache deine Grafikkarte ist schnell gut genug und wenn du noch CPU Ressorucen frei hast lagern wir was aus für paar % mehr Leistung.
 
Zuletzt bearbeitet:
Intel wird aller vorraussicht nach auch mit Skylake keine grundlegende Änderung an der Technik vornehmen.
Mit solchen Annahmen wäre ich vorsichtig. Skylake wird die MorphCore Technik nachgesagt. Welche bei gleichem Takt geringfügig single-threaded Performance kostet und multithreaded ~20% mehr Performance bringt.

AMD scheint mir am RL Leben vorbei zu leben in Zeiten wo immer noch die meisten Programme maximal 4 Kerne nutzen, und immer noch in Zweistelligen % bereich nur 1 Kern nutzen.
Na dann ist Intel ja noch viel weiter am RL vorbei. Die haben immerhin 18-Kern CPUs im Portfolio. :rolleyes:

Aber genug off-topic.
 
Ich frag mich was AMD wieder mit dem Blödsinn mit den vielen Kernen will, wo doch kaum Software existiert die mehr als 2 bzw. 4 Kerne ausnutzt?
Zum anderen befürchte ich das die Kerne wie von AMD gewohnt extrem langsam sein werden.
 
Und ich frage mich wieso unterbelichtete Kiddies ihren Senf zu dem Thema posten müssen. :rolleyes:
Schließlich lautet schon die Überschrift: "Zen-Prozessoren sollen bis zu 16 Kerne besitzen" und im Artikel wird darauf hingewiesen, dass es für die Consumervariante wohl weniger Kerne geben wird.
Aber offensichtlich reicht das deutsche Schulsystem nur zum Heranzüchten von Halbanalphabeten, die sich mit dem Namen einer Pornoseite schmücken. :rolleyes:
 
Zum anderen befürchte ich das die Kerne wie von AMD gewohnt extrem langsam sein werden.

Extrem langsam sind die AMD Kerne nicht, wenn man den geringen preis mitberücksichtigt.

Sonnst kann man auch eine GTX970 welche 50% langsamer ist als eine Super Performance karte als Extrem Langsam bezeichnen, tut aber keiner weil sie für den Preis gut ist.

Oder ist der Golf GTI Extrem Langsam nur weil es Formel 1 wagen gibt ? Nein, der preis ist entscheidend.
 
Ich frag mich was AMD wieder mit dem Blödsinn mit den vielen Kernen will, wo doch kaum Software existiert die mehr als 2 bzw. 4 Kerne ausnutzt?
Genau. Wie gut, dass alle Serverhersteller ihre Software für single-thread optimieren. Wer braucht schon Multicore-Effizienz?

Zum anderen befürchte ich das die Kerne wie von AMD gewohnt extrem langsam sein werden.
Genau. Gewohnt extrem langsam wie bei K7, K8 oder K10. Wie gut, dass wenigstens Intel immer Monsterkerne anbietet, wie beim P4 oder Atom.
 
Zuletzt bearbeitet:
Genau. Wie gut, dass alle Serverhersteller ihre Software für single-thread optimieren. Wer braucht schon Multicore-Effizienz?


Genau. Gewohnt extrem langsam wie bei K7, K8 oder K10. Wie gut, dass wenigstens Intel immer Monsterkerne anbietet, wie beim P4 oder Atom.

:bigok:

Die 16 Kerne sollen doch nur bei Serverprozessoren verwendet werden. Mehr als 8 dürfen wir bei Desktop CPUs nicht erwarten. Und ich glaube wirklich nicht, dass Jim Keller da was mit seinem Team falsch machen wird. AMD hatte das damalige Bulldozer Team gefeuert und das will Jim sicherlich nicht ;) Denkt doch nicht immer so negativ, nur weil AMD wieder mit Multicore CPUs kommen möchte. Außerdem sollen die Kerne in den Modulen sich keine Bestandteile mehr teilen müssen, was eben bei den jetzigen bzw. bei Bulldozer das Hauptproblem für die schlechte Performance sein sollte.

Lasst uns doch einfach abwarten und dann kann man eventuell immer noch meckern.
 
Ich frag mich was AMD wieder mit dem Blödsinn mit den vielen Kernen will, wo doch kaum Software existiert die mehr als 2 bzw. 4 Kerne ausnutzt?
Du kannst beim Deiner SW die vermutlich vor allem mit dem Abspielen von Videos einer Seit die Dir so gut gefällt, dass Du deren Namen hier benutzt, wohl nicht mehr Kerne auslasten, aber es geht um Server-CPU mit bis zu 16 Kernen und da gibt es durchaus nicht wenige Anwendungen die diese auch sehr gut auslasten können.

Ist es eigentlich so viel verlangt den Text auch mal zu lesen, den man kommentiert? Und wenn man vom Thema keine Ahnung hat sich einfach mal zurückzuhalten oder wenigstens vorher zu informieren?
Zum anderen befürchte ich das die Kerne wie von AMD gewohnt extrem langsam sein werden.
Gewohnt langsame Kerne habt AMD ja schon, bei der neue Architektur geht es ja nun genau darum auch mal wieder schnelle Kerne wie früher zu haben, damit man auch mal wieder auf dem Servermarkt mitreden kann und auf bei Desktop- und Notebooks CPUs nicht nur Budgetmodelle liefern kann, sondern auch CPUs in höheren Preisklassen mit entsprechenden Margen verkauft bekommt.

Und ich frage mich wieso unterbelichtete Kiddies ihren Senf zu dem Thema posten müssen. :rolleyes:
Da kann ich Dir nur zustimmen, es ist leider heute sehr verbreitet, dass die Leute auch zu allem wovon sie keine Ahnung haben ihre Meinung kund tun müssen.

Extrem langsam sind die AMD Kerne nicht, wenn man den geringen preis mitberücksichtigt.
Erstens ist der Preis nun nicht wirklich die Messlatte für die Geschwindigkeit von Kernen und zweitens wird da eher andersrum ein Schuh draus: Weil die AMD CPUs so lahm sind, kann AMD die nur über den Preis verkaufen und muss sie entsprechend billig anbieten. Nur schlecht informierte Kunden zahlen alleine nach Kernzahl * GHz, die meisten schauen auf darauf was da am Ende bei rum kommt und vielleicht noch welchen Strom die CPU dann dafür schluckt. Wäre es anders, könnte AMD den FX-9590 mit 8x 4.70GHz ja auch deutlich teurer verkaufen als Intel den Core i7-5960X mit 8x 3.00GHz, aber real kostet der FX-9590 weniger als ein Viertel des i7-5960X, weil ihn eben schon ein i7-4790K mit 4x 4.00GHz in wirklich jedem Benchmark schlägt. Und das bei viel weniger Leistungsaufnahme und damit weniger Aufwand bei der Kühlung.

Oder ist der Golf GTI Extrem Langsam nur weil es Formel 1 wagen gibt ? Nein, der preis ist entscheidend.
Also fahre mal mit einem Golf GTI in der Formel 1! Ferrari hatte letztes Jahr schon ein dickes Budget und der Wagen war im Vergleich zum Mercedes auch langsam und McLaren Honda hat dieses Jahr ein sehr dicker Budget und deren Auto ist bisher auch noch extrem langsam. Manor hat nur ganz wenig Geld, einen Bruchteil von dem was die großen Teams ausgeben und kam im letzten Rennen 3 Runden hinter dem Sieger an, wäre aber nach Deiner Logik von Leistung und Preis dann immer noch der schnellste Wagen im Feld. :stupid:
 
Vorallem ist es eine Frage der Marge und nicht nur des Absatzes. Wenn es nur nach Stückzahlen geht wären wohl Porsche und Ferrari schon lange Pleite. AMD hat keine kleinen Stückzahlen, allein durch die Konsolen, aber was bleibt davon hängen. Nur mal als "Vergleich" verdiente VW pro Auto 630€ als Massenhersteller und Porsche über 17.000€ als Premiumhersteller und ich wüsste nicht das Intel echte Goldkontakte verwendet um den Preis zu rechtfertigen. Soviel Netbooks kann AMD nicht mal verschenken um den Server und Desktop Markt den Rang abzulaufen.

Ich würde AMD ja schon wünschen das sie wieder ein Fuss ins reine Servergeschäft bekommen und genug verdienen das deren Entwicklung wieder anläuft und Intel auch auf dem Desktop gefährlich werden können. Sollte man mit Zen beides schaffen Respekt, aber allein in einem Bereich mal wieder echte Alternative sein, mit anständiger Marge Geld verdienen und nicht immer einen auf Billig machen zu müssen ist erstrebenswert. P/L Sieger zu sein ist ja nicht verkehrt aber wenn man nen Auto kaufen will zum Weg zur Arbeit will man auch ein Auto und kein Fahrrad, mit P/L alleine gewinnt man kein Blumentopf.
 
Zuletzt bearbeitet:
Nur mal als "Vergleich" verdiente VW pro Auto 630€ als Massenhersteller und Porsche über 17.000€ als Premiumhersteller und ich wüsste nicht das Intel echte Goldkontakte verwendet um den Preis zu rechtfertigen. Soviel Netbooks kann AMD nicht mal verschenken um den Server und Desktop Markt den Rang abzulaufen.

Der Vergleich hinkt dann aber doch schon gewaltig... Vor allem in der Halbleiterindustrie kommen noch sehr hohe Summen an Forschungsgeldern und Entwicklungsgeldern oben drauf.
Ich weis nicht genau, wie das in der Autoindustrie läuft, allerdings erscheint mir dort der Mittelaufwand in Sachen Forschung bedeutend geringer.
Zumal Intel CPUs alles andere als teuer sind. Intel hält seit spätestens Sandy die Preise für Mainstream im Preisbereich bis um die 300€ -> was will man denn noch mehr? Nur ein paar Jahre vorher haben CPUs aus der ähnlichen Leistungsklasse 500€ und mehr gekostet... Und wie hat man das gemacht? Man hat die Märkte getrennt und baut jetzt absatzreiche Mainstreammodelle und Margenreiche HighEndmodelle nebeneinander. Sozusagen der VW und der Porsche vom gleichen Hersteller.
Man kann Intel vielleicht für vieles verantwortlich machen, was bei AMD gelaufen ist oder auch läuft... Aber einen heiden Anteil an der heutigen Situation trägt AMD schlicht und einfach selbst, da man mehrfach hintereinander aufs (rückblickend betrachtet) falsche Pferd gesetzt hat.
Und bevor gleich das Argument kommt, ja AMD hat gar nicht die Mittel -> Auch zu A64 Zeiten war AMD ein "kleines Licht" ggü. Intel und man hat es trotzdem geschafft was anständiges aus dem Hut zu zaubern... Da sitzen auch nur Menschen in der Entwicklung -> die richtige Idee zur richtigen Zeit und der Rubel wird rollen.

Ich würde AMD ja schon wünschen das sie wieder ein Fuss ins reine Servergeschäft bekommen und genug verdienen das deren Entwicklung wieder anläuft und Intel auch auf dem Desktop gefährlich werden können.

Wenn ich das recht in Erinnerung habe, ist der Reingewinn aus den Umsätzen der Serversparte bei Intel aber immernoch deutlich unter dem, was man im Desktopbereich durch Masse umsetzt!? -> Zen im Servermarkt gut und schön, das wird allerdings weniger viel bringen, als eine anständige Allerwelts-CPU zu bauen... Das Ding muss ja nichtmal die Leistungskrone beherbergen, es sollte allerdings in Sachen Effizienz und Features anständig aufgestellt sein... Der Schritt über die Effizienz ist auf jedenfall der richtige. Mal gucken, was dann hinten bei raus kommt. Bulldozer, hoher Takt, viele Cores mit CMT und maue ST Performance haben es allerdings nicht gebracht. -> und presst man das letzte bisschen Performance aus so einem Design, dann leidet gerade die Energieeffizienz.

Mit solchen Annahmen wäre ich vorsichtig. Skylake wird die MorphCore Technik nachgesagt. Welche bei gleichem Takt geringfügig single-threaded Performance kostet und multithreaded ~20% mehr Performance bringt.

Vielleicht ist es dir entfallen, aber nach deinem zitierten Satz folgt noch mehr im Absatz...
Wie also: "keine grundlegende Änderung an der Technik" zu verstehen sein sollte, wirst du dort finden... -> es hätte klar auffallen können, dass damit das Festhalten A) an SMT, B) an Quadcores und C) an hoher ST Performance gemeint war. :wink:
 
@fdsonne

Und wenn du dich mal mit MorphCore beschäftigst, dann wirst du feststellen, dass das sehr wohl eine "grundlegende Änderung an der Technik" ist. ;) Für Intel Verhältnisse die gravierendste seit langem. Vielleicht vergleichbar mit der Einführung von HTT beim P4 seinerzeit. Und das ist immerhin auch schon weit über 10 Jahre her. Mit MorphCore wird der Prozessor beim Multithreading teils ganz anders arbeiten als bisher, In-Order statt OoO.
 
Zuletzt bearbeitet:
Und wenn du den Nachsatz gelesen hättest, hättest du festgestellt, dass es gar nicht darum ging... Aber lassen wir das. Selbst mit stehender Erklärung willst du einfach wieder irgendwas sehen, was dort nicht steht.
 
Die zusätzlichen Aussagen könnten sich genauso als falsch erweisen, "wie üblich skalieren" usw. Zahlen dazu hatte ich ja bereits genannt. Es ist jedenfalls ein Unterschied, ob auf einem Kern ein Thread mit OoO ausgeführt wird oder zwei Threads mit In-Order ausgeführt werden. Aber da ist es zu früh, irgendwelche Prognosen abzugeben. Zumal MorphCore bisher lediglich als Gerücht gehandelt wird und nicht bestätigt wurde. Du willst einfach nur nicht zugeben, dass sich "keine grundlegende Änderung an der Technik" womöglich als verfrühtes Urteil herausstellen könnte.
 
dass sich "keine grundlegende Änderung an der Technik" womöglich als verfrühtes Urteil herausstellen könnte.

Zum Dritten mal nun, damit war gemeint: A) vier starke Cores, B) SMT C) eine übliche Skalierung -> das meint nach wie vor, Software die genügend in die Breite geht, kann profitieren, Software die das nicht kann, profitiert nicht... Nicht mehr und nicht weniger. Ich sagte dir bereits, ließ den nächsten Satz, bzw. die nächsten zwei... Da steht nicht geschrieben, wie viel Leistung das Ganze am Ende bringen wird, sondern da steht, dass es wie üblich skalieren wird -> nämlich bei genügend hoher Threadauslastung, wird dies der Fall sein, bei ungenügend eben nicht.
Was dort allerdings steht: "aller vorraussicht nach"... Was die Möglichkeit einer Fehleinschätzung eindeutig einschließt. Was soll ich da also zugeben!?

Such dir bitte Jemand Anderen, mit dem du deine Wortklauberei abziehen kannst.
 
Zum Dritten mal nun, damit war gemeint: A) vier starke Cores, B) SMT C) eine übliche Skalierung
Zum dritten mal, wenn der In-Order Modus bei MorphCore greift, dann arbeitet ein Kern eben nicht mehr wie ein starker Kern (OoO), sondern wie mehrere schwache Kerne (In-Order). Und das kann eine andere Skalierung und Performance je nach Anwendung bedeuten. Ich kann dir nur nochmal sagen, lies dir die Docs zu MorphCore durch. Vielleicht verstehst du dann besser, dass sich sehr wohl was an der Technik ändern kann. Da helfen dir auch deine üblich sture Abwehrhaltung und Ausflüchte nichts.
 
Zuletzt bearbeitet:
ihr seit sooo lustig :d
 
Zum dritten mal, wenn der In-Order Modus bei MorphCore greift, dann arbeitet ein Kern eben nicht mehr wie ein starker Kern (OoO), sondern wie mehrere schwache Kerne (In-Order). Und das kann eine andere Skalierung und Performance je nach Anwendung bedeuten. Ich kann dir nur nochmal sagen, lies dir die Docs zu MorphCore durch. Vielleicht verstehst du dann besser, dass sich sehr wohl was an der Technik ändern kann. Da helfen dir auch deine üblich sture Abwehrhaltung und Ausflüchte nichts.

Meinst du nicht du übertreibst es langsam? Es ist doch immer dieselbe Leier.
Letztendlich wird sich dadurch an der üblichen Skalierung auch nicht viel verschieben.
 
Zum dritten mal, wenn der In-Order Modus bei MorphCore greift, dann arbeitet ein Kern eben nicht mehr wie ein starker Kern (OoO), sondern wie mehrere schwache Kerne (In-Order).
Verstehe ich das mit dem "In-Order" richtig? Es ist dann bei Multithreaded Anwendungen, für den Programmierer vorhersagbar welche Threads in welcher Reihenfolge ausgeführt werden
? o_O
Ich bin bisher nur wenig mut ultithreading in den Vorlesungen in berührung gekommen,a ber wenn das stimmt.. dann würde das die Entwicklung solche Anwendungen erheblich vereinfachen... wenn AMD dann nichts ähnliches bringt, dann haben wir bald Anwendungen die auf Intels multithreaded laufen und auf AMD (oder älteren Intels) nicht!
Ehrlicdh gesagt würde ich einen Fortschritt dieser Art als Entwickler definitiv begrüßen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh