Gamerkind
Banned
- Mitglied seit
- 29.08.2018
- Beiträge
- 2.329
Und lag damit wohl wie so oft richtig.SemiAccurate hat doch das Selbe behauptet.
Komischerweise wird man hier bei HWL aber in der Luft zerrissen, wenn man sich auf SA bezieht...
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Und lag damit wohl wie so oft richtig.SemiAccurate hat doch das Selbe behauptet.
Ich glaube wirklich das derzeit jede Spekulation, was Intel betrifft weitaus schwieriger ist wie "vorhersagen" zu Matisse und was AMD denn nun mit R3 erreichen wird.
Es schaut vielversprechend aus...aber ich bleibe auch bei meinen Aussagen was AMD betrifft.
Es interessiert mich einen Schei... wie viel günstiger AMD seinen Ryzen 3 auf den Markt bringt. Ich will einen echten Fortschritt sehen in Bezug auf 7nm...was ich persönlich bisher gesehen habe, hat mich eben nicht überzeugt...7nm ist die Hälfte von 14nm...wo ist denn nun die bahnbrechende Energiesparleistung bei höherem Takt die immer wieder propagiert wurde ???
Was ich gesehen habe war ein EngSample das mit einem 9900K zu kämpfen hatte.
Warum haut den AMD keine CPU raus, die ähnlich wie früher zu Athlon Zeiten mit Intel den Boden aufwischte ???
Woher glaubst du zu wissen, wie hoch Zen2 takten wird?wo ist denn nun die bahnbrechende Energiesparleistung bei höherem Takt die immer wieder propagiert wurde ???
Und was genau passt daran nicht?Was ich gesehen habe war ein EngSample das mit einem 9900K zu kämpfen hatte.
Woher glaubst du zu wissen, daß das nicht eh so kommt?Warum haut denn AMD keine CPU raus, die ähnlich wie früher zu Athlon Zeiten mit Intel den Boden aufwischte ???
Reicht aber definitiv NICHT aus...Wenn Intel denn nun auf 14nm bleiben muss...so what...wenn es doch ausreicht...
Schau dir mal sein Profil, bzw. seinen anderen Beitrag anHast du dir mal durchgelesen, was du hier geschrieben hast?
das ist doch nur ein weiterer account von einem unserer intel-jungs.Hast du dir mal durchgelesen, was du hier geschrieben hast?
Also daß das so sein wird, kann man vollkommen ausschließen!Solange sie mit 14nm die gleiche Leistung erzielen wie AMD mit 7nm seh ich da kein Problem...
Recht einfach, eDRAM ist schon lange ein Geheimtipp was die Leistung der CPU steigert, Punkto Spieleleistung steigert eDRAM die IPC spürbar, die Braodwell sind deren Nachfolger (!) heute noch überlegen bei identer Kern/Takt-Leistung, siehe Bild:Artikel schrieb:Der 128 MB große eDRAM kommt beim Core i5-5675C und dem Core i7-5775C zwischen dem L3-Cache und der CPU selbst zum Einsatz wird daher auch gern als L4-Cache bezeichnet. Dieser ist allerdings hauptsächlich dazu gedacht, die Intel-Iris-Pro-6200-Grafikeinheit zu unterstützen, sodass also Grafikintensive Anwendungen davon profitieren. Aus diesem Grund ist es derzeit sehr fraglich, inwiefern Intel den eDRAM sinnvoll einsetzen möchte, wenn die CPU keine integrierte Grafikeinheit bekommt.
Solange sie mit 14nm die gleiche Leistung erzielen wie AMD mit 7nm seh ich da kein Problem...
Warum handeln 80% der Posts unter einer solchen Intel Meldung von AMD ?
Das die andere seite auch nicht besser ist, bestreite ich nicht. Aber ich verbringe meine Zeit auch nicht in AMD Threads um Intel und Nvidiaprodukte zu vermarkten oder lasse ständig "Hitzkopf, Energiefresser" Kommentare ab.Ist forenübergreifend, wenn es euch tröstet, passiert nicht nur hier im luxx. Und funktioniert anders herum genauso prächtig, wenn bei AMD-News die Intel-Jünger aufschlagen.
Jetzt kommt brute force aus Angst vor AMD. Man will die Leistungskrone um keinen Preis abgeben. Es wird seitens Intel auch über Boxed-Versionen mit Kompressorkühlung im Bundle nachgedacht.
Warum sagst du das so selbstsicher?100% ein scherz !!!
Sie haben sich ganz offiziell zu dieser Fehleinschätzung bekannt:SemiAccurate hat doch das Selbe behauptet.
Intel kills off the 10nm process - SemiAccurate
Warum ist es denn jetzt rausgenommen worden ?Warum sagst du das so selbstsicher?
Du liegst aber eh falsch
Was wurde wo rausgenommen?Warum ist es denn jetzt rausgenommen worden ?
Nein!Ganz davon abgesehen: eDRAM müsste als chiplet realisiert werden, und dann verlöten ?
Woher glaubst du das zu wissen?Bei DDR4-3600 bringt der eDRAM ohne hin nicht mehr soooo viel.
Und?wobei warum einenm neuen prozessor eDRAM spendieren(oder was auch immer) und dann die Grafikeinheit abschalten ?
Deine Sachwe, aber tut nicht so, als hättest du davon mehr Ahnung als andere!macht für mich keinen Sinn.
Sie haben sich ganz offiziell zu dieser Fehleinschätzung bekannt:
Why SemiAccurate called 10nm wrong - SemiAccurate
"A few months ago SemiAccurate claimed Intel killed their 10nm process, we were wrong." steht da.
Klar behauptet das Gamerkind jetzt immer noch er habe recht. Drollig.
Darf man nicht so eng sehen - er/es/sie leidet an selektiver Wahrnehmung.