Intels Skylake-Nachfolger Kaby Lake soll erst 2017 kommen

da hat mein Pentium 3 Mobile 700MHz auch noch 5 Jahre hin :) – schon damals gab's auch ULVs mit 8W :O
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gähhhhn, bei jeder CPU News kommen die Sany Grannys aus den Löchern und erzählen wie toll ihr 2500/2600k noch ist und das sie die nächsten 20 Jahre nix anderes brauchen, es ist zum einschlafen..

jo genau so ist es.
ich habs schon 100mal geschrieben, bei cpus wird irgendie nur auf die leistung geschaut, bei den grafikkarten ist es auf einmal dann total wichtig wie effizient sie ist. was natürlich daran liegt das die kiddies darin den größten unterschied ausmachen und wegen irgendwas muss man sich ja streiten.

skylake ist ganz großes kino, dmi3.0 wurde schon ewig gefordert, von m2 u2 ssds mal gar keine rede, usb 3.1 TB3 usw. alles egal anscheinend.
dann ist es eben die effizienz die skylake so verbessert, gerade im verlgiech zu so nem urgestein von sandybridge....
hier mal ein notebook test mit skylake: Test Schenker XMG A706 (Clevo N170RD) Notebook - Notebookcheck.com Tests

Zitat1 : "Im Leerlauf messen wir einen Leistungsbedarf von bis zu 16,5 Watt. Damit unterbietet das XMG A706 seinen Vorgänger um knapp 10 Watt."

Zitat2 : "Alles in allem fallen die Akkulaufzeiten für ein 17-zölliges Gaming-Notebook sehr gut aus. Das XMG A706 schneidet zudem klar besser ab als sein Haswell Vorgänger. Das hat es primär dem Skylake Prozessor zu verdanken."

aber jaaa , heult nur weiter, wenn man nur einen pc hat ist der 95% der tages im idle, was sind da schon 10watt weniger verbrauch, von 26watt auf 16watt, wen jucken über 50% weniger idle verbrauch, was extrem schwer zu realisieren ist

achja und dann ist da ja noch das ding dass es immer weniger pcs gibt und sich gott und die welt laptop kauft und 99% der menschen gar kein gaming betreiben.
achja und die leistung eines sandys reicht komplett aus deswegen ist intel der arsch und bringt nicht noch viel mehr leistung raus die niemand braucht....

kaum zu glauben was man hier so ließt es ist halt überhaupt nicht stringent und hauptsache man beschwert sich darüber was sache ist. think positive oder so... oder just think
amd wird übrigens falls sie zu intel aufschließen können die selben preise für die selbe leistung abrufen wie intel, siehe gpus, amd braucht geld dringender als sonst jemand

und ich wünsche es keinem mehr als amd dass sie es wieder schaffen an die starken zeiten anzuknüpfen. was gpus angeht finde ich es extrem erstaunlich was amd mit dem winzigen budget auf die beine stellen kann, aber da heulen die leute ja rum dass die pumpe der fury x brummt, obwohl man die nur hört weil keine turbine auf der karte verbaut ist. uber den 120er lüfter, der perfekt gewählt ist für den einsatzbereich, kein wort. hauptsache schlechtmachen
 
jo genau so ist es.
ich habs schon 100mal geschrieben, bei cpus wird irgendie nur auf die leistung geschaut, bei den grafikkarten ist es auf einmal dann total wichtig wie effizient sie ist. was natürlich daran liegt das die kiddies darin den größten unterschied ausmachen und wegen irgendwas muss man sich ja streiten.

skylake ist ganz großes kino, dmi3.0 wurde schon ewig gefordert, von m2 u2 ssds mal gar keine rede, usb 3.1 TB3 usw. alles egal anscheinend.
dann ist es eben die effizienz die skylake so verbessert, gerade im verlgiech zu so nem urgestein von sandybridge....
hier mal ein notebook test mit skylake: Test Schenker XMG A706 (Clevo N170RD) Notebook - Notebookcheck.com Tests

Zitat1 : "Im Leerlauf messen wir einen Leistungsbedarf von bis zu 16,5 Watt. Damit unterbietet das XMG A706 seinen Vorgänger um knapp 10 Watt."

Zitat2 : "Alles in allem fallen die Akkulaufzeiten für ein 17-zölliges Gaming-Notebook sehr gut aus. Das XMG A706 schneidet zudem klar besser ab als sein Haswell Vorgänger. Das hat es primär dem Skylake Prozessor zu verdanken."

aber jaaa , heult nur weiter, wenn man nur einen pc hat ist der 95% der tages im idle, was sind da schon 10watt weniger verbrauch, von 26watt auf 16watt, wen jucken über 50% weniger idle verbrauch, was extrem schwer zu realisieren ist

achja und dann ist da ja noch das ding dass es immer weniger pcs gibt und sich gott und die welt laptop kauft und 99% der menschen gar kein gaming betreiben.
achja und die leistung eines sandys reicht komplett aus deswegen ist intel der arsch und bringt nicht noch viel mehr leistung raus die niemand braucht....

kaum zu glauben was man hier so ließt es ist halt überhaupt nicht stringent und hauptsache man beschwert sich darüber was sache ist. think positive oder so... oder just think
amd wird übrigens falls sie zu intel aufschließen können die selben preise für die selbe leistung abrufen wie intel, siehe gpus, amd braucht geld dringender als sonst jemand

und ich wünsche es keinem mehr als amd dass sie es wieder schaffen an die starken zeiten anzuknüpfen. was gpus angeht finde ich es extrem erstaunlich was amd mit dem winzigen budget auf die beine stellen kann, aber da heulen die leute ja rum dass die pumpe der fury x brummt, obwohl man die nur hört weil keine turbine auf der karte verbaut ist. uber den 120er lüfter, der perfekt gewählt ist für den einsatzbereich, kein wort. hauptsache schlechtmachen

gut auf den punkt gebracht

aber amd wird es schwer haben die müssen andere anreize schaffen weil sie alleine im fertigungsprozess immer noch nicht mithaleten können. Das wird der weltmakrt wenn allerfrühestens mit euv regulieren wenn alle 3 gruppen komplett neu entwickeln davor hat intel das rennen gemacht zwar ist der vorsprung nichtmer so massiv aber wenn amd das bei der architektur auser deren generellen rückstand wettmachen kann hut ab. Und amd kann sich quasi zwischen 2 partnern entscheiden

Ich hoffe sie gehen noch mehr richtung integartion das wäre ein anreitz der bei intel immernoch etwas geringer bewertet ist mit hdm usw.
sie müssen eben andere anreize schaffen auch mit zen.

jetzt ist eh erstmal supercomputer zeit wegen gpu computing mit 16/14nm das ist ein krasser sprung im gpu markt mal sehen was das surfacebook drin hat

18w 40gb/s ram gddr5 aber recheneinheiten wie eine 940m nur 384 glaub das ist soweit biss jetzt bekant nur ist die normale 940m aufnahme bei 28w würde zu einem shrink passen wäre mega wenn microsoft den deal hinbekommen hätte würde aber zur gehimniskrämerei passen
hoffnung stirbt zuletzt
 
Naja, BF4 ist aber auch nen Spiel was die Module der AMDs "richtig" benutzen kann.

Gegen nen i3 6100 z.b. oder von mir aus auch die 4160er hat dein FX4100 0 Schnitte.

Allgemein ist es einfach krass wie die i3 in Spielen abgehen - ich mein, guck dir mal die TDP der CPUs an und was die auf die Straße bringen... ich hoffe echt das AMD nächstes Jahr was hinlegt was sich lohnt...

Das sehe ich genauso.Hatte lange einen I3 (2100).Selbst der hätte wohlmöglich noch gereicht.HT gibt ihm nochmal einen Schub.
Allerdings ist es mit dem I7 nun für Foto/Video besser.
So langsam kommen aber die Spiele, die echte Mehrkernprozessoren gut unterstützen.Trotzdem bleibt der I3 ein sehr guter Prozessor fürs Geld.Wobei die Preise ja dem I5 zeitweise sehr nah waren.
 
also ich hab ja noch ein altes sand-notebook und das verbraucht im idle laut powertop 8 watt...

aber klar, ein fetter gaming-totschläger mit dedizierter gpu hat da mehr zu kämpfen.
 
naja, bf4 ist aber auch nen spiel was die module der amds "richtig" benutzen kann.

Gegen nen i3 6100 z.b. Oder von mir aus auch die 4160er hat dein fx4100 0 schnitte.

Allgemein ist es einfach krass wie die i3 in spielen abgehen - ich mein, guck dir mal die tdp der cpus an und was die auf die straße bringen... Ich hoffe echt das amd nächstes jahr was hinlegt was sich lohnt.


Vielleicht sollte man mal das label wechseln und dann wirklich nen brecher bringen - amd als "marke" lässt sich iwi nicht mehr so richtig vermarkten, da hängt zu viel negatives image dran - auch wenn sie dafür größtenteils nichts können.

fx4300: 55€
i3: > 105€

Aber ich stimme zu, Zen braucht ein neues Label. Die Marke AMD würd ich aber nicht ändern, die beinhaltet durchaus viel Sympathie.
 
Zuletzt bearbeitet:
Ich persönlich bin erst bereit freiwillig aufzurüsten wenn ich die Leistung verdoppeln kann. Mein Sandy Bridge i7 2700K läuft auf 4,7 Gigahertz. Das bedeutet ich werde freiwillig erst in weiter Ferne aufrüsten außer ich brauche die Leistung oder die Futures um hauptsächlich auf hohem Niveau spielen zu können. Das beruhigt mich schon sehr weil ich die Kohle AMD und Nvidia in den Rachen werfen kann für neue gpus. Mehr Kerne wären ein anreiz, aber im Moment noch echt unnötig zum spielen. Ich mache alles ausser anspruchsvollen spielen eh auf dem note 4.
Ich warte auf den spieleprozzi ohne diese integrierte gpu scheisse und dafür ordentlich verlötet mit 5ghz auf 6 kernen. Naja träumen darf man ja.
Kein Wunder das der PC Markt schwächelt wenn es kaum anreiz zum aufrüsten gibt. Mich persönlich und besonders für die Umwelt freut es mich.
 
Ich glaub mein neuer 5820k wird der mainstream plattform noch laaaaaange überlegen sein.
 
ja, der hat nämlich nicht nur ein bisschen mehr Bandbreite für EINE SSD, sondern gleich noch ein bisschen was für Raid-Controller und Netzwerk übrig... – selbst Nehalem war da schon besser...
 
Der bringt dir auch wenig wenn dafür ne Spargraka das Sys bremst ;)
wir wissen inzwischen, dass du nvidia fanboy bist. brauchst nicht bei jeder gelegenheit gegen amd flamen.

und nachdem du dich letztens bei der cpu verplappert hast, glaub ich dir auch die 980ti nicht mehr.
 
Soll doch jeder die CPU kaufen bzw. behalten die zu seinen Ansprüchen passt, einfach ein unnötiger Kleinkrieg.

Aber wo wir grad dabei sind, ich fahr BMW der Rest ist kacke.
 
@john4711+0815:Sagt der Frischling, lol mit sowas streite ich mcih doch nicht ,der pc is nebensache mittlerweile, das wirkliche Geld fliesst ins Muscle Car kleiner.
Verplappert ? Joa wenn du meinst, kanns ja verstehen wenn du mit deiner Unterklassekarte Frusst schiebst, aber bitte lass den doch woanders raus ,danke.
Ich bin hier schon ein paar wenige Järchen länger, die Leute wissen das ich kein Blender bin ,also lass ich mir das auch nicht vonnem Newbie sagen..

Schon starke Sprüche dafür das du mcih nicht kennst, ich würde mir hier nicht gleich überall Feinde machen..
 
Zuletzt bearbeitet:
Bin jetzt auch nicht vom Gaming ausgegangen sondern von der Gesamtperformance. Nutz mein sys nämlich nicht nur für Gaming sondern auch als Workstation.

Dann isses ja wieder was anderes, mein sys ist nur zum Zocken, menie Workstation steht auf der arbeit, da fliesst kein provates Geld rein.
AG hat das Teil geleast und alle 4 Jahre gibtsn neuen Rechner mit Monitor :)

- - - Updated - - -

Soll doch jeder die CPU kaufen bzw. behalten die zu seinen Ansprüchen passt, einfach ein unnötiger Kleinkrieg.

Aber wo wir grad dabei sind, ich fahr BMW der Rest ist kacke.

Ganz klar Ford FTW, soalnge ein Pony im Grill hängt ;)
 
Zuletzt bearbeitet:
Na dann hoff ich mal daß AMD Zen möglichst schnell und nicht allzu spät 2016 bringt. Die Leistung sollte halt passen und der Preis unter vergleichbaren Intel CPUs liegen. Dann muß Intel sich zumindest preismäßig auch anpassen was für uns Kunden nur gut ist.

Generell würde ich mir wünschen daß die breiten AMD CPUs dann massig Leistung haben bei guten Preisen und Intel vielleicht auch zumindest 6 Kerner am Mainstream Sockel bringt. Klar braucht das aktuell vielleicht kaum wer, soll heissen die breite Masse wird damit nichts anfangen können, aber vielleicht entwickeln dann die Softwarehersteller auch verstärkt Multithreaded.
Aktuell beisst sich die Katze in den Schwanz ... wozu als normaler Anwender mehr als 4 Kerne kaufen wenn es kaum genutzt wird. Und andersrum wird kaum auf mehr optimiert/entwickelt wenn es so wenige Kunden nutzen.

Wie will man denn aktuell sonst mehr Leistung von einem neuen System bekommen? Die Taktraten werden nur noch minimal ansteigen da man mit der aktuellen Technik anscheinend schon jahrelang am Sweet Spot was Effizienz anbelangt hängt. Schnellere SSDs, bessere Anbindungen (mehr PCI-E Lanes, USB 3.1, TB, M.2 etc.) und bessere RAMs (DDR4 mit Potential zu hohen Taktraten, weniger Verbrauch und größeren Modulen) sind zwar schön und gut, aber die meisten Anwender merken da die Unterschiede auch kaum.
Die IPC steigt, aber wie früher ja auch schon oft nur minimal. Früher waren die Unterschiede halt größer weil auch Taktraten und dann Kerne mit angestiegen sind.
Wenn dann mal Anwendungen für die breite Masse (z.B. Spiele) auf 6 oder 8 Kerne optimiert sind und man damit einen großen Unterschied zu 4 Kern CPUs bzw. auf jeden Fall 4 Thread (2 Kern + HTT oder 2 Module) CPUs sieht und merkt wird sich etwas tun und die Leute werden auch dementsprechende CPUs kaufen.

@UHJJ36
Zumindest bis Broadwell-E irgendwann nächstes Jahr kommt. Bin schon gespannt wie die aussehen.

@Tiedemann1210
Naja der 5820K ist aktuell etwa gleich auf mit einem Top Mainstream Sys a'la 4790K oder 6700K. Je nach Threadnutzung und Taktraten mal vorne/mal hinten. Allerdings hat man am Sockel 2011-3 noch die Möglichkeit aufzurüsten. Zwar nicht sehr günstig aber vielleicht kommen ja mit Broadwell-E interessante Modelle.
Am Sockel 1150 und 1151 kann man nur takten was das Zeug hält und auch Kaby Lake wird wohl nur Skylake mit eventuell mehr Takt und kleinen Verbesserungen sein.
 
Klar braucht das aktuell vielleicht kaum wer, soll heissen die breite Masse wird damit nichts anfangen können, aber vielleicht entwickeln dann die Softwarehersteller auch verstärkt Multithreaded.
Aktuell beisst sich die Katze in den Schwanz ... wozu als normaler Anwender mehr als 4 Kerne kaufen wenn es kaum genutzt wird. Und andersrum wird kaum auf mehr optimiert/entwickelt wenn es so wenige Kunden nutzen.

Sehe ich nicht ganz so. Die Katze beist sich nicht in den Schwanz, weil die Software nicht mehr Threads ansprechen kann, sondern weil einfach idR nicht mehr Leistung benötigt wird.
Oder welche Software im Alltag hat den Bedarf nach vier+ Threads, weil diese permanent auf Volllast laufen?

Ich sehe bestenfalls da generische Volllastjobs, welche sowas aktuell fabrizieren. Aber auch diese sind heute schon (ja sogar schon länger) auf MT ausgelegt und machen auch lange nicht bei acht Threads schluss... Eine CPU mit 12 oder 16 Threads bekommst du mit der Software heute schon klein. Und dort wo du die Leistung brauchst, kaufst du einfach die Leistung. Im Endeffekt zählt idR doch Zeit = Geld. Und wenn du für nen Aufpreis mehr Leistung kaufen kannst und es dich somit schneller macht, kann man das durchaus überlegen.

Andererseits, wer braucht im Mainstream solche CPUs? Und wo soll der Bedarf in Zukunft her kommen? Für Spiele? Möglicherweise... Allerdings sind wir doch nicht alle samt ausschließlich Gamer.
Ich stelle mir sowas immer gern unter dem Gesichtspunkt des Businessbereiches vor. Wenn ich das bei mir auf der Arbeit ansehe, dann sind die kleinen i5 Mobile CPUs da in den Notebooks alle samt ausreichend. Ja sogar eigentlich noch überdimensioniert. Einzig der Fakt, dass die größeren Modelle durch einen aggresiven Turbo Lastspitzen effizient abfedern lässt die Wahl zu diesen Modellen fallen anstatt noch kleiner und somit günstiger einzuchecken.
Was soll sich in der Situation in Zukunft ändern? Mir ist stand heute keine einzige Software bekannt, die A) derart lange ST Last erzeugt, dass es auffallend nervig ist und B) die man im Alltag permanent verwenden muss/müsste.
Lass ich B) weg, wirds nicht besser, denn da fällt mir spontan genau eine einzige Software(suite) ein -> und das ist Autodesks AutoCAD, welches selbst in der aktuellsten Version bei größeren Zeichnungen noch massiv ins ST Limit rennt, vor allem bei 2D only und somit ohne direkte GPU Beschleunigung. Das hat dann aber so gar nix mehr mit Alltag zu tun.


Zumal du es dir aus meiner Sicht etwas zu einfach mit den MT Optimierungen machst ;) MT zu programmieren ist grundsätzlich nicht sonderlich schwer. Nur muss der Aufwand in einem Verhältnis stehen. Wenn das gewünschte Ergebnis genügend schnell in einem Thread läuft, warum den Aufwand betreiben? Es ist ja nicht so, als müsse man dazu nur einen Schalter umrammeln und es kommt MT optimierter Code hinten bei rum... Ganz im Gegenteil. Da müssen Sachen beachtet werden, welche dir als Programmierer möglicherweise das Leben durchaus schwer(er) machen können... Steht dann der Mehrwert nicht im Verhältnis, machts imho keinen Sinn, sowas zu fabrizieren.

Was halt nicht vergessen werden sollte bei der Sache, MT ist im Grunde von der Idee her nicht für mehr Leistung von einer Aufgabe gedacht. Sondern für mehr Leistung durch mehr Aufgaben... -> aktuell verfolgt man den Weg aber mehr oder weniger und stellt immer wieder fest, dass es nicht direkt aufgeht. Bei Games hat man das mittlerweile sogar schon erkannt. Denn hier kommen idR mehr Aufgaben dazu, welche dann durch MT abgearbeitet werden können. Nur steigt die Leistung dabei nicht, sondern es verschiebt sich einfach die Basis nach hinten. Geht man aber mal von Games weg, ist die reine CPU Power oftmals gar nicht das direkte Problem. Sondern viel eher das Zusammenspiel zwischen CPU und System bzw. System und Anbindung. Wenn die Daten bspw. aus dem INet kommen ists egal, ob ich da nun zwei oder 16 Threads auf der CPU habe. Oder wenn die Daten von der HDD kommen usw.
 
@fdsonne
Ist mir alles durchaus klar, eben daß es nicht so einfach ist MT zu programmieren und daß es durchaus Anwendungen gibt wo man viele Threads gut auslasten kann und man das kaufen kann. Auch daß aktuell kleine Dual Cores mit ggf. Turbo oder HTT für den Alltag und Durchschnittsuser ausreichend sind.

Deshalb habe ich ja auch dann als Beispiel für die breite Masse z.B. ein Spiel hergenommen. mMn sind wir in Spielen noch immer weit von wirklicher Interaktion entfernt. Was ich damit meine ist z.B. die Veränderbarkeit der Umgebung, eine wirklich gute AI, realistisches Verhalten der Objekte miteinander uvm. Und das brauch Unmengen an CPU Power. Problematisch ist hier vielleicht nur daß dies ja dann ein spielbestimmendes Element wird und man das nicht einfach abschalten oder drastisch reduzieren/vereinfachen kann um z.B. auch auf langsameren bzw. mit weniger Kernen ausgestatteten System laufen zu lassen. Einige Spiele gehen schon ein wenig in die Richtung, bei Shootern war z.B. Bad Company 2 eines der ersten mit wirklich merkbar veränderbarer(zerstörbarer) Umgebung. BF4 hat es noch einen Schritt weiter getrieben. Das und der Fakt der vielen Spieler auf einer Karte benötigt CPU Power wie man sieht.
Der Single Player Benchmark von BF4 ist für die CPU nicht so fordernd und zeigt eigentlich eher die GPU Leistung auf. Wenn sich dann richtig im MP etwas tut kann aber aus dem vielleicht gutem Ergebnis des SP Benches schon ein Trauerspiel mit enormen FPS Drops werden, und das liegt dann nicht an der GPU sondern alleine CPU.
Nighteyes liebstes Beispiel Star Citizen zeigt ebenfalls was machbar ist und was das dann aber auch an Leistung kosten kann.

Und leider ist es wirklich so wie Du sagst daß viele Anwendungen einfach nicht MT programmiert/optimiert sind weil es kaum notwendig ist. Ein Excel Formular oder Makro rennt ja auf einem schnellen System sowieso nicht ewig -> deshalb hat sich M$ so lange Zeit gelassen das zu implementieren (ich glaube ab Vesion 2007 geht das erst).

Etwas besser sieht es da im mobilen Sektor aus, also auf Smartphones, Tablets & Co. Denn dort ist es eher üblich Mehrkern (ARM) CPUs zu haben, als schnelle Single Cores. Dementsprechend sind dort Anwendungen eher auf mehrere Threads ausgelegt. Der Trend sollte auch am PC Einzug finden. Wobei es am mobilen Sektor mit der Ausnahme einiger Dienste sowieso eher auf eine aktive Anwendung hinausläuft. Viele Betriebssysteme frieren ja Apps im Hintergrund ein.

Meine Angst ist es halt daß es von nun an am PC Sektor mit der Leistungssteigerung so weiter gehen wird wie in den letzten Jahren. Vielleicht sogar noch schlechter. Für den durchschnitts PC wird es lange bei 2-4 Kernen bzw. Threads bleiben. Takt wird sich nicht mehr gravierend steigern. Die Architekturen werden zwar besser, aber mehr als 5-10% je Generation ist nicht zu erwarten, und das ist schon viel.

Wenn man duch mehr Kerne keine/kaum Mehrleistung im Alltag bekommt wird es auch kaum wer kaufen.
Und da sehe ich trotzdem eher die Verantwortung bei den Softwareentwicklern. Denn Hardware kann man schon jahrelang kaufen, und das teils nicht mal sooo teuer (Phenom X6, FX 6xxx und 8xxx Modelle, i7 mit HT oder mehr als 4 Kernen, Xeons etc.)
 
Das Problem ist nicht, dass es nicht geht. Es geht und das auch relativ einfach... Das Problem ist eher, dass es nix bringt.
Wenn wir über Spiele sprechen, müssen wir in erster Linie erstmal unterscheiden, was da überhaupt Last erzeugt oder besser, was da überhaupt limitiert. Das was in der Community als CPU Limit bezeichnet wird, ist im Grunde eigentlich "unsinn". Denn es gibt kein CPU Limit in dem eigentlichen Sinne dieses Gesichtspunktes. Das Bild setzt sich immer zu einem Teil aus CPU Rechenzeit und aus GPU Rechenzeit zusammen. Da das eine nicht ohne das andere kann und sich somit die Rechenzeiten addieren, kann es kein CPU Limit von der Seite her geben. Es ist immer eine Kombination aus beiden... Klingt vielleicht komisch. Ist es aber eigentlich gar nicht.
Mal als fiktives Rechenbeispiel, du hast 20ms Zeit, welche die GPU braucht und 5ms Zeit, welche die CPU braucht, so kommst du auf 25ms aka 40 FPS. Mit einer Verdopplung der GPU Power kommst du auf fiktive 10ms GPU Zeit -> und somit auf angenommen 15ms aka 66,66 FPS. Ne Verdopplung der CPU Power würde bei der langsameren GPU aber auch zu mehr Leistung führen. Allerdings aufgrund des geringeren Zeitanteils eben in weniger absolute FPS.
Das bezieht sich in erster Linie erstmal auf den API/Treiber Part und die GPU Berechnungen.

Das, was du mit AI/KI Berechnung ansprichst, ist aber ein völlig anderes paar Schuhe und setzt genau dort an, was ich open ansprach -> man wird einfach mehr Berechnungen dran bauen um mehr MT Power ausnutzen zu können. Nur behebt das eben das eigentliche Grundproblem nicht, es wird damit einfach nicht schneller. Sondern es verschiebt die notwendige Basisperformance nach oben. Mehr aber auch nicht...

Die Frage ist am Ende, wo krankt es bei den Games genau? Es ist ja unnötig, xx hundert FPS durch die CPU zu ereichen, da diese so oder so nicht ankommen. Die FPS Bereiche, die man anstrebt, sind seit Jahren, ja sogar Jahrzenten schon im gleichen Bereich. Was auch nicht ganz so schlecht ist von der Warte her. In die Röhre schauen nur die Leute, welche mit 120 oder 144Hz im Sync spielen wollen. Denn das ist idR einfach nicht drin... Die Programmierung und die Berechnungen sind dafür idR nicht ausgelegt und es kommt häufig so viel überhaupt nicht bei raus... -> das deckst du aber mit mehr MT Power auch nur bedingt ab. Hier brauch es eher einer zentralen Stelle, welche sowas steuert. Sprich was ist zum gegenwertigen Zeitpunkt marktüblich. Gibt man das den Entwicklern in die Hand, werden die nen Teufel tun, dahin zu optimieren -> sondern einfach Leistung in BQ oder sonstwo verblasen, denn davon hat dann wiederum jeder was ;)


Was den Part mit den Anwendungen angeht, wie gesagt, der Bedarf ist aus meiner Sicht nicht gegeben... Der auch ein Excel 2016 arbeitet sequenziellen Code von Macros mit MT ab. Wie soll das auch gehen? Es mag sein, dass die Macros in einzelnen Threads laufen, aber deswegen werden sie nicht schneller. Dafür musst du als Codeschreiber einfach selbst sorgen. Mit oben besagten Mehraufwand und ggf. mit Schwierigkeiten, die es an der Stelle abzuwegen gilt.
Mal als einfaches Beispiel, du hast ne Liste von 100 Werten und willst pro Wert prüfen, ob dieser Text nun eine bestimmte Zeichenfolge beinhaltet, sowie das Ergebnis ausgeben. Technisch würde sich nun anbieten, das ganze MT auszuführen. Sprich Wertetabelle splitten und gleichzeitig die Prüfung durchführen... -> nur stellt sich die Frage, was bringt es dir am Ende? Nehmen wir an, du nutzt ein Windows OS und .Net als Basis. -> da hast du schöne Fensteranimationen, welche ganz paar ms Zeit benötigen, bis da eine Darstellung am Ende bei raus kommt. -> wenn du nun mit MT die benötigte Rechenzeit von angenommen 10ms auf 2ms senken könntest, die Animation aber 500ms braucht, bis der Text schön klicki bunti like auf dem Schirm ankommt, was hast du da gewonnen?
-> das Beispiel und die Zahlen erheben natürlich keinerlei Anspruch auf 100% Richtigkeit, es soll an der Stelle viel eher beleuchten, dass dort noch ganz andere Sachen der Leistungsskalierung in die Suppe spucken und vor allem, den Sinn am Ende völlig fraglich machen.

Wenn du mich fragst, wo die Reise hingehen wird, ich denke man wird sich nun noch viel mehr auf Energieeffizienzsteigerung hinbewegen... Da ist noch ne ganze Menge Potential. Wenn du ne kleine vier Core CPU, ggf. noch mit SMT in 10-15W pressen willst, kommst du heute nicht so wirklich weit. Also bspw. das, was die kleinen "Y" Modelle heute als DC + SMT sind, könnte morgen ein Quadcore + SMT sein. Damit geht dann auch eine sehr große Leistungssteigerung in diesen Bereichen einher und es hilft der Alltagsanwendung am Ende, noch besser zu arbeiten, weil du durch Turbo und Co. Lastspitzen noch besser abgefedert bekommst.


PS: das Thema Smartphone und CPU Load täuscht übrigens auch ;)
Denn da ist bei weitem nicht so wirklich viel auf MT hin optimiert... Ich würde gar sagen, so viel mehr als im PC Bereich ist das nicht. Nur kann man dort die Modelle noch an den Mann bringen, weil die Leute weniger Möglichkeiten haben, die Sinnhaftigkeit am Ende auch wirklich zu erkennen. So ein Okacore Samsung irgendwas im Tablet, was ich Zuhause habe bringt mir genau NULL mehr Performance ggü. dem Quadcore Smartphone (ebenso Samsung), ja selbst meines Vorgänger Smartphones mit dem Dualcore. -> das, was beschissen auf dem DC läuft, läuft auf dem Quadcore oder Oktacore auch nicht besser. Die CPU Load ist idR kein Problem, fehlende MT Optimierung hingegen schon eher... Leider haben solche Modelle noch ganz andere Probleme wie beschissene Treiber oder allgemein verhunzte Oberflächen (Samsung TouchWiz) -> und das macht mehr gefühlte Performance kaputt als es dir durch irgend ne MT Optimierung reinbringt.
 
...
Das, was du mit AI/KI Berechnung ansprichst, ist aber ein völlig anderes paar Schuhe und setzt genau dort an, was ich open ansprach -> man wird einfach mehr Berechnungen dran bauen um mehr MT Power ausnutzen zu können. Nur behebt das eben das eigentliche Grundproblem nicht, es wird damit einfach nicht schneller. Sondern es verschiebt die notwendige Basisperformance nach oben. Mehr aber auch nicht...
Aber genau das (mehr Berechnungen) will ich ja dadurch erreichen. Ich hatte nie gesagt ich will mehr FPS bzw. es schneller haben. Wenn auf einem aktuellen System z.B. BF4 im Schnitt 60-70 FPS erreicht ist das ja schon in Ordnung. Durch eine bessere AI/KI und eventuell eine erhöhte Anzahl davon, und dann noch wesentlich mehr Interaktionsmöglichkeit mit der Umgebung würde auf dem gleichen Sys die CPU Last erhöhen und die FPS würden fallen.
Leistung ist ja Arbeit/Zeit, und wenn ich mehr Arbeit in gleicher Zeit verrichten kann dann kann das Spieleerlebnis realer werden.

... Gibt man das den Entwicklern in die Hand, werden die nen Teufel tun, dahin zu optimieren -> sondern einfach Leistung in BQ oder sonstwo verblasen, denn davon hat dann wiederum jeder was ;)
Ist ja gut so - so wie die BQ und Grafik gesteigert wird und das immer schnellere GPUs erfordert sollte sich auch der "Inhalt" bzw. das Spiel steigern, auch wenn das mehr CPU Power bzw. breitere CPUs fordert.
Für den User ist es zwar erfreulich mit einer CPU die bereits Jahre alt ist noch jedes aktuelle Spiel gut spielen zu können, aber Fortschritt ist es keiner. Ich mein ich kann mit meinem Core2Quad (Xeon Release Ende 2007 [!], Desktop 2008) mit potenter GPU jedes aktuelle Spiel brauchbar spielen. Rechnet man fairerweise 2008 dann sind das 7 Jahre. Nimm diese Zeit irgendwann vor 2006-2007 (also Core2 Zeit) und rechne von beliebigen Datum zurück. Mit jeder CPU die zu dem Zeitpunkt 7 Jahre alt war konnte man sich zu dem Zeitpunkt brausen gehen.

Wenn du mich fragst, wo die Reise hingehen wird, ich denke man wird sich nun noch viel mehr auf Energieeffizienzsteigerung hinbewegen... Da ist noch ne ganze Menge Potential. Wenn du ne kleine vier Core CPU, ggf. noch mit SMT in 10-15W pressen willst, kommst du heute nicht so wirklich weit. Also bspw. das, was die kleinen "Y" Modelle heute als DC + SMT sind, könnte morgen ein Quadcore + SMT sein. Damit geht dann auch eine sehr große Leistungssteigerung in diesen Bereichen einher und es hilft der Alltagsanwendung am Ende, noch besser zu arbeiten, weil du durch Turbo und Co. Lastspitzen noch besser abgefedert bekommst.
Nur wenn es so weiter geht mit der Entwicklung macht so wie Du sagst "morgen" auch ein Quadcore + SMT keinen Sinn weil man in den meisten Anwendungen keine Mehrleistung erhält. Wenn die Anwendungen weiterhin auf wenige Threads ausgelegt sind ist dann wohl eine DC + SMT mit hohem Turbo besser dran als ein QC + SMT mit aber weniger Takt/Turbo.

Es ist schon in Ordnung und gut daß die Effizienz steigt, früher haben CPUs ja auch weit weniger Energie verbraten obwohl die ja noch die meiste Arbeit hatten (pre 3D Grafikkarten). Bis zum 486er mit 33MHz wurde ja sogar oft nicht mal ein CPU Kühler verbaut.
Ist klar daß es nicht nur nach oben gehen kann und Intel geht nun eh schon Schritt für Schritt wieder zurück. Aber die Leistung sollte halt nicht stagnieren. (Tut sie aktuell ja eh nicht, aber die Schritte nach oben sind halt sehr klein)

PS: das Thema Smartphone und CPU Load täuscht übrigens auch ;)
Denn da ist bei weitem nicht so wirklich viel auf MT hin optimiert...
Ja das stimmt schon. Wie ich ja auch schon schrieb sind da ja sowieso meist nur eine App und ein paar Dienste gleichzeitig aktiv. Aber immerhin haben wir dort schon eine gewisse Hardwarebasis die mit MT gut zurecht kommt/kommen würde. Das fehlt eben im PC Sektor noch etwas wenn die breite Masse nach wie vor Dual Cores kauft.
Glücklicherweise gibt es so gut wie keine Single Cores mehr, denn ein hoch getakteter Single Core Skylake (+ eventuell HTT) würde eventuell für den ein oder anderen Durchnittsrechner und bestimmt viele Office PCs auch noch ausreichen.
 
Der bringt dir auch wenig wenn dafür ne Spargraka das Sys bremst ;)

Das ist wirklich aller unterste Schublade - 290 als Spargraka zu bezeichnen. Dein Gesicht will ich mal sehen, wenn D3D12 von den meisten Games unterstützt wird, oder Dir einer der billigen Mosfets abraucht, die meistens sogar ungekühlt sind(vielleicht mit Absicht?).
Ich hatte letztens eine 780 im Testsystem und alleine schon wegen dem nervtötenden Summen der halbierten SPARspulen, wusste ich, warum ich um NVidia erstmal einen Bogen mache, solange AMD halbwegs hinterher kommt. Außerdem machte das Bild in Unigine Heaven Benchmark einen deutlich unruhigeren Eindruck.
AMDs Treiber sind zwar Schrott, übertakten kann man auch kaum was, das wird aber in Zukunft nicht mehr wichtig sein, weil die Software direkt auf der GPU läuft und sich dann die bessere Hardware auswirkt.

Zum Prozessor: Weder AMD noch Intel können riesige Sprünge machen. Viel kleiner als 10nm wird nicht machbar sein. Da kann man nur die Anzahl der Kerne erhöhen.
Der 5820k ist meiner Ansicht momentan vom P/L Verhältnis zum zocken top. Bei 2 Grafikkarten, spricht man mit 16x, 8x an, bleiben 4x für die 32Gbit/s SSD. Die Soundkarte bekommt dann PCIe V2 ab. Die Daten werden bei den meisten Leuten auf dem NAS liegen, so ist man die Vibrationen und das Geräusch los. Und Leute, die kein NAS haben, wird es auch nicht interessieren, ob ihre Grafikkarte mit 8x oder 4x läuft.
Effektiv verzichtet man also in den meisten Konstellationen nur bei einer Grafikkarte auf 8 Lanes. Das ist sicherlich nicht 200€ Aufpreis wert.
 
@john4711+0815:Sagt der Frischling, lol mit sowas streite ich mcih doch nicht ,der pc is nebensache mittlerweile, das wirkliche Geld fliesst ins Muscle Car kleiner.
Verplappert ? Joa wenn du meinst, kanns ja verstehen wenn du mit deiner Unterklassekarte Frusst schiebst, aber bitte lass den doch woanders raus ,danke.

uiuiui. hab ich da etwa einen nerv getroffen?

wieso sollte ich frust schieben?
ich definiere mein selbstwertgefühl nicht darüber mit dicker hardware online prahlen zu können. solange mir meine billigkarte zum zocken reicht ist alles in ordnung. dann ist sie halt langsam und billig. und jetzt?
ganz im gegensatz zu dir wie mir scheint.

klar ist der pc nur nebensache. klar geht deine ganze richtige kohle in deine vielen tollen muscle cars.

dich anderen überlegen fühlen weil du angeblich die teurere hardware besitzt. sagt einiges über dich aus.
 
Nerv getroffen, nö. Mich kotzt es nur an wenn nen dahergelaufener newbie nem 10 Jährigen Luxx Mitglied unterstellt seine Hardware wäre nur erfunden.
Nicht mehr und nicht weniger ,da kannst jetzt auch deinen Interpretationsschlüssel wieder einpacken.
Ich fühle mcih garkeinem überlegen und besitze (wie auch geschrieben) nur ein Muscle Car, nur wenn du jemanden so angehst brauchst dich ob der Reaktion nicht wundern.

Von meiner Seite ist das jetzt erledigt, Entschuldigung braucht man ja Heutzutage keine mehr erwarten.
Over and Out
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh