Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Gähhhhn, bei jeder CPU News kommen die Sany Grannys aus den Löchern und erzählen wie toll ihr 2500/2600k noch ist und das sie die nächsten 20 Jahre nix anderes brauchen, es ist zum einschlafen..
jo genau so ist es.
ich habs schon 100mal geschrieben, bei cpus wird irgendie nur auf die leistung geschaut, bei den grafikkarten ist es auf einmal dann total wichtig wie effizient sie ist. was natürlich daran liegt das die kiddies darin den größten unterschied ausmachen und wegen irgendwas muss man sich ja streiten.
skylake ist ganz großes kino, dmi3.0 wurde schon ewig gefordert, von m2 u2 ssds mal gar keine rede, usb 3.1 TB3 usw. alles egal anscheinend.
dann ist es eben die effizienz die skylake so verbessert, gerade im verlgiech zu so nem urgestein von sandybridge....
hier mal ein notebook test mit skylake: Test Schenker XMG A706 (Clevo N170RD) Notebook - Notebookcheck.com Tests
Zitat1 : "Im Leerlauf messen wir einen Leistungsbedarf von bis zu 16,5 Watt. Damit unterbietet das XMG A706 seinen Vorgänger um knapp 10 Watt."
Zitat2 : "Alles in allem fallen die Akkulaufzeiten für ein 17-zölliges Gaming-Notebook sehr gut aus. Das XMG A706 schneidet zudem klar besser ab als sein Haswell Vorgänger. Das hat es primär dem Skylake Prozessor zu verdanken."
aber jaaa , heult nur weiter, wenn man nur einen pc hat ist der 95% der tages im idle, was sind da schon 10watt weniger verbrauch, von 26watt auf 16watt, wen jucken über 50% weniger idle verbrauch, was extrem schwer zu realisieren ist
achja und dann ist da ja noch das ding dass es immer weniger pcs gibt und sich gott und die welt laptop kauft und 99% der menschen gar kein gaming betreiben.
achja und die leistung eines sandys reicht komplett aus deswegen ist intel der arsch und bringt nicht noch viel mehr leistung raus die niemand braucht....
kaum zu glauben was man hier so ließt es ist halt überhaupt nicht stringent und hauptsache man beschwert sich darüber was sache ist. think positive oder so... oder just think
amd wird übrigens falls sie zu intel aufschließen können die selben preise für die selbe leistung abrufen wie intel, siehe gpus, amd braucht geld dringender als sonst jemand
und ich wünsche es keinem mehr als amd dass sie es wieder schaffen an die starken zeiten anzuknüpfen. was gpus angeht finde ich es extrem erstaunlich was amd mit dem winzigen budget auf die beine stellen kann, aber da heulen die leute ja rum dass die pumpe der fury x brummt, obwohl man die nur hört weil keine turbine auf der karte verbaut ist. uber den 120er lüfter, der perfekt gewählt ist für den einsatzbereich, kein wort. hauptsache schlechtmachen
Naja, BF4 ist aber auch nen Spiel was die Module der AMDs "richtig" benutzen kann.
Gegen nen i3 6100 z.b. oder von mir aus auch die 4160er hat dein FX4100 0 Schnitte.
Allgemein ist es einfach krass wie die i3 in Spielen abgehen - ich mein, guck dir mal die TDP der CPUs an und was die auf die Straße bringen... ich hoffe echt das AMD nächstes Jahr was hinlegt was sich lohnt...
naja, bf4 ist aber auch nen spiel was die module der amds "richtig" benutzen kann.
Gegen nen i3 6100 z.b. Oder von mir aus auch die 4160er hat dein fx4100 0 schnitte.
Allgemein ist es einfach krass wie die i3 in spielen abgehen - ich mein, guck dir mal die tdp der cpus an und was die auf die straße bringen... Ich hoffe echt das amd nächstes jahr was hinlegt was sich lohnt.
Vielleicht sollte man mal das label wechseln und dann wirklich nen brecher bringen - amd als "marke" lässt sich iwi nicht mehr so richtig vermarkten, da hängt zu viel negatives image dran - auch wenn sie dafür größtenteils nichts können.
Ich glaub mein neuer 5820k wird der mainstream plattform noch laaaaaange überlegen sein.
Der bringt dir auch wenig wenn dafür ne Spargraka das Sys bremst
wir wissen inzwischen, dass du nvidia fanboy bist. brauchst nicht bei jeder gelegenheit gegen amd flamen.Der bringt dir auch wenig wenn dafür ne Spargraka das Sys bremst
Bin jetzt auch nicht vom Gaming ausgegangen sondern von der Gesamtperformance. Nutz mein sys nämlich nicht nur für Gaming sondern auch als Workstation.
Soll doch jeder die CPU kaufen bzw. behalten die zu seinen Ansprüchen passt, einfach ein unnötiger Kleinkrieg.
Aber wo wir grad dabei sind, ich fahr BMW der Rest ist kacke.
Klar braucht das aktuell vielleicht kaum wer, soll heissen die breite Masse wird damit nichts anfangen können, aber vielleicht entwickeln dann die Softwarehersteller auch verstärkt Multithreaded.
Aktuell beisst sich die Katze in den Schwanz ... wozu als normaler Anwender mehr als 4 Kerne kaufen wenn es kaum genutzt wird. Und andersrum wird kaum auf mehr optimiert/entwickelt wenn es so wenige Kunden nutzen.
Aber genau das (mehr Berechnungen) will ich ja dadurch erreichen. Ich hatte nie gesagt ich will mehr FPS bzw. es schneller haben. Wenn auf einem aktuellen System z.B. BF4 im Schnitt 60-70 FPS erreicht ist das ja schon in Ordnung. Durch eine bessere AI/KI und eventuell eine erhöhte Anzahl davon, und dann noch wesentlich mehr Interaktionsmöglichkeit mit der Umgebung würde auf dem gleichen Sys die CPU Last erhöhen und die FPS würden fallen....
Das, was du mit AI/KI Berechnung ansprichst, ist aber ein völlig anderes paar Schuhe und setzt genau dort an, was ich open ansprach -> man wird einfach mehr Berechnungen dran bauen um mehr MT Power ausnutzen zu können. Nur behebt das eben das eigentliche Grundproblem nicht, es wird damit einfach nicht schneller. Sondern es verschiebt die notwendige Basisperformance nach oben. Mehr aber auch nicht...
Ist ja gut so - so wie die BQ und Grafik gesteigert wird und das immer schnellere GPUs erfordert sollte sich auch der "Inhalt" bzw. das Spiel steigern, auch wenn das mehr CPU Power bzw. breitere CPUs fordert.... Gibt man das den Entwicklern in die Hand, werden die nen Teufel tun, dahin zu optimieren -> sondern einfach Leistung in BQ oder sonstwo verblasen, denn davon hat dann wiederum jeder was
Nur wenn es so weiter geht mit der Entwicklung macht so wie Du sagst "morgen" auch ein Quadcore + SMT keinen Sinn weil man in den meisten Anwendungen keine Mehrleistung erhält. Wenn die Anwendungen weiterhin auf wenige Threads ausgelegt sind ist dann wohl eine DC + SMT mit hohem Turbo besser dran als ein QC + SMT mit aber weniger Takt/Turbo.Wenn du mich fragst, wo die Reise hingehen wird, ich denke man wird sich nun noch viel mehr auf Energieeffizienzsteigerung hinbewegen... Da ist noch ne ganze Menge Potential. Wenn du ne kleine vier Core CPU, ggf. noch mit SMT in 10-15W pressen willst, kommst du heute nicht so wirklich weit. Also bspw. das, was die kleinen "Y" Modelle heute als DC + SMT sind, könnte morgen ein Quadcore + SMT sein. Damit geht dann auch eine sehr große Leistungssteigerung in diesen Bereichen einher und es hilft der Alltagsanwendung am Ende, noch besser zu arbeiten, weil du durch Turbo und Co. Lastspitzen noch besser abgefedert bekommst.
Ja das stimmt schon. Wie ich ja auch schon schrieb sind da ja sowieso meist nur eine App und ein paar Dienste gleichzeitig aktiv. Aber immerhin haben wir dort schon eine gewisse Hardwarebasis die mit MT gut zurecht kommt/kommen würde. Das fehlt eben im PC Sektor noch etwas wenn die breite Masse nach wie vor Dual Cores kauft.PS: das Thema Smartphone und CPU Load täuscht übrigens auch
Denn da ist bei weitem nicht so wirklich viel auf MT hin optimiert...
Der bringt dir auch wenig wenn dafür ne Spargraka das Sys bremst
@john4711+0815:Sagt der Frischling, lol mit sowas streite ich mcih doch nicht ,der pc is nebensache mittlerweile, das wirkliche Geld fliesst ins Muscle Car kleiner.
Verplappert ? Joa wenn du meinst, kanns ja verstehen wenn du mit deiner Unterklassekarte Frusst schiebst, aber bitte lass den doch woanders raus ,danke.