CPU Leistung seit 2600k stagnierend?

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Leute, sagen wir einfach Sandy-K (nicht -E) ;)
 
Ich wollt eigentlich keinen extra Thread eröffnen, aber was ist besser teure Hardware kaufen oder Spiele mit geringer Hardwareanforderung kaufen und somit die Spiele industrie fördern?
 
oder Spiele mit geringer Hardwareanforderung kaufen und somit die Spiele industrie fördern?
Interessater Ansatz, aber ich fürchte da ist man ein wenig auf verlorenem posten...

Bzw. nein, einfach Software kaufen die geringe Anforderugen kaufen, ist eher quatsch. Man sollte aber Software bevorzugen die gut optimiert ist und andere abstrafen! Da sind nämlich extreme diskrepanzen...
 
Die Optimierung unterstützen ist eine Sache, was ich viel wichtiger finde ist Spiele zu unterstützen die auf DRM oder andere Kopierschutzmaßnahmen verzichten. Denn das sind eigentlich die Probleme der heutigen Tage. Natürlich sind Optimierung auch immer wünschenswert, mit der Zeit und den steigenden Anforderungen der Spiele, da dies immer komplexer werden, werden dies aber automatisch Einzug halten. Anders lassen sich bestimmte Vorgänge und Berechnungen in Zukunft einfach nicht mehr bewältigen.
 
Die Optimierung unterstützen ist eine Sache, was ich viel wichtiger finde ist Spiele zu unterstützen die auf DRM oder andere Kopierschutzmaßnahmen verzichten.
Naja, als angehender Entwickler muss ich sagen, man hat heute entweder die Wahl, DRMs einzusetzen, oder das Spiel sehr eng, auch in Singleplayer Modi, mit Online-Diensten zu verstricken (was damit indirekt ebenso als Kopierschutz dient).
Als Gamer bevorzuge ich da eher ersteres...
 
Ich denke es geht auch ohne DRM und ohne Kopierschutz. Bis heute ist mir kein Schutz bekannt der noch nicht ausgehebelt wurde, von "always on" mal abgesehen was aber nicht wirklich eine Option ist. Auf Dauer gesehen vergrault man sich seine Kunden mit DRM und dergleichen.
 
Die Optimierung unterstützen ist eine Sache, was ich viel wichtiger finde ist Spiele zu unterstützen die auf DRM oder andere Kopierschutzmaßnahmen verzichten. Denn das sind eigentlich die Probleme der heutigen Tage. Natürlich sind Optimierung auch immer wünschenswert, mit der Zeit und den steigenden Anforderungen der Spiele, da dies immer komplexer werden, werden dies aber automatisch Einzug halten. Anders lassen sich bestimmte Vorgänge und Berechnungen in Zukunft einfach nicht mehr bewältigen.

es gibt auch spiele und software die verbuggt ist, wäre eine weitere Möglichkeit nicht zu unterstützen-.
 
In Zeiten von "Early Access" kommt es eben darauf an, was man gerne spielt.

Da gibt es zum einen echte geile Kracher, die aber grafiktechnisch an DOS-Zeiten erinnern. Da ist selbst ein Pentium oversized. Die sind auf den aktuellen Atom-Tablets problemlos spielbar.

Und dann gibt es die "Early Access"-Titel, die jeden Rechner in die Knie zwingen. Da kann man selbst einen 2600K @ 4GHz in sein Limit treiben.

Ich für meinen Teil würde immer das Budget und die Spielewünsche berücksichtigen. Lapidar macht es keinen Sinn, in irgendeine Technik zu investieren, ohne zu wissen, was man eigentlich wirklich vorhat. Wer sich nicht auskennt - klar, das (fast) Beste vom Besten. ;)
 
Ich bin auch seit Jahren zufriedener Anwender der i7-2600k @4 Ghz.

Werde erst auf eine neue CPU umsteigen, wenn bei den neuen Prozessoren Intel Quick Sync Video auch H.265 HEVC hardwaremäßig unterstützt/ das Transcoden analog zu H.264 beschleunigt......
 
Naja, als angehender Entwickler muss ich sagen, man hat heute entweder die Wahl, DRMs einzusetzen, oder das Spiel sehr eng, auch in Singleplayer Modi, mit Online-Diensten zu verstricken (was damit indirekt ebenso als Kopierschutz dient).
Als Gamer bevorzuge ich da eher ersteres...

Warum? Der beste Kopierschutz ist ein überzeugendes Produkt. Gute Produkte verkaufen sich wie warme Semmeln. Da brauch es kein DRM. Ebenso heist es lange nicht, dass jeder "Raubmordkopierer" das Produkt auch kaufen würde. Zumal in der heutigen Zeit oftmals die Produkte beim Kunden reifen... wenn während dieses Prozesses der Preis sinkt muss sich diesen Schuh der Entwickler/Publisher einfach anziehen... keine Demos zum reinspielen machen es auch schwer dagegen anzukommen. Und die Katze im Sack kauft Kategorie Mensch nun mal ungern... ;) als (angehender) Entwickler wirst du das früher oder später selbst erleben.
Ein Fehler ist aus meiner Sicht bspw. immer wieder den selben Abklatsch mit her neues Jahreszahl zu bringen. Mit so einer Gewinnmaximierung brauch sich dann Keiner wundern, dass die Absatzzahlen sinken.

Ich wollt eigentlich keinen extra Thread eröffnen, aber was ist besser teure Hardware kaufen oder Spiele mit geringer Hardwareanforderung kaufen und somit die Spiele industrie fördern?

Die Frage ist doch, wer definiert, was angemessene Anforderungen sind?
In Zeiten wo der Berechnungsaufwand überproportional mit dem Optikzuwachs steigt, ist so eine Definition quasi unmöglich...
 
Wir sind sowieso an eine Stelle gekommen in der die Rasterisation bald genausoviel Rechenpower benötigt wie raytracing. Und ab dem Moment wo komplettes raytracing eingesetzt wird, wird der Rechenaufwand sich nicht weiter so überproportional steigern wie er es die letzten Jahre gemacht hat.
 
Da wäre ich mir nicht so sicher, zumal auch Raytracing seine Schwächen hat.
Auch ist das Skalierungsproblem mit der Optik und Anforderung kein Problem des Verfahrens, sondern hausgemachtes übel.
Denn bei immer mehr Details steigt die Aufwand überproportional. Das heist aber lange nicht, dass du während der Spielzeit diese Details auch siehst... hier liegt klar ein Problem. Das ändert sich mit dem Raytracing auch absolut gar nicht.
Ebenso stehen wir noch vor den stark steigenden Anforderungen an Simulationen. Stichwort Physikberechnung. -> Das gleiche Problem in Bunt.

Irgendwann kommt der Punkt an dem man den Optikunterschied nicht primär mehr direkt sieht. Dennoch sind wir noch extrem weit weg von echtem Fotorealismus.
 
Ein Großteil der Optik in Spielen kommt von der Beleuchtung und deren Genauigkeit. Wir haben derzeit ein Grad an Aufwand für die Rasterisation erreicht, mit der es schwer ist Verbesserung in diesen Bereichen zu erlangen ohne die Berechnungen überproportional steigen zu lassen. Sicher benötigt Raytracing mehr Rechenpower, aber in Sachen Beleuchtung gibt es nichts Besseres als Raytracing. Da dies dem max. Möglichen entspricht. Raytracing ist es z.b. egal in welcher Auflösung alles berechnet werden muss. Sicherlich hat Raytracing auch einige Nachteile, aber vermutlich wird es darauf hinauslaufen dass man raytracing und andere Techniken miteinander kombiniert.
 
Warscheinlich könnten die innerhalb kürzester Zeit Prozessoren auf den Markt bringen, die mindestens die doppelte Rechenleistung der aktuellen Desktop Modelle haben.
Die Xeon E5 gibt es mit bis zu 18 Kerne, die sollte bei entsprechenden Anwednungen die gut über so viele Kerne skalieren dann auch etwa doppelt so viel Liestung wie der stärkste i7 haben, da braucht Intel also nicht erst etwas auf den Markt zu bringen, das hat Intel schon getan.
Pläne für 10 und 100 fache Leistung existieren vielleicht auch schon (wenn auch nicht serienreif)
Bei normalen CPUs halt ich eine Steigerung für ambitioniert und sicher noch sehr weit entfernt.
Weil ich hier wieder den Vergleich AMD/NVidia gelesen habe, das nennt ihr doch nicht ernsthaft Konkurrenz?
Seit Jahren bringt hat auch in diesem Bereich niemand Karten mit wirklichen Leistungssprüngen auf den Markt gebracht.
Solange die alle bei der 28nm Fertigung gehangen haben weil die Fabs keine 20nm Porzesse hinbekommen haben, gab es eben kaum Potential für wirklich große Steigerungen, die kommen wenn die 16nm bzw 14nm Prozesse GPUs kommen, was wohl im nächsten Jahr der Fall sein dürfte. Nvidia Pascal GPU has 17 billion transistors
Mal hat AMD das schnellere Highend Modell, mal NVidia.

Das hat mit echter Konkurrenz aber auch mal so garnichts zu tun, die sind sich schon einig...
Nein, die hängen an den gleichen technische Limit fest, daher kann sich auch kaum einer groß vom anderen absetzen.

Ich bin der Meinung das solang die Spieleindustrie nicht hergeht und die Leistung der derzeitigen Intel 6-8 Kerner anfängt zu nutzen, macht es doch weder für Intel noch für AMD Sinn an erhöhter IPC Leistung zu forschen, wenn nicht einmal 4-Kerner ausgelastet sind.
IPC ist immer pro Kern, die IPC zu erhöhen würde AMD sicher lieber heute als gestern, aber so einfach ist das eben auch nicht schon gar nicht für Intel deren CPUs schon eine sehr hohe IPC haben. Das geht neben Verbesserungen der Architektur vor allem über den Takt, aber da setzt die Fertigungstechnik wieder Grenzen und die fallen immer weiter, den 2600k wollen manche ja hier zur CPU de Jahrzehntes ausrufen, weil der noch relativ gut auf 5GHz zu bringen war, was bei den Nachfolgern immer schwerer wird.

Mehr Leistung geht also vor allem über mehr Kerne, nur muss die SW diese nutzen, sonst bringen sie eben nichts und da liegt gerade bei Gamer das Hauptproblem.

Ich muss ehrlich sagen. Ich würde es Top finden wenn es für mittelklasse Plattform 8Kerner @ 95W TDP @ 4GHZ pro Kern bei einer IPC von Skylake.
Ein Intel Xeon E5-2630 v3 bietet 8 Kerne und eine TDP vom 85W, aber nur 2,4GHz Grundtakt und ist Haswell statt Skylake. Viele Kerne mit viell Takt brauchen eben entsprechend Leistung, ob es mit Skylake-E(P) so eine CPU geben wird wie Du die Top finden würdest, wird sich zeigen müssen.
Highend Plattform 12+16Kerne bis´140W TDP
12Kerne und 16Kerner bis zu 140W TDP gibt es doch, also lange zu. Es gibt sogar einen 12 Kerner mit 65W TDP, der har zwar nur einen Grundtakt von 1.8GHz, aber auch nur 65W TDP!

Naja sockel 2011 -3 ist zwar nett , aber finde die TDP zu hoch...
Bei den i7, die sind auch für Entusiasten und die wollen vor allem Leistung, bei den Xeons gibt es dafür richtig viel Auswahl, aber leider nur selten kleine Preise. Obwohl es auch schon für 219€ einen 6 Kerner gibt, da muss man doch nicht über hohe Preise und nur 4 Kerne bei Skylake meckern.
 
Zuletzt bearbeitet:
Mit einem Basistakt von lediglich 1,6 Gigahertz kommt man aber nicht weit. Da hilft es auch nicht das ist eine CPU mit 6 Kernen ist. Es fehlt einfach an leistung. Interessant wird es ab 8-10 Kernen. Wobei ich persönlich IvyBridge-E bevorzuge da die Leistung nur minimal unter Haswell-E ist aber die CPUs sich viel besser kühlen lassen.
 
Zuletzt bearbeitet:
Tja, keine Ahnung was noch geändert wurde, aber die werden dennoch wärmer bei identischer Anzahl von Kernen.
 
Ich rede von Haswell-EP. Da sieht es ganz anders aus.
 
So 1-2 Jahren könnte man über einen Wechsel nachdenken. Da die Grafikkarten schneller altern als CPU's, finde ich viel wichtiger das dieses Jahr leistungsfähigere Grafikkarten rauskommen, um den Markt an höher auflösenderen Bildschirmen zu erfüllen bzw. mitzuziehen. Ich dachte ich sattel auf den 1151er Sockel um aber werde vorerst bei 1150 bleiben und mit Einzug von besseren Desktop 8Kerner zuschlagen wenn Direct X 12 sich etwas mehr im Spielemarkt verbreitet hat. Auch wenn die Leistung immer etwas steigt, so ist das im Falle des Gebrauchs dann doch nicht so bemerkbar.
 
So 1-2 Jahren könnte man über einen Wechsel nachdenken. Da die Grafikkarten schneller altern als CPU's, finde ich viel wichtiger das dieses Jahr leistungsfähigere Grafikkarten rauskommen, um den Markt an höher auflösenderen Bildschirmen zu erfüllen bzw. mitzuziehen. Ich dachte ich sattel auf den 1151er Sockel um aber werde vorerst bei 1150 bleiben und mit Einzug von besseren Desktop 8Kerner zuschlagen wenn Direct X 12 sich etwas mehr im Spielemarkt verbreitet hat. Auch wenn die Leistung immer etwas steigt, so ist das im Falle des Gebrauchs dann doch nicht so bemerkbar.

Sehr weise zukunftsplanung. So sieht es aus. Die CPU,s die ihr habt können eh schon eine GTX980ti ans limit bringen, von daher lieber erstmal die neuen Grafikkarten abwarten und ggf dann auf Zen 8 Kerner oder Cannonlake 10nm 6 Kerner aufrüsten.
 
Der Post von koffeinjunkie ist in der Tat sehr weise und vernüftig. Besitze auch eine i7 2600k CPU. Werde aber nicht weise sein und mir ein X99 System geben auch wenn das bereits etwas "angegraut" ist. Vom Nachfolger erwarte ich mir sowieso keine nennenswerten Verbesserungen und weitere 1-2 Jahre zu warten habe ich keinen Bock. Da müsste man bei PC HW immer warten. Die neue GK Generation - je nachdem was besser ist - NV oder AMD - werde ich definitiv unabhängig davon auch probieren. Leider sind nicht alle Entscheidungen auf Vernunft passierend. Wäre auch schlimm - wo bliebe da der Spass.

l. G.
Karl
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh