Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
SpMT wäre echt mal interessant. Ein Design ohne Branch Prediction wäre mal was völlig neues. Man lässt einfach beide Sprungpfade immer parallel abarbeiten und verwirft dann den falschen. Kostet zwar etwas zusätzliche Energie. Dürfte allerdings weniger als bei SMT sein. Das kann man aber sicherlich wieder kompensieren durch den Wegfall der mittlerweile recht aufwändigen Branch Predictor Einheiten. Wird so schnell aber wohl kein Hersteller machen. Dafür dürfte die Geschichte zu aufwändig und zu risikoreich sein.Evtl. versucht man mit einem Transmeta-ähnlichen Ansatz die IPC2-Grenze zu überwinden. Man hat entsprechende Softwareschmieden eingekauft. Das wäre natürlich ein echter Kracher, dann noch spekulative MT, und man könnte halbwegs schmale Backends bauen, die man immer ausgelastet bekommt. Dann brächte man weder CMT noch SMT sondern wär auf dem nächsten Level angekommen.
Programmierbare Decoder gibt's ja auch jetzt schon, Stichwort Microcode. Dass ein Prozessor unterschiedliche ISAs versteht, macht aus meiner Sicht aber keinen Sinn. Du hättest dann immer mindestens einen zusätzlichen Layer vor den Decodern, der on-the-fly redundant arbeitet. Das kostet nur unnötig Energie und Performance. Dann besser eine komplett softwarebasierte Lösung. Interpretersprachen wie Java machen ja im Grunde auch nichts anderes. Der plattformunabhängige Bytecode wird vor der Ausführung in für den vorhandenen Prozessor verständlichen Maschinencode umgewandelt. Damit es keine Redundanzen gibt, macht man das ganze nur einmal, zB bei der Installation oder vor der ersten Ausführung.Ich könnt mir schon vorstellen, dass ein Softwarelayer, der sich um die ISAs kümmert, quasi programmierbare Decoder, irre Vorteile hätte. Zum Beispiel könnte ein Prozessor dann x86 und ARM verstehen.
Das betrifft lediglich die Plattform. Mit Skybridge sollen ARM und x86 Prozessoren auf einer Plattform vereint werden. Langfristig glaube ich eher, dass AMD x86 verwerfen wird. Im Moment braucht man es halt noch, weil die Softwareinfrastruktur immer noch sehr stark auf x86 ausgelegt ist. In 10 Jahren oder so könnte das aber schon anders ausschauen.Wurde das nicht bereits von AMD als ultimatives Ziel beworben? Ab 2016..da gab es doch mal den Präsentationsfolie! Oder?
Naja, uninteressant ist das nicht, wenn man für etwas Energie und Performance verschwendet, was gar nicht notwendig wäre. Wie gesagt, ich sehe in einem ARM/x86-Kombidekoder keinen Sinn, weil ich keine Vorteile erkenne. Die Bereitstellung eines einheitlichen Maschinencodes sollte auf Softwareebene erfolgen. Das hat Transmeta seinerzeit auch nicht anders gemacht.Ob irgendwas ein bisschen mehr Energie kostet ist doch vollkommen uninteressant.
Naja, uninteressant ist das nicht, wenn man für etwas Energie und Performance verschwendet, was gar nicht notwendig wäre. Wie gesagt, ich sehe in einem ARM/x86-Kombidekoder keinen Sinn, weil ich keine Vorteile erkenne. Die Bereitstellung eines einheitlichen Maschinencodes sollte auf Softwareebene erfolgen. Das hat Transmeta seinerzeit auch nicht anders gemacht.
Von AMD glaub ich immer erst wen ich es auch sehe.
Dann noch viel Spaß beim Träumen.
Gesendet von meinem GT-I9505 mit der Hardwareluxx App
Ja ne, is klar
Diese Grafik ist nicht sehr aussagekräftig, wenn man bedenkt das du extra eine ausgesucht hast wo nur "Sandy-Bridge i3 und älter" drin sind.
Rankommen heisst nicht schlagen oder gleich auf sein, aber in einer relativ, für den Benutzer unspürbaren nahen Gegend.
Und jetz bitte nicht "... in 1024x768 ohne AA/Af zieht der Heitzwell Kreise um die FXe....", denn das ist bekannt aber realitätsfremd.
Die Rohleistung einer CPU misst man nicht mit schlecht oder beschissen programmierten Games in SVGA-Auflösung.
Naja, uninteressant ist das nicht, wenn man für etwas Energie und Performance verschwendet, was gar nicht notwendig wäre. Wie gesagt, ich sehe in einem ARM/x86-Kombidekoder keinen Sinn, weil ich keine Vorteile erkenne. Die Bereitstellung eines einheitlichen Maschinencodes sollte auf Softwareebene erfolgen. Das hat Transmeta seinerzeit auch nicht anders gemacht.
Intel-Compiler?Wie dann? Mit speziell extra für diese CPU optimierten Games in 8K und mit einer Office-Karte?
Die Leistungsfähigkeit einer CPU misst du am besten mit Anwendungen, die die CPU auch möglichst konstant und hoch auslasten können. Spiele gehören da nicht unbedingt zu den geeignetsten Anwendungen. Wenn du hingegen wissen willst, was eine CPU in Spielen leistet, dann nimmst du am besten trotzdem praxisnahe Auflösungen und eine adäquate Grafikkarte. Low-Res Tests sind einfach Quatsch. Die Erkenntnisse sind erstens nicht 1:1 übertragbar auf praxisnahe Settings. Und zweitens kann man diese auch nicht einfach auf zukünftige Spiele übertragen, die vielleicht ganz andere Anforderungen mitbringen.Wie dann? Mit speziell extra für diese CPU optimierten Games in 8K und mit einer Office-Karte?
Yep, die haben mittels Software die x86 Instruktionen in die Hardware VLIW Instruktionen umgewandelt. Die Software war dabei in einem ROM Chip auf dem Board untergebracht.Hatten die da nicht auch nur einen Übersetzer, der einfach die x86-Instruktionen in VLIW-Instruktionen übersetzt hat? Was im Prinzip ja auch bloß eine Art geteilter Decoder ist
Das ist schlicht Unsinn.. Damit stellst du nur fest wie die CPU in genau diesem Scenario performt. Der Aussagengehalt darüber wie sie mit einer stärkeren Grafikkarte, ebenso wie mit einer schwächeren, ist gleich Null! D.h. solch ein Test nützt mir garnichts wenn ich wissen will ob diese CPU zukunftssicher ist, oder nicht.Die Leistungsfähigkeit einer CPU misst du am besten mit Anwendungen, die die CPU auch möglichst konstant und hoch auslasten können. Spiele gehören da nicht unbedingt zu den geeignetsten Anwendungen. Wenn du hingegen wissen willst, was eine CPU in Spielen leistet, dann nimmst du am besten trotzdem praxisnahe Auflösungen und eine adäquate Grafikkarte. Low-Res Tests sind einfach Quatsch.
Das mag zwar stimmen, aber ich sehe keine Alternative zu diesen Nachteilen denn "deine" Methode hat ebenfalls genau diese Nahcteile + weitere.Die Erkenntnisse sind erstens nicht 1:1 übertragbar auf praxisnahe Settings. Und zweitens kann man diese auch nicht einfach auf zukünftige Spiele übertragen, die vielleicht ganz andere Anforderungen mitbringen.
Und mehr will ich auch nicht wissen, wenn ich mit diesen Settings spiele. Unsinn ist daran gar nichts. Unsinn ist nur, zu wissen, was bei 640x480 oder dergleichen rauskommt. Mit solchen Settings spiele ich nun mal nicht. Ausser das Spiel ist so alt, dass höhere Settings gar nicht möglich sind. Bei solchen alten Spielen dürfte aber selbst ein Atom ausreichend FPS hinbekommen.Das ist schlicht Unsinn.. Damit stellst du nur fest wie die CPU in genau diesem Scenario performt.
Das ist er bei Low-Res genauso, wenn du nur eine Grafikkarte testest. Ihr Low-Res Verfechter tut immer so, als würden bei praxisnahen Settings mit gleicher Grafikkarte immer identische FPS rausspringen. Schau dir doch mal Tests genau an. Das ist nur in den seltensten Fällen so. Und selbst wo es so ist, dann lassen sich Reserven immer noch am besten an der CPU-Auslastung ablesen und weniger an irgendwelchen praxisfremden Low-Res Ergebnissen.Der Aussagengehalt darüber wie sie mit einer stärkeren Grafikkarte, ebenso wie mit einer schwächeren, ist gleich Null!
Wie schon gesagt, Zukunftssicherheit gibt's sowieso nicht. Das ist Illusion.D.h. solch ein Test nützt mir garnichts wenn ich wissen will ob diese CPU zukunftssicher ist, oder nicht.
Nein, möchte ich nicht. Die wieder mal lächerlichen und an den Haaren herbeigezogenen Stänkereien kannst du dir also sparen. Was ich möchte, ist Spiele bei praxisnahen Settings zu testen. Dass die GPU dabei möglichst der am meisten limitierende Hardwarefaktor ist, ist nur logisch. Das heisst trotzdem nicht, dass die GPU in jedem Fall zu 100% ausgelastet sein muss. Auch hier ist das Minimalprinzip das ökonomischste. Framelimiter gibt's schliesslich nicht nur zum Spass. Soll heissen, am Ende ist für mich einzig eine ausreichende Framerate entscheidend, die subjektiv natürlich unterschiedlich bewertet werden kann. Wie diese zustande kommt, ob mit 1% oder 99% CPU/GPU Auslastung, ist nebensächlich.mr.dude möchte die Spieleleistung einer CPU im Grafikkartenlimit testen.
Die logische Schlussfolgerung daraus ist dass absolut alle CPUs auf dem Markt, (in Zukunft) gleich gut sind! Yay, kaufen wir also alle nur noch Celerons, alles andere macht ja keinen SinnWie schon gesagt, Zukunftssicherheit gibt's sowieso nicht. Das ist Illusion.
Die Leistungsfähigkeit einer CPU misst du am besten mit Anwendungen, die die CPU auch möglichst konstant und hoch auslasten können. Spiele gehören da nicht unbedingt zu den geeignetsten Anwendungen. Wenn du hingegen wissen willst, was eine CPU in Spielen leistet, dann nimmst du am besten trotzdem praxisnahe Auflösungen und eine adäquate Grafikkarte. Low-Res Tests sind einfach Quatsch. Die Erkenntnisse sind erstens nicht 1:1 übertragbar auf praxisnahe Settings. Und zweitens kann man diese auch nicht einfach auf zukünftige Spiele übertragen, die vielleicht ganz andere Anforderungen mitbringen.
Das.. halte ich jetzt doch wieder für etwas problematisch.Einen Fx-8350 mit einem i5-4590 beispielsweise zu verlgeichen, halte ich auch nur dann für sinnvoll, wenn alle Kerne des Fx-8350 genutzt werden können und somit sein volles Leistungsspektrum entfacht wird.
Seit wann ist das eine logische Schlussfolgerung? Oder liefert ein Celeron neuerdings die gleichen FPS wie zB ein i5 mit praxisnahen Settings? Wenn ja, dann zeige mir mal bitte entsprechende Nachweise.Die logische Schlussfolgerung daraus ist dass absolut alle CPUs auf dem Markt, (in Zukunft) gleich gut sind! Yay, kaufen wir also alle nur noch Celerons, alles andere macht ja keinen Sinn
Und deshalb ermittelt man die Leistungsfähigkeit einer CPU auch nicht mit Spielen, sondern mit Anwendungen, die die CPU Pipeline konstant hoch auslasten können. Da siehst du immer noch am besten, was für Reserven vorhanden sind, je nach Workload und Threading. An diesen können auch Spiele nichts ändern.Wenn du aber die Leistung der CPU nur mit der Leistung einer Graka zum Beginn des Lebenszyklus der CPU im Grafikkartenlimit bencht, kriegst du Ergebnisse, die zwar an dem Tag Aussagekraft haben, an dem die Kasse klingelt, die aber zwei Jahre später u.U. schon nicht mehr relevant sind.
Das halte ich für eine ziemlich fragwürdige These. Ich hatte in den letzten 15 Jahren 6 CPUs und 5 Grafikkarten. Das wird sich im Verhältnis also nicht viel nehmen und recht ausgeglichen sein. Ich würde eher dahin tendieren, dass man die CPU öfter wechselt als die GPU. Man sollte vielleicht auch mal daran denken, dass nicht jeder, der spielt, zu den <1% gehören, die von einer R9 290X / GTX 780 Ti auf eine GTX 980 wechseln. Die meisten kaufen neue Hardware schon mit mehr Vernunft und auch nicht jedes Jahr.Eine CPU hat eine deutlich längere Nutzungsdauer als eine Grafikkarte.
Ich stelle mich als gar nichts dar. Fakt ist aber, dass ausgerechnet du nichts anderes zu tun hast, als ständig persönlich zu werden und einen mit an den Haaren herbeigezogenen Behauptungen zu denunzieren. Lustig ist an so einem kindisch respektlosen Verhaltens übrigens gar nichts.Lustig übrigens, dass augrechnet du dich als Opfer von "Stänkerein" darstellen willst.
Selbstverständlich war das extrem überspitzt, aber hier die "Logik": Gibt es keine "Zukunftssicherheit", dann bedeutet das dass alle CPUs genau gleich stark sind, da sie ja folglich in Zukunft gleich schlecht sein werden.Seit wann ist das eine logische Schlussfolgerung? Oder liefert ein Celeron neuerdings die gleichen FPS wie zB ein i5 mit praxisnahen Settings? Wenn ja, dann zeige mir mal bitte entsprechende Nachweise.
mr.dude schrieb:Wenn du hingegen wissen willst, was eine CPU in Spielen leistet, dann nimmst du am besten trotzdem praxisnahe Auflösungen und eine adäquate Grafikkarte.
Und mehr will ich auch nicht wissen, wenn ich mit diesen Settings spiele. Unsinn ist daran gar nichts. Unsinn ist nur, zu wissen, was bei 640x480 oder dergleichen rauskommt. Mit solchen Settings spiele ich nun mal nicht. Ausser das Spiel ist so alt, dass höhere Settings gar nicht möglich sind. Bei solchen alten Spielen dürfte aber selbst ein Atom ausreichend FPS hinbekommen.
DragonTear schrieb:Das mag zwar stimmen, aber ich sehe keine Alternative zu diesen Nachteilen denn "deine" Methode hat ebenfalls genau diese Nahcteile + weitere.
mr.dude schrieb:Und selbst wo es so ist, dann lassen sich Reserven immer noch am besten an der CPU-Auslastung ablesen und weniger an irgendwelchen praxisfremden Low-Res Ergebnissen.
mr.dude schrieb:Wie schon gesagt, Zukunftssicherheit gibt's sowieso nicht. Das ist Illusion.
Und deshalb ermittelt man die Leistungsfähigkeit einer CPU auch nicht mit Spielen, sondern mit Anwendungen, die die CPU Pipeline konstant hoch auslasten können. Da siehst du immer noch am besten, was für Reserven vorhanden sind, je nach Workload und Threading. An diesen können auch Spiele nichts ändern.
Das halte ich für eine ziemlich fragwürdige These. Ich hatte in den letzten 15 Jahren 6 CPUs und 5 Grafikkarten. Das wird sich im Verhältnis also nicht viel nehmen und recht ausgeglichen sein. Ich würde eher dahin tendieren, dass man die CPU öfter wechselt als die GPU.
Ich stelle mich als gar nichts dar. Fakt ist aber, dass ausgerechnet du nichts anderes zu tun hast, als ständig persönlich zu werden und einen mit an den Haaren herbeigezogenen Behauptungen zu denunzieren. Lustig ist an so einem kindisch respektlosen Verhaltens übrigens gar nichts.
Und wenn ich sage, dass Stechpalme Märchen erzählt, dann bezieht sich das auf dessen Aussagen, die nicht der Wahrheit entsprachen und verfremdet waren, und nicht auf seine Person. Diesen Unterschied sollte man eigentlich kennen. Dass ausgerechnet du dann wieder diese Unwahrheiten mit persönlichen Angriffen verteidigen musstest, passt nur allzu gut ins Bild.
Nochmal, wo ist die Logik? Ich sehe da keinen Zusammenhang. Wenn man sagt, dass es keine Zukunftssicherheit gibt, dann ändert das doch trotzdem nichts daran, wenn ein Celeron heute weniger FPS liefert als zB ein i5, auch bei praxisnahen Einstellungen. Wo also sollen die gleich stark sein? Keine Zukunftssicherheit sagt doch nur, dass du nicht weisst, wie es mit dem Celeron und dem i5 in 2 oder 4 Jahren in Spiel X oder Y ausschaut.Selbstverständlich war das extrem überspitzt, aber hier die "Logik": Gibt es keine "Zukunftssicherheit", dann bedeutet das dass alle CPUs genau gleich stark sind, da sie ja folglich in Zukunft gleich schlecht sein werden.
Und diese generelle Leistungsfähigkeit einer CPU kannst du einfacher, zuverlässiger und gezielter eben mit entsprechenden normalen Anwendungen testen. Dafür sind Spiele völlig unnötig und die schlechtere Wahl.Für mich gehen "Zukunftssicherheit" und "Leistung" aber jedenfalls Hand in Hand...
Das ist natürlich wieder mal völliger Quatsch. Software ist keine Magie. Da passiert nichts, was man nicht erklären oder beeinflussen könnte. Auslastung entsteht in zweierlei Hinsicht, pro Kern (Pipeline) und pro Thread. Beides kann man mit entsprechenden Tools recht genau messen. Man kann sogar sehr spezifisch Instruktionen oder ISA Erweiterungen messen (sinnvollerweise natürlich nur über entsprechende Taktintervalle). Aber dafür braucht es halt mehr als nur Halbwissen über den Task-Manager.Denn wenn man nur hanebüchen die CPU Auslastung betrachtet, dann sagt das erstmal gar nichts ob die CPU noch Reserven hat.
Eine kann zu 60% ausgelastet sein ( 3 von 6 Threads) und kann mit der Programmierung des Spiels eben nicht zurecht kommen und aufgrund dessen keine Reserven mehr haben.
Dann liegt halt ein CPU Limit vor, völlig unabhängig der reinen Auslastung.
Niemand hat gesagt, dass du immer nur die gesamte CPU auslasten sollst. Die Rede war von der CPU-Pipeline. Es gibt genügend Anwendungen, um zu sehen, wie sich eine CPU bei einem, zwei, drei, vier usw Threads verhält. Problematisch ist für mich viel eher, wenn ich einen Pentium in 640x480 teste und sehe, der liefert fast die gleichen FPS wie ein i5, und ich komme zu dem Schluss, beide CPU haben die gleiche "Zukunftssicherheit". In zwei Jahren, wenn etliche Spiele aber über 4 und mehr Threads skalieren, dann fällt der Pentium plötzlich deutlich zurück. Das ganze kann man eben auch heute schon sehen, wenn du entsprechende normale Anwendungen nimmst und 1-N Threads durchtestest.Das Problem ist, wenn ich die CPUs mit etwas teste, dass sie voll auslastet, wie z.B. Videobearbeitung, dann komme ich zu dem Ergebnis, dass ein FX 8350 so schnell wie ein Intel i5 ist.
Dann frage ich mich, warum so viele Leute immer wieder Intel CPUs kaufen. Die sind dann anscheinend noch unzufriedener. Solchen Unsinn kannst du dir echt sparen. Und für genau diese AMD Basherei wirst du auch immer wieder zurecht kritisiert. Übrigens, ich war mit keiner AMD CPU unzufrieden. Ganz im Gegenteil. Die einzige CPU, die ich mir vielleicht hätte sparen können, weil nicht unbedingt notwendig, war der X2 240. Ein nettes Teil und Update war es trotzdem, auch wenn es der alte Brisbane noch getan hätte. Die letzte CPU, mit der ich unzufrieden war, war übrigens von Intel. Aber das liegt mehr als 15 Jahre zurück, als man es noch nicht besser wusste.Das wundert mich nicht, dass du die CPU häufiger wechselst, denn du kaufst ja auch AMD CPUs und damit sind die Leute halt schneller unzufrieden.
Nein, sie stimmt nach wie vor nicht. Und das habe ich auch zweifelsfrei begründet. Das solltest du mal gründlicher lesen, anstatt immer die gleichen falschen Sachen zu behaupten und klare Widerlegungen zu ignorieren. Auf den Rest braucht man nicht weiter einzugehen. Jeder, der deine Geschichten hier schon öfters gelesen hat, weiss sehr genau, dass du ein AMD Basher bist und vor nichts Halt machst, auch vor den Marketing Leuten nicht. An meiner Aussage war also nichts gelogen. Das ist leider die traurige Wahrheit. Mich persönlich stört das übrigens kein bisschen. Wenn du AMD bashen willst, ist das deine Sache. Nur halte mich dann bitte aus deinem Unsinn raus und ignoriere meine Beiträge am besten, wenn ich auf deine Bashorgien nicht einstimme.Erstens stimmte Stechpalmes Aussage