[News] Neue AMD High End CPU im Anmarsch

Wer kommt denn auf solch absurde Ideen? AMD Codenamen haben doch nix mit Asus zu tun...
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Evtl. versucht man mit einem Transmeta-ähnlichen Ansatz die IPC2-Grenze zu überwinden. Man hat entsprechende Softwareschmieden eingekauft. Das wäre natürlich ein echter Kracher, dann noch spekulative MT, und man könnte halbwegs schmale Backends bauen, die man immer ausgelastet bekommt. Dann brächte man weder CMT noch SMT sondern wär auf dem nächsten Level angekommen.
SpMT wäre echt mal interessant. Ein Design ohne Branch Prediction wäre mal was völlig neues. Man lässt einfach beide Sprungpfade immer parallel abarbeiten und verwirft dann den falschen. Kostet zwar etwas zusätzliche Energie. Dürfte allerdings weniger als bei SMT sein. Das kann man aber sicherlich wieder kompensieren durch den Wegfall der mittlerweile recht aufwändigen Branch Predictor Einheiten. Wird so schnell aber wohl kein Hersteller machen. Dafür dürfte die Geschichte zu aufwändig und zu risikoreich sein.

Ich könnt mir schon vorstellen, dass ein Softwarelayer, der sich um die ISAs kümmert, quasi programmierbare Decoder, irre Vorteile hätte. Zum Beispiel könnte ein Prozessor dann x86 und ARM verstehen.
Programmierbare Decoder gibt's ja auch jetzt schon, Stichwort Microcode. Dass ein Prozessor unterschiedliche ISAs versteht, macht aus meiner Sicht aber keinen Sinn. Du hättest dann immer mindestens einen zusätzlichen Layer vor den Decodern, der on-the-fly redundant arbeitet. Das kostet nur unnötig Energie und Performance. Dann besser eine komplett softwarebasierte Lösung. Interpretersprachen wie Java machen ja im Grunde auch nichts anderes. Der plattformunabhängige Bytecode wird vor der Ausführung in für den vorhandenen Prozessor verständlichen Maschinencode umgewandelt. Damit es keine Redundanzen gibt, macht man das ganze nur einmal, zB bei der Installation oder vor der ersten Ausführung.


Wurde das nicht bereits von AMD als ultimatives Ziel beworben? Ab 2016..da gab es doch mal den Präsentationsfolie! :hmm: Oder?
Das betrifft lediglich die Plattform. Mit Skybridge sollen ARM und x86 Prozessoren auf einer Plattform vereint werden. Langfristig glaube ich eher, dass AMD x86 verwerfen wird. Im Moment braucht man es halt noch, weil die Softwareinfrastruktur immer noch sehr stark auf x86 ausgelegt ist. In 10 Jahren oder so könnte das aber schon anders ausschauen.
 
Naaa, der Transmeta Ansatz war aber ein anderer und genau sowas könnte hier angegangen werden. Nicht vergessen, AMD besitzt das komplette KnowHow von Transmeta, nur nicht das Personal, die sind nach NV gegangen :d. Die machen jetzt NVs Custom-ARMs. Aber Transmeta war der Vorläufer von VISC, wessen Entwickler ja von AMD ebenfalls übernommen wurde und genau sowas wär für x86 super-interessant.
Ob irgendwas ein bisschen mehr Energie kostet ist doch vollkommen uninteressant. Es geht hier doch um weit mehr, es geht hier um die IPC-Grenze der x86-ISA. Man könnte mit sehr viel freier konfigurierbarer Hardware, die evtl. an sich etwas langsamer ist, deutlich mehr Leistung rausbekommen. SpSMT ist zwar sicherlich mit sowas umsetzbar, aber sicher nicht sofort. Man wird damit klein anfangen. Auch einen ARM/x86-Kombidekoder wirds es nicht in der ersten Generation geben, aber auch das könnte das Ziel sein.
Warten wir mal ab was passiert. Wie gesagt, der Codename Zen lässt sich bequem in diese Richtung deuten.
Übrigens erwarte ich sowas nicht für K12. Das wird sicher ein "klassischer" Prozessor mit ARM-Befehlssatz.
Aber bei Zen könnte es seit Jahren mal wieder sehr interessant werden.
 
Zuletzt bearbeitet:
Ob irgendwas ein bisschen mehr Energie kostet ist doch vollkommen uninteressant.
Naja, uninteressant ist das nicht, wenn man für etwas Energie und Performance verschwendet, was gar nicht notwendig wäre. Wie gesagt, ich sehe in einem ARM/x86-Kombidekoder keinen Sinn, weil ich keine Vorteile erkenne. Die Bereitstellung eines einheitlichen Maschinencodes sollte auf Softwareebene erfolgen. Das hat Transmeta seinerzeit auch nicht anders gemacht.
 
Naja, uninteressant ist das nicht, wenn man für etwas Energie und Performance verschwendet, was gar nicht notwendig wäre. Wie gesagt, ich sehe in einem ARM/x86-Kombidekoder keinen Sinn, weil ich keine Vorteile erkenne. Die Bereitstellung eines einheitlichen Maschinencodes sollte auf Softwareebene erfolgen. Das hat Transmeta seinerzeit auch nicht anders gemacht.

Dann macht man es halt nicht, das ist aber eh nur ein Sekundäreffekt. Das ist ja nicht das einzige Ziel einen Kombiprozessor zu bauen ;).
Aber wenn man das mal irgendwann durchzieht hat das durchaus wirtschaftliche Konsequenzen. Dann bräuchte man nämlich nur noch ein Design für 2 Märkte :d.
 
Zuletzt bearbeitet:
K12 und Zen werden ja parallel zueinander entwickelt. Ich denke da hat man schon recht gute Amortisationseffekte zwischen den ARM und x86 Designs.
 
Von AMD glaub ich immer erst wen ich es auch sehe.

Dann noch viel Spaß beim Träumen.

Gesendet von meinem GT-I9505 mit der Hardwareluxx App
 
Von AMD glaub ich immer erst wen ich es auch sehe.

Dann noch viel Spaß beim Träumen.

Gesendet von meinem GT-I9505 mit der Hardwareluxx App

Wieso sollte etwas davon ein Traum sein? Das ist ist kein kleines Büro mit ein paar wenigen Angestellten. Die werden was bringen müssen, wie gut es ist, das ist die Frage. Aber natürlich hat man wohl unsinnige Neuprodukte in den Korb geworfen. Die anderen kochen leider auch nur mit sehr viel Wasser. Mit Ankündigungen hält sich AMD ohnehin sehr bedeckt. Nur werden die wenigen Informationen halt hier diskutiert.
 
Zuletzt bearbeitet:
Ja ne, is klar :fresse:
f66fabcee0dd7863acb23b43771d8882.jpg

Diese Grafik ist nicht sehr aussagekräftig, wenn man bedenkt das du extra eine ausgesucht hast wo nur "Sandy-Bridge i3 und älter" drin sind.
 
Naja, so groß ist der Unterschied ist der Unterschied nicht zwischen Sandy Bridge und Haswell nicht. Da bedarf es andere Spielchen, wo sie doch mal herausstechen. Der ,,Hardwarekenner" hat ja nur einen Ivy Bridge, wo ja sein FX-6350 ja angeblich sehr viel schlechter war. Aber vllt. hat er ein ASRock-Board gehabt und da kann es schon mal Probleme geben.
 
Zuletzt bearbeitet:
Diese Grafik ist nicht sehr aussagekräftig, wenn man bedenkt das du extra eine ausgesucht hast wo nur "Sandy-Bridge i3 und älter" drin sind.

ja stimmt :hmm:
vllt wollte ich aber auch nur widerlegen das hardwarekenners neuer alter i3 in bf4 keine mehr als doppelt so hohen minimumfps wie sein noch älterer fx6350 machen kann.

oder willst du mir jetzt allen ernstes erzählen das du denkst das der i3 3250 in bf4 schneller ist als der i7 4770k und i7 3970x xD?
 
Zuletzt bearbeitet:
Rankommen heisst nicht schlagen oder gleich auf sein, aber in einer relativ, für den Benutzer unspürbaren nahen Gegend.
Und jetz bitte nicht "... in 1024x768 ohne AA/Af zieht der Heitzwell Kreise um die FXe....", denn das ist bekannt aber realitätsfremd.

Äh ja na klar kommt der in hohen Auflösungen und mit AA/AF nah ran denn da limitiert schließlich die Grafikkarte und die Unterschiede zwischen den CPUs sind nicht wahrnehmbar.
Um das GPU-Limit zu entfernen wird dann eben die Auflösung runtergeschraubt um auch wirklich die Rohleistung der CPUs messen zu können.
 
Die Rohleistung einer CPU misst man nicht mit schlecht oder beschissen programmierten Games in SVGA-Auflösung. :stupid:
 
Naja, uninteressant ist das nicht, wenn man für etwas Energie und Performance verschwendet, was gar nicht notwendig wäre. Wie gesagt, ich sehe in einem ARM/x86-Kombidekoder keinen Sinn, weil ich keine Vorteile erkenne. Die Bereitstellung eines einheitlichen Maschinencodes sollte auf Softwareebene erfolgen. Das hat Transmeta seinerzeit auch nicht anders gemacht.

Hatten die da nicht auch nur einen Übersetzer, der einfach die x86-Instruktionen in VLIW-Instruktionen übersetzt hat? Was im Prinzip ja auch bloß eine Art geteilter Decoder ist :fresse:
 
Wie dann? Mit speziell extra für diese CPU optimierten Games in 8K und mit einer Office-Karte?
Die Leistungsfähigkeit einer CPU misst du am besten mit Anwendungen, die die CPU auch möglichst konstant und hoch auslasten können. Spiele gehören da nicht unbedingt zu den geeignetsten Anwendungen. Wenn du hingegen wissen willst, was eine CPU in Spielen leistet, dann nimmst du am besten trotzdem praxisnahe Auflösungen und eine adäquate Grafikkarte. Low-Res Tests sind einfach Quatsch. Die Erkenntnisse sind erstens nicht 1:1 übertragbar auf praxisnahe Settings. Und zweitens kann man diese auch nicht einfach auf zukünftige Spiele übertragen, die vielleicht ganz andere Anforderungen mitbringen.


Hatten die da nicht auch nur einen Übersetzer, der einfach die x86-Instruktionen in VLIW-Instruktionen übersetzt hat? Was im Prinzip ja auch bloß eine Art geteilter Decoder ist :fresse:
Yep, die haben mittels Software die x86 Instruktionen in die Hardware VLIW Instruktionen umgewandelt. Die Software war dabei in einem ROM Chip auf dem Board untergebracht.
 
Die Leistungsfähigkeit einer CPU misst du am besten mit Anwendungen, die die CPU auch möglichst konstant und hoch auslasten können. Spiele gehören da nicht unbedingt zu den geeignetsten Anwendungen. Wenn du hingegen wissen willst, was eine CPU in Spielen leistet, dann nimmst du am besten trotzdem praxisnahe Auflösungen und eine adäquate Grafikkarte. Low-Res Tests sind einfach Quatsch.
Das ist schlicht Unsinn.. Damit stellst du nur fest wie die CPU in genau diesem Scenario performt. Der Aussagengehalt darüber wie sie mit einer stärkeren Grafikkarte, ebenso wie mit einer schwächeren, ist gleich Null! D.h. solch ein Test nützt mir garnichts wenn ich wissen will ob diese CPU zukunftssicher ist, oder nicht.

Die Erkenntnisse sind erstens nicht 1:1 übertragbar auf praxisnahe Settings. Und zweitens kann man diese auch nicht einfach auf zukünftige Spiele übertragen, die vielleicht ganz andere Anforderungen mitbringen.
Das mag zwar stimmen, aber ich sehe keine Alternative zu diesen Nachteilen denn "deine" Methode hat ebenfalls genau diese Nahcteile + weitere.

Die einzige Option wäre in jeder erdenklichen Konstalation aus CPU, Graka und Game und Auflösung zu Testen :shot:
 
Das ist schlicht Unsinn.. Damit stellst du nur fest wie die CPU in genau diesem Scenario performt.
Und mehr will ich auch nicht wissen, wenn ich mit diesen Settings spiele. Unsinn ist daran gar nichts. Unsinn ist nur, zu wissen, was bei 640x480 oder dergleichen rauskommt. Mit solchen Settings spiele ich nun mal nicht. Ausser das Spiel ist so alt, dass höhere Settings gar nicht möglich sind. Bei solchen alten Spielen dürfte aber selbst ein Atom ausreichend FPS hinbekommen.

Der Aussagengehalt darüber wie sie mit einer stärkeren Grafikkarte, ebenso wie mit einer schwächeren, ist gleich Null!
Das ist er bei Low-Res genauso, wenn du nur eine Grafikkarte testest. Ihr Low-Res Verfechter tut immer so, als würden bei praxisnahen Settings mit gleicher Grafikkarte immer identische FPS rausspringen. Schau dir doch mal Tests genau an. Das ist nur in den seltensten Fällen so. Und selbst wo es so ist, dann lassen sich Reserven immer noch am besten an der CPU-Auslastung ablesen und weniger an irgendwelchen praxisfremden Low-Res Ergebnissen.

D.h. solch ein Test nützt mir garnichts wenn ich wissen will ob diese CPU zukunftssicher ist, oder nicht.
Wie schon gesagt, Zukunftssicherheit gibt's sowieso nicht. Das ist Illusion.


mr.dude möchte die Spieleleistung einer CPU im Grafikkartenlimit testen.
Nein, möchte ich nicht. Die wieder mal lächerlichen und an den Haaren herbeigezogenen Stänkereien kannst du dir also sparen. Was ich möchte, ist Spiele bei praxisnahen Settings zu testen. Dass die GPU dabei möglichst der am meisten limitierende Hardwarefaktor ist, ist nur logisch. Das heisst trotzdem nicht, dass die GPU in jedem Fall zu 100% ausgelastet sein muss. Auch hier ist das Minimalprinzip das ökonomischste. Framelimiter gibt's schliesslich nicht nur zum Spass. Soll heissen, am Ende ist für mich einzig eine ausreichende Framerate entscheidend, die subjektiv natürlich unterschiedlich bewertet werden kann. Wie diese zustande kommt, ob mit 1% oder 99% CPU/GPU Auslastung, ist nebensächlich.
 
Das Problem ist aber, dass der Leistungszuwachs bei GPUs deutlich größer ist als der bei CPUs. Meine Graka habe ich schon dreimal auf meinem aktuellen AM3 Board gewechselt und habe jedensmal +100% mehr Graka-Leistung bekommen.

Wenn du aber die Leistung der CPU nur mit der Leistung einer Graka zum Beginn des Lebenszyklus der CPU im Grafikkartenlimit bencht, kriegst du Ergebnisse, die zwar an dem Tag Aussagekraft haben, an dem die Kasse klingelt, die aber zwei Jahre später u.U. schon nicht mehr relevant sind.

Eine CPU hat eine deutlich längere Nutzungsdauer als eine Grafikkarte. Deshalb macht es keinen Sinn, im Grafiklimit von heute zu benchen, wenn dies während der halben Lebensdauer der CPU durch den Fortschritt der Grakaleistung keine Rolle mehr spielen wird.

Lustig übrigens, dass augrechnet du dich als Opfer von "Stänkerein" darstellen willst.

Ich erinnere an den Nachbarthread, in dem du Stechpalme bezichtigt hast, Märchen zu erzählen (er hatte nur den Inhalt einer Nachricht korrekt wiedergegeben) und du hast als Reaktion auf meine Bestätigung der Nachricht (mit wörtlichem Zitat der Nachricht) behauptet, ich würde hier nur das AMD Management verteufeln.

Ich habe darauf höflich gefragt, ob du diese Behauptung belegen kannst - was ja nicht schwierig sein sollte, wenn ich dies "nur" mache. Von dir kam natürlich nichts. Wie auch. Deine dummdreiste Behauptung war einfach nur eine Lüge, mit dem Ziel mich zu verunglimpfen, weil dir die sachlichen Argumente ausgegangen sind - und da willst du dich als Opfer von Stänkerein darstellen. Lächerlich.
 
Die Leistungsfähigkeit einer CPU misst du am besten mit Anwendungen, die die CPU auch möglichst konstant und hoch auslasten können. Spiele gehören da nicht unbedingt zu den geeignetsten Anwendungen. Wenn du hingegen wissen willst, was eine CPU in Spielen leistet, dann nimmst du am besten trotzdem praxisnahe Auflösungen und eine adäquate Grafikkarte. Low-Res Tests sind einfach Quatsch. Die Erkenntnisse sind erstens nicht 1:1 übertragbar auf praxisnahe Settings. Und zweitens kann man diese auch nicht einfach auf zukünftige Spiele übertragen, die vielleicht ganz andere Anforderungen mitbringen.

Ich gebe dir dazu mal ein praxisnahes Gegenbeispiel: Du möchtest die Höchsgeschwindigkeit von einigen Sportwagen mit Winterreifen testen, die aber dadurch bei 210 km/h elektronisch abgeregelt sind. Als Fazit ziehst du: Alle Wagen sind gleich schnell und schaffen die 210 km/h, es gibt überhaupt keinen Grund für Wagen X mehr zu bezahlen als für Wagen Y, da sie die gleiche Leistung bieten.

Genau verhält es sich, denn man die CPUs alle ins GPU-Limit rennen lässt. Du kannst keine Aussagen mehr darüber treffen, welche potentiell noch mehr leisten könnte. Du beraubst sie der Möglichkeit das volle Leistungspotential entfalten zu können. Wenn CPU X schon jetzt 50% mehr als CPU Y leisten kann bei gleicher Kernanzahl, da kannst du davon ausgehen, dass es sich auch in Zukunft mit sehr großer Wahrscheinlichkeit ähnlich verhalten wird. Einen Fx-8350 mit einem i5-4590 beispielsweise zu verlgeichen, halte ich auch nur dann für sinnvoll, wenn alle Kerne des Fx-8350 genutzt werden können und somit sein volles Leistungsspektrum entfacht wird.
 
Einen Fx-8350 mit einem i5-4590 beispielsweise zu verlgeichen, halte ich auch nur dann für sinnvoll, wenn alle Kerne des Fx-8350 genutzt werden können und somit sein volles Leistungsspektrum entfacht wird.
Das.. halte ich jetzt doch wieder für etwas problematisch.
Man darf bei der Untersuchung welche CPU die bessere/sinnvolle ist, nicht das Anforderungsprofil auser acht lassen. Und wenn das Anforderungsprofil nunmal aus Durchschnittsgames besteht, dann kann man schlicht nicht immer alle Recheneinheiten (es sind ja nicht unbedingt vollständige Kerne) des FX auslasten bzw. abrufen weil nur wenige games das unterstützen.
 
Die logische Schlussfolgerung daraus ist dass absolut alle CPUs auf dem Markt, (in Zukunft) gleich gut sind! Yay, kaufen wir also alle nur noch Celerons, alles andere macht ja keinen Sinn
Seit wann ist das eine logische Schlussfolgerung? Oder liefert ein Celeron neuerdings die gleichen FPS wie zB ein i5 mit praxisnahen Settings? Wenn ja, dann zeige mir mal bitte entsprechende Nachweise.


@Klemens
Auch mit einem "GPU-Limit" kann man CPUs beurteilen. Sagt dir CPU-Auslastung was und wie man diese misst? Übrigens, Beispiele mit Autos sind meist schlechte Beispiele. Das ist hier nicht anders.

Manchmal kann man echt nur noch mit dem Kopf schütteln. Wenn man grundsätzliche CPU Leistungsfähigkeit, egal ob singlethreaded, multithreaded, Integer, FP oder was auch immer ermitteln will, schafft man sich keine künstlichen Fallstricke. Und Spiele bieten davon nun mal genügend, unabhängig von Low-Res oder nicht. Wenn wir schon bei Analogien sind, das ist ungefähr so, wie Suppe mit einer Gabel zu essen. Viele Erkenntnisse wird man daraus nicht gewinnen. Nur dass es einfachere und geeignetere Möglichkeiten gibt.


Wenn du aber die Leistung der CPU nur mit der Leistung einer Graka zum Beginn des Lebenszyklus der CPU im Grafikkartenlimit bencht, kriegst du Ergebnisse, die zwar an dem Tag Aussagekraft haben, an dem die Kasse klingelt, die aber zwei Jahre später u.U. schon nicht mehr relevant sind.
Und deshalb ermittelt man die Leistungsfähigkeit einer CPU auch nicht mit Spielen, sondern mit Anwendungen, die die CPU Pipeline konstant hoch auslasten können. Da siehst du immer noch am besten, was für Reserven vorhanden sind, je nach Workload und Threading. An diesen können auch Spiele nichts ändern.

Eine CPU hat eine deutlich längere Nutzungsdauer als eine Grafikkarte.
Das halte ich für eine ziemlich fragwürdige These. Ich hatte in den letzten 15 Jahren 6 CPUs und 5 Grafikkarten. Das wird sich im Verhältnis also nicht viel nehmen und recht ausgeglichen sein. Ich würde eher dahin tendieren, dass man die CPU öfter wechselt als die GPU. Man sollte vielleicht auch mal daran denken, dass nicht jeder, der spielt, zu den <1% gehören, die von einer R9 290X / GTX 780 Ti auf eine GTX 980 wechseln. Die meisten kaufen neue Hardware schon mit mehr Vernunft und auch nicht jedes Jahr.

Lustig übrigens, dass augrechnet du dich als Opfer von "Stänkerein" darstellen willst.
Ich stelle mich als gar nichts dar. Fakt ist aber, dass ausgerechnet du nichts anderes zu tun hast, als ständig persönlich zu werden und einen mit an den Haaren herbeigezogenen Behauptungen zu denunzieren. Lustig ist an so einem kindisch respektlosen Verhaltens übrigens gar nichts.

Und wenn ich sage, dass Stechpalme Märchen erzählt, dann bezieht sich das auf dessen Aussagen, die nicht der Wahrheit entsprachen und verfremdet waren, und nicht auf seine Person. Diesen Unterschied sollte man eigentlich kennen. Dass ausgerechnet du dann wieder diese Unwahrheiten mit persönlichen Angriffen verteidigen musstest, passt nur allzu gut ins Bild.
 
Seit wann ist das eine logische Schlussfolgerung? Oder liefert ein Celeron neuerdings die gleichen FPS wie zB ein i5 mit praxisnahen Settings? Wenn ja, dann zeige mir mal bitte entsprechende Nachweise.
Selbstverständlich war das extrem überspitzt, aber hier die "Logik": Gibt es keine "Zukunftssicherheit", dann bedeutet das dass alle CPUs genau gleich stark sind, da sie ja folglich in Zukunft gleich schlecht sein werden.
Für mich gehen "Zukunftssicherheit" und "Leistung" aber jedenfalls Hand in Hand...
 
mr.dude schrieb:
Wenn du hingegen wissen willst, was eine CPU in Spielen leistet, dann nimmst du am besten trotzdem praxisnahe Auflösungen und eine adäquate Grafikkarte.

Übertragungsfähigkeit gleich null. Ausschluss von Komponenten gleich null.
Das ist eine Anleitung dafür, wie man am besten nicht benchen sollte.;)

Und mehr will ich auch nicht wissen, wenn ich mit diesen Settings spiele. Unsinn ist daran gar nichts. Unsinn ist nur, zu wissen, was bei 640x480 oder dergleichen rauskommt. Mit solchen Settings spiele ich nun mal nicht. Ausser das Spiel ist so alt, dass höhere Settings gar nicht möglich sind. Bei solchen alten Spielen dürfte aber selbst ein Atom ausreichend FPS hinbekommen.

Begründen warum das sinvoll ist, kannst du nicht.
Und da sind wir wieder bei deinen ollen Kamellen.

DragonTear schrieb:
Das mag zwar stimmen, aber ich sehe keine Alternative zu diesen Nachteilen denn "deine" Methode hat ebenfalls genau diese Nahcteile + weitere.

Das trifft es auf den Punkt.
Seine Methode ist viel kaotischer und unpräziser.
Erklären warum das die beste Methode sei, kann er nicht, behauptet aber immernoch es sei die beste.
Einfach nicht hinhören und igorieren.

mr.dude schrieb:
Und selbst wo es so ist, dann lassen sich Reserven immer noch am besten an der CPU-Auslastung ablesen und weniger an irgendwelchen praxisfremden Low-Res Ergebnissen.

Dann musst du das Spiel am besten selbst programmiert haben.
Denn das musst du, um zu wissen wie das Spiel die CPU üblich auslastet.
Denn wenn man nur hanebüchen die CPU Auslastung betrachtet, dann sagt das erstmal gar nichts ob die CPU noch Reserven hat.
Eine kann zu 60% ausgelastet sein ( 3 von 6 Threads) und kann mit der Programmierung des Spiels eben nicht zurecht kommen und aufgrund dessen keine Reserven mehr haben.
Dann liegt halt ein CPU Limit vor, völlig unabhängig der reinen Auslastung.

Und das versteht mr.dude auch. Er trollt nur wie üblich.

mr.dude schrieb:
Wie schon gesagt, Zukunftssicherheit gibt's sowieso nicht. Das ist Illusion.

Und das ist Polemik und eine Binsenweisheit. Schwarz Weiß Denke, passt gut zu deinen AMD Fanallüren.
 
Zuletzt bearbeitet:
Bei der CPU Auslastung in bezug auf die Performance musste ich auch schmunzeln. In jedem thread wenn es um CPU \GPU limit Faktor geht wird immer wieder gepredigt das man CPU limit nicht anhand der Auslastung messen kann! Nur bei GPUs ist dies möglich.
 
Und deshalb ermittelt man die Leistungsfähigkeit einer CPU auch nicht mit Spielen, sondern mit Anwendungen, die die CPU Pipeline konstant hoch auslasten können. Da siehst du immer noch am besten, was für Reserven vorhanden sind, je nach Workload und Threading. An diesen können auch Spiele nichts ändern.

Das Problem ist, wenn ich die CPUs mit etwas teste, dass sie voll auslastet, wie z.B. Videobearbeitung, dann komme ich zu dem Ergebnis, dass ein FX 8350 so schnell wie ein Intel i5 ist. Sollte ich mir den FX 8350 daraufhin kaufen, stelle ich später fest, dass er in Spielen deutlich weniger FPS als der i5 von einem Kumpel mit gleicher Grafikkarte liefert. Das ist doch Käse für mich. Ich als Kunde verliere.

D.h. wenn die Spieleleistung für mich von Interesse ist, dann muss ich die auch testen und nicht Videoschnitt oder wie schnell man mit der CPU Raubkopien entzippen kann.

Das halte ich für eine ziemlich fragwürdige These. Ich hatte in den letzten 15 Jahren 6 CPUs und 5 Grafikkarten. Das wird sich im Verhältnis also nicht viel nehmen und recht ausgeglichen sein. Ich würde eher dahin tendieren, dass man die CPU öfter wechselt als die GPU.

Das wundert mich nicht, dass du die CPU häufiger wechselst, denn du kaufst ja auch AMD CPUs und damit sind die Leute halt schneller unzufrieden. Zumindest sieht das hier im Forum so aus. Es sind hier doch bestimmt prozentual (bezogen auf die Käufer der jeweiligen CPU) noch mehr mit einem i5 2500k unterwegs als mit einem FX 8150, oder nicht?

Und das obwohl der FX 8150 in irgendwelchen Videoanwendungsbenchmarks, die ihn voll auslasten, bestimmt toll abschneidet.

- - - Updated - - -

Ich stelle mich als gar nichts dar. Fakt ist aber, dass ausgerechnet du nichts anderes zu tun hast, als ständig persönlich zu werden und einen mit an den Haaren herbeigezogenen Behauptungen zu denunzieren. Lustig ist an so einem kindisch respektlosen Verhaltens übrigens gar nichts.

Und wenn ich sage, dass Stechpalme Märchen erzählt, dann bezieht sich das auf dessen Aussagen, die nicht der Wahrheit entsprachen und verfremdet waren, und nicht auf seine Person. Diesen Unterschied sollte man eigentlich kennen. Dass ausgerechnet du dann wieder diese Unwahrheiten mit persönlichen Angriffen verteidigen musstest, passt nur allzu gut ins Bild.

Erstens stimmte Stechpalmes Aussage, denn genau das habe ich mit dem wörtlichen Originalzitat belegt und zweitens ist es unverschämt, wie du die Realität verdrehst. Du hast eine falsche Behauptung, eine Lüge in die Welt gesetzt, einizig und allein mit dem Ziel, mich zu diffamieren (deine Lüge, meine Antwort). So wie du es immer tust, wenn dir die sachlichen Argumente ausgehen, was leider recht häufig der Fall ist. Also heul nicht rum, wenn es aus dem Wald genauso raus ruft, wie du rein rufst.
 
Zuletzt bearbeitet:
Selbstverständlich war das extrem überspitzt, aber hier die "Logik": Gibt es keine "Zukunftssicherheit", dann bedeutet das dass alle CPUs genau gleich stark sind, da sie ja folglich in Zukunft gleich schlecht sein werden.
Nochmal, wo ist die Logik? Ich sehe da keinen Zusammenhang. Wenn man sagt, dass es keine Zukunftssicherheit gibt, dann ändert das doch trotzdem nichts daran, wenn ein Celeron heute weniger FPS liefert als zB ein i5, auch bei praxisnahen Einstellungen. Wo also sollen die gleich stark sein? Keine Zukunftssicherheit sagt doch nur, dass du nicht weisst, wie es mit dem Celeron und dem i5 in 2 oder 4 Jahren in Spiel X oder Y ausschaut.

Für mich gehen "Zukunftssicherheit" und "Leistung" aber jedenfalls Hand in Hand...
Und diese generelle Leistungsfähigkeit einer CPU kannst du einfacher, zuverlässiger und gezielter eben mit entsprechenden normalen Anwendungen testen. Dafür sind Spiele völlig unnötig und die schlechtere Wahl.


Denn wenn man nur hanebüchen die CPU Auslastung betrachtet, dann sagt das erstmal gar nichts ob die CPU noch Reserven hat.
Eine kann zu 60% ausgelastet sein ( 3 von 6 Threads) und kann mit der Programmierung des Spiels eben nicht zurecht kommen und aufgrund dessen keine Reserven mehr haben.
Dann liegt halt ein CPU Limit vor, völlig unabhängig der reinen Auslastung.
Das ist natürlich wieder mal völliger Quatsch. Software ist keine Magie. Da passiert nichts, was man nicht erklären oder beeinflussen könnte. Auslastung entsteht in zweierlei Hinsicht, pro Kern (Pipeline) und pro Thread. Beides kann man mit entsprechenden Tools recht genau messen. Man kann sogar sehr spezifisch Instruktionen oder ISA Erweiterungen messen (sinnvollerweise natürlich nur über entsprechende Taktintervalle). Aber dafür braucht es halt mehr als nur Halbwissen über den Task-Manager.

Wenn man keine Ahnung von der Materie hat, dann sollte man einfach nichts sagen. Aber dass du nur notorisch kontra geben und stänkern willst, und nicht wirklich was von dem weisst, was du da von dir gibst, ist ja keine Neuigkeit. Nicht damit zurechtkommen, schon klar. Klingt ja alles sehr fundiert. :rolleyes: Übrigens, wenn man schon Wörter wie "hanebüchen" verwendet, dann sollte man sie auch richtig verwenden.


Das Problem ist, wenn ich die CPUs mit etwas teste, dass sie voll auslastet, wie z.B. Videobearbeitung, dann komme ich zu dem Ergebnis, dass ein FX 8350 so schnell wie ein Intel i5 ist.
Niemand hat gesagt, dass du immer nur die gesamte CPU auslasten sollst. Die Rede war von der CPU-Pipeline. Es gibt genügend Anwendungen, um zu sehen, wie sich eine CPU bei einem, zwei, drei, vier usw Threads verhält. Problematisch ist für mich viel eher, wenn ich einen Pentium in 640x480 teste und sehe, der liefert fast die gleichen FPS wie ein i5, und ich komme zu dem Schluss, beide CPU haben die gleiche "Zukunftssicherheit". In zwei Jahren, wenn etliche Spiele aber über 4 und mehr Threads skalieren, dann fällt der Pentium plötzlich deutlich zurück. Das ganze kann man eben auch heute schon sehen, wenn du entsprechende normale Anwendungen nimmst und 1-N Threads durchtestest.

Das wundert mich nicht, dass du die CPU häufiger wechselst, denn du kaufst ja auch AMD CPUs und damit sind die Leute halt schneller unzufrieden.
Dann frage ich mich, warum so viele Leute immer wieder Intel CPUs kaufen. Die sind dann anscheinend noch unzufriedener. :rolleyes: Solchen Unsinn kannst du dir echt sparen. Und für genau diese AMD Basherei wirst du auch immer wieder zurecht kritisiert. Übrigens, ich war mit keiner AMD CPU unzufrieden. Ganz im Gegenteil. Die einzige CPU, die ich mir vielleicht hätte sparen können, weil nicht unbedingt notwendig, war der X2 240. Ein nettes Teil und Update war es trotzdem, auch wenn es der alte Brisbane noch getan hätte. Die letzte CPU, mit der ich unzufrieden war, war übrigens von Intel. Aber das liegt mehr als 15 Jahre zurück, als man es noch nicht besser wusste. ;)

Erstens stimmte Stechpalmes Aussage
Nein, sie stimmt nach wie vor nicht. Und das habe ich auch zweifelsfrei begründet. Das solltest du mal gründlicher lesen, anstatt immer die gleichen falschen Sachen zu behaupten und klare Widerlegungen zu ignorieren. Auf den Rest braucht man nicht weiter einzugehen. Jeder, der deine Geschichten hier schon öfters gelesen hat, weiss sehr genau, dass du ein AMD Basher bist und vor nichts Halt machst, auch vor den Marketing Leuten nicht. An meiner Aussage war also nichts gelogen. Das ist leider die traurige Wahrheit. Mich persönlich stört das übrigens kein bisschen. Wenn du AMD bashen willst, ist das deine Sache. Nur halte mich dann bitte aus deinem Unsinn raus und ignoriere meine Beiträge am besten, wenn ich auf deine Bashorgien nicht einstimme.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh