Benchmarkpunkte und CPUs

Oh Leute... ist euch eigentlich bewusst, das auf jeder Plattform darüber Diskutiert wird ob es bei AMD echte oder halbe oder sonst welche Kerne sind? Ihr werdet euch nicht einig, selbst wenn ihr euch noch 20 Seiten die Köpfe einschlagt und Argumente hin und her werft.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Stechpalme
Mir perönlich ist die zählweiße egal, an sich ist es ein Hybrid da er sowohl als auch angesprochen werden kann.
Die IPC variiert auch je nach Software, von daher ist das auch keine Hardwarekonstante.

Ich kenne ein Großteil deiner Kühler Artikel, von daher glaube ich dir schon was das kühlen angeht.
Wenn man aber ein bischen mit den Energieoptionen umgehen kann, lässt sich auch ein FX mit 125W nahezu lautlos kühlen.
Meine GPUs sind da schon eher eine Herausforderung, selbst mit standard Takt übertönen sie das Gesamte System, natürlich weil sie nicht richtig ausgelastet werden. :fresse:
 
Wenn man aber ein bischen mit den Energieoptionen umgehen kann, lässt sich auch ein FX mit 125W nahezu lautlos kühlen.

Nicht jeder hat aber Lust daran herum zu schrauben. Man kann auch 125W leise kühlen, auch 140W, aber egal wie es dreht und wendet, es geht mit Haswell (ohne OC) einfacher.

Ich finde es nur albern das sich diverse Fraktionen die Köpfe darüber einschlagen, ob es echte, halbe, falsche ect. Kerne sind. Es spielt doch keine Rolle. Am Ende zählt eben nur die Leistung die man tatsächlich bei seinen Anwendungen hat. Und hier gibt es kaum einen Grund zu streiten, denn es ist einfach Fakt, das der FX in den meisten Fällen hinten an steht. Wie gesagt, es gibt Ausnahmen, aber in der Masse sieht es nicht so gut aus für den FX. Bei der Effizienz sieht es leider auch alles andere als gut aus, auch wenn man Hand anlegt, das kann man bei den Intel nämlich auch ;-).
Nicht ohne Grund hat ja mittlerweile das gesamte Team rund um die Bulldozer Entwicklung AMD verlassen oder verlassen dürfen. Leider wird man ja noch eine Weile auf was wirklich Neues von AMD warten müssen. Mal sehen was wir im Jahr 2016 tatsächlich serviert bekommen..... wenn es sich nicht noch weiter verschiebt. Einziger Wehrmutstropfen, für die meisten Dinge liefert der FX mehr als genug Leistung. Nur wenn es eben tatsächlich auf die IPC eines oder zwei Kerne ankommt, sieht es mau aus.
 
@Stechpalme
Im Gegenzug sind die ehmalige Software Entwickler wieder zu AMD zurück gekehrt.
Im direkten Vergleich komme ich auf dem Desktop mit 8x 1.4GHz besser zurecht wie mit dem i3-4130 @ 3.4GHz.
Beim i3 stottert sogar die Texteingabe, obwohl die Tastatur keine Funkversion ist. :)

Ich meine VISC wird sich langsam durchsetzten: Bild: boinc_simap_ecc_prlapcqmv.jpg - abload.de
3 Threads pro Kern, ja das ist BOINC aber es funktioniert wenn man weiß wie.
 
Ganz ehrlich... ich hatte bis vor Kurzem 8 Rechner mit i3 im Betrieb, ich war von der Leistung begeistert. BF3 (4 nicht), Crysis 3.... und vieles mehr lief deutlich besser als auf den alten X4 965 die vorher verbaut waren. Ich weiß ja nicht mit welcher Anwendung du den i3 gequält hast?

Ich bin von VISC nicht so wirklich überzeugt. Eine CPU hat nur eine bestimmte Anzahl an Schaltungen, nutzt ein Thread diese Schaltungen sehr gut aus, bleibt kein Spielraum mehr um weitere Kerne zu simulieren. Anders gesagt, ist ein Programm ind er Lage die technischen Fähigkeiten einer CPU extrem gut zu nutzen, bleibt keine Leistung mehr für weiteres übrig. Sieht man ja schon Ansatzweise an SMT bei Intel. Desto besser ein Programm die 4 Kerne nutzt, desto weniger Leistung gewinnt man durch SMT dazu, auch wenn das Programm mehr Threads abarbeiten lassen könnte.

Für den allgemeinen Nutzer sind die meisten tollen Features eh uninteressant. Otto Normalanwender spielt, macht sein Office, bearbeitet ein paar Bilder und schneidet vielleicht noch seine Familienvideos. Meist werden einfache Programme genutzt die bis dato mit vielen Kernen gar nichts anfangen können. Meist werden 2 max 4 ausgelastet, dann ist auch schon Schluss. In der Masse ist Multithreading immer noch eine Sache die im Halbschlaf liegt und ich fürchte, dass wird sich auch nicht so schnell ändern. Das Problem ist zudem, man kann nicht alles parallelisieren. Boinc geht gut, rendern geht gut, diverse höhere Berechnungen gehen gut, aber 08/15 Programme und Spiele sind schon ein ganz anderes Kaliber.
 
Sogar für weniger als 60 Euro findet sich bei Intel besseres: der Pentium G3258 Anniversary Edition.
Der ist nicht besser. Zumindest wenn es um Performance geht. Das zeigt selbst deine Rosinenpickerei. In Spielen liegt der Pentium maximal gleich auf. Generell ist der X4 aber klar leistungsfähiger, etwa 50%. Teilweise ist der X4 sogar 80% schneller in dem Test. Wäre auch komisch wenn es nicht so wäre bei doppelt so vielen Threads und der relativ hohen CMT Skalierung. Ach ja, den X4 kann man natürlich auch übertakten. Ist für eine Bewertung aber nicht relevant.

Ist es dir nicht langsam peinlich, mit deiner Rosinenpickerei alles von AMD schlecht zu reden, anstatt mal zuzugeben, dass sie auch bessere Angebote als Intel haben? Der X4 ist ein P/L-Kracher. Da gibt's gar nichts zu debattieren. Wer sich ein System mit kleiner dGPU basteln will, für den ist die CPU perfekt. Mit dem Pentium stösst man schneller an Leistungsgrenzen. Und ein i3 ist halt schon wieder deutlich teurer.


Steamroller ist vom CMT Modell ein bisschen abgewichen
Nicht wirklich. Im Gegenteil, clusterbasiert heisst doch im Grunde, dass möglichst jeder Thread seine eigenen Ressourcen bekommt und nur das geteilt wird, was für einen Thread zu viel oder für mehrere Threads ausreichend ist. Mit dem zweiten Decoder hat man das CMT Design also eher noch mehr gestärkt.

und es hat trotzdem nicht viel gebracht
Es hat schon einiges gebracht. Da die Skalierung aber vorher schon recht gut war, war klar, dass wir hier von vielleicht maximal +10% reden und nicht plötzlich 50% Performance oder so hinzugewonnen wird.


Ich meine VISC wird sich langsam durchsetzten
Aber nur, wenn man auf gute Taktraten kommt und das bei niedrigem Energiebedarf. Das müssen die Entwickler erst noch unter Beweis stellen. Hohe IPC alleine bringt nichts, wenn man die CPU letztendlich nur mit 350 MHz betreiben kann. Und kostenlos gibt's hohe IPC auch nicht.
 
Zuletzt bearbeitet:
@Stechpalme
Wenn ein Youtube Video läuft und ich im selben Browser Fenster die Suchmaschiene füttere, dann ruckelt die Texteingabe, bzw die Buchstaben kommen langsamer als ich tippen kann. (Kann kein 10 Finger system)

@mr.dude
Wer VISC ein wenig probieren will kann sich ja mal MrH CPU-Benchmark anschauen.
Aber selbst MS nutzt bei der Speicherbandbreitenbewertung ein Thread pro CPU (oder Kern): winsat mem
-up | Force memory testing with only one thread. The default is to run one thread per physical CPU or core.
 
@Stechpalme
Wenn ein Youtube Video läuft und ich im selben Browser Fenster die Suchmaschiene füttere, dann ruckelt die Texteingabe, bzw die Buchstaben kommen langsamer als ich tippen kann. (Kann kein 10 Finger system)

Ganz ehrlich, da muss irgendwas anderes gesponnen haben. Solche Dinge laufen selbst auf einem alten X2 4800 wunderbar, das lag garantiert nicht an der CPU.
 
Ganz ehrlich, da muss irgendwas anderes gesponnen haben. Solche Dinge laufen selbst auf einem alten X2 4800 wunderbar, das lag garantiert nicht an der CPU.
GeForce 605 mit 4GByte, ich will da jetzt nicht weiter drauf rumreiten.
Ein Xeon ist da schon ein gutes Stück besser, aber der fühlt sich im Energiesparmodus auch nicht besser an.
Ich vermute mal der uncore Takt geht bei Intel auch runter da er an den Kerntakt gebunden ist, bei AMD bleibt die CPU-NB bei 2.2GHz.
 
Zuletzt bearbeitet:
Die IPC variiert auch je nach Software, von daher ist das auch keine Hardwarekonstante.
IPC ist die Hardwarekonstante schlechthin. Hätte man den Schaltplan und die Algorithmen die sich teilweise dahinter verbergen so könnte man ein Programm schreiben das diese Sachen kennt und andere Programme für diese Schaltungen optimiert....oh wait gibt es schon -> ICC/GCC. IPC variiert also nicht je nach Software sondern Software ist unterschiedlich mies an die Schaltpläne der Prozessoren angepasst.
 
Intel Pentium G3258

Der 860K hat dieselbe CPU performance wie der A10 7850k.
Schaut man sich die Zusammenfassung ganz oben an ist der Pentium auf 4,7 ghz hochgeprügelt 10% schneller, nicht gerade etwas das dafür spricht, dass der AMD überteuert ist.
@ Stock ist der AMD für einen geringfügig höheren Preis 14% in Front.

Generell ist der X4 aber klar leistungsfähiger, etwa 50%

Wie ich vorher schon gesagt hatte, gibt es genauso auf der einen als auf der anderen Seite Fanboys, die ganz gerne mal Unsinn verbreiten.
Die sind sich auch nicht zu schade, albernes Zeug zu verbreiten, wie eine höhere Leistungsfähigkeit von 50%, welche natürlich Quatsch ist.

Man sieht im Schnitt dass die Leistungsfähigkeit etwa 15% höher ist. Das andere ist lediglich theoretische Leistungsfähigkeit, interessiert niemanden.
Mr. Dude spricht immer dann von der Theorie, wenn es für AMD hilfreich ist.

Wäre der Pentiumprozessor der AMD und der andere der Intel, würde er Seitenlang auf die wichtigere Singlethreadperformance hinweisen und die Leistungsfähigkeit gemäß den gemessenen Werten publizieren.

Nicht wirklich. Im Gegenteil, clusterbasiert heisst doch im Grunde, dass möglichst jeder Thread seine eigenen Ressourcen bekommt und nur das geteilt wird, was für einen Thread zu viel oder für mehrere Threads ausreichend ist. Mit dem zweiten Decoder hat man das CMT Design also eher noch mehr gestärkt.

Man hat genau das Gegenteil gemacht, man hat es aufgeweicht, da man gesehen hat, dass es in der Form wie es umgesetzt wurde nicht performant ist.
Deine Behauptung ist ja wirklich genau das Gegenteil was gemacht wurde.

Und auch hier geht es lediglich wieder darum, AMD zu verteidigen. Dafür verbreitest du offenbar auch bewusst Lügen und Falschdarstellungen.
 
Zuletzt bearbeitet:
IPC ist die Hardwarekonstante schlechthin. Hätte man den Schaltplan und die Algorithmen die sich teilweise dahinter verbergen so könnte man ein Programm schreiben das diese Sachen kennt und andere Programme für diese Schaltungen optimiert....oh wait gibt es schon -> ICC/GCC. IPC variiert also nicht je nach Software sondern Software ist unterschiedlich mies an die Schaltpläne der Prozessoren angepasst.
Ok, das Glas ist halb leer nicht halb voll.
Aber reicht es dann den Quell Code nochmal durch den Compiler zu jagen?

Dresdenboy hat sich zumindest mal die einzelnen Befehlssätze angeschaut, beim heutigem Code Mix kannst da nichts mehr herauslesen (ohne Profi Software): AMD FX - Top oder Flop? (Teil 1)
Der CPUID Performance Monitor 2 kann zumindest CPI auslesen, aber die Abfragung ist gemessen am Takt doch dürftig.
 
Ok, das Glas ist halb leer nicht halb voll.
Nein. Die IPC ist in Silizium und Algorithmen(Sprungvorhersage) gegossen. Ob man davon 20, 30 oder 100% nutzt hängt von der Software ab die darauf läuft.

Aber reicht es dann den Quell Code nochmal durch den Compiler zu jagen?
Der einzige Grund das zu tun wäre ein verbesserter Compiler der den Quellcode besser an den Prozessor anpassen kann, andernfalls wäre das ein ziemlich nutzloses Unterfangen.

Dresdenboy hat sich zumindest mal die einzelnen Befehlssätze angeschaut, beim heutigem Code Mix kannst da nichts mehr herauslesen
Das Pferd von Hinten aufzäumen ist amüsant....wieso fragt er nicht lieb bei AMD oder GCC? Irgendwo müssen die diese Informationen herhaben um den Compiler zu basteln - oder sie basteln den Compiler, haben aber keine Ahnung was sie da eigentlich machen und sind deshalb langsamer als der ICC auf AMDs?
 
Videobearbeitung heist nicht zwingend, das es immer nur MT ist ;)
Genauso ist es und gerade wenn die Applikationen kein MT unterstützen, sollte man auf eine Intel CPU setzen, da die eine bessere IPC haben, weshalb auch ein simpler Vergleich der Taktraten wenig aussagekräftig ist.

Deshalb kann man dem TE nur empfehlen für die anspruchsvollen Aufgaben Benchmarks der verschiedenen CPU für seine konkreten Anwendungen zur Rate zu ziehen, pauschal kann man nicht sagen, welche CPU welches Hersteller hier optimal wären. Benchmarkpunkte sagen nur etwa aus, wenn man einen Benchmark nimmt, dessen Anforderungen denen der konkreten SW möglichst nahe kommen, also vor allem im Bezug auf die Nutzung der vorhandenen Kerne und Befehle (Integer und FP, Single, Double und Befehlserweiterungen). Wie man bei den AES Erweiterungen sieht, machen letztere teils einen gewaltigen Unterschied, wenn sie von der SW genutzt werden.

Wäre es so einfach mit einem Benchmark alle Aspekte der Performance einer CPU zu erfassen, könnten sich die Reviewer von CPUs viel Arbeit sparen, aber so simple ist es eben nicht.
 
IPC ist die Hardwarekonstante schlechthin. Hätte man den Schaltplan und die Algorithmen die sich teilweise dahinter verbergen so könnte man ein Programm schreiben das diese Sachen kennt und andere Programme für diese Schaltungen optimiert....oh wait gibt es schon -> ICC/GCC. IPC variiert also nicht je nach Software sondern Software ist unterschiedlich mies an die Schaltpläne der Prozessoren angepasst.
Ich würde nicht sagen, mies angepasst. Tatsache ist einfach, unterschiedliche Anwendungen nutzen unterschiedliche Mixe an Instruktionen. Und da Instruktionen unterschiedliche Latenzen haben können, ist die IPC letztendlich auch unterschiedlich. Hinzu kommt, dass selbst der beste Compiler nicht jeden Code optimal auf die jeweilige Architektur optimieren kann und so entweder Ressourcen ungenutzt bleiben oder notwendige Ressourcen fehlen.
 
Das gilt ausschliesslich für schlechte optimierte Games und für Singlethreadleistung... In MT-optimierten Scenarien ist der Athlon besser.
Selbiges gilt auch im Vergleich des Pentium zum i3.

Das artet hier mal wieder in einen Grabenkrieg aus...

Wir würden uns das endlich ersparen, wenn Beiträge zu AMD grundsätzlich als ungültig erklärt würden, sodass man sich auf
ernsthaftes konzentrieren könnte: :kotz:Nvidia + Intel
 
Zuletzt bearbeitet:
@Josedan03
Es steht dir frei einen Eigenen Thread zu erstellen, für nvidia + Intel.
Wir sind hier bei wünsch dir was, da darf jede(r) machen was er/sie für Richtig hält! :xmas:
 
@Stechpalme
Wenn ein Youtube Video läuft und ich im selben Browser Fenster die Suchmaschiene füttere, dann ruckelt die Texteingabe, bzw die Buchstaben kommen langsamer als ich tippen kann. (Kann kein 10 Finger system)
Gerade ausprobiert mit meinem htpc und einem i3 4130. --> da ruckelt nichts. Ein sauberen und funktionierenden Software Unterbau sollte man natürlich schon haben, bevor man solche Aussagen tätigt.
 
Gerade ausprobiert mit meinem htpc und einem i3 4130. --> da ruckelt nichts. Ein sauberen und funktionierenden Software Unterbau sollte man natürlich schon haben, bevor man solche Aussagen tätigt.

Wie gesagt, ich hatte 8 Rechner in einem Gamingcaffee mit i3, derartiges wäre sofort aufgefallen ;-) Solche Aufgaben hat man früher noch auf Singelcore CPUs ausgeführt und das lief rund. Solche Aussagen nehme ich auch nicht ernst, das Problem ist dann immer vor dem Monitor.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh