AMD Athlon X4 860K oder Intel i3 4150

@DrachenTräne
Unwesentlich ist relativ, mit legacy Code Benchmarks vielleicht.
Aber knowHOW sieht anders aus, wenn ein A10-7850K mehr FPS raushaut bei identischer GPU Leistung, als ein FX-8350 dann gute Nacht.

der einzige grund, warum der 7850k in diesem benchmark genau so viel fps raus haut wie der fx8350, ist eben der, dass CIV Beyond Earth eben mit den vielen kernen/threads nichts anfangen kann.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
falls es interessiert, ich spiele mit einem FX4100 @ 4,4 ghz mit konstanten 50 fps wot @ 1920x1080 (verbesserte grafik ohne viel AA/AF und mit weniger schatten und beleuchtung weil meine HD6870 zu schwach für mehr ist).

der X4 860k hat 15-20% mehr leistung pro Takt als mein FX4100 (1 Generation vs 3 Generation vom Bulldozer)

Von daher denke ich reicht der AMD locker für spielbare frames in wot, wenn du ihn auch auf so 4,4 bis 4,6 ghz betreibst.
 
Du vergisst leider einen ganz wichtigen Punkt: Der Athlon hat keinen L3 Cache. Dieser lässt ihn speziell bei Physikberechnungen enorm einbrechen - daher ist selbst der aktuellste Athlon II X4 860k langsamer als dein FX4100 in WoT z.b. ...
 
achja stimmt, das habe ich vergessen. gut das du es geschrieben hast.
 
Du vergisst leider einen ganz wichtigen Punkt: Der Athlon hat keinen L3 Cache. Dieser lässt ihn speziell bei Physikberechnungen enorm einbrechen - daher ist selbst der aktuellste Athlon II X4 860k langsamer als dein FX4100 in WoT z.b. ...

was heißt enorm, 5 frames?!?
 
Sind net nur 5, ich kann nur zwischen nem FX4300 und dem Athlon X4 760k berichten, aber das lag schon im 10+ Bereich je nach Karte.
 
Leider nicht nur auf die schlecht Programmierten... aber nunja - das könnte man hier einigen mit der Keule ins Gesicht schlagen, sie würden es trotzdem nicht merken...
 
Leider nicht nur auf die schlecht Programmierten... aber nunja - das könnte man hier einigen mit der Keule ins Gesicht schlagen, sie würden es trotzdem nicht merken...

Jedes Spiel im Jahr 2014 dessen Hauptlast auf einem Kern dümpelt oder alte Befehlssätze verwendet, ist meiner Meinung unzeitgemäß und schlecht programmiert. Das Intel durch die 50% höhere IPC glänzt, verwundert nicht. Am Ende hängt die Performance immer vom schwächsten Glied (Thread) ab. Sieht man sich auf Multithreaded optimierte Anwendungen an, sehen die AMD CPUs deutlich besser aus. Der Verbrauch ist durch die schlechtere Fertigung schlecht, aber der Preis ok.
 
Jedes Spiel im Jahr 2014 dessen Hauptlast auf einem Kern dümpelt oder alte Befehlssätze verwendet, ist meiner Meinung unzeitgemäß und schlecht programmiert. Das Intel durch die 50% höhere IPC glänzt, verwundert nicht. Am Ende hängt die Performance immer vom schwächsten Glied (Thread) ab. Sieht man sich auf Multithreaded optimierte Anwendungen an, sehen die AMD CPUs deutlich besser aus. Der Verbrauch ist durch die schlechtere Fertigung schlecht, aber der Preis ok.

Nur kann man diese an einer Hand abzählen, auch heute sind der Großteil der Spiele/Anwendungen auf 1-2 Kerne ausgelegt, deswegen steht Intel ja so gut da.
 
Jedes Spiel im Jahr 2014 dessen Hauptlast auf einem Kern dümpelt oder alte Befehlssätze verwendet, ist meiner Meinung unzeitgemäß und schlecht programmiert. Das Intel durch die 50% höhere IPC glänzt, verwundert nicht. Am Ende hängt die Performance immer vom schwächsten Glied (Thread) ab. Sieht man sich auf Multithreaded optimierte Anwendungen an, sehen die AMD CPUs deutlich besser aus. Der Verbrauch ist durch die schlechtere Fertigung schlecht, aber der Preis ok.
Ich tippe eher auf einen HTT Algorithmus seitens der Compiler, das ist aber nicht böse gemeint sondern der direkte Weg der Optimierung auf ein Design.
Der höhere Verbrauch kommt größtenteils vom größeren L2 Cache bei der Bully Familie.
Der Querschnitt entscheidet wie viel Strom fließen kann, je mehr Takt desto höher der Innenwiderstand. ;)
 
Wenn man den i3 mit dem Pentium vergleicht, dann sieht man schon einen großen Unterschied in den meisten Fällen..
Von mehr als 2 Threads Profitieren also schon eine menge Spiele. HT funktioniert einfach :)
 
Ich tippe eher auf einen HTT Algorithmus seitens der Compiler, das ist aber nicht böse gemeint sondern der direkte Weg der Optimierung auf ein Design.
Der höhere Verbrauch kommt größtenteils vom größeren L2 Cache bei der Bully Familie.
Der Querschnitt entscheidet wie viel Strom fließen kann, je mehr Takt desto höher der Innenwiderstand. ;)
Ein Algorithmus der code beim compilen automatisch parallelisiert? Oder was genau meinst du?
 
Ein Algorithmus der code beim compilen automatisch parallelisiert? Oder was genau meinst du?
Hi, Algorithmen werden fast überall eingesetzt viele rechen "Beschleunigungen" wäre ohne sie nicht möglich.
HTT (HyperThreadingTechnologie) ist allgegenwärtig, daher nutzen die meisten Compiler diese Technik unabhängig von der Zielsystem Hardware.
AMD hat nur HT (Hypertransport) aber kein HTT. ;)

Das compilieren auf die Zielhardware wird inzwischen beim user gemacht bzw. in Echtzeit übersetzt, dadurch kann man auch mehr parallelisieren.

MfG
 
Jedes Spiel im Jahr 2014 dessen Hauptlast auf einem Kern dümpelt oder alte Befehlssätze verwendet, ist meiner Meinung unzeitgemäß und schlecht programmiert. Das Intel durch die 50% höhere IPC glänzt, verwundert nicht. Am Ende hängt die Performance immer vom schwächsten Glied (Thread) ab. Sieht man sich auf Multithreaded optimierte Anwendungen an, sehen die AMD CPUs deutlich besser aus. Der Verbrauch ist durch die schlechtere Fertigung schlecht, aber der Preis ok.

Du stellst dir das zu einfach vor...
Das Problem ist viel eher, das Programmcode grundsätzlich Sequenziell ist. Das heist, es gibt eine Abfolge von Befehlen, die wird in der Reihenfolge des Aufschreibens abgearbeitet. Das ist Grundsatz beim Programmieren. Dazu kommt, das es extremst viele Abhängigkeiten voneinander gibt. Dir nutzt es absolut gar nix mit mehreren Threads zu arbeiten, wenn diese Threads auf Ergebnise der Berechnungen von anderen Threads warten.

Sogut wie jedes Spiel heuzutage setzt grundsätzlich auf Multithreading. Nur ist der am Ende resultierende Performancevorteil eben stark abhängig von dem, was die Anwendung macht. Um so mehr generische Lastszenarien generiert werden, desto mehr kann MT potentiell punkten. Zeitlich gesehen kurze Berechnungsschritte über MT abzufackeln kostet den Programmierer haufenweise Arbeit, aber das Ergebnis wird sich wenn überhaupt nur unwesentlich verschnellern.

Bei Spielen kommt noch erschwerend hinzu, dass das Ganze einfach mal einer eigenen "Zeit" untersteht. Das Spiel läuft idR in einem gewissen Takt, der fix ist. Die Zeiten, wo die Spielegeschwindigkeit an der CPU Geschwindigkeit gekoppelt waren, sind lange schon vorbei. Das heist also, du berechnest grundsätzlich die Daten, die notwendig sind und ist das rum, wartet das ganze bildlich gesehen auf den nächsten Takt. Die Objekte in einem Spiel bewegen sich nicht schneller, wenn die CPU Leistung steigt. Wenn also die Berechnung der Bewegung abgeschlossen ist, dann ist dieser Teilabschnitt des Programmcodes fertig und wartet auf den nächsten Takt.

Von unzeitgemäß und schlecht programmiert kann man da lange nicht sprechen. Weil es einfach Gegebenheiten gibt, die man mit MT nicht ändern kann. Ontop kommt die Tatsache, das Spiele aus vielen verschiedenen Teilen bestehen, die auf der CPU Last erzeugen. Man kann diese Teile in Sachen Komplexität und somit in Sachen benötigter Zeit für die Berechnung idR einzeln skalieren. Das bringt dir aber grundsätzlich auch massive Nachteile, denn du als Programmierer musst dich darum kümmern, die einzelnen Teile wieder einzufangen und am Ende zum Gesamten zusammenfügen. Hast du bspw. vier Teile von sagen wir Sound, KI, Physik und Spielberechnung, die je 5ms brauchen, kannst du das ggf. auf vier Threads verteilen. Heist in Summe 5ms benötigte Zeit. Nun kommt ne aufgeblähte KI Berechnung dazu, die bspw. 20ms pro Durchlauf benötigt bedeutet am Ende eben, das deine FPS niemals nie schneller als diese 20ms sein können. Aus 5ms werden also 20ms. Die restlichen 15ms sind aber leerlauf für die Sound, Physik und Spieleberechnung.

Unterm Strich, heutige Spiele bedienen sich häufiger dem Trick, das man einfach die einzelnen Teile der Berechnungen auf MT auslegt. Wie im Beispiel eben die KI Berechnung. Das heist, man gestaltet die einzelnen Teile zunehmend komplexer um MT auszunutzen. Was dem Spiel mehr Möglichkeiten gibt. Am generellen Vorgehen wird sich dabei aber absolut gar nix ändern... Denn das Spiel läuft nach wie vor in seinem eigenen Takt und die Abhängigkeit zu den FPS ist/bleibt einfach als fixes Limit gegeben.

-> eventuell sehen wir in Zukunft irgendwann mal Titel, die durch steigende Rechenleistung zunehmend intelligenter werden. Aber das wird so schnell definitiv nicht passieren ;)

HTT (HyperThreadingTechnologie) ist allgegenwärtig, daher nutzen die meisten Compiler diese Technik unabhängig von der Zielsystem Hardware.
AMD hat nur HT (Hypertransport) aber kein HTT. ;)
Das eine hat mit dem anderen aber mal so gar nix gemein...

Das compilieren auf die Zielhardware wird inzwischen beim user gemacht bzw. in Echtzeit übersetzt, dadurch kann man auch mehr parallelisieren.

Auch das halte ich für ein Gerücht...
Zumal man damit ebenso nicht mehr oder weniger "parallelisieren" kann.
 
Stimme fdsonne da zu. Parallelismus muss schon in der softwarearchitektur beruecksichtigt werden und gut durchdacht sein. Ueber einen (voll) automaten dafuer habe ich bisher nichts gehoert und halte ich auch erst einmal nur fuer bedingt moeglich.
 
Das eine hat mit dem anderen aber mal so gar nix gemein...

Auch das halte ich für ein Gerücht...
Zumal man damit ebenso nicht mehr oder weniger "parallelisieren" kann.
Das ist mir auch klar, aber wohl nicht jedem daher nochmal genau unterscheiden zwischen HT (AMD) und HTT (Intel).

DragonTear hat es schon geschrieben, hier kann man diesbezüglich noch etwas mehr nachlesen: 3DCenter Forum - MR² CPU-Mark - Seite 6

Anders im Fall "MR² CPU-Mark" - Java oder .Net Anwendungen, die als ByteCode (Java) oder in Form der IML (.Net ... auch Bytecode nur in einer anderen Struktur ;-) werden zumindest für Java und .Net durch die jeweilige Virtuelle Machine (VM) ausgeführt. Diese VM übersetzt beim Start und wären der Laufzeit Alles/Teile des Bytecodes in Machinencode. Da die VM in diesem Punkt die Aufgaben des Compilers übernimmt ist die Version und damit ggf. die Verbesserung des zur Laufzeit erzeugten Machinencodes maßgeblich! Ich habe nur "geschaut" was bei AMD eine neuere CLR 4 gegenüber der älteren CLR 2 bringt.

Der openCL Benchmark LuxMark 2.0 compiliert auch bei starten des Bench, sowie alle all in one Treiber tun das auch.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh