I5 4570 oder FX 8350

Acht Low-Power Kerne in der Breite bei entsprechender Optimierung und Parallelisierung haben eine höhere Performance, als ein performanter Kern der in Reihe arbeitet. Außerdem kannst du die Jaguar-Kerne der Konsole leistungsmäßig nicht vergleichen mit dem PC-Derviat. Aufgrund des gemeinsamen Adressraums und hUMA entfallen alle Zwischenstufen für Kopiervorgänge. Das ganze Konstrukt ist effizienter und schneller, zudem nutzt Sony meines Wissens nach keine Intel-Compiler ein.

Als wenn der Vergleich Acht Kerne vs einer wäre. :d Und Rechenleistung bleibt Rechenleistung, zumal Sony und Mircosoft am Ende eh ITX-PCs gebaut haben. Bei Sony läuft halt FreeBSD drauf und Mircosoft meinte, dass man halt angeben muss und drei Systeme laufen lassen muss. Am Ende wird der ganze Spaß ziemlich analog zu einem PC ablaufen,w as die CPU und das Scheduling angeht, die Konsolen werden da von der Einheitlichkeit und den Optimierungs-Möglichkeiten profitieren, aber aus einer CPU, die AMD Kabini: Jaguar und GCN in einer 15 W APU - Temash und Kabini: Die Zukunft von AMD liegt in den Mobilgeräten teils deutlich langsamer als ein i3 3217U ist, wird deswegen noch lange nicht eine Rakete, die Desktop-CPUs der Mittelklasse zersägt. Parallelisieren kann man auch nicht endlos. Ob HUMA real was bringt muss sich erst zeigen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Als wenn der Vergleich Acht Kerne vs einer wäre. :d Und Rechenleistung bleibt Rechenleistung, zumal Sony und Mircosoft am Ende eh ITX-PCs gebaut haben. Bei Sony läuft halt FreeBSD drauf und Mircosoft meinte, dass man halt angeben muss und drei Systeme laufen lassen muss. Am Ende wird der ganze Spaß ziemlich analog zu einem PC ablaufen,w as die CPU und das Scheduling angeht, die Konsolen werden da von der Einheitlichkeit und den Optimierungs-Möglichkeiten profitieren, aber aus einer CPU, die AMD Kabini: Jaguar und GCN in einer 15 W APU - Temash und Kabini: Die Zukunft von AMD liegt in den Mobilgeräten teils deutlich langsamer als ein i3 3217U ist, wird deswegen noch lange nicht eine Rakete, die Desktop-CPUs der Mittelklasse zersägt. Parallelisieren kann man auch nicht endlos. Ob HUMA real was bringt muss sich erst zeigen.

Der i3 3217U braucht auch 75% mehr Strom bei Skyrim und ist nicht der Gegner. Würde der Jaguar aufgebohrt sein, könnte er leicht mithalten. Das Ding hat noch kein hUMA und wird real Einiges bringen, wenn die Kommunikation im gleichen Adressraum liegt. Erstens vom Verbrauch und Zweites von der Performance. Musst nur die halbgare Lösung mit dem EDRAM der Iris Pro HD5200 anschauen und du weißt wohin die Reise geht.
 
Zuletzt bearbeitet:
Der i3 3217U braucht auch 75% mehr Strom bei Skyrim und ist nicht der Gegner. Würde der Jaguar aufgebohrt sein, könnte er leicht mithalten. Das Ding hat noch kein hUMA und wird real Einiges bringen, wenn die Kommunikation im gleichen Adressraum liegt. Erstens vom Verbrauch und Zweites von der Performance. Musst nur die halbgare Lösung mit dem EDRAM der Iris Pro HD5200 anschauen und du weißt wohin die Reise geht.

Mir geht es nicht um Energie-Effiziens sondern um Leistung.^^ Der angeführte i3 ist zu aktuellen Desktop-CPUS schon wieder eine Gurke, was die Leistung angeht und wir reden davon, ob die Konsolen mit ihren Acht Threads Desktop-CPUs mit acht Threads pushen werden oder nicht bzw die Parallelisierung am Desktop-Markt voran treiben. Zu HUMA: Gamescom: Playstation 4 bietet Unified Memory, Xbox One nicht | heise online
 
Mir geht es nicht um Energie-Effiziens sondern um Leistung.^^ Der angeführte i3 ist zu aktuellen Desktop-CPUS schon wieder eine Gurke, was die Leistung angeht und wir reden davon, ob die Konsolen mit ihren Acht Threads Desktop-CPUs mit acht Threads pushen werden oder nicht bzw die Parallelisierung am Desktop-Markt voran treiben. Zu HUMA: Gamescom: Playstation 4 bietet Unified Memory, Xbox One nicht | heise online

Meine Meinung ist: Es wird in der Optimierung, Parallelisierung und graphischen Darstellung für den PC Fortschritte bringen im Gegensatz zur alten Generation. Die Frage ist nur wie lange dauert es und wieviel Benefit haben Nutzer heute mit aktueller Hardware bereits für die Zukunft.

Der Link bestätigt nur eins: Sony hats richtig gemacht. Passt dem Marketing von AMD gar nicht, vielleicht haben sie ein Eigentor geschossen auf zwei konkurrierende Pferde gleichzeitig zu setzen.
 
Zuletzt bearbeitet:
Und meine Meinung ist schlicht, dass auch wenig Entwicklung bringen kann. ;) Selbst Konsolen-Redakteure waren nach der Gamescon über die neuen Konsolen eher ernüchtert, meine ich irgendwo gelesen zu haben.
 
Edit2: völlig vergessen zu erwähnen... dadurch das Ps4 und Xbox HSA unterstützen werden (davon gehe ich aus aufgrund der Jaguar-APU), stehen die Chancen nicht schlecht das sich HSA durchsetzt wodurch aktuelle und vor allem Zukünftige APUs massiv an Performance gewinnen könnten.

Wenn das der Fall ist können wir alle unsere aktuellen CPUs ad acta legen. :fresse2:

Dann werden sowohl fx als auch core i CPUs sehr schnell veraltet sein. Ich bin auf die nächsten Jahre sehr gespannt. :wink:

Das bringt aber effektiv nicht wirklich Punkte, wenn man ne dedizierte GPU stecken hat ;)
Dieser ganze HSA Kram klingt zwar auf dem Papier gut. Aber A) benötigen wir für einen echten Mehrwert Software, die es supportet und B) ein Unternehmen mit einer gewissen Marktmacht, welches solche Umstellungen vom klassen Weg auch durchdrücken kann.
A) sehe ich perspektivisch wenn überhaupt bestenfalls in 3-5 Jahren. Und B)? Neja da ist aus meiner Sicht AMD leider der falsche 50% Teil. :fresse:

Zumal man scheinbar das ganze immer wieder nur in Verbindung mit den APUs bringen will. Ich würde aber behaupten, das wir in den nächsten Jahren definitiv keine APU Lösungen sehen werden, welche sowohl CPU als auch GPU technisch auf Leistungsniveau von HighEnd Hardware im dedizierten Aufbau agieren werden.
Das heist, die Leute, die so schon mehr Leistung wollen, setzen weiterhin auf den dedizierten Aufbau der klassischen CPU + GPU. Pushen somit den ganzen HSA Kram auch nicht im geringsten -> und die Marktdurchdringung leidet dadurch ebenfalls.

Für die APU Geschichten mag man einen Mehrwert irgendwann erhalten können. Das nutzt aber dem Käufer von dedizierten Lösungen dann genau Null.
 
Und meine Meinung ist schlicht, dass auch wenig Entwicklung bringen kann. ;) Selbst Konsolen-Redakteure waren nach der Gamescon über die neuen Konsolen eher ernüchtert, meine ich irgendwo gelesen zu haben.

Was willst du Erwarten, die Dinger sind nicht richtig Fertig (zumindest PS4) und es wurde noch nicht viel optimiert. Bis ordentliche Games zu sehen sind, dauert es Monate oder sogar Jahre.
 
Zuletzt bearbeitet:
Ich erwarte genau deswegen gar nichts. Auf der E3 lief die XboxOne auf Windows-Rechnern, dass zeigt genau was man da zu erwarten hat. Es gab mal einen Kriegsfilm, dessen Titel hat es gut auf den Punkt gebracht: "Im Westen nichts Neues". ;)
 
Acht Low-Power Kerne in der Breite bei entsprechender Optimierung und Parallelisierung haben eine höhere Performance, als ein performanter Kern der in Reihe arbeitet. Außerdem kannst du die Jaguar-Kerne der Konsole leistungsmäßig nicht vergleichen mit dem PC-Derviat. Aufgrund des gemeinsamen Adressraums und hUMA entfallen alle Zwischenstufen für Kopiervorgänge. Das ganze Konstrukt ist effizienter, schneller, hat schnelleren GDRR5 Speicher und hochgradig parallisiert. Zudem nutzt Sony meines Wissens nach keine Intel-Compiler.

Sorry, aber der erste Satz ist schlicht quatsch.
8x1 ist das gleiche wie 1x8. Sprich ein Core, der 8x mehr zu leisten im Stande ist, wie der Gegner, wird auch genau so schnell sein, wie diese alle acht zusammen. Denn der eine schnelle Kern leistet nicht im Umsonst eben 8x so viel. (reine Theorie)
Und in der Praxis ist es schlicht und ergreifend so, das ein aktueller Intel Core (oder von mir auch ein AMD Modul bei 50% Load, sprich ein Thread) um WELTEN! schneller ist, als ein kommender Core der Konsolenlösungen.
Dabei spielt nicht nur reine IPC Leistung eine Rolle, sondern auch beispielsweise der Takt und andere Faktoren.

Der i3 3217U braucht auch 75% mehr Strom bei Skyrim und ist nicht der Gegner. Würde der Jaguar aufgebohrt sein, könnte er leicht mithalten. Das Ding hat noch kein hUMA und wird real Einiges bringen, wenn die Kommunikation im gleichen Adressraum liegt. Erstens vom Verbrauch und Zweites von der Performance. Musst nur die halbgare Lösung mit dem EDRAM der Iris Pro HD5200 anschauen und du weißt wohin die Reise geht.

Dir ist aber bekannt, was hUMA sein wird?
Der gemeinsame Addressraum ist genau dann völlig unwichtig, wenn man keine Daten zu transferieren hat.

Wie seinerzeit in einem anderen Thread schonmal prognostiziert. Eine aktuelle CPU+GPU Umsetzung oder eine aktuelle APU Umsetzung muss hier erst die Daten in den VRAM Bereich des GPU Parts übertragen. Das kostet zweifelsfrei zeit. Dieser Umstand würde mit hUMA wegfallen.
Nur ist aus technischer Sicht unterm Strich der Faktor, den man durch weglassen der Übertragungsvorgänge einsparen würde, derart gering, das es speziell bei Games nicht ins Gewicht fallen wird. Da gehe ich stand heute fast jede Wette drüber ein.


Denn sowohl mit hUMA als auch ohne hUMA limitiert die APU Lösung die Rechenpower selbst, sowie die Speicherbandbreite bei Speicherzugriffen. Sind die Daten hingegen einmal im VRAM (was man schön via Afterburner und Co. beobachten kann) -> wird auch nicht mehr viel übertragen, was durch hUMA wegfallen könnte.
Dazu schaue man sich einfach mal den Levelbegin bei nem Game im Afterburner an... -> es dauert gerade mal ein paar wenige Sekunden, dann ist der VRAM Bedarf fast an seinem maximalen Wert angekommen. Ob man nun hier 5min oder 10h am Stück spielt. Es werden idR nicht deutlich mehr Daten dort abgelegt. Auch sollte man nicht vergessen, das der VRAM gerade dafür da ist, die Daten dort zu halten. Eben als schnellen Zwischenspeicher. Alles was an Daten dort drin steht, IST! schnell zugreifbar. Ein Vorteil durch hUMA entsteht genau dann, wenn sich "alle Nase lang" am VRAM Datenbestand derart was ändert, das dieser Daten aus dem regulären RAM bzw. von der HDD/SSD nachladen muss. Nur ist das eben ziemlich witzlos, wenn beim Spielstart eben gefühlt 95% der benötigten VRAM Daten schon geladen werden -> und das binnen wenigen Sekunden.
Heist also, hUMA beschleunigt genau diese wenigen Sekunden durch das zeitliche Einsparen der Übertragungsvorgänge zwischen RAM und VRAM Bereich im selben Speicher. -> dananch bringt es sogut wie gar nix mehr, weil auf technischer Seite fast nix mehr passiert, was durch hUMA wegfallen würde.

Es bleibt also die Frage, was soll hUMA also genau beschleunigen!?
Da du es ja so explizit als Vorteil erwähnst, hast du sicher auch eine objektiv gestaltete Antwort auf diese Frage ;)
 
Zuletzt bearbeitet:
da das Spiel nur einen Kern nutzt ist der Fehlende L3 Cache wohl zu vernachlässigen.
Was ist das für ne Logik? Weißt du, was ein Cache macht? Selbst bei meinem alten PhenomII ist der L3 4GB/s schneller als der RAM. Wenn ich den NB Takt hoch ziehe, wird der Abstand noch größer. Der FX dürfte auch zusätzlich standardmäßig einen höheren NB-Takt haben. (2,4?)

um erstmal an die IPC meiner CPU ran zu kommen
IPC ist auch nicht gleich IPC.
Täusche ich mich, oder ist der IPC nur ein Mittelwert?
Wenn Prozessor a nun im Mittelwert höhere IPC hat als Prozessor b, heißt das nicht, dass er madd schneller berechnet als Prozessor b. Auch heißt das nicht, dass seine Sprungvorhersagen besser sind o.ä. Es heißt schlicht nur, dass der Mittelwert höher ist. Jetzt lasse in den Mittelwert mal n Haufen Crap einfließen, der im Normalfall nicht gebraucht wird.
Worauf ich hinaus will, nur weil der Mittelwert höher ist, heißt das nicht, dass er bei Programm c, welches hauptsächlich Instruction d braucht, schneller läuft ...

FX4170/8120 und von dort direkt zu Intel
Ist auch nicht das selbe wie ein 8350. ;)
 
Was ist das für ne Logik? Weißt du, was ein Cache macht? Selbst bei meinem alten PhenomII ist der L3 4GB/s schneller als der RAM. Wenn ich den NB Takt hoch ziehe, wird der Abstand noch größer. Der FX dürfte auch zusätzlich standardmäßig einen höheren NB-Takt haben. (2,4?)


IPC ist auch nicht gleich IPC.
Täusche ich mich, oder ist der IPC nur ein Mittelwert?
Wenn Prozessor a nun im Mittelwert höhere IPC hat als Prozessor b, heißt das nicht, dass er madd schneller berechnet als Prozessor b. Auch heißt das nicht, dass seine Sprungvorhersagen besser sind o.ä. Es heißt schlicht nur, dass der Mittelwert höher ist. Jetzt lasse in den Mittelwert mal n Haufen Crap einfließen, der im Normalfall nicht gebraucht wird.
Worauf ich hinaus will, nur weil der Mittelwert höher ist, heißt das nicht, dass er bei Programm c, welches hauptsächlich Instruction d braucht, schneller läuft ...


Ist auch nicht das selbe wie ein 8350. ;)

IPC ergibt im Zusammenhang mit dem Takt die Leistung, Instructions per Cycle. Deswegen versucht AMD ja auch seine schwache IPC mit Takt zu kompensieren, was mit dem grandiosen 32nm-Prozesse von Globalfoundires in einem Stromfresser mündete...^^

Der FX 8350 hat im Vergleich zum 8120 5% mehr IPC und halt mehr Takt...
 
@Mick: Jup, dachte ich mir doch.
Pirate85 schrieb:
der etwa 4,8Ghz bräuchte um erstmal an die IPC meiner CPU ran zu kommen?
Dann ist auch die Aussage schwachsinn, weil sich ja durch höheren Takt die Instruktionen, die in einem Takt gemacht werden, nicht erhöht.
Hz = 1/s
Ein Takt wird nur schneller ausgeführt und es sind mehr Zyklen pro Sekunde möglich.


laut diversen aussagen würde man die 8-"Kerne" auch für zukünftige games besser Optimieren
Ein i5 hat auch mehr als nur einen Kern. Das selbe kommt auch Intel zu gute, heißt nicht, dass es dann auf einem FX schneller läuft, wird auch wieder vom Programm abhängen. Lass mal viele Gleitkommazahlen berechnen, da hat der FX auch "nur 4 Kerne". (Die FX haben nur eine FP Einheit pro Kern? Ich sollte mir das alles mal aufschreiben ...).
Edit: Auch gibt es Sachen, die man nicht wirklich parallelisieren kann ..


fdsonne schrieb:
8x1 ist das gleiche wie 1x8. Sprich ein Core, der 8x mehr zu leisten im Stande ist, wie der Gegner, wird auch genau so schnell sein, wie diese alle acht zusammen. Denn der eine schnelle Kern leistet nicht im Umsonst eben 8x so viel. (reine Theorie)

Nein. Angenommen, du hast 8 Kerne und 8 Prozesse die laufen. so laufen alle 8 Prozesse gleichzeitig ohne Unterbrechung.
Du hast 1 Kern und 8 Prozesse, damit nun alle 8 Threads laufen, muss der Prozessor ständig die Prozesse wechseln, nennt sich Kontextwechsel und ist zeitintensiv. Die Zeit, die dafür verloren geht, geht bei 8 Kernen nicht verloren.
 
Zuletzt bearbeitet:
Nein. Angenommen, du hast 8 Kerne und 8 Prozesse die laufen. so laufen alle 8 Prozesse gleichzeitig ohne Unterbrechung.
Du hast 1 Kern und 8 Prozesse, damit nun alle 8 Threads laufen, muss der Prozessor ständig die Prozesse wechseln, nennt sich Kontextwechsel und ist zeitintensiv. Die Zeit, die dafür verloren geht, geht bei 8 Kernen nicht verloren.

Dieses Spiel kann ich auch ;)

Denn A) sprechen wir hier nicht von acht verschiedenen Prozessen, sondern von einem Prozess mit acht Threads!
B) kostet das aufsplitten der Aufgabe in verschiedene Threads idR auch Zeit, die genau dann wegfallen würde, wenn man nur einen Thread nutzt.
C) nimmt die Leistungsskalierung mit der Anzahl der Threads idR ab -> vor allem dann, wenn die Threads nicht alle exakt gleich lang laufen und somit "Leerlauf" entsteht
und D) ist der Zeitfaktor idR so derart gering, das es sich praktisch sogut wie gar nicht auszahlt.

Dazu kommt der Umstand, das ein heutiges Betriebssystem auf einem heutigen Multicore Prozessor so oder so die laufenden Threads A) alle Nase lang von Core zu Core schubst, und B) durch eben genau diesen Umstand so oder so derartige Unterbrechnungen erzeugt.

PS: es war auch nur ne reine Theoriebetrachtung ;) Denn acht Threads sequenziell hintereinander ausgeführt würde nämlich auch keine Unterbrechnungen erzeugen... Denn diese acht Threads laufen schlicht hintereinander weg.
Mir gings eigentlich nur um die unsinnige Pauschale von oben, wo ein LowCost Prozessor eben schneller sein soll, was rein logisch schon offenbar nicht klappen kann.
 
Der FX-8350 und der FX-8320 sind für Arbeitsrechner interessant, zum Spielen eher weniger, außer man hat wenig Budget.
die Anwendungsleistung eines FX-8350 ist höher einzuschätzen als bei einem i5 4670.
Ein I5 4670 ist in Games aber 30% schneller, kostet zwar auch mehr, aber ich finde das lohnt sich.

Das aktuell beste Angebot was P/L anbetrifft hat mMn aber AMD. ( FX-6300)
 
Mich würde mitlerweile interessieren, was der TE macht, bzw. ob er sich entschieden hat...
 
Sorry, aber der erste Satz ist schlicht quatsch.
8x1 ist das gleiche wie 1x8. Sprich ein Core, der 8x mehr zu leisten im Stande ist, wie der Gegner, wird auch genau so schnell sein, wie diese alle acht zusammen. Denn der eine schnelle Kern leistet nicht im Umsonst eben 8x so viel. (reine Theorie)

Deine Theorie, die bereits widerlegt wurde, dies funktioniert nur wenn alles in einem Guss abläuft. Tut es aber nicht in der Realität. Während 8 Prozesse parallel Laufen, macht der 1 Kerner nach jeder fertigen Aufgabe eine kurze Pause. Die reine Prozessierzeit ist länger.

Der gemeinsame Addressraum ist genau dann völlig unwichtig, wenn man keine Daten zu transferieren hat.
Dann steht deiner Rechner die ganze Zeit im Standby.

Wie seinerzeit in einem anderen Thread schonmal prognostiziert. Eine aktuelle CPU+GPU Umsetzung oder eine aktuelle APU Umsetzung muss hier erst die Daten in den VRAM Bereich des GPU Parts übertragen. Das kostet zweifelsfrei zeit. Dieser Umstand würde mit hUMA wegfallen.

Steht doch schon die Antwort.

Nur ist aus technischer Sicht unterm Strich der Faktor, den man durch weglassen der Übertragungsvorgänge einsparen würde, derart gering, das es speziell bei Games nicht ins Gewicht fallen wird. Da gehe ich stand heute fast jede Wette drüber ein.

Hier würde ich gerne ein Statement hören von einem AMD, Intel, Nvidia oder ... Hardwareentwickler.

Denn sowohl mit hUMA als auch ohne hUMA limitiert die APU Lösung die Rechenpower selbst, sowie die Speicherbandbreite bei Speicherzugriffen.

Was limitiert bitte „Page Locked Memory“ und "Page Faults" entfällt, die CPU und GPU können schneller agieren, somit werden Ressourcen frei. Intel macht es mit der Iros Pro HD5200 doch nicht anders, die haben einen EDRAM mit Ringbus verbaut, damit ein Teil vom Adressraum geteilt wird.

Sind die Daten hingegen einmal im VRAM (was man schön via Afterburner und Co. beobachten kann) -> wird auch nicht mehr viel übertragen, was durch hUMA wegfallen könnte.
Dazu schaue man sich einfach mal den Levelbegin bei nem Game im Afterburner an... -> es dauert gerade mal ein paar wenige Sekunden, dann ist der VRAM Bedarf fast an seinem maximalen Wert angekommen. Ob man nun hier 5min oder 10h am Stück spielt. Es werden idR nicht deutlich mehr Daten dort abgelegt. Auch sollte man nicht vergessen, das der VRAM gerade dafür da ist, die Daten dort zu halten.

Eben als schnellen Zwischenspeicher. Alles was an Daten dort drin steht, IST! schnell zugreifbar. Ein Vorteil durch hUMA entsteht genau dann, wenn sich "alle Nase lang" am VRAM Datenbestand derart was ändert, das dieser Daten aus dem regulären RAM bzw. von der HDD/SSD nachladen muss.

Du hast auch ein Standbild auf deinem Monitor. Bewege dich durch eine offene Welt, dann siehst du wie sich der RAM ändert oder springe mal zurück auf den Desktop und ziehe dir gleichzeitig ein Video rein. Das geht mit hUMA einbißchen schneller, die Zugriffszeit verkürzt sich.
 
Zuletzt bearbeitet:
Du hast auch ein Standbild auf deinem Monitor. Bewege dich durch eine offene Welt, dann siehst du wie sich der RAM ändert oder springe mal zurück auf den Desktop und ziehe dir gleichzeitig ein Video rein. Das geht mit hUMA einbißchen schneller, die Zugriffszeit verkürzt sich.

Welche Voraussetzungen braucht man dafür, um Dein Beispiel nach zustellen ? Ich bin durch eine offene Welt gegangen ( RPG ) und ganz schnelle ein Video gestartet, kein Standbild - Das ist doch Kacke :wall:

Hab ich irgendwas verkehrt gemacht, oder brauch ich ein anderes System, bestimmtes Spiel/Film ?
 
Was ist das für ne Logik? Weißt du, was ein Cache macht? Selbst bei meinem alten PhenomII ist der L3 4GB/s schneller als der RAM. Wenn ich den NB Takt hoch ziehe, wird der Abstand noch größer. Der FX dürfte auch zusätzlich standardmäßig einen höheren NB-Takt haben. (2,4?)


Natürlich weiß ich was ein Cache macht? L3 wird aber Primär zum Interagieren unter den Modulen selber genutzt und ist nur bei Multitasking-Programmen rege in Nutzung. #

Das hat man sehr gut z.b. bei den Athlon II X4 und Phenom II CPUs gemerkt - bei den APUs ist es nicht viel anders da das Grundprinzip dasselbe geblieben ist.

Bei Singlethreadanwendungen arbeiten die Module innerhalb ihres L2 Caches, der L3 kommt kaum zum Tragen - darum ging es um nicht mehr und nicht weniger.

IPC ist auch nicht gleich IPC.
Täusche ich mich, oder ist der IPC nur ein Mittelwert?
Wenn Prozessor a nun im Mittelwert höhere IPC hat als Prozessor b, heißt das nicht, dass er madd schneller berechnet als Prozessor b. Auch heißt das nicht, dass seine Sprungvorhersagen besser sind o.ä. Es heißt schlicht nur, dass der Mittelwert höher ist. Jetzt lasse in den Mittelwert mal n Haufen Crap einfließen, der im Normalfall nicht gebraucht wird.
Worauf ich hinaus will, nur weil der Mittelwert höher ist, heißt das nicht, dass er bei Programm c, welches hauptsächlich Instruction d braucht, schneller läuft ...
)

IPC hat 0, überhaupt nix mit irgend einem Mittelwert zu tun - das ist einfach die Bezeichnung für die Instructions per Cycle und ist eine fest Definierte Größe die durch die Architektur der CPU bestimmt wird. Durch anheben der NB Taktung oder der CPU Clocks werden eben nur mehr Takte eingefügt bzw hinzugefügt - die Grundgröße bleibt aber bestehen.

In der Disziplin ist Intel leider AMD mehr als 2 Steinwurflängen voraus, auch wenn mit der 2. FX Generation und der 3. APU Generation die Sprungvorhersage wesentlich verbessert wurde. Wenn sie stimmt ist die IPC 5-10% höher, wenn nicht ist sie genauso wie in der 1. bzw. 2. Generation (FX / APU)


Ist auch nicht das selbe wie ein 8350. ;)

Stimmt, bei dem einen sind die Zahlen anders... solche Spitzfindigkeiten kann man getrost als "Witz" bezeichnen. 5-10% mehr Leistung bei Volltreffer der Sprungvorhersage... sehr großer Unterschied, muss ich schon sagen. :wink:



Hättet Ihr mir das genau erklärt wie in Post #43 dann wäre dies alles nicht so ausgeartet aber statt dies zu tun wird man doof von der seite angemacht und für Dumm verkauft:rolleyes:
Ich habe WoT extra kurz installiert um zu schauen wie mein FX damit läuft und ich war vielleicht gerade einmal 10min im Spiel und hatte keinerlei Probleme. Woher soll ich also wissen wie viel FPS auf anderen Karten bekomme? Wenn es auf der Karte wo ich die Screenshot gemacht habe flüssig läuft, gehe ich davon aus das dies auch auf anderen der Fall sein könnte.


Ich zocke Crysis 2 (incl DX11 und HD-Pack), Crysis 3, Splinter Cell: BLacklist, Tomb Raider 2013, Metro LL, Battlefield3, Far Cry3 und company of heroes 2 ohne jegliche probleme und ruckler und je nach dem auch auf Ultra Settings mit meiner HD7870ghz Grafikkarte. Wie bereits mehrfach geschrieben, ihr tut so als würde man mit der AMD CPU nicht ohne ruckeln spielen können und das ist Bullshit!

so sieht es aus. ich konnte mit meiner alten Phenom CPU und der GTX260 dies auch spielen ohne Probleme bekommen zu haben. zwar nicht auf Ultra Settings aber das ist bei dem Game eh egal^^


Entschuldige bitte, habe wirklich etwas harsch reagiert und das war nicht fair dir gegenüber - echt sorry.

Weißt du, wenn man etwas wieder und wieder und wieder durchkaut wirds irgendwann fad und dann kommt noch eine ordentliche Portion Verdruss hinzu :(


Ich bin quasi Instant am überlegen mir nen 6800k + HD7790 ITX System zusammenzubauen und meine Intel-HW zu verschleudern... einfach weil ich eigentlich Intel net mag... aber es würde überhaupt keinen Sinn zum jetzigen Zeitpunkt machen weils alleine schon vom Preis her Schwachsinn ist.



Ich empfehle jedem AMD wos mim Budget nicht so rosig ausschaut, bei allen anderen bin ich derzeit gezwungen Intel zu empfehlen weil es Objektiv gesehen gar keine andere Alternative zum effizienten Gamen gibt. :(


Ich selbst bin bis zuletzt auf AMD gefahren weil ich keinen Bock hatte das Lager zu wechseln... daher ist mir selber die Kinnlade erstmal runtergeklappt wo selbst der i3 2125 der jetzt im PC meines Schwagers ackert meinen FX 8120 in nahezu allen "damals" aktuellen Spielen ausgezogen hat. (Fallout 3 + New Vegas, Metro2033, Civ IV, TDU 2, Borderlands 1 usw usf.)


Wie gesagt, wollte dich wirklich nicht so blöd von der Seite anranzen - meine Art ist manchmal komisch. Entschuldige bitte - das meine ich ehrlich und offen. :(


lg

Marti
 
Zuletzt bearbeitet:
Welche Voraussetzungen braucht man dafür, um Dein Beispiel nach zustellen ? Ich bin durch eine offene Welt gegangen ( RPG ) und ganz schnelle ein Video gestartet, kein Standbild - Das ist doch Kacke :wall:

Hab ich irgendwas verkehrt gemacht, oder brauch ich ein anderes System, bestimmtes Spiel/Film ?

Bleibt dein VRAM in etwa immer statisch?

Sind die Daten hingegen einmal im VRAM (was man schön via Afterburner und Co. beobachten kann) -> wird auch nicht mehr viel übertragen, was durch hUMA wegfallen könnte.
Dazu schaue man sich einfach mal den Levelbegin bei nem Game im Afterburner an... -> es dauert gerade mal ein paar wenige Sekunden, dann ist der VRAM Bedarf fast an seinem maximalen Wert angekommen. Ob man nun hier 5min oder 10h am Stück spielt. Es werden idR nicht deutlich mehr Daten dort abgelegt. Auch sollte man nicht vergessen, das der VRAM gerade dafür da ist, die Daten dort zu halten.

Eben als schnellen Zwischenspeicher. Alles was an Daten dort drin steht, IST! schnell zugreifbar. Ein Vorteil durch hUMA entsteht genau dann, wenn sich "alle Nase lang" am VRAM Datenbestand derart was ändert, das dieser Daten aus dem regulären RAM bzw. von der HDD/SSD nachladen muss.

Seine Aussage hört sich an, als ob der VRAM nahzu statisch ist und alles aufnimmt. Dies ist nicht so, die Grafikkarte berechnet je nach Anforderung jede Szene neu (dies ja nach Bildschirm bis zu xy mal pro Sekunde), bedient sich dabei mit vorhanden Daten aus dem VRAM und befreit nicht benötigte Daten aus selbigen. Wenn ich z.B. in Sykrim mich an verschiedenen Orten aufhalte, ist der Verbrauch unterschiedlich und wechselt ständig. Springe du auf deinen Desktop aus dem Game heraus, wird dein VRAM rapide nach unten sacken. Beim Wiedereinstieg ins Game wird schön alles neu aufgebaut. Es ändert sich jede Nanosekunde etwas, deswegen der übertriebene Vergleich mit dem Standbild.

hUMA müsste theoretisch einiges Beschleunigen. Vorallem dürften schwächere APUs davon profitieren, weil die CPUs entlastet werden würden und das Bottleneck „Page Locked Memory“ und "Page Faults" entfernt wird. Womöglich wird die Anforderung an die CPU so gesenkt, dass die langsamen Jaguar-Kerne den Grafikteil der APU nicht limitieren. Auf dem Standard X86 Desktop wären sie vermutlich bei dem Takt für die GCN-Architectur zu langsam, um genügend Frames zu generieren.

Meiner Meinung eine gute Idee die AMD anstrebt, irgendwie müssen sie Wege finden Intel wieder näher zu kommen. Wenns es in zwei Jahren eine ordentliche performende APU @6 Kerne und @HD7870 Niveau @gemeinsamen 16 GB GDDR4 geben würde, hätte diese einen Käufer.

Ich bin quasi Instant am überlegen mir nen 6800k + HD7790 ITX System zusammenzubauen und meine Intel-HW zu verschleudern... einfach weil ich eigentlich Intel net mag... aber es würde überhaupt keinen Sinn zum jetzigen Zeitpunkt machen weils alleine schon vom Preis her Schwachsinn ist.

Habe mir gestern für meinen mATX HTPC die MSI HD7790 2 GB geholt.
 
Zuletzt bearbeitet:
Muss der Statisch bleiben, aber beantwortet irgendwie meine Frage nicht :(

Du brauchst nur ein Auslesetool ala Afterburner oder GPU-Z, um dir deinen VRAM Verbrauch anzeigen zu lassen. Er kann bei Beanspruchnung der GPU nicht konstant mit gleichem Daten gefüllt sein. Die einzige Ausnahme wäre ein statisches Testbild im Vollbild, hier wird die GPU bei 0% Auslastung stehen. Es reicht die Maus über den Windows Desktop zu bewegen, um eine Änderung des VRAM zu erreichen.

default.jpeg
 
Zuletzt bearbeitet:
Hm, machen 2Gb Vram bei der Karte Sinn?

Für 109 Euro bei Hardwareversand Deutschland war dies noch vertretbar. Persönlich spiele ich Sykrim und dort lohnt sich die 2 GB Variante meiner Meinung nach alleine durch Installation des High Resolution Textur Pack. Selbst die A8-3870K APU war an der 1 GB Grenze und dies in 720p. Es liegt vermutlich am Anwendungsszenario.

Hier ein Test von xTc aus dem PCGH-Forum:

Zitat:
Leistungsmäßig profitiert die Sapphire Radeon HD 7790 2 GiByte OC-Edition nicht nur von den höheren Taktraten, sondern auch vom größeren Texturspeicher. Aber der Reihe nach: Wird die Karte mit nur einem GiByte auf 1.050/3.200 MHz übertaktet, liegt die durchschnittliche Leistung um 3,9 Prozent über einer HD 7790 mit Referenztaktraten (1.000/3.000 MHz). Besonders Assassins Creed 3 skaliert gut auf die Taktsteigerung und legt sowohl bei der minimalen als auch bei der durchschnittlichen Bildrate um 4,0 Prozent zu. Mit einem Plus von 2,6 Prozent profitiert die minimale Framerate in Dirt Showdown aber am wenigsten von den gesteigerten Taktraten. Wird die 2 GiByte Variante mit den identischen Taktraten befeuert, kann sie sich durchschnittlich um 8,7 Prozent von einer Referenzkarte mit einem GiByte absetzten. Der doppelte Texturspeicher kommt stellenweise gut zum Tragen. Besonders Battlefield 3 und Assassins Creed 3 legen ordentlich zu. So klettert die durchschnittliche Framerate in Assassins Creed 3 um 8,6 und Battlefield 3 sogar um 10,2 Prozent. Doch deutlicher steigen die minimalen Frameraten an, hier liegt Battlefield 3 mit 11,1 Prozent nur knapp hinter Assassins Creed 3 mit 12,0 Prozent. Dirt Showdown legt nur leicht zu, hier lohnt der doppelte Speicher kaum.
Noch deutlicher werden die Ergebnisse, wenn die 2 GiByte Ausführung noch weiter übertaktet wird. Da sich die Spannung aber nicht verändern lässt, ist bei maximal 1.225/3.600 MHz Schluss. Im Durchschnitt kann sich die Sapphire Radeon HD 7790 2 GiByte OC-Edition so um 17,2 Prozent von einer Referenz HD 7790 (1.000/3.000 MHz) mit einem GiByte absetzten. Am deutlichsten legen erneut Crysis 2, Battlefield 3 und Assassins Creed 3 zu. Mit 20,0 Prozent (Min. FPS) beziehungsweise 21,2 Prozent (Avg. FPS) IST Assassins Creed 3 aber der deutliche Spitzenreiter. Metro 2033 legt mit 15,4 Prozent (Min. FPS) und 17,3 Prozent (Avg. FPS) eher verhalten zu. Im Duell mit einer Referenz HD 7850 (2 GiByte, 860/2.400 MHz) muss sich die übertaktete Radeon HD 7790 2 GiByte OC-Edition nur leicht geschlagen geben. Der Rückstand beträgt lediglich 4,1 Prozent. Sowohl in Battlefield 3 und Assassins Creed 3 kann die übertaktete Karte zur von Haus aus schnelleren HD 7850 aufschließen. In Crysis 2 kann die übertaktete Radeon HD 7790 sogar knapp an der HD 7850 vorbeiziehen. In Metro 2033 hingegen kann die übertaktete HD 7790 keine Chance gegen die HD 7850. Die Radeon HD 7850 rechnet nochmals 15,0 Prozent schneller als die übertaktete HD 7790. Hier zahlt sich die höhere Anzahl der Shader-Einheiten klar aus.

Nach allen Tests dich ich bisher zur HD 7790 erstöbert habe, schafft sie OC ohne Spannungserhöhung GPU ~ @1200 Mhz und Speicher ~ @1600 MHz (+).
 
Zuletzt bearbeitet:
fdsonne schrieb:
acht verschiedenen Prozessen, sondern von einem Prozess mit acht Threads!
Dann musst du keine neue Seitentabelle in die MMU laden, trotzdem müssen aber noch Register und Co geändert werden, je nach Prozess gewisse Interrups verboten, blablabla und und und.

Zu B) und C) tzz, weiß ich, dass die Aufgaben was miteinader zu tun haben? Davon war nicht die Rede! Es ging nur um 8x1 = 1x8 ...
Zu D) In deiner Welt

fdsonne schrieb:
das ein heutiges Betriebssystem
Ging es darum? Mir egal, was ein Betriebssystem macht. Ich brauche nicht zwingend eines ..
Bei dem von mir verwendeten Kernel kann ich den Scheduler gut genug anpassen :p

fdsonne schrieb:
reine Theoriebetrachtung
Haben wir jetzt gemerkt :p

Bunghole Beavis schrieb:
Page Faults entfällt
Wieso sollte es das?

Pirate85 schrieb:
IPC hat 0, überhaupt nix mit irgend einem Mittelwert zu tun
Steht aber hier: https://de.wikipedia.org/wiki/Instructions_per_cycle

Würde meiner Meinung auch so Sinn machen
Ein <shl eax, zahl> sollte doch wesentlich schneller sein, als ein <lds gpr, addr>

Für jnz, jz, ... kommen dann auch noch Sprungvorhersagen dazu, die falsch sein können..

Hast du zu dem mit dem L3 nen Benchlink? Ist mir klar, dass wenn ich immer verschiedene Daten brauche, mir der L3 nichts bringt. Allerdings sollte bei einer Single Threaded Anwendung die hauptsächlich auf 2MB Daten zugreift, ein L3 einiges bringen.

5-10% mehr Leistung
wie war das noch bei Haswell :p
Volltreffer der Sprungvorhersage ist viel wert! Wenn du mal mit verschachtelten Schleifen programmierst o.ä. Was wurde davor verwendet? 2-bit Vorhersage?
 
Hm, mit der IPC lag ich wohl falsch - man lernt nie aus. Danke dir :wink:

Ändert nur nix daran das die IPC bei AMD aktuell ordentlich hinterher hinkt.

Lg Marti (gesendet von unterwegs)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh