I5 4570 oder FX 8350

Du bist echt Lustig :d

Kannst nicht ab das auch im Anandtech Test diverse Fehler drin sind ? :d

Hier Vergleich mal diesen Bench mit dem von Anand :

Anhang anzeigen 247532

Der wert von der 550ti kommt ja noch einigermaßen hin, nur ab der HD6850/7850-1gb/2GB wirds Kurios :d

Btw: Beide Tests mit HD-Texturenpack in 1920 mit 4xAA, nicht Kacke ^^

P.S. Und Nein, es ist kein Fakt :p

So jetzt ist aber auch Ende, aber auch wenn Du mir es nicht glaubst,l ich freu mie das Du Dir eine Zukunftssichere GK mit 2GB gekauft hast :fresse:

Und wieviel VRAM wird nun in der Szene benötigt?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Dies ist korrekt, aber es werden nun Prozesse auf der GPU mitberechnet und somit steht mehr Gesamtleistung zur Verfügung.

Dir ist klar, dass Huma und HSA nicht das gleiche ist, oder? :hmm: Huma ist zwar Bestandteil von HSA, aber nur der geteilte Adressraum. Dadurch findet nicht zwingend zwingend GPU-Computing statt. Zumal ich bezweifeln möchte, dass HSA-Konzepte in Spielen groß Anwendung finden werden. Die GPU ist da schon damit beschäftigt ein Bild in HD mit Konstanten FPS aufs Bild zu buttern, wo sollen da die Ressourcen herkommen um die CPU noch massiv zu entlasten? Irgendwie habe ich das Gefühl du hast wirklich zu viele HSA-Werbe-Folien geguckt, ist nicht böse gemeint, aber das was du hier schreibst deckt sich nicht wirklich mit dem Ist-zustand.
 
Dir ist klar, dass Huma und HSA nicht das gleiche ist, oder? :hmm: Huma ist zwar Bestandteil von HSA, aber nur der geteilte Adressraum. Dadurch findet nicht zwingend zwingend GPU-Computing statt. Zumal ich bezweifeln möchte, dass HSA-Konzepte in Spielen groß Anwendung finden werden. Die GPU ist da schon damit beschäftigt ein Bild in HD mit Konstanten FPS aufs Bild zu buttern, wo sollen da die Ressourcen herkommen um die CPU noch massiv zu entlasten? Irgendwie habe ich das Gefühl du hast wirklich zu viele HSA-Werbe-Folien geguckt, ist nicht böse gemeint, aber das was du hier schreibst deckt sich nicht wirklich mit dem Ist-zustand.

Ist hUMA der IST-Zustand?:wink:
 
Und? huma ist geteilter Adressraum nicht mehr und nicht weniger, das bedingt keinerlei GPU-Computing, was du gerade verbunden hast...
 
Zuletzt bearbeitet:
Und wieviel VRAM wird nun in der Szene benötigt?

Wahrscheinlich in der Größenordnung von Anandtech, deshalb auch der Tipp mit der 550ti - Hast aber vermutlich nicht verstanden :d

ergo bleibt es dabei, die Karte hat keinen nennenswerten Vorteil durch den doppelten Speicher - Außerdem ist der Bonair-Chip nur ein Kosolenabfallchip für den Desktop, der nur einigermaßen Effizient bleibt @stock, übertaktet man diesen wird er im Vergleich zur 7850 zum Stromfresser :P

Mal wieder null Substanz dahinter ^^

So und nun wieder Bitte Btt, hier geht es ja um CPUs :d
 
sorry, hier stand was doppelt! Ein freundlicher Mod möge es vielleicht löschen, dk!
 
Zuletzt bearbeitet:
mal ehrlich Freunde, wer wird denn einen AMD FX 8350 zum Zocken degradieren, dafür gibt's doch Intel ;-)! Ich benutze so ein Teil seit geraumer Zeit für die Prozesssimulation (Prozesssimulationssoftware Blue-Control 2.0 SR 1 von PMA). Damit kann ich realistische Reglerverhältnisse nachbilden und das auch nahezu in jeder bekannten mathematischen Form simulieren.
Mag ja sein, dass hier teure (!) Intelprozis auch verwendbar sein würden, aber der 8350 scheint mir dafür regelrecht prädestiniert zu sein, er erfüllt seine Aufgaben in vorbildlicher Qualität!
Tja, Leute, irgendetwas müssen sich ja die AMD Ingenieure dabei gedacht haben, als sie diesen Prozessor geschaffen haben, oder?
Es soll ja auf der Welt nicht nur Hardcore-Gamer geben, die alles in fps ausdrücken, lol!
 
Zuletzt bearbeitet:
Stimmt es gibt auch Leute mit Workstations, und die verbauen dann Xeons. Das es immer noch Leute gibt, die meinem, dass Intels Markt-Dominanz von Himmel fällt...
 
Ich denke mittlerweile wird jeder verstanden haben das intel für jedes Anwendungsgebiet der Heilige Gral ist ;)
 
Es geht hier nicht um den heiligen Gral, aber einen FX als Arbeits-CPU hinzustellen ist albern. Zu mal er keinerlei Vergleich anstellen kann. Der Käse wird hier hauptsächlich von AMD-Besitzern schrieben...
 
Und? huma ist geteilter Adressraum nicht mehr und nicht weniger, das bedingt keinerlei GPU-Computing, was du gerade verbunden hast...

AMD nennt diese Technik heterogeneous Uniform Memory Access, kurz hUMA. Uniform bedeutet hier einheitlich oder gemeinsam und nicht geteilt. hUMA ist ein Key-Feature von HSA.

Zitiere:
Die Heterogenous System Architecture (kurz HSA, ehemals Fusion System Architecture)[1] ist ein von AMD entwickelte Prozessorkonzept, um Haupt- und Grafikprozessor möglichst effizient auf einem Computerchip (Die) zu vereinen und dadurch das Ausführen von spezialisierten Programmen zu beschleunigen. Dies soll unter Anderem die Gesamtperformance von APUs (Accelerated Processing Unit) deutlich steigern. Hauptmerkmal von HSA ist, dass die CPU-Kerne und der Grafikprozessor auf einen gemeinsamen Adressraum und Speicher (RAM) zugreifen.

@dochurt
Sepp nichts für ungut, verstehe dein Problem nicht: HT4U und CB anderer Test und ein anderes Szenario, andere Ergebnisse.

Der Test von Anandtech zeigt, dass in ihrem Bench bei 1 GB VRAM in Full HD mit Textur-Pack die Luft raus ist. Dies gilt ausnahmslos für alle 1GB Karten. Hier gibts nichts kurioses, die Brechen ein aufgrund von zuwenig Grafikspeicher ein. That's reality. Die 650 Ti 2 GB habe ich als equivalent zur 7790 2 GB genommen. Beide liegen in der gleichen Leistungsklasse.

Persönlich habe mir aus Spaß mit der APU 256 MB, 512 MB und 1024 MB in 720p Ultra eingestellt und mich im Whiterun am Felsvorsprung dreimal im Kreis gedreht:

- 256 MB, Nachladeruckler, Framedrops mit VRAM Entleerung -- 7.5-15 Fps
- 512 MB, weniger Nachladeruckler, weniger Framdrops mit VRAM Entleerung -- 9.5-15 Fps
- 1024 MB, keine Nachladeruckler, keine VRAM Entleerung -- 13.5-15 Fps

Solange genug Grafikspeicher vorhanden ist und nicht systematisch ausgelagert wird bzw. später geleert werden muss, ist die Performance ok. 256 MB und 512 MB VRAM sind aber dennoch zuwenig. Bei 1 GB kann sich die APU noch halten, ohne Nachladeruckler und Drops, obwohl der VRAM konstant bei +|- 1001 MB steht. In flüssigen Gefilden bei 40-45 Fps in Low konnte ich die Situation ebenfalls nachstellen.

Jede Grafikkarte verbraucht übertaktet mehr Strom. Eine HD7790 in der Nähe einer HD7850 wird einen ähnlichen Verbrauch haben. Dies zeigt der Test von xTc, wenn dies bei dir gleich Stromfresser ist? Ich nenne es Performance pro Watt.

Persönliche äußere ich mich zu dem Thema nicht mehr.

Was AMD und Intel und Intel angeht:
Einen FX8350 nutze ich nicht und habe auch keine Vergleichsmöglichkeit. Zwischen dem Ivy i7 3770K gegenüber einem Xeon X5690 gibts bei mir in der Arbeit ein klares: Xeon Server 6 Kerne > Desktop Ivy 4 Kerner + HT. Der Xeon bricht bei voller Auslastung der Threads nicht weg, wie der 3770. Beim Ivy geht fast nichts mehr, wenn ich einen Browserfenster öffne, kann mir gut einen Kaffee holen (überspitzt). Genutzt wird eine Software zur Bildanalyse, die auf alle Threads skaliert. Deshalb hat mich das Ergebnis des Tests der PCGH zwischen FX8350 vs i7 3770, in dem die Multitasking und Multithreaded Belastung getestet wurde, nicht überrascht. Meiner Ansicht nach siehts so aus: Echte Kerne > CMT > SMT. Intel hat natürlich den IPC Vorteil.

Hat sich der TE nun entschieden?
 
Zuletzt bearbeitet:
AMD nennt diese Technik heterogeneous Uniform Memory Access, kurz hUMA. Uniform bedeutet hier einheitlich oder gemeinsam und nicht geteilt. hUMA ist ein Key-Feature von HSA.

Zitiere:
Die Heterogenous System Architecture (kurz HSA, ehemals Fusion System Architecture)[1] ist ein von AMD entwickelte Prozessorkonzept, um Haupt- und Grafikprozessor möglichst effizient auf einem Computerchip (Die) zu vereinen und dadurch das Ausführen von spezialisierten Programmen zu beschleunigen. Dies soll unter Anderem die Gesamtperformance von APUs (Accelerated Processing Unit) deutlich steigern. Hauptmerkmal von HSA ist, dass die CPU-Kerne und der Grafikprozessor auf einen gemeinsamen Adressraum und Speicher (RAM) zugreifen.

@dochurt
Sepp nichts für ungut, verstehe dein Problem nicht: HT4U und CB anderer Test und ein anderes Szenario, andere Ergebnisse.

Der Test von Anandtech zeigt, dass in ihrem Bench bei 1 GB VRAM in Full HD mit Textur-Pack die Luft raus ist. Dies gilt ausnahmslos für alle 1GB Karten. Hier gibts nichts kurioses, die Brechen ein aufgrund von zuwenig Grafikspeicher ein. That's reality. Die 650 Ti 2 GB habe ich als equivalent zur 7790 2 GB genommen. Beide liegen in der gleichen Leistungsklasse.

Persönlich habe mir aus Spaß mit der APU 256 MB, 512 MB und 1024 MB in 720p Ultra eingestellt und mich im Whiterun am Felsvorsprung dreimal im Kreis gedreht:

- 256 MB, Nachladeruckler, Framedrops mit VRAM Entleerung -- 7.5-15 Fps
- 512 MB, weniger Nachladeruckler, weniger Framdrops mit VRAM Entleerung -- 9.5-15 Fps
- 1024 MB, keine Nachladeruckler, keine VRAM Entleerung -- 13.5-15 Fps

Solange genug Grafikspeicher vorhanden ist und nicht systematisch ausgelagert wird bzw. später geleert werden muss, ist die Performance ok. 256 MB und 512 MB VRAM sind aber dennoch zuwenig. Bei 1 GB kann sich die APU noch halten, ohne Nachladeruckler und Drops, obwohl der VRAM konstant bei +|- 1001 MB steht. In flüssigen Gefilden bei 40-45 Fps in Low konnte ich die Situation ebenfalls nachstellen.

Jede Grafikkarte verbraucht übertaktet mehr Strom. Eine HD7790 in der Nähe einer HD7850 wird einen ähnlichen Verbrauch haben. Dies zeigt der Test von xTc, wenn dies bei dir Stromfresser, ist ich weiß nicht. Ich nenne es Performance pro Watt.

Persönliche äußere ich mich zu dem Thema nicht mehr.

Was AMD und Intel und Intel angeht:
Einen FX8350 nutze ich nicht und habe auch keine Vergleichsmöglichkeit. Zwischen dem Ivy i7 3770K gegenüber einem Xeon X5690 gibts bei mir in der Arbeit ein klares: Xeon Server 6 Kerne > Desktop Ivy 4 Kerner + HT. Der Xeon bricht bei voller Auslastung der Threads nicht weg, wie der 3770. Beim Ivy geht fast nichts mehr, wenn ich einen Browserfenster öffne, kann mir gut einen Kaffee holen (überspitzt). Genutzt wird eine Software zur Bildanalyse, die auf alle Threads skaliert. Deshalb hat mich das Ergebnis des Tests der PCGH zwischen FX8350 vs i7 3770, in dem die Multitasking und Multithreaded Belastung getestet wurde, nicht überrascht. Meiner Ansicht nach siehts so aus: Echte Kerne > CMT > SMT. Intel hat natürlich den IPC Vorteil.

Hat sich der TE nun entschieden?

Auch ich halte eine solche Diskussion, Intel vs. AMD, ganz einfach für niveaulos. Man möge sich doch besser freuen, dass all diese Prozessoren verfügbar sind. Irgendwelche Vergleiche hinken ohnehin, weil ganz einfach keine exakt gleichen Vergleichsbedingungen vorherrschen. Und ein Kollege sagte mir, er hatte neulich ein Spiel beim Wickel, da war der FX 8350 eindeutig der bessere, aber ist denn das Leben von ein paar Fps mehr abhängig, ich denke nein!
Für meine Zwecke ist der Einsatz des AMD FX 8350 optimal, nicht zuletzt spielen die wirtschaftlichen Aspekte schlußendlich auch noch eine nicht zu unterschätzende Rolle, ist aber nicht die dominierende!
Mir würde der FX wirklich fehlen, weil er richtig eingesetzt, ganz einfach gut ist :-)

Wie gesagt, das Leben am und mit dem Rechner besteht nun mal nicht nur aus grafischen Game-Herausforderungen, denn hier spricht halt die GraKa das entscheidende Wort und weniger die CPU (jedenfalls bei Intel)!
 
Zuletzt bearbeitet:
Es ist halt so, dass AMD die FX sowas von gehyped hat, dass man denken musste, sie hätten jetzt den heiligen Gral entdeckt ;)

Übrigens, eine Diskussion ist nicht per se niveaulos. Kommt halt drauf an, was man daraus macht. Aber eine niveaulose Diskussion kann ich hier nicht feststellen.
 
Zuletzt bearbeitet von einem Moderator:
Es ist halt so, dass AMD die FX sowas von gehyped hat, dass man denken musste, sie hätten jetzt den heiligen Gral entdeckt ;)

Übrigens, eine Diskussion ist nicht per se niveaulos. Kommt halt drauf an, was man daraus macht. Aber eine niveaulose Diskussion kann ich hier nicht feststellen.

stimmt schon, aber was AMD werbemäßg rausgehauen hat ist das aber leider zum Teil (Intel ist allerdings keineswegs besser)! Was will man denn machen, in unserer Geld orientierten Gesellschaft artet halt so manches schnell aus.
Die Krone setzt AMD dem Ganzen wohl mit der Markteinführung dieser 5 GHz Wunderdinger auf, nur wie gesagt, Klappern gehört nun mal zum Handwerk und das ist in unserer erfolgreichen Wirtschaft überlebenswichtig ;-) !
 
Zuletzt bearbeitet:
Problem ist das AMD mmn das FX Label geächtet hat mit dem was sie rausgehauen haben.

Das hätte ich nicht so gemacht.

Wie dem auch sei hoffe ich auf die APU Sparte, mein aktuelles System soll noch 2-3 Jahre im Dienst bleiben (wenn ich das mal schaffe) und dann durch ein APU System + dezidierte Graka abgelöst werden. Bin gespannt wie weit AMD bis dahin ist...

Lg Marti (gesendet von unterwegs)
 
AMD nennt diese Technik heterogeneous Uniform Memory Access, kurz hUMA. Uniform bedeutet hier einheitlich oder gemeinsam und nicht geteilt. hUMA ist ein Key-Feature von HSA.

Zitiere:
Die Heterogenous System Architecture (kurz HSA, ehemals Fusion System Architecture)[1] ist ein von AMD entwickelte Prozessorkonzept, um Haupt- und Grafikprozessor möglichst effizient auf einem Computerchip (Die) zu vereinen und dadurch das Ausführen von spezialisierten Programmen zu beschleunigen. Dies soll unter Anderem die Gesamtperformance von APUs (Accelerated Processing Unit) deutlich steigern. Hauptmerkmal von HSA ist, dass die CPU-Kerne und der Grafikprozessor auf einen gemeinsamen Adressraum und Speicher (RAM) zugreifen.

Immer noch ein und? Kern-Feature hin oder her, das ist für GPU-Computing vielleicht wichtig, aber der Einsatz eines geteilten Adressraums hat deswegen doch nicht zwingend zur Folge, dass dieses genutzt oder betrieben wird. Wie ich schon mal schrieb, wo sollen die Ressourcen herkommen? Das was an der GPU an Profit für durch Optimierungen am Ende rum kommt dürfte komplett in die Grafik knattern. Die Bewerben die Konsolen mit ziemlich gut aussehenden Techdemos, wenn die das auf der Hardwareumsetzen ist die GPU auch voll ausgelastet.

Der Sinn hinter HSA ist, die ungenutzten Ressourcen der GPU, der CPU zu gute kommen zu lassen. Nur sehe ich nicht, dass das wer angekündigt hat noch Potenzial dafür in der Hardware bzw ihren Ressourcen.

Wie gesagt, das Leben am und mit dem Rechner besteht nun mal nicht nur aus grafischen Game-Herausforderungen, denn hier spricht halt die GraKa das entscheidende Wort und weniger die CPU (jedenfalls bei Intel)!

Wenn du dir ums Niveau sorgen machst solltest du dir vielleicht auch die Mühe machen besser zu Differenzieren. Intel bietet Leistung unter und oberhalb des FX 8350 in jeder Lebenslage. Intel als Spiele CPU hinzustellen ist lächerlich, besonders wo AMD das meiste Geld mit Gaming-GPUs und APUs verdient. Intel lässt sich Leistung besser bezahlen, du hast auf den Preis geschaut und das beste für deinen Geldbeutel gekauft, jemand anderes hat in einen Intel sechs Kerner mehr Geld investiert und berechnet deinen Kram wahrscheinlich schneller. AMD und Intel bewältigen beide die selben Aufgaben-Gebiete...
 
AMD nennt diese Technik heterogeneous Uniform Memory Access, kurz hUMA. Uniform bedeutet hier einheitlich oder gemeinsam und nicht geteilt. hUMA ist ein Key-Feature von HSA.

Zitiere:
Die Heterogenous System Architecture (kurz HSA, ehemals Fusion System Architecture)[1] ist ein von AMD entwickelte Prozessorkonzept, um Haupt- und Grafikprozessor möglichst effizient auf einem Computerchip (Die) zu vereinen und dadurch das Ausführen von spezialisierten Programmen zu beschleunigen. Dies soll unter Anderem die Gesamtperformance von APUs (Accelerated Processing Unit) deutlich steigern. Hauptmerkmal von HSA ist, dass die CPU-Kerne und der Grafikprozessor auf einen gemeinsamen Adressraum und Speicher (RAM) zugreifen.

Ich sag ja, du hast keine Ahnung von dem, was du hier von dir gibst.
Geteilt meint in dem Fall nicht das Aufteilen in zwei Teile, sondern viel eher das "zwei Sachen teilen sich einen Adressraum". Micks Aussage ist somit vollkommen richtig.

Zum anderen, mit aktueller Umsetzung wird dort so gar nix beschleunigt. Das einzige was man potentiell machen kann, wäre die Recheneinheiten des GPU Teils via OpenCL oder anderer Geschichten anzusprechen. Von alleine passiert da nichts. Es wird also auch nichts beschleunigt und die Gesamtperformance bleibt durch HSA auch vollkommen auf dem Niveau, wie die Technik es liefern würde, ohne "HSA zu können".

Nur ist das absolut gar nix neues. Bei NV gibt es für sowas beispielsweise CUDA und CUDA gibts seit G80 Zeiten. Also 2006/2007. Das was AMD heute und hier zeigt, ist und bleibt aus meiner Sicht nur ein "Marketing-Papiertieger". Denn jeder fähige Programmierer kann eine GPU, welche OpenCL, Direct Compute, AMD Stream oder NV Cuda fähig ist für gewisse Berechnungen ansprechen. Da brauch es weder AMD noch HSA oder hUMA dazu!

Ich frage mich also, was willst du uns hier mit den Zitaten überhaupt aufzeigen?
Das ganze Konzept von AMD wird für ihre APUs erst dann richtig interessant, wenn die Hardware selbstständig unter der Decke (das meint dabei völlig ohne Zutun der Software durch Anpassungen) die GPU anspricht und Berechnungen die der GPU gut liegen, auf dieser ausführt, anstatt klassisch die CPU dafür zu quälen... Ob das ganze aber beispielsweise im Gamingumfeld so sinnvoll ist, steht auf nem anderen Blatt. Denn wenn man die GPU zur Beschleunigung ranzieht, so bleibt auch weniger Performance für Aufgaben, die allein auf der GPU ausgeführt werden. (Beispielsweise die 3D Bildberechnung in Games)

Was AMD und Intel und Intel angeht:
Einen FX8350 nutze ich nicht und habe auch keine Vergleichsmöglichkeit. Zwischen dem Ivy i7 3770K gegenüber einem Xeon X5690 gibts bei mir in der Arbeit ein klares: Xeon Server 6 Kerne > Desktop Ivy 4 Kerner + HT. Der Xeon bricht bei voller Auslastung der Threads nicht weg, wie der 3770. Beim Ivy geht fast nichts mehr, wenn ich einen Browserfenster öffne, kann mir gut einen Kaffee holen (überspitzt). Genutzt wird eine Software zur Bildanalyse, die auf alle Threads skaliert. Deshalb hat mich das Ergebnis des Tests der PCGH zwischen FX8350 vs i7 3770, in dem die Multitasking und Multithreaded Belastung getestet wurde, nicht überrascht. Meiner Ansicht nach siehts so aus: Echte Kerne > CMT > SMT. Intel hat natürlich den IPC Vorteil.

Auch der Vergleich hinkt ohne Ende... Wenn du die sechs Cores des Xeons ähnlich stark belastest, wie die des 3770K, so entsteht auch das gleiche Bild, sprich bei ersterem 12, beim anderen acht Threads voll ausfahren. Zumal der Xeon ebenso SMT beherscht und faktisch SMT also kein Nachteil/Vorteil in dieser Betrachtung sein kann. SMT soll auch gar nicht vollwertige Kerne ersetzen, sondern viel eher die Auslastung der vorhandenen Recheneinheiten verbessern. -> was es in den meisten Fällen auch macht.
Im übrigen würde ich fast wetten, das das Xeonsystem aus keiner vergleichbaren Resthardware zum Ivy System besteht. Ein objektiver Vergleich des Ansprechverhaltens von der Warte her schon quasi auszuschließen ist.
 
Ich sag ja, du hast keine Ahnung von dem, was du hier von dir gibst.
Geteilt meint in dem Fall nicht das Aufteilen in zwei Teile, sondern viel eher das "zwei Sachen teilen sich einen Adressraum". Micks Aussage ist somit vollkommen richtig.

Dann muss er es klarer Differenzieren, die Aussage war missverständlich. Mich hat seine Aussage verwirrt. Außerdem woher willst du wissen, was Mick denkt und wie er es meint. Ist dies etwa dein Doppelaccount?

Das ganze Konzept von AMD wird für ihre APUs erst dann richtig interessant, wenn die Hardware selbstständig unter der Decke (das meint dabei völlig ohne Zutun der Software durch Anpassungen) die GPU anspricht und Berechnungen die der GPU gut liegen, auf dieser ausführt, anstatt klassisch die CPU dafür zu quälen...

Wozu ist nun der gemeinsame Adressraum? Zur Optimierung der Kommunikationswege und besserem Ansprechverhalten zwischen CPU und GPU, welches nebenbei die Effizienz steigern soll und die Programmierung vereinfacht nach AMD. Was letzendlich wieviel Performance bringt weiß weder ich, noch du, noch Mick. Du hast eine zurückhaltende Meinung, ich sehe die Entwicklung positiv.

Ob das ganze aber beispielsweise im Gamingumfeld so sinnvoll ist, steht auf nem anderen Blatt. Denn wenn man die GPU zur Beschleunigung ranzieht, so bleibt auch weniger Performance für Aufgaben, die allein auf der GPU ausgeführt werden. (Beispielsweise die 3D Bildberechnung in Games)

Zumindest gehe ich davon aus, dass ein Fortschritt erkennbar sein wird zu jetzigen APUs und dies nicht nur durch GCN, sondern als Gesamtperformance.

Auch der Vergleich hinkt ohne Ende... Wenn du die sechs Cores des Xeons ähnlich stark belastest, wie die des 3770K, so entsteht auch das gleiche Bild, sprich bei ersterem 12, beim anderen acht Threads voll ausfahren.

Du hast dies falsch aufgefasst. Der Xeon lief mit 6 Kernen (ohne SMT), blieb aber immer responsive. Der i7 3770 hatte seine Probleme genau dies zu tuen. Dies fiel mir mit einem i3 + SMT mit Multithreading früher auf. Das vollwertige Kerne durch SMT nicht ersetzt werden können, ist logisch.

Es ist meine persönliche Erfahrung und kein Trollpost, wie du es vielleicht siehst. Man wird dies in einem Forum berichten können, anscheinend vertragen manche Menschen hier keine andere Meinung oder Sichtweise.
 
Zuletzt bearbeitet:
Der Mick, der ist weder der Zweit-Account von Sonne, noch hat der Mick sich für einen Informatiker zweideutig Ausgedrückt, was den geteilten Adressraum angeht... :wink:
 
Dann muss er es klarer Differenzieren, die Aussage war missverständlich. Mich hat seine Aussage verwirrt. Außerdem woher willst du wissen, was Mick denkt und wie er es meint. Ist dies etwa dein Doppelaccount?
Nein, sowas habe ich definitiv nicht nötig ;)
Aber sei es drum, die Aussage war aus meiner Sicht nicht missverständlich. Wenn du es nicht verstanden hast, oder dich verwirrt fühlst, wäre es ggf. sinnvoller, einfach nachzufragen anstatt mit nem Zitat umdich zu werfen, was schlussendlich das gleiche aussagt.

Wozu ist nun der gemeinsame Adressraum? Zur Optimierung der Kommunikationswege und besserem Ansprechverhalten zwischen CPU und GPU, welches nebenbei die effizienz steigern soll und die Programmierung vereinfacht. Was letzendlich wieviel Performance bringt weiß weder ich, noch du, noch Mick. Du hast eine zurückhaltende Meinung, ich sehe die Entwicklung positiv.
Der gemeinsame Adressraum spart den Übertragungsvorgang der Daten von RAM zu VRAM. Aber wie eingangs schon erwähnt müssen A) auch Daten übertragen werden. Und B) sind wir bei Games eben an dem Punkt, das idR die Games ihre VRAM Daten initial beim Spielstart/Levelstart oder Kontentwechsel einmalig zu einem sehr sehr großen Teil in den VRAM Bereich übertragen. Ein sehr gutes Beispiel dafür hast du dir selbst gegeben. Nämlich Skyrim. Bei nem Teleport entsteht ein Ladescreen. Der User kann so oder so nicht agieren. Also hat das System auch Zeit um solche Datenübertragungen durchzuführen. Die absolute Änderungsrate des VRAM Datenbestandes wärend man in der Welt rumläuft ohne essentiell einen Ladescreen zu erzeugen ist anhand der Messungen sehr gering. Und geht man völlig abseits von Games, benötigt man für einen positiven Effekt in Sachen Performance durch hUMA immernoch eine Software, die die GPU überhaupt erstmal in irgend einer Weise ansprechen kann. (Davon gibts aktuell nicht sonderlich viel, wie mir scheint)
hUMA würde also für das reine Gamen auf ner APU an der Stelle eher wenig bis keine Vorteile bringen. Speziell bei Games mit Ladescreens, die alle Nase lang irgendwo auftauchen nicht... Echte OpenWorld Games ala Gothic 3, wo die Welt wirklich quasi vollständig frei begehbar ist! gibt es sehr sehr selten.

Ansonsten wird das Ganze eben benötigt, wenn du gewisse Berechnungen durch die GPU Einheiten durchführen willst ohne das der Programmierer explizit die GPU als solches anspricht. Aber das ist eben schlicht noch Zukunftsmusik und kommt wenn mich nicht alles täuscht weder mit den neuen Konsolen noch mit den "Desktop" Ablegern der Jaguar APUs.

Du hast die falsch aufgefasst. Der Xeon lief mit 6 Kernen (ohne SMT), blieb aber immer responsive. Der i7 3770 hatte seine Probleme genau dies zu tuen. Dies fiel mir mit einem i3 + SMT mit Multithreading früher auf. Dies ist meine persönliche Erfahrung und kein Trollpost, wie du es vielleicht siehst. Man wird dies in einem Forum berichten können, anscheinend vertragen manche Menschen hier keine andere Meinung.

Ich sag doch der Vergleich hinkt... Und das gewaltig. SMT ist dafür da, die Einheiten besser auszulasten. Schaltest du auf dem Xeon SMT ab, so hast du schlicht auch weniger Belastung pro Einheit bei der gleichen ausgeführten Aufgabe (Programm) wie beim i7-3770K inkl. SMT. Das macht einen Vergleich des Ansprechverhaltens ziemlich unsinnig aus meiner Sicht, denn die Bedingungen sind schlicht deutlich unterschiedlich.
Ich kann dir aber versichern, das man ein Xeonsystem genau so wie jedes andere auch spielend vollkommen in die Ecke fahren kann, wenn man es drauf anlegt. Die Hardware selbst agiert dabei in keinster Weise unterschiedlich zu irgend einem Desktop Intel System, geschweige denn zu irgend einem AMD System.
Im übrigen, um das Ansprechverhalten auch bei absoluter CPU Volllast anständig zu gewährleisten haben Betriebssysteme einen näckigen Schalter. Damit kann man die Prozesspriorität verdrehen. -> wirkt wahre Wunder ;)
 
Zum anderen, mit aktueller Umsetzung wird dort so gar nix beschleunigt. Das einzige was man potentiell machen kann, wäre die Recheneinheiten des GPU Teils via OpenCL oder anderer Geschichten anzusprechen. Von alleine passiert da nichts. Es wird also auch nichts beschleunigt und die Gesamtperformance bleibt durch HSA auch vollkommen auf dem Niveau, wie die Technik es liefern würde, ohne "HSA zu können".

Nur ist das absolut gar nix neues. Bei NV gibt es für sowas beispielsweise CUDA und CUDA gibts seit G80 Zeiten. Also 2006/2007. Das was AMD heute und hier zeigt, ist und bleibt aus meiner Sicht nur ein "Marketing-Papiertieger". Denn jeder fähige Programmierer kann eine GPU, welche OpenCL, Direct Compute, AMD Stream oder NV Cuda fähig ist für gewisse Berechnungen ansprechen. Da brauch es weder AMD noch HSA oder hUMA dazu!

Ja das stimmt, eine GPU rechnet nicht schneller dank HSA. Man kann aber durch HSA einfacher als Programmierer die Ressourcen nutzen. Es wird kein Overhead für das Ansprechen mit OpenGL/DirektX/Cuda und auch keine Zeit durch kopieren von Daten in die entsprechenden Adressräume "verschwendet", sondern die GPU zählt fast als zusätzlicher Kern. Aus dem Grund des Wegfalls des Kopieren der Daten kann die GPU aber schon effizient bei relativ kleinen Datenmengen eingesetzt werden, da man durch das Ausführen eben nicht auch noch die Zeit des Kopieren ausgleichen muss.
Als Beispiel: Sortier Algorithmen lohnen sich erst ab mehreren tausend Einträgen, auf der GPU, da das kopieren der Daten eben relativ viel Zeit in Anspruch nimmt, mit hUMA wird man aber wohl schon mit 100 Einträgen schneller sein. Ab einer bestimmten Datenmenge beschleunigt HSA/HUMA aber auch hier nichts mehr, da der Kopieranteil vernachlässigbar ist. Jetzt ist natürlich die Frage, Sortiert man in 0815 Code mehr kleine Daten oder große Datenbanken?


Das ganze Konzept von AMD wird für ihre APUs erst dann richtig interessant, wenn die Hardware selbstständig unter der Decke (das meint dabei völlig ohne Zutun der Software durch Anpassungen) die GPU anspricht und Berechnungen die der GPU gut liegen, auf dieser ausführt, anstatt klassisch die CPU dafür zu quälen... Ob das ganze aber beispielsweise im Gamingumfeld so sinnvoll ist, steht auf nem anderen Blatt. Denn wenn man die GPU zur Beschleunigung ranzieht, so bleibt auch weniger Performance für Aufgaben, die allein auf der GPU ausgeführt werden. (Beispielsweise die 3D Bildberechnung in Games)

Das ganze in Hardware würde große Änderungen am Decoder verlangen und das größte Problem wird sein, dass der Decoder ein "dummes" Stück Hardware ist, dass nicht weiß, ob ein Code abschnitt gut parallelisierbar ist oder nicht. Bzw. weiß er nicht mal, welcher Befehl als nächstes kommen wird geschweige denn eine realtime Codeanalyse ausführen kann.

Für HSA wird man vermutlich immer einen angepassten Compiler verwenden müssen, der sagen kann, ob sich der Codeabschnitt lohnt auf der GPU auszuführen oder nicht und zusätzlich dazu hat der Programmierer noch die Möglichkeit selbst mittels OpenCL etc. auf die GPU bzw. mit C++ AMP sogar direkt zuzugreifen.

Zum Thema die GPU hat was besseres zu tun: Bei den beiden Consolen werden meines Wissens spezielle Ausführungseinheiten für das ganze Computing integriert sein, die unabhängig von der GPU Last agieren. Wie das später mit Kaveri im Desktop aussieht weiß ich nicht, aber auch hier werden sich ein paar Ressourcen finden, da eine GPU nie zu 100% Ausgelastet ist. Und wenn man von einem Highend gamingrechner ausgeht, dann wird die iGPU nur zum berechnen (KI/Physik) und die dGPU zur Anzeige des Spiels verwendet. Und bei 2D kram ist hat die GPU sowieso nichts zu tun.
 
Zum anderen, mit aktueller Umsetzung wird dort so gar nix beschleunigt. Das einzige was man potentiell machen kann, wäre die Recheneinheiten des GPU Teils via OpenCL oder anderer Geschichten anzusprechen. Von alleine passiert da nichts. Es wird also auch nichts beschleunigt und die Gesamtperformance bleibt durch HSA auch vollkommen auf dem Niveau, wie die Technik es liefern würde, ohne "HSA zu können".

hab ich hsa jetzt nicht verstanden, oder du?
wenn ich als cpu speicheradressen mit der gpu teile, entfällt doch das nervige daten hin und her geschiebe vom ram in den vram, oder nicht?
ich weiss, dass man davon ausgeht, das pcie3 von der speicherbandbreite noch lange nicht ausgeschöpft ist. aber wenn mit hsa die cpu direkt in den vram schreiben kann, hört sich das doch sehr nach performance gewinn an.
auch bezweifle ich, dass hsa nur etwas mit opencl oder "cuda" zu tun haben könnte. es wird sich tatsächlich auf den betrieb einer gpu im klassischen sinn, als 3d beschleuniger, positiv auswirken. es geht nicht darum die gpu mit irgendwas anderem zu beschäftigen, sondern um wege (ram->cpu->pcie->vram->gpu) so kurz wie möglich zu halten.
solange sich das ganze "nur" in einer mittelklasse apu abspielt, wird es jetzige cpu+dgpu gespannen allerdings nicht das wasser reichen können.
 
@fdsonne
Den Schalter kenne ich selbst, bringt sogar in manchen Spielen wenige % an CPU-Leistung. Was ich mit dem Xeon vergleich ausdrücken möchte: Echte Kerne (oder Module) und echte Threads sind durch SMT nicht ersetzbar, deshalb ist der i7 im PCGH Artikel etwas stärker eingeknickt als der FX 8350 trotz höherer IPC pro Kern.

@Mick
Dann haben wir dies ja geklärt, dass du geteilt im Sinne von Teilen sich einen Adressraum gemeint hast, war für mich nicht eindeutig. Mir gefällt die Formulierung sie nutzen einen gemeinsamen Adressraum besser.:d
 
@Mick
Dann haben wir dies ja geklärt, dass du geteilt im Sinne von Teilen sich einen Adressraum gemeint hast, war für mich nicht eindeutig. Mir gefällt die Formulierung sie nutzen einen gemeinsamen Adressraum besser.:d

Na dann wissen wir jetzt ja, dass wir mit unterschiedlichen Worten, das gleiche meinen. ;)
 
Ja das stimmt, eine GPU rechnet nicht schneller dank HSA. Man kann aber durch HSA einfacher als Programmierer die Ressourcen nutzen. Es wird kein Overhead für das Ansprechen mit OpenGL/DirektX/Cuda und auch keine Zeit durch kopieren von Daten in die entsprechenden Adressräume "verschwendet", sondern die GPU zählt fast als zusätzlicher Kern.
Da gebe ich dir natürlich recht. Es macht aber irgendwie eher den Eindruck, als würden die Leute hier davon ausgehen, das wenn HSA drauf steht, auf einmal auch alles irgendwie schneller wird. -> und hier versuche ich eben einzuhaken. Ohne Zutun wird da nicht viel passieren. Da die Software sowie die Hardware lange noch nicht soweit ist, "selbstständig" sowas zu beschleunigen.

Das ganze in Hardware würde große Änderungen am Decoder verlangen und das größte Problem wird sein, dass der Decoder ein "dummes" Stück Hardware ist, dass nicht weiß, ob ein Code abschnitt gut parallelisierbar ist oder nicht. Bzw. weiß er nicht mal, welcher Befehl als nächstes kommen wird geschweige denn eine realtime Codeanalyse ausführen kann.

Für HSA wird man vermutlich immer einen angepassten Compiler verwenden müssen, der sagen kann, ob sich der Codeabschnitt lohnt auf der GPU auszuführen oder nicht und zusätzlich dazu hat der Programmierer noch die Möglichkeit selbst mittels OpenCL etc. auf die GPU bzw. mit C++ AMP sogar direkt zuzugreifen.

Ich denke hier wird sich zeigen, wohin sich die Software entwickeln wird. Ich sehe potentiell aber erstmal das kleinere Problem, das AMD eben nicht ganz in der Marktstellung ist, sowas auf biegen und brechen durchzudrücken, schon gleich dann nicht, wenn Intel da nicht mitspielt. -> ich mein, machen können die ja viel. Ob die Programmiererschaft es annimmt und drauf aufbaut, steht aber auf einem ganz anderen Blatt.
Aber im Endresultat will doch AMD quasi diese "unter der Decke" Version irgendwie auf die Beine stellen. Ob man dann den Code durch nen speziellen Compiler jagen muss, oder wie auch immer das schlussendlich mal ausschauen wird, steht zumindest aus meiner Sicht noch etwas in den Sternen. Und auch aus diesem Grund bin ich eher skeptisch solchen "elementaren" Änderungen gegenüber. Da ich durchaus einschätzen kann, das der Softwaremarkt sehr sehr träge agiert :fresse:

Zum Thema die GPU hat was besseres zu tun: Bei den beiden Consolen werden meines Wissens spezielle Ausführungseinheiten für das ganze Computing integriert sein, die unabhängig von der GPU Last agieren. Wie das später mit Kaveri im Desktop aussieht weiß ich nicht, aber auch hier werden sich ein paar Ressourcen finden, da eine GPU nie zu 100% Ausgelastet ist. Und wenn man von einem Highend gamingrechner ausgeht, dann wird die iGPU nur zum berechnen (KI/Physik) und die dGPU zur Anzeige des Spiels verwendet. Und bei 2D kram ist hat die GPU sowieso nichts zu tun.

Gibts dazu irgendwelche Infos? Klingt ja erstmal nicht verkehrt...
Würde dann aber wiederum den Konzept wohl etwas im Wege stehen... Zumindest dem aktuellen Plan, die GPU zur Beschleunigung ranzuziehen. Geht man den Weg auf nochmals dedizierte andere Einheiten (ich hörte irgendwie in Verbindung mit ARM irgendwas, aber ich glaube nicht auf die Konsole bezogen), hätte man ja nochmal ein ganz anderes Konstrukt.

Ansonsten wie gesagt, ein Verkaufsargument bei den APUs sind ja die hohe GPU Leistung. Und man verkauft das direkt auf Games bezogen... Schmeißt mit Benches um sich usw.
Die GPU dann noch mit Berechnungen löchern, die eigentlich auf der CPU hätten berechnet werden sollen und somit die GPU Leistung abermals etwas drücken, halte ich für ungünstig.
Zumindest wenn die Games da überhaupt irgendwann mitmachen. Denn machen sie das nicht, bringt das ganze auch in Games nichts greifbares ;)

hab ich hsa jetzt nicht verstanden, oder du?
wenn ich als cpu speicheradressen mit der gpu teile, entfällt doch das nervige daten hin und her geschiebe vom ram in den vram, oder nicht?
ich weiss, dass man davon ausgeht, das pcie3 von der speicherbandbreite noch lange nicht ausgeschöpft ist. aber wenn mit hsa die cpu direkt in den vram schreiben kann, hört sich das doch sehr nach performance gewinn an.
auch bezweifle ich, dass hsa nur etwas mit opencl oder "cuda" zu tun haben könnte. es wird sich tatsächlich auf den betrieb einer gpu im klassischen sinn, als 3d beschleuniger, positiv auswirken. es geht nicht darum die gpu mit irgendwas anderem zu beschäftigen, sondern um wege (ram->cpu->pcie->vram->gpu) so kurz wie möglich zu halten.

Neja, ansich ist das schon so. (du meinst aber wohl denke ich hUMA)...
Aber dennoch halte ich stand heute den Performancevorteil durch etwaiges Enfallen der Datentransfers für äußerst gering. Zumindest beim Thema Games bezogen... Da eben nicht ständig riesige Texturedatenmengen hin und her geschaufelt werden müssen. Sondern das aus meiner Sicht eher "selten" passiert. Denn alles was im VRAM drin ist, ist schnell zugreifbar. Da kann hUMA nichts mehr Beschleunigen. Oben siehst du die Ausführungen zu Skyrim. Der VRAM Datenbestand ändert sich wärend des Spielens genau dann essentiell, wenn du nen Ladescreen zu Gesicht bekommst oder wenn der VRAM voll ist. Nur beim Laden kannst du sowieso nix machen. -> ergo interessiert die FPS Leistung wärend der Ladephase auch nicht sonderlich. Ist das Laden durch, ist auch ein Größteil der benötigten VRAM Daten eben im VRAM zu finden.
Klassische Nachladeruckler mit wirklichen FPS Aussätzern (die genau von solchen Transfers kommen!) gibts heute eher selten (bei massiv zu wenig VRAM). -> Diese würde man durch hUMA weitestgehend eliminieren, zumindest wenn die Daten schon im RAM liegen.
Da diese aber heute eher selten bis gar nicht auftreten, fällt auch dieser Vorteil weg.

Unterm Strich bleibt sowas, wie why_me schon sagte. Programme, die dediziert die GPU ansprechend und mit Daten arbeiten, die von einem "CPU Programm" kommen.
An der Geschichte gibts aber Stand heute nicht wirklich viel Software, die überhaupt die GPU ansprechen kann und andererseits ist es alles eine Frage der Aufwandsabschätzung. Als Programmierer muss man stand heute wohl zweigleisig fahren. Dazu kommt die ganze Vielfalt von Schnittstellen usw. Das könnte Aufwand sein, der abschreckt. Speziell für Programmierer, die mal einfach fix ne Idee in irgend ner Weise umsetzen wollen.
Wenn ich mir beispielsweise ansehe, wie viele Tools und Programme ich auf meinen Arbeitsnotebook installiert habe, kann ich die, welche die GPU überhaupt erstmal ansprechen können, an einer Hand abzählen -> und brauch dabei wohl nichtmal alle Finger. All die anderen Programme werden durch HSA so gar keinen Vorteil haben. ;)

@fdsonne
Den Schalter kenne ich selbst, bringt sogar in manchen Spielen wenige % an CPU-Leistung. Was ich mit dem Xeon vergleich ausdrücken möchte: Echte Kerne (oder Module) und echte Threads sind durch SMT nicht ersetzbar, deshalb ist der i7 im PCGH Artikel etwas stärker eingeknickt als der FX 8350 trotz höherer IPC pro Kern.

Nur soll eben SMT auch dafür nicht da sein!?
SMT soll für mehr Auslastung der Einheiten sorgen. Das heist, es liegen weniger Teile der CPU brach als ohne SMT. Im Optimalfall braucht man kein SMT, wenn der Code so derart gut programmiert ist, das NULL Leerlauf entsteht. -> das kommt faktisch aber sogut wie gar nicht vor. Und so erzeugt SMT in nahezu allen Fällen etwas mehr Performance durch höhere Last.

Simples Beispiel:
Das ist wie wenn du sagst, du fährst ein Auto mit vier echten Sitzen und vier Notsitzen.
Und vergleichst dieses gegen ein Auto mit sechs echten Sitzen, aber ausgebauten Notsitzen.
Wärend der erste Wagen bei acht Personen deutlich mehr zu transportieren hat, hätte der andere potentiell noch "Luft"...
 
Klassische Nachladeruckler mit wirklichen FPS Aussätzern (die genau von solchen Transfers kommen!) gibts heute eher selten (bei massiv zu wenig VRAM).

Mit AMD APUs gehts :fresse2:. Kann einfach simuliert werden, weil der Grafikspeicher variabel einstellbar ist:

Persönlich habe mir aus Spaß mit der APU 256 MB, 512 MB und 1024 MB in 720p Ultra eingestellt und mich im Whiterun am Felsvorsprung dreimal im Kreis gedreht:

- 256 MB, Nachladeruckler, Framedrops mit VRAM Entleerung -- 7.5-15 Fps
- 512 MB, weniger Nachladeruckler, weniger Framdrops mit VRAM Entleerung -- 9.5-15 Fps
- 1024 MB, keine Nachladeruckler, keine VRAM Entleerung -- 13.5-15 Fps

Mich würde wirklich interessieren was der TE zu gedenken tut. Aktiv dabei ist er ja nicht.
 
Zuletzt bearbeitet:
@dochurt
Sepp nichts für ungut, verstehe dein Problem nicht: HT4U und CB anderer Test und ein anderes Szenario, andere Ergebnisse.


Persönliche äußere ich mich zu dem Thema nicht mehr.

Das ist auch besser so, denn Beleidigungen/ oder Äußerungen die am Thema vorbeigehen, solltest Du am besten für Dich behalten - Du kannst gerne noch dümmeren einen vom Pferd erzählen, hinterfrag Dich mal selber, ob und inwieweit Dein geschriebsel überhaupt zusammen passt !

Btw: So langsam ist es echt auffällig, dass immer wenn es um AMD hier geht, die Freds Lächerlich werden und in ein reductio ad absurdum geführt werden - Scheinbar muss die Birne hohl sein um das zu Verstehen :wink:
 
Mich würde wirklich interessieren was der TE zu gedenken tut. Aktiv dabei ist er ja nicht.
Wundert dich das wirklich? Hier geht es schon lange nicht mehr um kaufberatung und wenn ich es mir genau überlege hat ausser mir nur ein weiterer sich wirklich dem Thema angenommen und im Budget von insg 450€ (bezieht sich auf ein komplettes System und NICHT nur der Prozessor) eine cpu empfohlen.

In jedem anderen forum hätte sich längst ein Moderator eingemischt ;)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh