I5 4570 oder FX 8350

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Deine Theorie, die bereits widerlegt wurde, dies funktioniert nur wenn alles in einem Guss abläuft. Tut es aber nicht in der Realität. Während 8 Prozesse parallel Laufen, macht der 1 Kerner nach jeder fertigen Aufgabe eine kurze Pause. Die reine Prozessierzeit ist länger.

Das ist aber eben viel zu pauschal ohne Angaben von konkreten Werten...
Eine große Einheit, die so viel zu leisten im Stande ist, wie acht kleine Einheiten zusammen ist nunmal nicht langsamer. Daran gibt es nix zu rütteln.

Und der ganze Kram von wegen warten und Leerlauf usw. Auch das ist viel zu pauschal ausgedrückt. Darauf aufbauend kann man keinerlei Leistungen abschätzen. Mal ganz davon ab, macht es nicht den Eindruck, als hättest du hier den technischen Einblick in diese Materie. Vor allem ist es schon ziemlich auffällig sich auf sowas zu stützen, im gleichem Atemzug aber das default Verhalten eines heutigen Betriebssystems vollkommen außer acht zu lassen. Denn ein aktuelles OS schubst so oder so die Arbeit von Core zu Core. Wie viel Leistung sowas kostet, muss wenn überhaupt in einer Detailbetrachtung festgestellt werden. Aber so pauschal irgendwas zu behaupten!?

Ganz einfaches Beispiel:
Du hast acht LKWs und einen Sportwagen. Du willst 80kg Ladung von A nach B transportieren. So schickst du einerseits die acht LKWs los, die alle gleichzeitig jeweils 10kg transportieren, wärend andererseits der Sportwagen die 80kg im gesamten mitnimmt. Fährt der Sportwagen nun noch 8x so schnell wie der LKW ist die reine Transportzeit schlicht gleich. Daran gibts nichts zu rütteln.

Du hast auch ein Standbild auf deinem Monitor. Bewege dich durch eine offene Welt, dann siehst du wie sich der RAM ändert oder springe mal zurück auf den Desktop und ziehe dir gleichzeitig ein Video rein. Das geht mit hUMA einbißchen schneller, die Zugriffszeit verkürzt sich.

Also mal ehrlich... Entweder ich Spiele, oder ich schaue ein Video... Was soll das mit dem hin und her switchen? Musst du jetzt schon irgendwelche Situationen künstlich erzeugen um fadenscheinliche Vorteile aufzeigen zu können?
Wie ich schon sagte, schau dir die VRAM Auslastung eines aktuellen Games wärend der Spielzeit an. Gefühlt 90-95% des Bedarfs wird beim Spielstart in den VRAM geladen. -> daran gibts nix schönzureden.
Und diese Daten kommen initial von der HDD -> ergo auch kein Vorteil durch hUMA.

Weil oben Skyrim angesprochen wurde. Bei mir äußert sich das in etwa so. Ich starte Skyrim und bekomme direkt beim Spielstart irgendwo im Bereich 1,6-1,7GB VRAM Bedarf raus. Nun spiele ich ein paar Minuten/Stunden und bekomme deswegen nicht den x-fachen Wert davon zu sehen. Nein, es bleibt irgendwo im Bereich grob 2GB.

Seine Aussage hört sich an, als ob der VRAM nahzu statisch ist und alles aufnimmt. Dies ist nicht so, die Grafikkarte berechnet je nach Anforderung jede Szene neu (dies ja nach Bildschirm bis zu xy mal pro Sekunde), bedient sich dabei mit vorhanden Daten aus dem VRAM und befreit nicht benötigte Daten aus selbigen. Wenn ich z.B. in Sykrim mich an verschiedenen Orten aufhalte, ist der Verbrauch unterschiedlich und wechselt ständig. Springe du auf deinen Desktop aus dem Game heraus, wird dein VRAM rapide nach unten sacken. Beim Wiedereinstieg ins Game wird schön alles neu aufgebaut. Es ändert sich jede Nanosekunde etwas, deswegen der übertriebene Vergleich mit dem Standbild.

Und auch hier scheint dir der technische Hintergrund etwas zu fehlen. Denn die Anzahl der Bilder pro Sekunde spielt nicht im geringsten eine Rolle beim Speicherbedarf. Der Großteil der dort liegenden Daten, der schlicht nur Platz benötigt, sind Texturdaten. Diese ändern sich nicht! Es ist statischer Kontent. Der geladen wird, wenn benötigt. Und Texturdaten werden häufig mehrfach benötigt. Entsprechend bleibt der Datenbestand lange lange im VRAM.
Wie ich schon sagte, hUMA setzt eigentlich genau dort an, wo der VRAM gar nicht hinwill. Es ist ein Speicher. Und ein Speicher ist dafür da, Daten schnell verfügbar zu halten. hUMA setzt aber nicht an der Verfügbarkeit an. Sondern am Speed, wie die Daten dort reingelangen. Alle Daten, die schon drin sind, profitieren genau NULL von hUMA.

Es gab mal vor Jahren hier im GPU Bereich eine Diskusion, was sinnvoll ist, in Sachen VRAM Größe. Damals waren noch ~256-512MB aktuell. Und man verglich seinerzeit die Werte von AMD und NV GPUs gegeneinander. Mit dem Ergebnis, das seinerzeit die AMD GPUs ihren VRAM Datenbestand schneller entleert hatten als NV. Denn dort sah mal traditionel die Kurve idR nur steigen. -> bis zu dem Punkt, wo der Speicher voll war.
Das ist im Grunde der Weg, der den VRAM so sinnig macht. Nämlich möglichst lange die Daten verfügbar zu halten.

Dann musst du keine neue Seitentabelle in die MMU laden, trotzdem müssen aber noch Register und Co geändert werden, je nach Prozess gewisse Interrups verboten, blablabla und und und.

Zu B) und C) tzz, weiß ich, dass die Aufgaben was miteinader zu tun haben? Davon war nicht die Rede! Es ging nur um 8x1 = 1x8 ...
Zu D) In deiner Welt

Nimms mir nicht übel, aber was soll das jetzt?
Es ging bei weitem nicht um 8x1 oder 1x8. Die Kernaussage von Bunghole Beavis oben war, das die kommenden 8 Cores dieser Konsolen mehr zu leisten im Stande sind, wie aktuelle Desktop CPUs. Gepaart mit einer völlig unsinnigen Pauschalaussage das 8x1 eben mehr sind wie irgendwas anderes. Wie dir nun mittlerweile aufgefallen sein dürfte, lässt sich sowas nicht außerhalb der Theorie pauschalisieren. Vor allem dann nicht, wenn man nicht über konkrete Anhaltswerte in Sachen Leistung spricht. Ich gab ein Gegenbeispiel, das 8x1 eben nicht unbedingt mehr sein müssen wie 1x8. Denn es steht nach wie vor nicht geschrieben, wie viel schneller das 1x8 denn überhaupt gegen die 8x1 auf technischer Seite agiert.
Die ganzen Faktoren, die du hier ansprichst, sind dabei gar nicht Thema und fallen genau dann so gar nicht mehr ins Gewicht, wenn der eine große Kern eben deutlich mehr zu leisten im Stande ist, wie die acht kleinen zusammen.

Das ist dann aber auch kein Spielen mehr, das geht eher in die Richtung "multitasking" da sind ja dann ja zwei Programme die um Leistung konkurrieren.

ich denke diese ominöse Multitasking kann der AMD so gut!?
 
ich denke diese ominöse Multitasking kann der AMD so gut!?

Irgendso ein Knilch hat da mal eine Review bei Youtube zu online gestellt, bei Streaming können die FXs ihre Stärken zur Abwechslung mal wirklich etwas ausspielen. ;) Nur ging es mir darum, dass das Argumente/der Hinweis nicht wirklich in die Diskussion passt. Ist schließlich ein ganz anderes Anwendungsszenario.
 
Das glaube ich dir schlichtweg nicht. Komisch, dass du jetzt ausgerechnet die 60 FPS als Min. genommen hast :fresse2: Sicher, dass es immer 60 sind?
Mach doch mal ein paar YT Beweis Videos im MP.
Siehe unten, mein Ping lag bei 16ms (Tab Taste im Spiel gedrückt halten)
ich denke diese ominöse Multitasking kann der AMD so gut!?
Ja das kann er auch gut, wurde sogar von PCGH bestätigt: CPU-Multitasking im Test: AMD FX vor Intel Core i7 und i5

Eigentlich sollte die Video Aufnahme nur von der HDD limitiert werden, da ich eine SSD habe wäre es ein Versuch Wert, mal schauen welcher Codec da am besten geht und auch 60FPS in Echtzeit schreiben kann. :fresse:
 
Ist doch kein Wunder, will man doch ein GPU Limit ausschließen um ein CPU Limit deutlich zu machen. Wo ist das Problem? Wenn ich die Auflösung runter drehe, wird doch nur meine GPU weniger start belastet. Die CPU Auslastung bleibt aber gleich, was die Min. Frames angeht. Und das sieht man ja recht deutlich, wer da im Vorteil ist.

was bringt es, künstlich einen cpu flaschenhals zu erzeugen, wenn dieser bei 1080p garnicht zum tragen kommt? genau das ist das problem. wenn du die grafik runterdrehst, testest du das spiel nicht so, wie du es eigentlich spielen willst. da es in 1080p absolut im gpu limit läuft, lässt sich kein unterschied zwischen amd und intel ausmachen, nichts anderes zeigen diverse youtube filmchen.
was die min fps angeht, könntest du recht haben, die werden nicht mehr, wenn man die auflösung erhöht. allerdings können sie bei intel aber genausogut auf den gleichen niedrigen wert sinken, sobald das gpu limit ins spiel kommt.
deshalb macht testen in unbrauchbaren auflösungen so gut wie garkeinen sinn.
 
Eigentlich sollte die Video Aufnahme nur von der HDD limitiert werden
Ist so nicht korrekt. Man muss das Aufnahmeprogramm und dessen Spielaufnahme nur auf separate Festplatten packen und dann klappt das auch mit IDE oder Sata Platten. Im Aufnahmeprogramm kannst du dann einstellen (z.b. 30FPS) aber wenn mehr zur Verfügung steht, wird die Aufnahme auch mit entsprechend mehr FPS aufgenommen (außer du hast den "Lock" eingestellt). Ich sage dir jetzt aber schon das du FPS Einbußen haben wirst (bin seid über 6Jhren LPler)

was bringt es, künstlich einen cpu flaschenhals zu erzeugen, wenn dieser bei 1080p garnicht zum tragen kommt?
darauf wollte ich die ganze zeit hinaus. danke!
 
Zuletzt bearbeitet:
Ja das kann er auch gut, wurde sogar von PCGH bestätigt: CPU-Multitasking im Test: AMD FX vor Intel Core i7 und i5

Eigentlich sollte die Video Aufnahme nur von der HDD limitiert werden, da ich eine SSD habe wäre es ein Versuch Wert, mal schauen welcher Codec da am besten geht und auch 60FPS in Echtzeit schreiben kann. :fresse:

Wobei der Test auch nur die halbe Wahrheit spricht...
Ich vermisse irgendwie die Speedergebnise der x264 Benches. Man sieht nur die FPS des Games. Und wie diese wegsacken (oder halt auch nicht).
Das Wegsacken per se ist ja nicht das Problem, denn wenn alle Cores in Use sind, gehts nunmal nicht mehr. Nur muss das ganze natürlich im Verhältnis stehen. -> hier würden die Benchergebnise der x264 Messungen helfen. -> die fallen aber leider unter den Tisch, wenn mich nicht alles täuscht.
 
Eigentlich sollte die Video Aufnahme nur von der HDD limitiert werden, da ich eine SSD habe wäre es ein Versuch Wert, mal schauen welcher Codec da am besten geht und auch 60FPS in Echtzeit schreiben kann. :fresse:

Und wer oder was berechnet das abgreifen und erstellen des Videos? :d

Stimmt wenn man nur in Himmel glotzt kann man sich dann auch über die 100+ Frames erfreuen xD

Siehste so einfach geht das! :d
 
zur not halt unkomprimiert mitlaufen lassen :fresse: da hat dann auch die SSD was zu tun. Wobei der Datentransfer auch CPU Leistung kostet.
 
Dat sollte doch wohl reichen für den kurzen Videobeweis hier :fresse:
 
Ganz ehrlich? Ich kann solche Noobthreads einfach nicht mehr lesen. 6 Seiten Fanboywar und eine Lösung ist immer Subjektiv. Mich wundert das Leute wie Sonne , Mick und Dochurt überhaupt auf solche Threads noch antworten zumal es gereicht hätte einen Vergleichstest zu posten:

Haswell: Intels neue Core i7-4770 und i5-4670 Prozessoren im Test - HT4U.net

Haswell im Test: Core i7-4770K, Core i5-4670K und Core i5-4570

und lieber TE, weisst du was wirklich sinnig wäre? Sich einen Günstigen I5 3570k hier vom Walter oder sonstwem zu holen, dazu ein Board und du wirst null Unterschied zum Haswell spüren. Selbst Broadwell wird dir keinen Grund bieten einen schnelleren Prozessor zu haben, als den I5 3570k. Zudem kostet das Teil weniger ;)
 
Gebrauchter 3570k sollte zwischen 150€ und 175€ zu haben sein, großes Plus von Ivy in gebraucht sind eigentlich die Boards, da bekommt man im Moment relative gute, relativ günstig. Leider kommst du noch sechs Wochen hier nicht in den Marktplatz...
 
Stimmt wenn man nur in Himmel glotzt kann man sich dann auch über die 100+ Frames erfreuen xD

Wobei der Test auch nur die halbe Wahrheit spricht...
Ich vermisse irgendwie die Speedergebnise der x264 Benches. Man sieht nur die FPS des Games. Und wie diese wegsacken (oder halt auch nicht).
Das Wegsacken per se ist ja nicht das Problem, denn wenn alle Cores in Use sind, gehts nunmal nicht mehr. Nur muss das ganze natürlich im Verhältnis stehen. -> hier würden die Benchergebnise der x264 Messungen helfen. -> die fallen aber leider unter den Tisch, wenn mich nicht alles täuscht.
Stimmt die Werte fehlen, wobei es auch gern länger dauern darf, sofern das Spiel noch spielbar ist. ;)




Das ist zwar keine so "stressige" Situation aber die Tendenz ist sichtbar.
 
Zuletzt bearbeitet:
Mal ganz davon ab, macht es nicht den Eindruck, als hättest du hier den technischen Einblick in diese Materie.
Kann von dir auch behauptet werden.

Weil oben Skyrim angesprochen wurde. Bei mir äußert sich das in etwa so. Ich starte Skyrim und bekomme direkt beim Spielstart irgendwo im Bereich 1,6-1,7GB VRAM Bedarf raus. Nun spiele ich ein paar Minuten/Stunden und bekomme deswegen nicht den x-fachen Wert davon zu sehen.

Würde der x-fache Wert anliegen, wären die Grafikkarten ineffektiv. Also werden nur die Texturen geladen, die in deiner sichtbaren Umgebung hauptsächlich genutzt werden. Dies habe ich vorher im Beispiel aufzeigen wollen, der Speicher entleert oder ändert sich, sobald deine Tätigkeit wechselt.

Wie ich schon sagte, hUMA setzt eigentlich genau dort an, wo der VRAM gar nicht hinwill. Es ist ein Speicher. Und ein Speicher ist dafür da, Daten schnell verfügbar zu halten.

Dies habe ich nicht in Frage gestellt.

hUMA setzt aber nicht an der Verfügbarkeit an. Sondern am Speed, wie die Daten dort reingelangen. Alle Daten, die schon drin sind, profitieren genau NULL von hUMA.

Hier ist dein Denkfehler. Umso schneller die Daten verfügbar sind, desto schneller kann kommuniziert werden und umso schneller werden sie erneut wieder bei Bedarf verfügbar sein.

Es gab mal vor Jahren hier im GPU Bereich eine Diskusion, was sinnvoll ist, in Sachen VRAM Größe. Damals waren noch ~256-512MB aktuell. Und man verglich seinerzeit die Werte von AMD und NV GPUs gegeneinander. Mit dem Ergebnis, das seinerzeit die AMD GPUs ihren VRAM Datenbestand schneller entleert hatten als NV. Denn dort sah mal traditionel die Kurve idR nur steigen. -> bis zu dem Punkt, wo der Speicher voll war. Das ist im Grunde der Weg, der den VRAM so sinnig macht. Nämlich möglichst lange die Daten verfügbar zu halten.

Die Diskussion gibts immernoch und jeder der einwenig Reserve haben möchte, sollte am RAM nicht sparen, vorallem wenn er sich mit Grafikverschönerung befasst.


Nimms mir nicht übel, aber was soll das jetzt? Es ging bei weitem nicht um 8x1 oder 1x8. Die Kernaussage von Bunghole Beavis oben war, das die kommenden 8 Cores dieser Konsolen mehr zu leisten im Stande sind, wie aktuelle Desktop CPUs.

Dies hast du dir zu recht geschustert. Meine Behauptung war: Dass die Jaguar-Kerne in der Konsole durch den gemeinsamen Adressraum und hUMA, deutlich stärker sind, als Jaguar-Kerne auf einem Desktop PC. Sie in der Lage in der PS4 eine Karte vom Schlage einer HD7850|HD7870 schnelle genug mit Daten zu füttern, was ich ohne den gemeinsamen Arbeitsspeicher und hUMA in Frage stelle aufgrund der langsam getakteten Kerne.
 
Zuletzt bearbeitet:
In ein guten kühler ala Matterhorn Pure/Brocken sollte auch investiert werden.
Ich bleibe dennoch dabei. Ein FX-6300 reicht vollkommen aus
 
Da ich jetzt den i5 4570 Habe und den 8120 @ 8350 Niveau getaktet habe, muss ich sagen der AMD ist in Anwendungen Schneller. etwa gefühlte 10%
In Spielen merkt man keinen Unterschied, das Problem beim AMD ist aber die Kühlung, das ding wird echt Heiß, und darf nicht weit über 65°C raus gehen.
Boards mit guten Spawas zu finden ist auch nicht so einfach wie ich raus gefunden habe.
Wer Geld Sparen will (~80€) der kann zu AMD greifen inklusive Batelei und Optimierungen an der Kühlung. Oder mehr ausgeben, etwa gleiche Leistung, und nur Zusammen bauen und fertig.
 
Dies hast du dir zu recht geschustert. Meine Behauptung war: Dass die Jaguar-Kerne in der Konsole durch den gemeinsamen Adressraum und hUMA, deutlich stärker sind, als Jaguar-Kerne auf einem Desktop PC. Sie in der Lage in der PS4 eine Karte vom Schlage einer HD7850|HD7870 schnelle genug mit Daten zu füttern, was ich ohne den gemeinsamen Arbeitsspeicher und hUMA in Frage stelle aufgrund der langsam getakteten Kerne.

Mal davon ab, dass das beides das selbe ist, rechnen die Kerne dadurch aber nur schneller. Selbst wenn Durchsatzzeiten für Daten wegfallen, alles was an Berechnungen auf dem Kern abläuft, läuft genauso schnell/langsam wie ohne Huma. Als Wenn so ein System nur den Speicher befühlen und entladen würde die ganze Zeit..: :d
 
muss ich sagen der AMD ist in Anwendungen Schneller. etwa gefühlte 10%

Muss ich fragen, wie fühlst du 10% bei Anwendungen? Aus 10 Sekunden werden dann 9 Sekunden, das spürt man nicht. Das merkt man erst bei großen komplexen Multithread aufgaben und da sollte der FX auch schneller sein als ein i5.
 
Natürlich poste ich gerne niveaulosen Mist, erst Recht wenn ich Deinen Kommentieren kann :d

Der Test von AnandTech ist ja auch wieder Lötzinn, Fehler drin, zu undurchsichtig, kaum/keinerlei Transparenz - Nicht nachstellbar/beweisbar das es tatsächlich durch den doppelten Speicher zu derart hohen Leistungsplus kommt - Bitte nicht vergessen, dass man mit einen Xtreme 6Kerner eine kurze Szene gebencht hat.

Alles klar, jeder Test der nicht in dein Weltbild passt ist Mist. Hier zeigt sich deine niveaulosigkeit. Beweise kannst du nicht liefern, versuchst mir in den Mund zu legen, dass eine HD7790 schneller als eine HD7850 2 GB ist. Dies wurde von mir nicht behauptet. Sondern das Skyrim mit Texture Pack von 2 GB VRAM profitiert, obs nun 5% oder bis zu 90% mehr Leistung sind, weil nichts ausgelagert wird. Es ist Fakt!

In Zukunft können Konsolenspiele auf größere Texturen bauen, den der gemeinsame Speicher der PS4, hat sich um den Faktor 16x vergrößert. Wieso sollten die Entwickler die neuen Ressourcen für neue Spiele nicht nutzen.
 
Bezüglich Temperatur :
Der FX-8120 gehört zu der "schlechteren" Generation und der Nachfolger ist der 8320 den ich auf 4Ghz laufen habe. Unter 30min Prime beläuft sich die Temperatur auf maximal 55ºC aber im normalen Betrieb mit 45ºC. Allerdings mit dem Matterhorn Pure aber ich würde immer, ob amd oder Intel, in einen gescheiten kühler investieren.

Da der te aber "nur" 450€ zur Verfügung hat, empfehle ich weiterhin den FX-6300
 
Würde der x-fache Wert anliegen, wären die Grafikkarten ineffektiv. Also werden nur die Texturen geladen, die in deiner sichtbaren Umgebung hauptsächlich genutzt werden. Dies habe ich vorher im Beispiel aufzeigen wollen, der Speicher entleert oder ändert sich, sobald deine Tätigkeit wechselt.

Nein... Der Speicher ist dafür da, die Texturedaten zum Beispiel schnell verfügbar zu halten. Würde es Mechanismen geben, die die Daten in Echtzeit ohne Leistungsverlust verfügbar schalten könnten, bräuchten wir keinen VRAM der xx GB groß ist um dort Texturedaten vorzuhalten. Denn das abermalige Ablegen von Texturedaten im VRAM ist nur eine "Kopie" der "Kopie". Und es wird genau deswegen gemacht, weil der Zugriff der Daten außerhalb des VRAMs durch die GPU schlicht viel zu langsam ist.
Und nein, der Speicher entleert sich auch nicht ständig. Sondern im Optimalfall fliegt erst dann was raus, wenn der Platz voll ist. Würde deine Theorie stimmen, müsste man beim betreten eines Hauses in Skyrim auf einmal nur noch nen Bruchteil des VRAM Datenbestandes anliegen haben, und beim verlassen dieses Hauses müsste sich der Speicher wieder füllen. Macht er das!? -> Nein.
Ergo bleiben die Daten im VRAM, obwohl sie nicht unbedingt benötigt werden. Und das steht genau dem hUMA Konzept entgegen. Die Daten die im VRAM Bereich liegen, sind schon schnell verfügbar. Mit der richtigen Größe des Speichers kann man sich die ganze Arbeit vollkommen sparen. Mal ganz davon ab, wie ich oben schon sagte, hUMA benötigt die Daten selbst im RAM. Das heist, es muss (speziell auf eine APU bezogen) schon so viel Speicher vorhanden sein, die Daten überhaupt laden zu können. Erst wenn die Daten im RAM sind, kann die GPU potentiell durch hUMA drauf zugreifen. Würde man die Daten nun gleich weiter in den VRAM Bereich schieben, kostet das zwar initial etwas Zeit, aber einmal drin, ist der Zugriff ebenso gegeben. -> hUMA bringt nichts mehr, weil nichts mehr übertragen wird.

Hier ist dein Denkfehler. Umso schneller die Daten verfügbar sind, desto schneller kann kommuniziert werden und umso schneller werden sie erneut wieder bei Bedarf verfügbar sein.
Das stimmt wohl. Nur sprechen wir hier über eine Zeit von wenigen Sekunden beim Levelbegin. Noch dazu laden heutige Games Daten wärend der Laufzeit sehr intelligent nach. Klassische Nachladeruckler gibts nahezu gar nicht mehr. Es sei denn, man hat massive VRAM Knappheit. Aber auch dann bringt hUMA nur bedingt Punkte. Und diese Zeit steht der kompletten Spielzeit gegenüber. Also wo ist dort der Vorteil? Das man anstatt sagen wir 2 Sekunden beim Spielstart nur noch 1,5 Sekunden warten muss? Das wird es definitiv richtig rausreißen ;)

Dies hast du dir zu recht geschustert. Meine Behauptung war: Dass die Jaguar-Kerne in der Konsole durch den gemeinsamen Adressraum und hUMA, deutlich stärker sind, als Jaguar-Kerne auf einem Desktop PC.

Echt? Ich denke, du solltest mal dein Kennwort hier im Forum ändern. Scheinbar schreibt jemand mit deinem Account hier Sätze, wovon du nix weist:
"Acht Low-Power Kerne in der Breite bei entsprechender Optimierung und Parallelisierung haben eine höhere Performance, als ein performanter Kern der in Reihe arbeitet."
Das ist und bleibt schlicht Quatsch ohne Angaben jeglicher Leistungsinformationen... Das habe ich dir aufgezeigt, da ein 8x schneller arbeitender einzel Kern das gleiche zu leisten im Stande ist, wie acht einzelne Einheiten.

Selbst wenn Durchsatzzeiten für Daten wegfallen, alles was an Berechnungen auf dem Kern abläuft, läuft genauso schnell/langsam wie ohne Huma. Als Wenn so ein System nur den Speicher befühlen und entladen würde die ganze Zeit..: :d

Das sag ich ja die ganze Zeit. Aber scheinbar hat AMDs Marketing hier genau ins Schwarze getroffen... Denn "alle Welt" glaubt, durch den Wegfall der Transfers von RAM in VRAM wird auch einmal die Schnecke zur Rakete. Den technischen Hintergrund der Datenmengen, die dort übertragen werden, scheinen nur die wenigsten überhaupt in Betracht zu ziehen.
Und wenn ich mir aktuelle Spieleumsetzungen ansehe, sehe ich alles, aber nicht permanentes rumschaufeln von exorbitanten Datenmengen...


hUMA wird genau dann interessant, wenn AMD ihr Fusion Konzept weiter vorrantreibt. An dem Punkt, wo die GPU unter der Decke ohne dedizierte Softwareunterstütztung Teile von Programmcode beschleunigt, die sonst normal auf der CPU abgearbeitet werden müssten, bringt hUMA sicher konkret auch ein dickes Plus. (mal ganz davon ab, das es wohl ohne solche Querzugriffe gar nicht umsetzbar wäre)
Aber darüber spricht man hier ja nicht, hier gehts um aktuelle! Games und den Wegfall der Datentransfers zwischen RAM und VRAM beim Spielen. ;) Aber genau das wird eben hUMA nicht signifikant beschleunigen können. Da die Daten einmal im VRAM Bereich anliegend schon maximale Leistung zeigen.
 
Zuletzt bearbeitet:
Selbst wenn Durchsatzzeiten für Daten wegfallen, alles was an Berechnungen auf dem Kern abläuft, läuft genauso schnell/langsam wie ohne Huma.

Dies ist korrekt, aber es werden nun Prozesse auf der GPU mitberechnet und somit steht mehr Gesamtleistung zur Verfügung.
 
Zuletzt bearbeitet:
was bringt es, künstlich einen cpu flaschenhals zu erzeugen, wenn dieser bei 1080p garnicht zum tragen kommt? genau das ist das problem. wenn du die grafik runterdrehst, testest du das spiel nicht so, wie du es eigentlich spielen willst. da es in 1080p absolut im gpu limit läuft, lässt sich kein unterschied zwischen amd und intel ausmachen, nichts anderes zeigen diverse youtube filmchen.
was die min fps angeht, könntest du recht haben, die werden nicht mehr, wenn man die auflösung erhöht. allerdings können sie bei intel aber genausogut auf den gleichen niedrigen wert sinken, sobald das gpu limit ins spiel kommt.
deshalb macht testen in unbrauchbaren auflösungen so gut wie garkeinen sinn.

Doch, es macht einen Sinn. Nämlich darf man nicht davon ausgehen, dass jedem die fps mit den getesteten Einstellungen reichen. Der eine ist mit 40 zufrieden, der nächste mit 80, der übernächste braucht im MP 120 - und ist dafür auch bereit, etwas AA oder HBAO wegzulassen. Außerdem wurde hier "nur" eine GTX 680 verwendet. Es gibt mit Custom GTX 780-Modellen schon GPUs, die 50% flotter rechnen oder eben Titan. Im Herbst dann Hawaii. Was die CPUs mit diesen Karten leisten können, sollte man ebenfalls zeigen. Gibt es zum Testzeitpunkt diese Karten noch nicht, muss man eben die GPU-Last etwas senken, um den Blick in die (nahe) Zukunft werfen zu können.

Diese Vorgehensweise ist umso wichtiger, je breiter das Testfeld ist, und in dem verlinkten BF3 MP-Test ist es sehr weit (24-103 fps). Kleinster gemeinsamer Nenner und so. Sonst ist eine CPU am unteren Ende überhaupt nicht GPU-limitiert, eine am oberen Ende aber massiv. So sähe kein vernünftiger Test aus. Am Ende ist es wie immer am Vernünftigsten, wenn man sich getrennte (!) CPU- und GPU-Benchmarks anschaut, wo die jeweilige Komponente, um die es geht, maximal belastet wird bzw. wo nichts verfälscht wird durch andere Komponenten.
 
Zuletzt bearbeitet:
Dies ist korrekt, aber es werden nun Prozesse auf der GPU mitberechnet und somit steht mehr Leistung zur Verfügung.

Aber nicht mit Jaguar ;)
Das was du ansprichst, kommt irgendwann in der Zukunft, aber nicht heute mit Jaguar. Die GPU macht genau dann etwas, wenn ihr eine Arbeit gegeben wird. Von allein kommt da genau Null Leistung raus.
Wenn man so will, ist die GPU immernoch die klassische GPU, wie wenn du ne Grafikkarte in den PC zusteckst. Erst mit der richtigen Software bekommst du aus der GPU überhaupt Leistung raus. Beispielsweise Games, oder die GPU Beschleunigung von Browsern usw.
 
Alles klar, jeder Test der nicht in dein Weltbild passt ist Mist. Hier zeigt sich deine niveaulosigkeit. Beweise kannst du nicht liefern, versuchst mir in den Mund zu legen, dass eine HD7790 schneller als eine HD7850 2 GB ist. Dies wurde von mir nicht behauptet. Sondern das Skyrim mit Texture Pack von 2 GB VRAM profitiert, obs nun 5% oder bis zu 90% mehr Leistung sind, weil nichts ausgelagert wird. Es ist Fakt!

In Zukunft können Konsolenspiele auf größere Texturen bauen, den der gemeinsame Speicher der PS4, hat sich um den Faktor 16x vergrößert. Wieso sollten die Entwickler die neuen Ressourcen für neue Spiele nicht nutzen.

Du bist echt Lustig :d

Kannst nicht ab das auch im Anandtech Test diverse Fehler drin sind ? :d

Hier Vergleich mal diesen Bench mit dem von Anand :

skyrim lol.jpg

Der wert von der 550ti kommt ja noch einigermaßen hin, nur ab der HD6850/7850-1gb/2GB wirds Kurios :d

Btw: Beide Tests mit HD-Texturenpack in 1920 mit 4xAA, nicht Kacke ^^

P.S. Und Nein, es ist kein Fakt :p

So jetzt ist aber auch Ende, aber auch wenn Du mir es nicht glaubst,l ich freu mie das Du Dir eine Zukunftssichere GK mit 2GB gekauft hast :fresse:
 
Und nein, der Speicher entleert sich auch nicht ständig. Sondern im Optimalfall fliegt erst dann was raus, wenn der Platz voll ist. Würde deine Theorie stimmen, müsste man beim betreten eines Hauses in Skyrim auf einmal nur noch nen Bruchteil des VRAM Datenbestandes anliegen haben, und beim verlassen dieses Hauses müsste sich der Speicher wieder füllen. Macht er das!? -> Nein.

Sobald ich auf den Desktop wechsle und wieder zurück ins Spiel ist der Speicher geleert, davor füllt er sich im Game, wenn ich an einem Ort verweile. Reise ich von Stadt zu Stadt mit dem Travelsystem ändert er sich +|- je nach Aufenthaltsort. Hier wird eine neue Szene in einer neuen Umgebung generiert. Dies predige ich hier seit gestern.

hUMA wird genau dann interessant, wenn AMD ihr Fusion Konzept weiter vorrantreibt. An dem Punkt, wo die GPU unter der Decke ohne dedizierte Softwareunterstütztung Teile von Programmcode beschleunigt, die sonst normal auf der CPU abgearbeitet werden müssten, bringt hUMA sicher konkret auch ein dickes Plus.

Dies geschieht zuerst auf der PS4 und wandert dann in den Desktop PC. Warten wir bis November ab, was sich AMD einfallen lässt auf der Entwicklerkonferenz. Vielleicht sieht jeder auf Folien, welche Plusleistung nun im Optimalfall herauskommt.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh