Mick_Foley
Semiprofi
- Mitglied seit
- 10.02.2008
- Beiträge
- 15.045
Natürlich, ich trinke gerade frischen Kaffee!
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Deine Theorie, die bereits widerlegt wurde, dies funktioniert nur wenn alles in einem Guss abläuft. Tut es aber nicht in der Realität. Während 8 Prozesse parallel Laufen, macht der 1 Kerner nach jeder fertigen Aufgabe eine kurze Pause. Die reine Prozessierzeit ist länger.
Du hast auch ein Standbild auf deinem Monitor. Bewege dich durch eine offene Welt, dann siehst du wie sich der RAM ändert oder springe mal zurück auf den Desktop und ziehe dir gleichzeitig ein Video rein. Das geht mit hUMA einbißchen schneller, die Zugriffszeit verkürzt sich.
Seine Aussage hört sich an, als ob der VRAM nahzu statisch ist und alles aufnimmt. Dies ist nicht so, die Grafikkarte berechnet je nach Anforderung jede Szene neu (dies ja nach Bildschirm bis zu xy mal pro Sekunde), bedient sich dabei mit vorhanden Daten aus dem VRAM und befreit nicht benötigte Daten aus selbigen. Wenn ich z.B. in Sykrim mich an verschiedenen Orten aufhalte, ist der Verbrauch unterschiedlich und wechselt ständig. Springe du auf deinen Desktop aus dem Game heraus, wird dein VRAM rapide nach unten sacken. Beim Wiedereinstieg ins Game wird schön alles neu aufgebaut. Es ändert sich jede Nanosekunde etwas, deswegen der übertriebene Vergleich mit dem Standbild.
Dann musst du keine neue Seitentabelle in die MMU laden, trotzdem müssen aber noch Register und Co geändert werden, je nach Prozess gewisse Interrups verboten, blablabla und und und.
Zu B) und C) tzz, weiß ich, dass die Aufgaben was miteinader zu tun haben? Davon war nicht die Rede! Es ging nur um 8x1 = 1x8 ...
Zu D) In deiner Welt
Das ist dann aber auch kein Spielen mehr, das geht eher in die Richtung "multitasking" da sind ja dann ja zwei Programme die um Leistung konkurrieren.
ich denke diese ominöse Multitasking kann der AMD so gut!?
Siehe unten, mein Ping lag bei 16ms (Tab Taste im Spiel gedrückt halten)Das glaube ich dir schlichtweg nicht. Komisch, dass du jetzt ausgerechnet die 60 FPS als Min. genommen hast Sicher, dass es immer 60 sind?
Mach doch mal ein paar YT Beweis Videos im MP.
Ja das kann er auch gut, wurde sogar von PCGH bestätigt: CPU-Multitasking im Test: AMD FX vor Intel Core i7 und i5ich denke diese ominöse Multitasking kann der AMD so gut!?
Du spielst hat falsch...
Ist doch kein Wunder, will man doch ein GPU Limit ausschließen um ein CPU Limit deutlich zu machen. Wo ist das Problem? Wenn ich die Auflösung runter drehe, wird doch nur meine GPU weniger start belastet. Die CPU Auslastung bleibt aber gleich, was die Min. Frames angeht. Und das sieht man ja recht deutlich, wer da im Vorteil ist.
Ist so nicht korrekt. Man muss das Aufnahmeprogramm und dessen Spielaufnahme nur auf separate Festplatten packen und dann klappt das auch mit IDE oder Sata Platten. Im Aufnahmeprogramm kannst du dann einstellen (z.b. 30FPS) aber wenn mehr zur Verfügung steht, wird die Aufnahme auch mit entsprechend mehr FPS aufgenommen (außer du hast den "Lock" eingestellt). Ich sage dir jetzt aber schon das du FPS Einbußen haben wirst (bin seid über 6Jhren LPler)Eigentlich sollte die Video Aufnahme nur von der HDD limitiert werden
darauf wollte ich die ganze zeit hinaus. danke!was bringt es, künstlich einen cpu flaschenhals zu erzeugen, wenn dieser bei 1080p garnicht zum tragen kommt?
Ja das kann er auch gut, wurde sogar von PCGH bestätigt: CPU-Multitasking im Test: AMD FX vor Intel Core i7 und i5
Eigentlich sollte die Video Aufnahme nur von der HDD limitiert werden, da ich eine SSD habe wäre es ein Versuch Wert, mal schauen welcher Codec da am besten geht und auch 60FPS in Echtzeit schreiben kann.
Eigentlich sollte die Video Aufnahme nur von der HDD limitiert werden, da ich eine SSD habe wäre es ein Versuch Wert, mal schauen welcher Codec da am besten geht und auch 60FPS in Echtzeit schreiben kann.
Stimmt wenn man nur in Himmel glotzt kann man sich dann auch über die 100+ Frames erfreuen xD
ist das beste was man tun kannzur not halt unkomprimiert mitlaufen lassen
Stimmt wenn man nur in Himmel glotzt kann man sich dann auch über die 100+ Frames erfreuen xD
Stimmt die Werte fehlen, wobei es auch gern länger dauern darf, sofern das Spiel noch spielbar ist.Wobei der Test auch nur die halbe Wahrheit spricht...
Ich vermisse irgendwie die Speedergebnise der x264 Benches. Man sieht nur die FPS des Games. Und wie diese wegsacken (oder halt auch nicht).
Das Wegsacken per se ist ja nicht das Problem, denn wenn alle Cores in Use sind, gehts nunmal nicht mehr. Nur muss das ganze natürlich im Verhältnis stehen. -> hier würden die Benchergebnise der x264 Messungen helfen. -> die fallen aber leider unter den Tisch, wenn mich nicht alles täuscht.
Kann von dir auch behauptet werden.Mal ganz davon ab, macht es nicht den Eindruck, als hättest du hier den technischen Einblick in diese Materie.
Weil oben Skyrim angesprochen wurde. Bei mir äußert sich das in etwa so. Ich starte Skyrim und bekomme direkt beim Spielstart irgendwo im Bereich 1,6-1,7GB VRAM Bedarf raus. Nun spiele ich ein paar Minuten/Stunden und bekomme deswegen nicht den x-fachen Wert davon zu sehen.
Wie ich schon sagte, hUMA setzt eigentlich genau dort an, wo der VRAM gar nicht hinwill. Es ist ein Speicher. Und ein Speicher ist dafür da, Daten schnell verfügbar zu halten.
hUMA setzt aber nicht an der Verfügbarkeit an. Sondern am Speed, wie die Daten dort reingelangen. Alle Daten, die schon drin sind, profitieren genau NULL von hUMA.
Es gab mal vor Jahren hier im GPU Bereich eine Diskusion, was sinnvoll ist, in Sachen VRAM Größe. Damals waren noch ~256-512MB aktuell. Und man verglich seinerzeit die Werte von AMD und NV GPUs gegeneinander. Mit dem Ergebnis, das seinerzeit die AMD GPUs ihren VRAM Datenbestand schneller entleert hatten als NV. Denn dort sah mal traditionel die Kurve idR nur steigen. -> bis zu dem Punkt, wo der Speicher voll war. Das ist im Grunde der Weg, der den VRAM so sinnig macht. Nämlich möglichst lange die Daten verfügbar zu halten.
Nimms mir nicht übel, aber was soll das jetzt? Es ging bei weitem nicht um 8x1 oder 1x8. Die Kernaussage von Bunghole Beavis oben war, das die kommenden 8 Cores dieser Konsolen mehr zu leisten im Stande sind, wie aktuelle Desktop CPUs.
Dies hast du dir zu recht geschustert. Meine Behauptung war: Dass die Jaguar-Kerne in der Konsole durch den gemeinsamen Adressraum und hUMA, deutlich stärker sind, als Jaguar-Kerne auf einem Desktop PC. Sie in der Lage in der PS4 eine Karte vom Schlage einer HD7850|HD7870 schnelle genug mit Daten zu füttern, was ich ohne den gemeinsamen Arbeitsspeicher und hUMA in Frage stelle aufgrund der langsam getakteten Kerne.
muss ich sagen der AMD ist in Anwendungen Schneller. etwa gefühlte 10%
Muss ich fragen, wie fühlst du 10% bei Anwendungen?
Natürlich poste ich gerne niveaulosen Mist, erst Recht wenn ich Deinen Kommentieren kann
Der Test von AnandTech ist ja auch wieder Lötzinn, Fehler drin, zu undurchsichtig, kaum/keinerlei Transparenz - Nicht nachstellbar/beweisbar das es tatsächlich durch den doppelten Speicher zu derart hohen Leistungsplus kommt - Bitte nicht vergessen, dass man mit einen Xtreme 6Kerner eine kurze Szene gebencht hat.
Würde der x-fache Wert anliegen, wären die Grafikkarten ineffektiv. Also werden nur die Texturen geladen, die in deiner sichtbaren Umgebung hauptsächlich genutzt werden. Dies habe ich vorher im Beispiel aufzeigen wollen, der Speicher entleert oder ändert sich, sobald deine Tätigkeit wechselt.
Das stimmt wohl. Nur sprechen wir hier über eine Zeit von wenigen Sekunden beim Levelbegin. Noch dazu laden heutige Games Daten wärend der Laufzeit sehr intelligent nach. Klassische Nachladeruckler gibts nahezu gar nicht mehr. Es sei denn, man hat massive VRAM Knappheit. Aber auch dann bringt hUMA nur bedingt Punkte. Und diese Zeit steht der kompletten Spielzeit gegenüber. Also wo ist dort der Vorteil? Das man anstatt sagen wir 2 Sekunden beim Spielstart nur noch 1,5 Sekunden warten muss? Das wird es definitiv richtig rausreißenHier ist dein Denkfehler. Umso schneller die Daten verfügbar sind, desto schneller kann kommuniziert werden und umso schneller werden sie erneut wieder bei Bedarf verfügbar sein.
Dies hast du dir zu recht geschustert. Meine Behauptung war: Dass die Jaguar-Kerne in der Konsole durch den gemeinsamen Adressraum und hUMA, deutlich stärker sind, als Jaguar-Kerne auf einem Desktop PC.
Selbst wenn Durchsatzzeiten für Daten wegfallen, alles was an Berechnungen auf dem Kern abläuft, läuft genauso schnell/langsam wie ohne Huma. Als Wenn so ein System nur den Speicher befühlen und entladen würde die ganze Zeit..:
Selbst wenn Durchsatzzeiten für Daten wegfallen, alles was an Berechnungen auf dem Kern abläuft, läuft genauso schnell/langsam wie ohne Huma.
was bringt es, künstlich einen cpu flaschenhals zu erzeugen, wenn dieser bei 1080p garnicht zum tragen kommt? genau das ist das problem. wenn du die grafik runterdrehst, testest du das spiel nicht so, wie du es eigentlich spielen willst. da es in 1080p absolut im gpu limit läuft, lässt sich kein unterschied zwischen amd und intel ausmachen, nichts anderes zeigen diverse youtube filmchen.
was die min fps angeht, könntest du recht haben, die werden nicht mehr, wenn man die auflösung erhöht. allerdings können sie bei intel aber genausogut auf den gleichen niedrigen wert sinken, sobald das gpu limit ins spiel kommt.
deshalb macht testen in unbrauchbaren auflösungen so gut wie garkeinen sinn.
Dies ist korrekt, aber es werden nun Prozesse auf der GPU mitberechnet und somit steht mehr Leistung zur Verfügung.
Alles klar, jeder Test der nicht in dein Weltbild passt ist Mist. Hier zeigt sich deine niveaulosigkeit. Beweise kannst du nicht liefern, versuchst mir in den Mund zu legen, dass eine HD7790 schneller als eine HD7850 2 GB ist. Dies wurde von mir nicht behauptet. Sondern das Skyrim mit Texture Pack von 2 GB VRAM profitiert, obs nun 5% oder bis zu 90% mehr Leistung sind, weil nichts ausgelagert wird. Es ist Fakt!
In Zukunft können Konsolenspiele auf größere Texturen bauen, den der gemeinsame Speicher der PS4, hat sich um den Faktor 16x vergrößert. Wieso sollten die Entwickler die neuen Ressourcen für neue Spiele nicht nutzen.
Und nein, der Speicher entleert sich auch nicht ständig. Sondern im Optimalfall fliegt erst dann was raus, wenn der Platz voll ist. Würde deine Theorie stimmen, müsste man beim betreten eines Hauses in Skyrim auf einmal nur noch nen Bruchteil des VRAM Datenbestandes anliegen haben, und beim verlassen dieses Hauses müsste sich der Speicher wieder füllen. Macht er das!? -> Nein.
hUMA wird genau dann interessant, wenn AMD ihr Fusion Konzept weiter vorrantreibt. An dem Punkt, wo die GPU unter der Decke ohne dedizierte Softwareunterstütztung Teile von Programmcode beschleunigt, die sonst normal auf der CPU abgearbeitet werden müssten, bringt hUMA sicher konkret auch ein dickes Plus.