TSV-Abstand extrem gering: Details zu AMDs 3D V-Cache

Wer mindestens einen Hexacore hat und 3200/3600mhz Speicher in 16/32 GB Dualchannel betreiben kann, hat für Auflösungen höher als 2560x1440 immer die GPU als Bottleneck.
Anhang anzeigen 657786
X4 Foundations ist in UHD _immer_ CPU-limitiert. Einfach mal Spiele testen die nicht auf einer Kartoffel laufen sollen oder die Konsolen bedienen...

PS: Steam gibt den Durchschnitt der installierten Basis wieder und nicht auf welcher Hardware welches Spiel gespielt wird.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Automatismen die Performance bringen sollen sind harter Tobak.
Primitive Shader hatten eigentlich schon ordentlich Potenzial. Siehe dazu den Perfomance Boost durch Mesh Shaders. Mesh Shaders und Primitive Shader sind sich schon ziemlich ähnlich. Mit diesem Feature wäre Vega nicht ganz so hart gescheitert. Aber AMD hat einfach nicht geliefert und sogar den Treibersupport gecancelled.. Erst ab Navi gibt es Treibersupport.

Aber angeblich soll es ja mit irgendwelchen OpenCL Anwendungen laufen. 🤷‍♂️

Da sieht man mal schön weshalb das Geforce Partner Programm (bzw. dessen infozielle Nachfolger) trotz aller Kritik sich für NV gut bezahlt machen und sinnvoll - wenn nicht gar notwendig - sind um neue Technologien zu pushen.
Finde ich jetzt nicht unbedingt. Es reicht eigentlich schon einen guten Support zu liefern und die Integration für die Entwickler möglichst einfach zu gestalten. Sieht man ja aktuell ganz gut an DLSS, was sich immer mehr und schneller verbreitet.


Die Art auf welche Paddy den Thread dazu bringt ihier statt über zu AMDs 3D V-Cache, über gescheiterte Features von Vega zu sprechen, die ist doch recht überschaubar und auch nicht besonders pfiffig oder? Warum fällt man dann drauf rein? Verstehe ich nicht...
Wat?
ich weiß ja nicht, was du dir so reingepfiffen hast, aber ich habe hier nur eine Frage eines unbedarften Users beantwortet.
 
AMD hat genauso viel Versprochen und nicht geliefert, oder haben wir Vega schon wieder vergessen? Auch RDNA2, wenn auch super, bleibt meiner Meinung nach etwas hinter dem Versprochenen zurück.
Ja totaler Quatsch. AMD hat immer genau das gehalten, was sie versprochen haben, leider. Die Medien haben alles bis ins unendliche hochgehyped.

Intel's Marketing ist inzwischen für's (ich schreib es mal so wie es ist) lügen bekannt.
 
*Radeon VII noises*
Primitive Shader hatten eigentlich schon ordentlich Potenzial. Siehe dazu den Perfomance Boost durch Mesh Shaders. Mesh Shaders und Primitive Shader sind sich schon ziemlich ähnlich. Mit diesem Feature wäre Vega nicht ganz so hart gescheitert. Aber AMD hat einfach nicht geliefert und sogar den Treibersupport gecancelled.. Erst ab Navi gibt es Treibersupport.

Aber angeblich soll es ja mit irgendwelchen OpenCL Anwendungen laufen. 🤷‍♂️


Finde ich jetzt nicht unbedingt. Es reicht eigentlich schon einen guten Support zu liefern und die Integration für die Entwickler möglichst einfach zu gestalten. Sieht man ja aktuell ganz gut an DLSS, was sich immer mehr und schneller verbreitet.



Wat?
ich weiß ja nicht, was du dir so reingepfiffen hast, aber ich habe hier nur eine Frage eines unbedarften Users beantwortet.
Paddy92, bei allem Respekt dir ist klar das Holzmann ein Radeon VII Käufer ist oder :hust: ? Hast du jemals einen AMD Consumer im Internet gesehen der sich einen Fehler eingestanden hat :unsure: ?
 
Es ist definitiv interessant zu beobachten, wie zwei Lager aufeinander einschlagen und jeweils ihre Lieblinge verteidigen wobei sie selbst genau das machen, was sie dem anderen vorwerfen und merken es nicht mal.

🤷‍♂️

Das Leben muss schon ziemlich aufregend sein, wenn man sich selbst einem Unternehmen derartig verschreibt. Da muss man sich schon fast kein Marketing mehr leisten. Die Fan-atiker machen dass kostenfrei für einen. Und nicht nur das, sie versuchen auch den Konkurrenten zu diskreditieren.

Ich frage mich wirklich, bei welchen anderen konkurrierenden Unternehmen das noch der Fall ist. Also Intel und AMD kennen wir ja schon. Star Citizen ist auch so ein Fall, in dem die Backer zu Anwälten und Missionaren mutieren. Aber ich habe noch nie erlebt, dass zwei Leute sich so Heftig über einen Bäcker streiten, über Brot und Brötchen. Oder über Socken.

Ich vermute, das liegt ein bisschen daran, wie viel Geld man investiert hat. Und je mehr man und je länger man sich selbst mit einem Unternehmen verbandelt hat, desto mehr neigt man dazu zur Marketingabteilung zu transformieren. Mhh interessant.
 
Ich verwende übrigens Arch Linux.
 
X4 Foundations ist in UHD _immer_ CPU-limitiert. Einfach mal Spiele testen die nicht auf einer Kartoffel laufen sollen oder die Konsolen bedienen...

PS: Steam gibt den Durchschnitt der installierten Basis wieder und nicht auf welcher Hardware welches Spiel gespielt wird.
X4 ist ja auch Müll Programmiert, man kann nicht ein schlecht programmiertes Game heranziehen als Messlatte oder einen Faktor.
Laut einigen Threads ist es einfach nicht vernünftig Multi threaded Programmiert, so cool wie das Spiel möglicherweise ist so bescheiden ist die Technik dahinter.
 
X4 ist ja auch Müll Programmiert, man kann nicht ein schlecht programmiertes Game heranziehen als Messlatte oder einen Faktor.
Was ist dann der MS Flugsimulator? Das Thema Synchronisation der worker ist oben schon mal verlinkt. Bei x4 sind es mal locker die scripte von ca. 30000 bis 60000 Schiffen im Universum. Da existiert sonst nichts vergleichbares.
 
Wat?
ich weiß ja nicht, was du dir so reingepfiffen hast, aber ich habe hier nur eine Frage eines unbedarften Users beantwortet.
Jaaa naatüürliich. Naatüürliich...

Finde ich jetzt nicht unbedingt. Es reicht eigentlich schon einen guten Support zu liefern und die Integration für die Entwickler möglichst einfach zu gestalten. Sieht man ja aktuell ganz gut an DLSS, was sich immer mehr und schneller verbreitet.
Hast du da jetzt widersprochen, weil du deine Beiträge nicht gut findest, wenn sie nicht mind. 3 Verneinungen enthalten? Was sagt DragonTears denn da? In etwa genau das gleiche??
Wobei wer hat dir erzählt, die Integration ist einfach? DLSS leidet aktuell bisschen an der breiteren Unterstützung. Klingt nicht komisch, ist aber so. Weil die selbstgenannten Entwickler öftersmal wieder nicht wissen was sie tun. Grad wenn sie dabei auch noch gleichzeitig mit RT rumspielen.
Obwohl NV dazu mittlerweile gute Docs liefert. Es ist also schon goldrichtig was DragonTears sagt.

Viel goldrichtiger :) wäre es aber festzuhalten, daß mal wieder irgendwelche Fanboys DLSS in einen AMD-Thread installieren mochten. Und das nichtmal in einem Grakabereich des Threads. Gibts da wirklich so gute Unterlagen von NV oder ist das jedes Mal ein Bärendienst durch Eigeninitiative? Ausgelöst duch? Panikattacken?

Die abgekürzte Version vom obigen: Hör auf dich direkt auf dem "Fremdschäm"-Level aufzuspielen. Das nervt.
 
Was ist dann der MS Flugsimulator? Das Thema Synchronisation der worker ist oben schon mal verlinkt. Bei x4 sind es mal locker die scripte von ca. 30000 bis 60000 Schiffen im Universum. Da existiert sonst nichts vergleichbares.
Und Eve Online läuft auf einem 20 GHZ Singlecore Prozessor :ROFLMAO: :banana:
Laut einigen Foren wurde x4 von Anfang an falsch designed und nicht für Parallelisierung optimiert. Du kannst ein Programm das du für Singlecore betrieb designst nicht anschließend so einfach auf Threads verteilen, das muss schon beim schreiben des Programs berücksichtigt werden.

Spiele wie Ashes of Singularity, dass Spiel Lutscht dir jeden Thread weg mit über 10k Units, das ist absolut für Parallelisierung optimiert, aber klar gibt es dort auch Grenzen.
 
Zuletzt bearbeitet:
Wobei wer hat dir erzählt, die Integration ist einfach? DLSS leidet aktuell bisschen an der breiteren Unterstützung. Klingt nicht komisch, ist aber so. Weil die selbstgenannten Entwickler öftersmal wieder nicht wissen was sie tun. Grad wenn sie dabei auch noch gleichzeitig mit RT rumspielen.
Obwohl NV dazu mittlerweile gute Docs liefert.
Die Integration von DLSS ist relativ einfach, da es in immer mehr Engines nativ integriert wird bzw. per Plugin aktiviert werden kann und Nvidia ein DLSS SDK mit hilfreichen Debugging Tools usw. liefert zur Integration in Engines, wo DLSS nicht integriert ist. Zudem gibt es einen Support, den man bei Fragen kontaktieren kann.

Aber ja stimmt, Softwareentwickler haben alle keine Ahnung und wissen nicht wirklich was sie machen. Die sollten mal lieber in Foren lesen, wie man es richtig macht. Denn dort sitzen die wirklich echten Experten mit ihrem Stammtischgelaber.

Viel goldrichtiger :) wäre es aber festzuhalten, daß mal wieder irgendwelche Fanboys DLSS in einen AMD-Thread installieren mochten
Du greifst doch jetzt eine Sache auf, die ich lediglich als Beispiel erwähnt habe..

Die abgekürzte Version vom obigen: Hör auf dich direkt auf dem "Fremdschäm"-Level aufzuspielen. Das nervt.
Dein schlechter und wirrer Schreibstil löst bei mir einen gewissen Fremdscham aus.
 
Die Integration von DLSS ist relativ einfach, da es in immer mehr Engines nativ integriert wird
Das eine hat mit dem anderen überhaupt nichts zu tun. Autofahren ist auch einfach (mittlerweile). Das sagt nichts darüber aus wieviele gute Autofahrer es gibt. Wovon ich auch sprach...
Und du bist hier immernoch mit DLSS unterwegs, mit deinem leidigichen Beispiel. Pathologisch wie manche Leute anderen und manchmal auch sich selbst was vorlügen, nur um immer das gleiche Pferd auf die gleiche Art reiten zu können. Da bleibt aber auch kein Vorwand ungenützt.
 
Zuletzt bearbeitet:
Fällt es nur mir auf, dass nahezu kein Beitrag seit Seite1 zum Thema passt?
 
@Holzmann
Standard. Manche Trolle zieht die Buchstabenkombination AMD automatisch an. Und Ja, in dem Ausmaß noch nie in einem Beitrag gesehen wo es um Intel oder NVidia geht.

Und. um auch etwas zu trollen, der rtx a4000 ist schon nice ;)
 
Oh boy, für nen Trollpost bin ich immer zu haben (sogar mit Topic Bezug 8-) ):

Schön zu sehen wie AMD wegen Alder Lake in den vollen Panikmodus verfällt und jetzt zu der Holzhammermethode, dem Dranklatschen von mehr Cache, greift. Aber man kann es denen nicht verübeln, denn Alder Lake mit der Hybrid-Technologie kommt mir immer mehr so vor, wie der Gipfel des Fortschritts. Meine persönliche Meinung ist, dass wir dieses Jahr noch in diesem Jahr genau wegen dieser Technologie Sandy Bridge 2.0 sehen werden, bleibt spannend!

Das eine hat mit dem anderen überhaupt nichts zu tun. Autofahren ist auch einfach (mittlerweile). Das sagt nichts darüber aus wieviele gute Autofahrer es gibt. Wovon ich auch sprach...
Ich verstehe nicht so ganz, was du hier gerade versuchst zu konstruieren, aber ich habe 2 - voneinander unabhängige - Punkte genannt. Ich habe die Trennung das nächste Mal auch deutlicher voneinander machen, damit auch du es ohne Probleme verstehen kannst.

In dem ersten Punkt habe ich mich erklärt, warum ich finde, dass eine Integration von DLSS für Spieleentwickler nicht sonderlich schwierig ist.
In meinem zweiten Punkt habe ich mich darüber lustig gemacht, wie solche Wannabe Experten wie du immer meinen, sie könnten über Entwickler urteilen, obwohl sie keinen Plan haben. Deswegen auch die sarkastische Formulierung, falls du es nicht verstanden hast.

Und du bist hier immernoch mit DLSS unterwegs, mit deinem leidigichen Beispiel. Pathologisch wie manche Leute anderen und manchmal auch sich selbst was vorlügen, nur um immer das gleiche Pferd auf die gleiche Art reiten zu können. Da bleibt aber auch kein Vorwand ungenützt.
DU gehst doch darauf ein und brichst eine Diskussion über DLSS vom Zaun. Ich hatte nicht erwartet, dass sich jemand so daran stört..
 
#Picard- facepalm
 
Zum Inhalt des Artikels kann man ja auch nur wenig mehr besprechen. Wir sind schliesslich keine IC-Designer hier und ohne solch einen Background kann man die Technik kaum beurteilen.
Gibt schliesslich weder Benchmarks noch sonstwas.

Edit:
Dass das einfach nur Cache ist, klingt allerdings etwas abwertend. Beide Hersteller würden sehr gerne mehr Cache verbauen wenn der dabei nicht langsamer wird, denn der hilft meistens. Nur muss sich die Grösse in der Praxis einem Kompromiss mit Anbindungsgeschwindigkeit und Kosten (DIE-Fläche) beugen. Deswegen auch diese Abstufung in L1/2/3 usw. mit der die Grösse steigt, aber Geschwindigkeit abnimmt.
Die mehr oder weniger neue Technik soll diesen Kompromiss nun halt verbessern, wenn sie das erfüllt was sich AMD sicherlich erhofft bzw. plant.
 
Zuletzt bearbeitet:
Oh boy, für nen Trollpost bin ich immer zu haben (sogar mit Topic Bezug 8-) ):

Schön zu sehen wie AMD wegen Alder Lake in den vollen Panikmodus verfällt und jetzt zu der Holzhammermethode, dem Dranklatschen von mehr Cache, greift.
Es ist nicht möglich sowas in z.B. 4 Monaten von der Idee her bis zur Realisierung durchzuschaukeln. Das wenigste also womit der Cache etwas zu tun hat, ist AlderLake.

Aber das wäre jetzt in der was zur CPU. AMD GPUs hassen: check. AMD CPUs hassen: check. Der O-Ton bleibt irgendwie der gleiche, trollige. Alles ist immer großer Mist, wenn da irgendwo AMD draufpappt. D.h. objektive Diskussionen dürfen ausgeschlossen sein, richtig?

edit:
Oh boy, für nen Trollpost bin ich immer zu haben (sogar mit Topic Bezug
Ah ne. Warte. Es ging ja nur um einen weiteren Beispiel zum Thema Trollen. Reingefallen :( SORRY. Nur was ist denn jetzt deine reale echte Meinung? Das wird da nirgendwo erwähnt (?)

edit2:
Das mit dem DLSS lass gut sein. Sonst schau dich lieber auf 3DC um wo man sich über die Stolpersteine oder Unfähigkeit der Devs (der Spiele) schon genug ausgetauscht hat. Es ist kein Hexenwerk und NV hilft zu meist brauchbar mit, auch schon mit dem Docs und Richtlinien, aber es gibt bsiher genug Deppen oder halt Faultiere unter den Devs, denen das am A... vorbei geht.
Wenn es relativ einfach wärem würde jeder der sich dessen annimmt, es ordentlich korrekt machen. Das tut aber bisher nichtmal die Hälfte. Erzähl also keinen vom Pferd und bleib bei deinem Leisten.
(nein, das Trollen meine ich nicht damit)
 
Zuletzt bearbeitet:
Das Gezanke hilft doch nun niemandem weiter. Freuen wir uns einfach dass es wieder eine Konkurenzsituation gibt die Fortschritt bringt und die Mittel beider Seiten ausgeschöpft werden.
 
Ist ja auch richtig. Unabhängig vom noch folgenden Rumgekläffe ist es eh erledigt. Er hat ja keine zweite Unterbuchse wo ich nochmal was runterziehen könnte ;) 1x reichts.
 
Aber das wäre jetzt in der was zur CPU. AMD GPUs hassen: check. AMD CPUs hassen: check. Der O-Ton bleibt irgendwie der gleiche, trollige. Alles ist immer großer Mist, wenn da irgendwo AMD draufpappt. D.h. objektive Diskussionen dürfen ausgeschlossen sein, richtig?
Ich besitze aktuell selber einen 5900x, obwohl ich doch so ein AMD CPU Hasser bin :rolleyes:

Es ist schon relativ einfach und lame jemanden mit der Fanboy-Keule zu diskreditieren, nur weil einem das Geschriebene nicht passt. Ich habe hier auf die Frage eines unbedarften Users geantwortet, welcher wissen wollte, wo AMD bei Vega Versprochenes nicht eingehalten hat. Dabei hat ein anderer User dies in diesem Thread ins Spiel gebracht und nicht ich. Ich habe mich da lediglich eingemischt und Artikel dazu verlinkt sowie danach weitere Unklarheiten klargestellt.

Aber ja, viele Leute haben Probleme mit Ironie und Sarkasmus Probleme, verstehen so nen Joke - wie den Joke mit Ini88 - zwischendurch nicht, legen jedes Wort auf die Goldwaage, nehmen das dann alles zu ernst und regen sich darüber auf.

Nur was ist denn jetzt deine reale echte Meinung?
Ich warte die Benchmarks ab und beurteile dann, was es letztendlich bringt.

Sonst schau dich lieber auf 3DC um wo man sich über die Stolpersteine oder Unfähigkeit der Devs (der Spiele) schon genug ausgetauscht hat.
Also beziehst du dein unglaublich fulminantes Wissen aus Foren?

Es ist kein Hexenwerk und NV hilft zu meist brauchbar mit, auch schon mit dem Docs und Richtlinien, aber es gibt bsiher genug Deppen oder halt Faultiere unter den Devs, denen das am A... vorbei geht.
Mein Punkt war doch genau dieser, dass Nvidia eine einfache Integration von DLSS ermöglicht. Die liefern, wie von dir erwähnt, Docs und Richtlinien. Dazu versuchen diese für häufig auftretende Probleme oder Schwierigkeiten eine Lösung zu entwickeln, um dies in Zukunft noch weiter zu vereinfachen. Dazu bietet Nvidia genug Möglichkeiten um Fehler zu finden und zu beheben, ob die Entwickler dies nutzten oder nicht steht doch auf einem ganz anderen Blatt.

Wenn die Entwickler also all die Möglichkeiten nicht nutzen bzw. sich nicht an alles halten und dadurch die Implementierung nicht so gut ist, ist dann die Integration das Problem oder liegt dieses eher bei den Entwicklern?
Aber warum machen die Entwickler dies denn? Liegt dies etwa immer an deren Unfähigkeit? Sind die wirklich alle so faul? Oder sind es doch eher unrealistische Zeitpläne und gleichzeitig zu hohen Erwartungen von weiter oben? Steckt da vllt. ein wenig mehr hinter als ein pauschales, ja die Entwickler sind alle Dullis?

Wenn es relativ einfach wärem würde jeder der sich dessen annimmt, es ordentlich korrekt machen
Diese Kausalität gibt es nicht. Wie zuvor erwähnt bietet Nvidia genug Möglichkeiten für eine gute Integration, aber wenn diese - aus was für gründen auch immer - nicht genutzt werden, dann kann es schiefgehen.

Aber hier offenbart sich genau dein Problem. Du triffst so völlig belanglos irgendwelche Annahmen und siehst die dann als gegeben an..

Ist ja auch richtig. Unabhängig vom noch folgenden Rumgekläffe ist es eh erledigt. Er hat ja keine zweite Unterbuchse wo ich nochmal was runterziehen könnte ;) 1x reichts.
Du bist nen ganz Toller. Haste feingemacht. Dem Dude, der dich nicht einmal für Voll nimmt, den hast es richtig gegeben!!
 
Zuletzt bearbeitet:
Stimmt, da @Paddy92 bitte noch etwas präzisieren, danke. :)
 
Ist euch das präzise genug?

1628529923682.png
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh