TSV-Abstand extrem gering: Details zu AMDs 3D V-Cache

Interessant, daß da noch jeweils eine SiO₂ als Kontakt- bzw. Schutzschicht auf die Dies aufgebracht wird.

Macht schon Sinn. SiO2 ist ein auf Silizium billig zu fertigender und sehr effektiver Isolator
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
wobei das an sich sehr wertlos ist. die steam umfrage ist immer reaktiv, das bedeutet dort taucht nur auf was lange vorher gekauft wurde. da schlüsse auf die zukunft zu ziehen ist etwas doof. es hat 60 jahre keine 16kern prozessoren im mainstream gegeben. jetz gibt es sie, und wir werden in 2-3 jahren sehen wie diese grossen dinger auf einmal recht ansehnlich vertreten sein werden.
Nö. Erstmal liag die Steamstatistik noch nie so weit gegenüber Umfragen daneben, daß man sie als wertlos bezeichnen könnte. Bei wem das Umfeld näher an der Normalität ist und nicht so nah an Foristen mit ihren Forenblasen, kann das mal für mal bestätigen.

Mit 32 Threads kann man in Cinebench angeben. Nicht beim Zocken.
 
Mit 32 Threads kann man in Cinebench angeben. Nicht beim Zocken.
Das ist so nicht ganz richtig, es ist abhängig von der Art des Spieles. Stand Heute +1-2 Jahren, nicht realistisch das man 32 Threads mit Arbeit füllen kann stimmt schon.
Ich könnte mir schon vorstellen das in naher Zukunft Rechenleistung verwendet wird um eine Art KI anzutreiben dynamischen Inhalt zu erstellen, eine Art Algorithmus gesteuerten Game Direktor.
Nicht zu vergessen das man auch an Plänen arbeitet das BIG-Little Prinzip aus den Smartphones für die Desktops/Laptops zu bringen, das heißt 16 Kerne aber nicht alle sind Hochleistungskerne + IGPU.
Auch wird ja immer kritisiert das die IGPUs immer ja immer mit dem langsamen Desktopspeicher angebunden sind, HBM Speicher drauf zu stapeln könnte schließlich auch möglich sein.

Wenn eine Technologie existiert und Massentauglich wird, wird man auch daraus einen Nutzen ziehen können. Raytracing hätte man ja auch über Software / Shaderbasiert integrieren können, nur denke ich die Versuche hätten soviel Rechenleistung gekostet das es nicht umsetzbar war. Jetzt gibt es die Rechenpower auch Hardwarebasierend, zusätzlich zum generellen Rechenwerk.

Es immer so das berühmte Hähne - Ei Prinzip.
 
Nö. Erstmal liag die Steamstatistik noch nie so weit gegenüber Umfragen daneben, daß man sie als wertlos bezeichnen könnte. Bei wem das Umfeld näher an der Normalität ist und nicht so nah an Foristen mit ihren Forenblasen, kann das mal für mal bestätigen.

Mit 32 Threads kann man in Cinebench angeben. Nicht beim Zocken.
ich bezog mich auf zukunftsprognosen, da passt die wortwahl denke ich
 
AMD hat genauso viel Versprochen und nicht geliefert, oder haben wir Vega schon wieder vergessen? Auch RDNA2, wenn auch super, bleibt meiner Meinung nach etwas hinter dem Versprochenen zurück.
Echt jetzt! Alte Geschichten ausgraben...
 
ich bezog mich auf zukunftsprognosen, da passt die wortwahl denke ich
Ok. Ich dachte halt nicht, daß du gleich mit SciFi loslegst. Da lässt sich natürlich nichts gegen sagen. Top...

@n3cron
KI-direktor: Nicht schlecht :d Das ist sogar SciFi die wenigstens gefällt. Dafür braucht man nur keine zusätzlichen 16 Threads.
Raytracing hätte man ja auch über Software / Shaderbasiert integrieren können, nur denke ich die Versuche hätten soviel Rechenleistung gekostet das es nicht umsetzbar war.
Kennst du das NeonNoir von Crytek? :)

@smalM
Warum sollte das für alle "scheißegal" sein, die nicht nur bis zu Nasenspitze überlegen? Wenn das für dich ok ist, ok. Beschwer dich dann aber nicht auch noch über andere.
 
Zuletzt bearbeitet:
Kennst du das NeonNoir von Crytek?
Ja kenne ich, das ist aber eine eher optimierte Sequenz hatte ich mit ner rx 580 auch schon getestet, es hatte erstaunlich gut funktioniert aber man hat die Leistungseinbußen schon bemerkt.
KI-direktor: Nicht schlecht :d Das ist sogar SciFi die wenigstens gefällt. Dafür braucht man nur keine zusätzlichen 16 Threads.
Kommt drauf an ob du das mit einem neuronalen Netz simulieren möchtest das im Hintergrund dynamisch was dazu lernt, dies führt mich auch zu der Annahme das in naher Zukunft die Anzahl der Generalisierten Kerne auf zusätzliche spezialisierte Kerne verändern wird. Das Big-Little ist nur ein Beispiel dafür.
 
zumal bei solchen steam unfragen die konsolen ( nix 4 kern) gerne ausser acht gelassen werden. ich denke der markt ist gerade an einem wendepunkt was das angeht.
Och nicht das Märchen schon wieder... Gabs schon bei der letzten Konsolen-Generation und den FX chips.

Als Softwareentwickler kann ich dir versichern: Auf 16 Threads (geschweige den 32?!) werden wir etwas mit der Architektur-Komplexität eines Games nur sinnvoll optimieren wenn man uns eine Knarre an den Kopf hällt oder einen Goldbaren als Belohnung verspricht :P
Für 32 Threads bezweifle ich sogar dass das überhaupt möglich ist. Bei den aktuellen Architekturen wird einfach ein Punkt erreicht wo der Rechenaufwand, einen weiteren Thread mit ein zu beziehen, den Vorteil dieses Threads zunichte macht.
Prinzipielles Problem ist, am Ende müssen die Daten aller Threads bei einem Game eben sehr oft zusammengeführt werden, denn man muss ja der GPU 100+ mal in der Sekunde sagen was sie zu rendern hat. Da auch Dinge wie die Phsikengine und AI aufgaben ständig neuen Input bekommen, müssen auch deren Threads sehr oft zusammengeführt/synchronisiert werden (sie brauchen Daten von anderen Threads).

Das ist bei vielen Computing Aufgaben anders wo threads entweder gänzlich unabhängig laufen, oder sehr vorhersehbar seltener zusammengeführt werden müssen. Deswegen kann man bei Workstations etc. solch große Kerngeschütze auffahren.

Edit: Hier ein sehr sehr interessanter Artikel das die Problematik laienverständlich ausdrückt: https://www.google.com/amp/s/spectrum.ieee.org/amp/the-trouble-with-multicore-2650253377
Bemerkenswert wie man sich schon vor 11 Jahren darüber solche Gedanken gemacht hat.
 
Zuletzt bearbeitet:
Ja kenne ich, das ist aber eine eher optimierte Sequenz hatte ich mit ner rx 580 auch schon getestet, es hatte erstaunlich gut funktioniert aber man hat die Leistungseinbußen schon bemerkt.
Das war zum einen auch nicht als RT-Hardware braucht keiner gemeint. Andererseits merkst du mit RT-on ;) ebenfalls Leistungseinbußen...

Kommt drauf an ob du das mit einem neuronalen Netz simulieren möchtest das im Hintergrund dynamisch was dazu lernt, dies führt mich auch zu der Annahme das in naher Zukunft die Anzahl der Generalisierten Kerne auf zusätzliche spezialisierte Kerne verändern wird. Das Big-Little ist nur ein Beispiel dafür.
Das läuft auf der GPU immernoch besser als auf der CPU, die das dann nur noch verwalten muss.
DragonTear hat da schon recht gut beschrieben.

@DragonTear
Übertreib mal nicht gleich so. Man kann auch mit 60+ fps anfangen ;)
Man kann auch das vorherige Ergebnis vorhalten und wenn z.B. der KI-Thread mal hinterherhächelt, kann man auch etliche Frames lang das alte verwenden. Wem soll das auffallen?
GENERELL aber bin ich diesmal bei dir. Das ist schon soweit alles richtig.
 
Mir selbst brauchst du nichts extra zu erzählen. Ich bin bereit zu lernen in dem ich mir durchlese wie du dich vernünftig mit DragonTears Beitrag auseinandersetzt. Das reicht erstmal.
 
Zuletzt bearbeitet:
AMD hat genauso viel Versprochen und nicht geliefert, oder haben wir Vega schon wieder vergessen? Auch RDNA2, wenn auch super, bleibt meiner Meinung nach etwas hinter dem Versprochenen zurück.
LOL :)
Also bisher musste ich einmal etwas von Nvidia zurückgeben wo sie mich beschissen haben, von Intel konnte ich es leider nicht und bin auf dem Kacknotebook sitzen geblieben.
Und nun sag mir bitte wo genau sie nicht das geliefert haben, meine Vega macht genau das was ich erwartet habe und was ich Vorfeld dazu gelesen habe. (Kritik hätte ich, wenn ich welche suche, maximal bei der Lautstärke).



Und mal so am Rande, es gibt ernsthaft Leute die Steamumfragen zu Rate ziehen? Hammer! So kann ich zumindest mal Bild-Leser identifizieren =)
 
Und nun sag mir bitte wo genau sie nicht das geliefert haben, meine Vega macht genau das was ich erwartet habe und was ich Vorfeld dazu gelesen habe.
Ach, wie hoch fällt denn der Performance Boost durch Primitive Shader oder Next-Generation Geometry bei deiner Vega aus?

Hier Links zu dem Beschiss von AMD:
 
Hier Links zu dem Beschiss von AMD:
Da steht aber auch, dass die PS in Hardware vorhanden sind bei Vega und amd lediglich den Entwicklern überlassen hat diese zu unterstützen.

Daher ist von Beschiss zu reden einfach nicht angebracht, weder damals noch heute. Warum der Fakt immer wieder ignoriert wird ist mir unverständlich. Zum Beispiel können die Ps in open cl Anwendung genutz werden.
 
Da steht aber auch, dass die PS in Hardware vorhanden sind bei Vega und amd lediglich den Entwicklern überlassen hat diese zu unterstützen.
1. Vor dem Vega Release hieß es noch: "The driver takes care of it for you. Just render as normal." Dann paar Monate nach dem Release ist auf einmal eine explizite durch die Entwickler von Nöten, welche mit einem großen Aufwand seitens der Entwickler verbunden ist und kein - wie zuvor versprochenes - It just works..
2. Wurde die API mittlerweile für Vega veröffentlicht?
3. Warum funktioniert es bei Navi und bei Vega immer noch nicht?

Zum Beispiel können die Ps in open cl Anwendung genutz werden.
Ui und welche Anwendungen wären dies?
 
Mit dem Programm mal ausprobiert?
 
Hol deine Vega aus der Schublade lass den bench laufen und guck was bei async compute raus kommt :bigok:

Jetzt aber bitte zurück zum topic.
 
Zuletzt bearbeitet:
Ach, wie hoch fällt denn der Performance Boost durch Primitive Shader oder Next-Generation Geometry bei deiner Vega aus?

Hier Links zu dem Beschiss von AMD:

Du hast scheinbar vergessen die Links zu dem Beschiss zu posten. Gib dir bitte etwas mehr Mühe.
 
1. Vor dem Vega Release hieß es noch: "The driver takes care of it for you. Just render as normal." Dann paar Monate nach dem Release ist auf einmal eine explizite durch die Entwickler von Nöten, welche mit einem großen Aufwand seitens der Entwickler verbunden ist und kein - wie zuvor versprochenes - It just works..
Jetzt wo dus sagst, erinnere ich mich auch an solche Aussagen.
Nicht wahnsinnig überraschend dass es nicht wie versprochen gekommen ist. Automatismen die Performance bringen sollen sind harter Tobak. Der Artikel den ich oben verlinkt hab beschreibt auch wie das mit mässigem Erfolg bei CPU-Multithreading versucht wurde/wird.

Da sieht man mal schön weshalb das Geforce Partner Programm (bzw. dessen infozielle Nachfolger) trotz aller Kritik sich für NV gut bezahlt machen und sinnvoll - wenn nicht gar notwendig - sind um neue Technologien zu pushen.
 
Wäre Cool wen der noch für AM4 kommt als 6000ner dann würde ich noch mal tauschen gegen einen 6900X und dann die erste Gen DDR5 auslassen!
 
Den 5000ner hab ich ja erstmal ausgelassen konnte mich von dem 3950X irgendwie nicht trennen.Würde sich ja passen 6900X und eine 6900XT :love:
 
Was aber definitiv seien kann, das die 6000er wenn die noch AM4 kompatible seien werden nur mit 5xx Chipsätzen laufen werden.
 
Die Art auf welche Paddy den Thread dazu bringt ihier statt über zu AMDs 3D V-Cache, über gescheiterte Features von Vega zu sprechen, die ist doch recht überschaubar und auch nicht besonders pfiffig oder? Warum fällt man dann drauf rein? Verstehe ich nicht...

Vielleicht hab ich das mittlerweile falsch in der Erinnerung, aber war das nicht noch vor der Einflussnahme von Su? Hat für diese Nummer nicht jemand mit seinem Job bezahlt? Haut diese Architektur jetzt nicht alles bisherige platt und wird den ersten exascale (FP) Supercomputer antreiben der aus dem Stand gleich 1.5 Exaflops macht? (und das auch nur bei knapp unter 30 MW)
Was soll denn das Geheule jetzt?

@DragonTear
Es ist leider viel viel schlimmer (das mit dem Pushen). Die müssen meist selbst anklopfen und fragen, ob wer nicht Hilfe benötigen könnte. Grauenvoll. Genauso grauenvoll wie beim x86 SSE4 oder AVX(2). Heute noch o_O
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh