Reddit AMA: Vega auf der Computex ausgestellt und 16 GB HBM2 auch für Spieler möglich

High-End Produkte haben aber wenig Einfluss auf Spielentwickler. Die orientieren sich immer noch am Mainstream.
Kommt auf die Entwickler an. Es gibt auch (gute) Entwickler, die Qualität liefern wollen. Ich spiele heute noch gern The Witcher 2, einfach weil man gar nicht sieht, dass es schon 6 Jahre alt ist. Damals hätte wahrscheinlich, um alles auf Max. zu stellen, nicht mal Quad-SLI gereicht, jedenfalls musste ich mit meiner GTX 285 einiges runterstellen. Auch heute bringt das Spiel mit der maximalen Supersampling-Stufe noch eine RX 480 ins Schwitzen. Besser kann man als Entwickler ein Spiel kaum machen - 6 Jahre lang topaktuell...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
nagut cd project gehört auch wirklich zu den wenigen Entwicklerstudios die versuchen top Qualität abzuliefern und das auch schon beim Release und nicht erst im Reifungsprozess beim Kunden irgendwann wenn man Glück hat, zudem werden die Games auch noch nach Release jahrelang upda to date gehalten uns supported

The Witcher ist zwar nicht so ganz mein Metier aber technisch ist das Top was CD Project abliefert darum hat man auch die guten Verkaufszahlen ganz ohne Kopierschutz.
 
Was zum Teufel hat die Speicherbandbreite mit HDMI/DP gemein?! Das ist eine ganz andere Baustelle und schon Polaris hat DP1.4. Die Auflösung, den Speicherverbrauch, die benötigte Rechenleistung und letztendlich der erreichten Frequenz sind alle unabhängige Variablen. Texturen benötigen zum Beispiel fast keine Leistung aber der Speicher kann bist zur Unendlichkeit gefüllt werden. Eine Rote Linie existiert nur in deinem Kopf. Was wir in Spielen sehen ist die Entscheidung der Entwickler. Wo soll überhaupt das Problem eines 144Hz Monis an einer TI mit "nur" 80 fps sein, solange der Sync hat?!? Die meisten Spiele profitieren nicht mal von der hohen Rate. Für die Randgruppe Multiplayershooter tun es dann euch deutlich reduzierte Grafikeinstellung - schon weil diese einen massiven Vorteil für den Spieler bringen. Weniger Effektebullshit ist mehr freie Sicht und damit mehr kills.

Refreshrate x Auflösung x Tiefer der Auflösung = Übertragungsbandbreite

Derzeitz kann DP 1.4: 120 Hz @ 4k @HDR - alles da drüber kann 1.4 nicht mehr, laut VESA.

Auflösung und Speicherverbrauch sind nicht unabhängig - falls doch wäre ich hier einem großen Bären aufgesessen und da hätte ich dann gerne ne Quelle zu.

Ich frag mal anders:

Warum steigt der VRam Verbrauch mit höherer Auflösung?
Warum sinkt meine FPS mit höherer Auflösung?
Warum steigt meine FPS mit steigenden Frequenzen?

Für mich sieht das alles sehr abhängig aus. Aber hey, vielleicht bilde ich mir das alles nur ein und das ist nur in meinem Kopf. :)
 
Refreshrate x Auflösung x Tiefer der Auflösung = Übertragungsbandbreite

Derzeitz kann DP 1.4: 120 Hz @ 4k @HDR - alles da drüber kann 1.4 nicht mehr, laut VESA.

Auflösung und Speicherverbrauch sind nicht unabhängig - falls doch wäre ich hier einem großen Bären aufgesessen und da hätte ich dann gerne ne Quelle zu.

Ich frag mal anders:

Warum steigt der VRam Verbrauch mit höherer Auflösung?
Warum sinkt meine FPS mit höherer Auflösung?
Warum steigt meine FPS mit steigenden Frequenzen?

Für mich sieht das alles sehr abhängig aus. Aber hey, vielleicht bilde ich mir das alles nur ein und das ist nur in meinem Kopf. :)

Übertragungsbandbreite zum Monitor aber doch nicht Speicher. Der limitiert doch nicht weil das olle HDMI zB. nur 30Hz unter UHD ausgeben kann. Zu deinen Fragen:
Weil das Bild großer ist und dadurch mehr gerechnet werden muss. Der Mehrverbrauch an Speicher ist aber mit ein paar hundert MB minimal. Im Gegensatz zu irgendwelchem AA, DoF oder Blur echt minimal. Von FHD auf UHD steigt die Pixelzahl um den Faktor 4 die nötige Leistung um zirka Faktor 2,5. Die letzte Frage ist quatsch. Mit höherer Frequenz kann der Monitor real nur schneller darstellen.
 
Warum steigt meine FPS mit steigenden Frequenzen?

...Aber hey, vielleicht bilde ich mir das alles nur ein und das ist nur in meinem Kopf. :)
Ja, das ist wirklich nur in deinem Kopf.
Die fps sind bei gleichen Grafikeinstellungen völlig unabhängig davon ob dahinter jetzt ein 60Hz oder 144Hz Panel steckt.
 
Ich meinte mit Frequenzen die GPU Frequenz. ^^

Gut, wir haben wohl 5 unterschiedliche Sachen die man mit Frequenz beschreiben kann, mein Fehler das nicht genauer spezifiziert zu haben.

Nun ja, abwarten und Tee trinken, wie es sich mit den 8 GB ausspielt. Ich halte 16 immer noch für unnötig, vor allem da es neuere Arten von Texturtechnologien gibt, wo man nicht mehr riesige 4k Texturen auf das Model schmeißen muss, um ne ordentliche Qualität zu erreichen.
 
Die Auflösung skaliert mit dem benötigten VRAM. Wie sehr, ist auch abhängig davon, wie viel AntiAliasing man einsetzt. Werden Methoden genutzt, die die ohnehin erhöhte Auflösung nochmals vervielfachen, um die Kanten zu glätten, skaliert sie sehr stark. Schaltet man AntiAliasing und zusätzliches Downsampling ab, skaliert die Auflösung deutlich geringer. Eine relativ feste Grundbelastung wird bereits mit der Texturauflösung vorgegeben. Auch Berechnungen für Effekte können VRAM verbrauchen, allerdings ist auch das mehr eine Grundlast.
 
ja hbmc und hbcc klingen toll wenn alles so funktioniert wie von Amd gesagt - aber bevor sich das nicht in ausgiebigen udn unabhängigen Tests bewiesen hat, bleibe ich vorsichtig...

Du hast ja nichtmal den Link der gepostet wurde gelesen, HBM IST HBCC :d
Selbst Nvidia spricht exakt das an, was AMD tat, auf der FAD17.
Ist nämlich der Vorteil dieser Technik!
Und was NV bringt glaubt man ja, also hier, dass ist das, was AMD mit HBM2 bringt und auch auf der FAD17 gesagt hat, aber man sich ja einfach nicht richtig informiert: (Nur Grün verpackt, weil Grün = Wahrheit und Fakt, verstehen einige viel besser )

8-1080.1100072992.jpg


Weißt, bei Nvidia berichtet man jeden Furz, wo noch keine Hardware mit dieser Technik in Sicht ist, nun kommt Vega mit HBM2 dieses Jahr und berichtet wird da nichts drüber, dabei ists das selbe :d
 
Zuletzt bearbeitet:
Ich meinte mit Frequenzen die GPU Frequenz. ^^

Gut, wir haben wohl 5 unterschiedliche Sachen die man mit Frequenz beschreiben kann, mein Fehler das nicht genauer spezifiziert zu haben.

Nun ja, abwarten und Tee trinken, wie es sich mit den 8 GB ausspielt. Ich halte 16 immer noch für unnötig, vor allem da es neuere Arten von Texturtechnologien gibt, wo man nicht mehr riesige 4k Texturen auf das Model schmeißen muss, um ne ordentliche Qualität zu erreichen.
Mehr als 8GByte VRAM lassen sich auch anderweitig als Buffer nutzen und füllen, jedenfalls besser als alle paar Sekunden von der SSD neu zu laden oder die Auslagerungsdatei voll zu stopfen!

Zusätzlich mal unabhängig von den Spiele FPS: CEATEC 2016: Sharp Showcases 27-inch 8K 120Hz IGZO Monitor with HDR, also 1000 PPI for VR

This requires a large amount of data to be pumped into the display, and as a result a photograph of the rear shows eight separate DisplayPort cables being used in order to give the display the data it needs. 8K120 with HDR is no easy task, suggesting 7680x4320 at 10 bits per color channel (so 30-bit for RGB) at 120 times a second would suggest needing 120 gigabits per second of bandwidth at a minimum (or 15 GB/sec). That's even before you discuss overhead, which will push that higher.

Ich wäre für 32GByte VRAM...
 
@Klees

1. Texturkompression um die Bandbreite effizienter auszunutzen gibt es seit eh und je bei Grafikkarten - sogar schon weit früher als zu 3dfx Voodoo-Zeiten. Im Laufe der Zeit wurden die dafür genutzten Methoden immer leistungsfähiger und effizienter. AMD und nVidia dürften mit ihren aktuellen GPUs (Pascal / Polaris) vergleichbar effiziente Kompressiontechniken haben. Im Grunde nichts wirklich neues hier oder etwas was den einen vom anderen grundlegend unterscheiden würde.

2. Was bei AMD mit Vega aller voraussicht nach neu hinzukommen wird dürfte das Tile-Based Rendering sein, welches nVidia bereits seit der Maxwell-Generation erfolgreich einsetzt. Hier würde AMD mit Vega technologisch also aufschließen. Wie gut aber die Umsetzung davon sein wird bleibt jedoch offen.

3. AMDs HBCC dürfte mit den zuvor genannten - wenn überhaupt - nur indirekt etwas zu tun haben. Etwas vergleichbares zu HBCC scheint mir nVidia momentan nicht zu haben. In dem von dir zuvor geposteten Link wird die Funktionsweise doch angeprochen und das die Herangehensweise etwas grundlegend neues sein soll, das es bisher so noch nicht gab. Die Demonstration des HBCC mit Tomb Raider auf der FAD17 mit der Begrenzung des VRAMs auf 2GB, dürfte dies mehr oder weniger auch bestätigen. Wenn nVidia eine vergleichbare Technik zu HBCC bereits hätte, dürfte die 1080Ti in der dort gezeigten Demo ebenso wenig einbrechen wie Vega es tut. Dies lässt somit zunächst einmal den Schluss zu, dass nVidia eben nichts vergleichbares zu HBCC hat oder - vorsichtig ausgedrückt - nichts was seinen Dienst so leistungsfähig und effizient verrichtet wie eben AMDs Lösung. Vermutlich dürfte HBM hier durch seine technischen Eigenheiten eine gewisse Schlüsselrolle innehaben um überhaupt in der Form als schneller und effizienter Cache fungieren zu können.
 
Du hast ja nichtmal den Link der gepostet wurde gelesen, HBM IST HBCC :d
Selbst Nvidia spricht exakt das an, was AMD tat, auf der FAD17.
Ist nämlich der Vorteil dieser Technik!
Und was NV bringt glaubt man ja, also hier, dass ist das, was AMD mit HBM2 bringt und auch auf der FAD17 gesagt hat, aber man sich ja einfach nicht richtig informiert: (Nur Grün verpackt, weil Grün = Wahrheit und Fakt, verstehen einige viel besser )

Anhang anzeigen 401637


Weißt, bei Nvidia berichtet man jeden Furz, wo noch keine Hardware mit dieser Technik in Sicht ist, nun kommt Vega mit HBM2 dieses Jahr und berichtet wird da nichts drüber, dabei ists das selbe :d

HBCC = High-Bandwidth Cache Controller
HBM = High Bandwidth Memory

HBM ist eben nicht gleich HBCC
 
Bin mal auf auf die tatsächliche Spieleleistung von RX Vega gespannt, welche Modelle es geben wird und ob endlich mal ein Verkaufstermin genannt wird. Ich hoffe für AMD und alle potentiellen Käufer, dass sich die Warterei auf HBM2 und Vega gelohnt hat. Die stärkste Vega Karte sollte auf jeden Fall schneller sein als eine 1080 ti, ansonsten wäre die Nutzung von HBM2 und somit die Verzögerung sinnlos. Ich meine was würde mir ne Vega Karte mit meinetwegen 16GB HBM2 für z.b 700€ bringen wenn eine 1080 ti mit GDDR5X letztendlich dann doch mehr FPS liefert. Ich denke mal das rein aus Prestige-Gründen Vega gar nicht teurer sein kann als eine 1080 ti, da bei gleicher Preis/Leistung eher zu 1080 ti gegriffen wird. Anders würde es wieder aussehen wenn Vega deutlich schneller als Nvidias Topmodell ist, was ich mir aber noch nicht vorstellen kann. Verstehe auch die ganze Speicher Diskussion nicht, was wollt ihr mit 16GB HBM2? Ich meine klar, besser haben als brauchen, aber ich denke dass für die meisten selbst 8GB HBM2 ausreichend sein werden und sich die Mehrkosten nicht lohnen werden. Wir haben doch schon einen kleinen Eindruck davon bekommen was der HBCC leisten kann. Früher oder später wird man die Grafikkarte eh wieder wechseln da man dann noch mehr Leistung will und man bis dahin die 16GB vllt nicht mal ansatzweise voll bekommen hat. Da wird eher der Grafikchip als der Speicher limitieren, aber naja letztendlich kann man nie genug Speicher haben :haha:
 
Ich mag dir ja in manchen Punkten zustimmen aber warum ist die Nutzung von HBM2 sinnlos wenn die Karte eben nicht schneller als die 1080ti ist.
 
Weil HBM2 dann, für mich zumindest, keinen Mehrwert hätte und mir der Aufpreis nicht wert wär. Bei einer Grafikkarte zählt letztendlich wie wie viele Bilder sie mir auf den Bildschirm zaubert, warum also für HBM mehr bezahlen? Ich würde aber auch gerne deine Meinung dazu hören.
 
4096shader@ ca 1,6ghz bis zu 16gb ram das klingt erst mal recht gut. Was dabei rauskommt wird man sehen.
Mehr weis bisher niemand anscheinenbd geht hier einigen der bammel das ihre sau teure NV karte alt aussehen könnte.

Und 16GB HBM2 kosten dann bei AMD mal knapp 500€...rüchtüch!

Wer sich 'ne Titan Xp für 1.3K geholt hat ist selber schuld, ansonsten sind 700 Öcken für 'ne 1080Ti mal der Schnapper!

Mal schauen ob Vega überhaupt von der Leistung her in die Regionen kommen wird; preislich dann wohl eher.
 
Ganz ehrlich, ich kenne keinen, der bei einem Kauf nichts über die Hardware weiss, aber auf die GB Zahl schaut. Entweder die Leute haben wenig Ahnung, dann entscheidet der Preis. Oder die Leute haben zumindest ein bisschen Ahnung, dann entscheiden sie nach Benchmarks. Die GB Zahl ist nun wirklich alles andere als entscheidend. Wie Don schon richtig sagt, die 11 GB GDDR5X der GTX 1080 Ti und 8 GB HBM2 von Vega kann man kaum vergleichen, da die Architekturen und speziell die Speicheranbindung unterschiedlich sind. AMD hat ja schon mehrmals gezeigt, dass der HBCC speicherlimitierte Szenen gut kompensieren und gerade die min FPS deutlich höher ausfallen. Also wartet doch erstmal Tests ab und vorverurteilt nicht immer gleich alles.

Wenn du nur von Nerds umgeben bist kann das sein, aber eben diese Allgemeinheit der "Gamer" kauft die Produkte. Ich weiß noch als ich 15 war und mein Kollege immer mit seinen 512 MB VRAM angegeben hat... Damals war der Speicher das ausschlaggebende Merkmal über die Leistungsfähigkeit der Grafikkarte, zumindest für uns. Es gibt auch genügend Leute die Notebook und OEM-Karten mit abartigen Speichergrößen kaufen, wie eine GT 750M mit 4 GB (DDR3...).

GDDR6 könnte anfangs auf dem GV104-Vollausbau verwendet werden so wie letztes Jahr GDDR5X exklusiv auf der 1080. HBM allerhöchstens auf der nächsten Ti, wobei das kein Muss ist. GDDR6 ist auch wieder schneller als GDDR5X und da sieht man jetzt bereits dass der Speicher bei großem Interface durchaus mit HBM konkurrieren kann. Letztendlich entscheiden die Kosten der Herstellung was verwendet wird.
 
Weil HBM2 dann, für mich zumindest, keinen Mehrwert hätte und mir der Aufpreis nicht wert wär. Bei einer Grafikkarte zählt letztendlich wie wie viele Bilder sie mir auf den Bildschirm zaubert, warum also für HBM mehr bezahlen?
War schon öfter so, dass Karten, die im Durchschnitt mehr FPS geliefert haben, schlechtere Frametimes hatten. Vega könnte gerade durch HBM2 bessere Min. FPS als Nvidia-Gegner haben, und letztlich sind das die einzig wichtigen FPS, weil sie aussagen, wie Dein Bild im schlechtesten Fall ist.
 
War schon öfter so, dass Karten, die im Durchschnitt mehr FPS geliefert haben, schlechtere Frametimes hatten. Vega könnte gerade durch HBM2 bessere Min. FPS als Nvidia-Gegner haben, und letztlich sind das die einzig wichtigen FPS, weil sie aussagen, wie Dein Bild im schlechtesten Fall ist.

Wenn ich, wie in dem Fall sage, dass die 1080 ti schneller ist dann, gehe ich auch davon aus dass sie höhere bzw. vergleichbare min. fps hat. Von daher würde man keinen Mehrwert von HBM zu spüren bekommen, außer der Speicher läuft voll (was möglichst nicht passieren sollte). Aber ich verstehe was du meinst. Bin gespannt ob sich Vega bei höheren Auflösungen besser schlägt als nvidia karten, war ja meist bei den bisherigen amd karten so.
 
Zuletzt bearbeitet:
Wenn ich, wie in dem Fall sage, dass die 1080 ti schneller ist dann gehe auch davon aus dass sie auch höhere bzw. vergleichbare min. fps hat.
Dann sehe ich das auch so. Es würde ein wenig Strom einsparen und sich kompakter verbauen lassen - das wären noch die verbleibenden Vorteile.
 
Eben. Wäre also nur für Leute mit sehr kleinem Gehäuse interessant. Und der Stromverbrauch wird auch kaum noch ne rolle spielen wenn bedenkt was Grafikkarten noch vor 2-3 Jahren verbraucht haben und was sie heute verbrauchen.
 
AMDs HBCC dürfte mit den zuvor genannten - wenn überhaupt - nur indirekt etwas zu tun haben. Etwas vergleichbares zu HBCC scheint mir nVidia momentan nicht zu haben. In dem von dir zuvor geposteten Link wird die Funktionsweise doch angeprochen und das die Herangehensweise etwas grundlegend neues sein soll, das es bisher so noch nicht gab. Die Demonstration des HBCC mit Tomb Raider auf der FAD17 mit der Begrenzung des VRAMs auf 2GB, dürfte dies mehr oder weniger auch bestätigen. Wenn nVidia eine vergleichbare Technik zu HBCC bereits hätte, dürfte die 1080Ti in der dort gezeigten Demo ebenso wenig einbrechen wie Vega es tut. Dies lässt somit zunächst einmal den Schluss zu, dass nVidia eben nichts vergleichbares zu HBCC hat oder - vorsichtig ausgedrückt - nichts was seinen Dienst so leistungsfähig und effizient verrichtet wie eben AMDs Lösung. Vermutlich dürfte HBM hier durch seine technischen Eigenheiten eine gewisse Schlüsselrolle innehaben um überhaupt in der Form als schneller und effizienter Cache fungieren zu können.

Ist die rangehensweise denn wirklich neu, die dort im Artikel angesprochen wird?
Ehrlich gesagt sehe ich da eher unpassende(re) Vergleiche zu CPU Caches... Es war doch von der reinen Nutzung her gesehen die ganze Zeit schon so, die GPU konnte auf den VRAM Zugreifen und wenn dieser ausging, konnten Daten aus/umgeschaufelt werden. Ebenso, was viele wohl gar nicht mehr kennen oder auf dem Schirm haben, vor Jahren hat man so ein Feature mal HyperMemory (ATI) oder TurboCache (NV) geschimpft. Mit quasi dem gleichen Ansatz... Einem zusätzlichen Abstraktionslayer, der über einen lokalen und remote Cache gespannt wurde. Im Unterschied zu damals war allerdings die Möglichkeiten wohl deutlich geringer gegeben, das zu steuern. Nicht nur, weil sich in Sachen Speichermanangement seit dieser Zeit eine Menge verändert hat, Games heute idR intelligent den Dateninhalt streamen, GPUs auch im VRAM Limit noch brauchbar funktionieren und es eine Logik im Treiber gibt, die anhand von definierten Mustern versucht, alte Daten rauszuputzen.
http://www.amd.com/Documents/HyperMemory_Whitepaper.pdf

Im Widerspruch dazu steht aber die technische Funktionsweise eines Caches. Der soll schnell Daten bereit stellen bzw. halten. Und das funktioniert auch nur dann, wenn die Daten entsprechend dort überhaupt drin sind. HBCC geht, so ist es im Moment anzunehmen den komplett anderen Weg. AMD möchte möglichst wenig Daten lokal bei der GPU halten und stattdessen den RAM dafür nutzen. Das Problem, was sich daraus ergibt -> ist exakt das gleiche, wie damals mit dem HyperMemory/TurboCache Verfahren. Die Software MUSS wissen, was für Daten demnächst benötigt werden, damit diese über den schmalen PCIe Slot nachgeladen werden können. Denn was definitiv und nachweislich der Fall ist -> im VRAM Limit, also wenn die Szene Texturen benötigt, die nicht im lokalen VRAM vorhanden sind, dann bringt die FPS Rate ein, Nachladeruckler sind die Folge, FPS dauerhaft niedriger sind der nächste Schritt und Standbilder im Unspielbarkeitsbereich ist Stufe 3. Dies ändert auch HBCC nicht bzw. HBCC ändert an diesem Grundproblem nix.

Wünschenswert wäre aus meiner Sicht hier, wenn man sich auf einen gemeinsamen Nenner einigt, der dafür sorgt, bspw. einen gemeinsamen Ansatz zu fahren um Speicherlastige Texturdaten in zukünftigen Games nicht mehr zentral im VRAM halten zu müssen, sondern einfach aus dem RAM nachlädt, wenn benötigt. Ich denke aber, HBCC verfolgt hier einen anderen Ansatz, nämlich dass die Softwareentwickler dazu animiert werden, genau diesen Job selbst zu tun... Man schauen, wie das am Ende aufgeht. Vom HyperMemory/TurboCache Ansatz ließt man heute gar nix mehr ;) Und beide Begriffe wurden eher mit LowEnd Karten in Verbindung gebracht -> dabei ist/war genau dieser Ansatz eigentlich vom technischen her der Urvater vom HBCC und natürlich auch vom "modernen" VRAM MGMT heutiger Modelle... Man möchte nur hoffen, dass man diese Technik diesmal annimmt. Denn damals hat das nicht gefruchtet ;)

Ich kann dir heute schon sagen, was passieren wird... Vega kommt auf den Markt, die Redaktionen und vor allem die User werden HBCC auf Herz und Nieren prüfen und alles dran setzen den Punkt zu kreieren, wo die Funktionsweise umkippt. Dann wird man die Ergebnisse rumposauen. Während die eine Fraktion das Thema als den Supergau aufhängt, kommt die andere Fraktion und wird irgendwas von Treiberoptimierung und Zukunft erzählen. -> im Endeffekt eine typische AMD Story :wink:
 
Genauso wie eine typisch einseitige fdsonne Story.
Wird dir das nicht langsam langweilig?
Zumal HBC in Tomb Raider (Nvidia sponsored) gezeigt wurde.
 
Wo siehst du eine Einseitigkeit?

Mal davon ab, ich finde den HBCC Ansatz eigentlich vom technischen her ziemlich interessant...? Und was soll die Tomb Raider Aussage da nun bezwecken?
HyperMemory/TurboCache damals wurden leider nicht so angenommen. Für Riesige Texturberge muss man nicht zwangsweise teuren Speicher verbraten... Aber aus Mangel an Alternativen kam es bis dato nie zu einer sauberen Lösung. Wenn AMD dies mit dem HBCC schaffen kann -> um so besser.

Es wird aber nichts dran ändert, dass die Skeptiker weiterhin die Nadel im Heuhaufen suchen werden und wenn man da nur irgendwas findet, wird der Spaß zerdiskutiert, während die andere Fraktion von der Notwendigkeit zukünftiger Treiberoptimierungen schwafeln wird. Kannst dich ja gern links oder rechts einsortieren... Ich lehn mich derweilen entspannt zurück und werde selbst testen, was da geht und was nicht...
 
Zuletzt bearbeitet:
Ich denke aber, HBCC verfolgt hier einen anderen Ansatz, nämlich dass die Softwareentwickler dazu animiert werden, genau diesen Job selbst zu tun...

Haben die Macher von Tomb Raider denn irgendwas hinsichtlich HBCC optimiert? Laut dem Artikel soll allein der Treiber dafür zuständig sein, womit die Gameentwickler erst einmal raus wären. Wie gut/schlecht ein Spiel mit AMDs HBCC dann umgehen kann und in welchen Maße Profit daraus geschlagen wird würde somit allein an der Treiberoptimierung seitens AMD liegen. Wobei wir dann aber doch wieder bei dem von dir genannten Grundproblem wären. Irgendwie scheint man das aber bei Tomb Raider gelöst zu haben. Und wenn es wirklich nur vom Treiber abhängig ist, dann theoretisch auch mit jeden x-beliebigen Spiel, was eigl. keine allzu schlechte Lösung wäre. Naja, mal schauen was wirklich dahinter steckt...interessant ist der Ansatz auf jeden Fall.
 
Keine Ahnung, bis dato wurden zwei DX12 Titel gezeigt, was zumindest daraufhindeuten kann, der Entwickler soll mitspielen.
Rein vom Ansatz her, der Entwickler ist der, der es eigentlich wissen sollte, wann im Spiel welche Daten notwendig sind und wann man was laden sollte. Andererseits ist der Entwickler auch der, dem man genau sowas vllt gar nicht ausdrücken will, weil er eben unbeständig ist und die Funktion damit an Dritten hängt.
Geht es hingegen ohne den Entwickler, dann stellt sich klar die Frage nach dem Wie... HyperMemory war ja ebenso ohne Entwickler. Und trotzdem waren die Modelle mit Cache und beschnittenem dedicated VRAM im Nachteil.


Ich kenne übrigens keinen Ansatz am Markt, der ohne Zutun der eigentlichen Sache quasi von Außen über eine Abstraktionsschicht wirklich gut entscheiden kann, was für Daten wirklich wichtig sind und was nicht. Und da beißen ganz andere (Software) Größen sich die Zähne dran aus... VMware bspw., der Portfolio seit Jahren auf genau diesem Knackpunkt aufbaut, Microsoft mit HyperV oder auch diverse freie Ansätze im Virtualisierungsumfeld dürften da noch die größten Anteile dran haben!
 
Naja, vielleicht muss man auch gar nicht wirklich entscheiden was wichtig ist oder nicht. Es würde doch auch ausreichen wenn das was gerade gebraucht wird einfach nur schnell genug zur Verfügung steht. Frag mich aber nicht wie genau das funktionieren soll... :d
 
Weil HBM2 dann, für mich zumindest, keinen Mehrwert hätte und mir der Aufpreis nicht wert wär. Bei einer Grafikkarte zählt letztendlich wie wie viele Bilder sie mir auf den Bildschirm zaubert, warum also für HBM mehr bezahlen? Ich würde aber auch gerne deine Meinung dazu hören.

Aber was ist denn mit den verrückten Annahme, dass AMD beim Vega-Konzept einen Speicher ala HBM braucht um überhaupt auf die Performance zu kommen.
Dir kann es doch komplett egal sein ob HBM oder GDDR verbaut ist. Der Preis wird sich danach richten wo sich die Karte von der Leistung her positioniert. Ob da am Ende HBM GDDR5x oder GDDR6 auf der Karte ist, kann dem Kunden egal sein.
 
Zuletzt bearbeitet:
Na ja, ohne direkt an der Architektur mitgearbeitet zu haben bleibt es Spekulation, ob HMB2 wirklich notwendig für die eingesetzten Technologien ist oder nicht.

Ein Vorteil von HMB2 ist halt die geringe Latenz, womit der Vram effektiv zu einem Cache wird - und evtl. ist genau das, was die neue Speichertechnologie (aka HBC) ermöglicht was mit GDDR evtl. nicht möglich wäre.

So eine GPU-Architektur besteht ja nicht aus hunderten unabhängigen Elementen, die werden normalerweise so konzipiert, dass sie mit den Elementen links und rechts zusammenpassen und optimal interagieren.

In den Benchmarks sehen wir nur die Einzahl-Resultate dieser Bemühungen. Und je nachdem wie gute die Softwareentwickler ihre spiele programmieren, passt ein Spiel mal besser und mal schlechter auf die Architektur.

Mit Vega hat AMD aber zwei Sachen gemacht:
1) Sie haben selbst entwickelte Neuerungen eingebaut
2) Sie haben die marktbeherrschenden Technologien der Konkurrenz mit adaptiert

Punkt 2 ist der interessantere. AMD hat erkannt, dass sie nicht einfach mal eben so Nvidia überholen können, selbst wenn sie die marktdominierenden GPU hätten (was sie nicht haben), weshalb sie den Weg des geringsten Widerstandes gehen, so dass sie zu mindest nicht mehr ausgebootet werden können. (Nvidia wirds trotzdem weiter versuchen, es ist nur deutlich schwieriger geworden)

Damit erhöhen sie ihre Konkurrenzfähigkeit und bereiten damit die Grundlage um in zukünftigen Generationen bei der Masse an Leuten besser dazustehen.

Die größten Probleme von AMD sind deren Ruf und das fehlen von viel Geld um mal eben 100 Leute für Software-Support abstellen zu können, nicht deren Hardware.

Nvidia kann das, weshalb sie mit ihrer proprietären Technologie auch überall den Markt geflutet haben, wo sie es konnten. G-Sync, PhysX, Game-Works, CUDA usw...

Und es hat fast immer funktioniert. Nicht funktioniert hat G-Sync, dort konnte sich Freesync ebenfalls etablieren. Game-Works wurde teilweise geöffnet auf Druck der Konkurrenz (was überraschend aber cool ist) und dann bleibt nur noch wenig übrig, wo Nvidia mit exclusiven Features der Konkurrenz im Spiele-Markt einheizen könnte.

Auch nach den ganzen shit-storms von Sachen wie Game-works Desastern bei Witcher 3, Fallout 4 und deren 3,5 GB fail + Treiberinstabilitäten musste Nvidia auch mit ner gehörigen Ecke Rufschaden umgehen - weshalb das wohl auch etwas mit da reingespielt hat, dass sie game-works teilweise offen gelegt haben.
 
Aber was ist denn mit den verrückten Annahme, dass AMD beim Vega-Konzept einen Speicher ala HBM braucht um überhaupt auf die Performance zu kommen.
Dir kann es doch komplett egal sein ob HBM oder GDDR verbaut ist. Der Preis wird sich danach richten wo sich die Karte von der Leistung her positioniert. Ob da am Ende HBM GDDR5x oder GDDR6 auf der Karte ist, kann dem Kunden egal sein.

Da hast du recht, wenn die Verwendung von HBM notwendig ist um leistungstechnisch aufzuschließen sich der Preis von Vega dennoch kompetitiv zur 1080 ti gestalten lässt, dann sehe ich da auch gar kein Problem. Am Ende zählt nun mal die Leistung, wie diese dann erreicht wird ist dem Kunden fast egal. Aber wenn Vega durch HBM2 teurer werden sollte als die 1080ti, der Kunde dabei aber nicht mehr Leistung bekommt dann wäre das schon ein Problem. Naja mal sehen was zur Computex kommt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh