Vega-Architektur mit HBM2 und neuer Compute-Engine vorgestellt

die Treiber/die Karte KANN prinzipbedingt gar nicht wissen, was der Gamer für Daten auf dem Schirm sehen will bzw. demnächst sehen soll. [...] Wenn nun aber nur noch die Daten im Speicher liegen, welche absolut benötigt werden und kein Deut mehr, hat es schon in der nächsten Sekunde Spielzeit ggf. ein Problem -> denn dann brauch es Daten, die gerade NICHT im Speicher sind.

So, und hier ist das Missverständnis. Ich habe es so verstanden, dass im Speicher Daten sind, die in Benutzung sind(logisch, über die brauchen wir auch nicht sprechen) - vielleicht 2GiB. Und darüberhinaus Daten, die vielleicht demnächst gebraucht werden - meinetwegen 6 GiB. Und was ich aus dem Text rauslese ist: Von den 6 GiB werden 4GiB in keinem einzigen Szenario jemals geladen, weil es wohl in dem Moment wo sie reingeladen werden, völlig unmöglich ist, dass sie in einem künftigen Szenario gebraucht werden - die Spieleentwickler haben also viel mehr reingeschoben als nötig wäre(z.B. Daten hinter einer Felswand, die erst im nächsten Level zugänglich ist etc.).
Wenn Du nun schreibst, dass die Grafikkarte/Treiber nicht wissen kann, welche von den Daten tatsächlich gebraucht werden, und welche nicht, dann ist doch klar, dass diese Daten potenziell immer schädlich sind, weil wenn in einer anderen Spielszene welche dazukommen, die GPU andere rausschmeißen müsste und nicht weiß, mit welchen sie sich unschädlich hält.

Wenn aber die GPU eben doch irgendwas abschätzen kann, und das scheint sie zu können, denn sonst müsste man ja keinen extra Controller entwerfen und bewerben, könnte sie die Daten, die unwahrscheinlicher gebraucht werden, in einen anderen Speicher(RAM) stecken, oder wenn der RAM fast voll ist, sogar erst mal auf der SSD lassen, je nachdem, wie schnell die ist etc., die Wahrscheinlichkeit jeden Frame neu berechnen und dynamisch nachladen und den "HBM- Cache" wieder aufräumen.

Natürlich fragt sich, wie das technisch überhaupt umgesetzt wird - ob das vielleicht nur mit Vulkan/DX12 gehen wird, oder wie das alles kommuniziert wird. Aber genau das könnte ich mir eben vorstellen - dass vielleicht ein Tag vorgesehen ist, in dem steht, wie wahrscheinlich diese Textur in den nächsten 100 Frames gebraucht wird oder so - und jedes Frame wird die Wahrscheinlichkeit grob neu berechnet...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
So, und hier ist das Missverständnis. Ich habe es so verstanden, dass im Speicher Daten sind, die in Benutzung sind(logisch, über die brauchen wir auch nicht sprechen) - vielleicht 2GiB. Und darüberhinaus Daten, die vielleicht demnächst gebraucht werden - meinetwegen 6 GiB. Und was ich aus dem Text rauslese ist: Von den 6 GiB werden 4GiB in keinem einzigen Szenario jemals geladen, weil es wohl in dem Moment wo sie reingeladen werden, völlig unmöglich ist, dass sie in einem künftigen Szenario gebraucht werden - die Spieleentwickler haben also viel mehr reingeschoben als nötig wäre(z.B. Daten hinter einer Felswand, die erst im nächsten Level zugänglich ist etc.).

Dann hat doch aber irgendwer massiv geschlafen?
Welcher Entwickler kommt denn auf die Idee, Zeug zu laden, wenn es NIE gebraucht wird?
Davon ist defakto wohl nicht auszugehen... Der Spaß funktioniert mittlerweile (vereinfacht gesagt) so, das oftmals eine gewisse Basis geladen wird und während der Laufzeit Kontent gestreamt wird. Das was länger nicht angefasst wurde fliegt irgendwann raus und das was alle Nase lang gebraucht wird, bleibt logischerweise drin.

Das Problem ist, man bricht in den Ausführungen das Thema idR. bis auf das Frame oder die Szene runter, das ist aber nicht praxisrelevant. Spiele bestehen aus unzähligen Szenen und Frames, man muss also doch klar diese Wechsel beäugen. Denn da entscheidet sich ob es ruckelt oder flüssig durch läuft. Statischer Kontent ohne Veränderung wird immer gleiche Mengen Speicher benötigen, variabel wird es durch Bewegungen.
Das geht soweit, das durch zu schnelle Bewegungen das Streamingsystem vllt überfordert wird und nicht mehr nachkommt -> so zu sehen in FarCry4 im Heli bei max Details.

Wenn Du nun schreibst, dass die Grafikkarte/Treiber nicht wissen kann, welche von den Daten tatsächlich gebraucht werden, und welche nicht, dann ist doch klar, dass diese Daten potenziell immer schädlich sind, weil wenn in einer anderen Spielszene welche dazukommen, die GPU andere rausschmeißen müsste und nicht weiß, mit welchen sie sich unschädlich hält.
Die Daten sind doch nicht schädlich!?
Wenn der VRAM massiv überbucht wird, ruckelt es halt... Wichtig ist also doch eher, genügend Speicher vorzuhalten anstatt Platz brach liegen zu lassen... Der Punkt andem das VRAM Management eingreifen muss, ist formal schön über Limit...

Wenn aber die GPU eben doch irgendwas abschätzen kann, und das scheint sie zu können, denn sonst müsste man ja keinen extra Controller entwerfen und bewerben, könnte sie die Daten, die unwahrscheinlicher gebraucht werden, in einen anderen Speicher(RAM) stecken, oder wenn der RAM fast voll ist, sogar erst mal auf der SSD lassen, je nachdem, wie schnell die ist etc., die Wahrscheinlichkeit jeden Frame neu berechnen und dynamisch nachladen und den "HBM- Cache" wieder aufräumen.

Nochmal, die Vega GPU ist ein Zwitter, ob der HBMC respektive HBMCC in kleineren GPUs Einsatz findet, bleibt abzuwarten. Ebenso sollte man es eben nicht überbewerten. Es sind GPUs mit lokalem SSD Storage angekündigt (wenn mich nicht alles täuscht) wo soll das denn dran?
Der Controller ist klar ersichtluch für deutlich mehr als Games entwickelt, man könnte sogar drüber streiten ob Games überhaupt Anteil daran hatten...

Wie oben schon erwähnt ist es Gamingsicht eher wurscht, wo die Daten liegen, die nicht im VRAM sind... ob nun SSD, HDD, RAM oder sonstwo -> nicht im VRAM = zu lahm.
Was interessant sein wird, ob AMD versuchen wird unterschiedliche Cache Pools zu implementieren. So wäre ein Texturcache mit weniger Speed denkbar als der Speicherbereich, den die GPU selbst benötigt. Danach sieht es aber im Moment nicht aus -> es sieht weiterhin nach einem Stück Speicher aus (Kartendediziert) + der Möglichkeit externe Medien zu adressieren, die alle samt am PCIe Flachenhals klemmen.

Theoretisch macht man das bspw. bei Intel mit der Iris Pro IGP und bei AMD mit der XBox One. Schneller Cache als oberste Cacheebene, die von allem durchlaufen wird. Denkbar wäre also schon seit langen, ein eher kleinen mehrere 100GB/sec fixen Cache vor eher langsame, große Speicher zu setzen -> hat man aber irgendwie nicht gemacht. Wäre eine viel einfachere Möglichkeit, GPUs für Games effenktiv mit hochen Speichermengen auszustatten ;)

PS: versteife dich nicht auf DX12 oder Vulcan... Solange es die Entwickler heute mit DX11 nicht sauber hinbekommen, wie soll das dann aufgehen, wenn deren Verantwortung noch weiter wächst?
Ich sehe jedenfalls sehr wenig Ressourcenoptimierte Games... Eine dedizierte Optimierung für jene Games wird durch den Schwenk der API kaum auf einmal einzug erhalten... Eher das Gegenteil ist der Fall, denn es finden sich Entwickleraussagen, das der Verbrauch eher steiget ;)
 
Da kann man nur hoffen, das AMD in Zukunft wieder zu einen stärkeren Konkurrenten wird. :)

Außer hoffen ist da auch nichts drinne, oder wie sollen AMD mit knapp 20% im dGPU und 5% im CPU Business da ein Konkurrent sein. Wie auch? Also bei null Einnahmen kann man auch null wieder in R&D stecken.

Der AMD Zug ist abgefahren. Vega ist aka Tesla und Quadro ein ganz anderes Kaliber und wenn AMD nur mit diesem in Leistungsregionen des GP104 kommt, na dann mal gute Nacht! Und Zen ist selbst jetzt, Ende Januar 2017, nur dummes Blah Blah Blah seitens AMD, und das wo der doch mitte Februar launchen soll...
 
Außer hoffen ist da auch nichts drinne, oder wie sollen AMD mit knapp 20% im dGPU und 5% im CPU Business da ein Konkurrent sein.
Deine Zahlen sind falsch. CPUs interessieren in diesem Thread nicht und der Marktanteil an dGPUs lag zuletzt bei etwa 30%. Da es aber mehr als nur dGPUs gibt, liegt der GPU Marktanteil von AMD zumindest im Bereich Gaming nochmal um einiges darüber. Einige vergessen anscheinend immer, dass fast halb mal so viele Konsolen wie Gaming PCs abgesetzt werden. Und in diesen ist fast ausschliesslich AMD zu finden. Nur so zur Info. ;) Ich hab letztens mal eine Übersicht gesehen, laut der AMD weltweit die meistens Gaming Grafikbeschleuniger absetzt. Mehr als Intel und auch mehr als Nvidia.

AMD macht der Konkurrenz momentan auf diversen Ebenen so einiges vor, wie Architektur, Interconnects oder Softwaresupport. Da kann man nur hoffen, dass Nvidia ein Konkurrent bleibt. Als kleiner Teaser noch folgendes:
The prototype that Koduri showcased on stage is made up of four individual Vega 10 graphics processors, each residing on its own little circuit board. Vega cubes are designed to be stacked up vertically one on-top the other via a unique interface. This ,in theory at least, would enable the creation of extraordinarily powerful supercomputers orders of magnitude smaller than what we see today.

We can only imagine the challenge associated with cooling such a dense device. Especially considering that each Radeon Instinct MI25 accelerator, powered by a single Vega 10 chip, is rated at 300W of power. Nvidia’s own Telsa P100 deep-learning accelerator is rated at 300W However, it doesn’t come in a configuration that allows anywhere near the same computing or thermal density as the Vega Cube.
 
Deine Zahlen sind falsch. CPUs interessieren in diesem Thread nicht und der Marktanteil an dGPUs lag zuletzt bei etwa 30%. Da es aber mehr als nur dGPUs gibt, liegt der GPU Marktanteil von AMD zumindest im Bereich Gaming nochmal um einiges darüber.
Weil ja soviele mit APUs spielen (ich weiß schon dass du auf die Konsolen anspielst)

Einige vergessen anscheinend immer, dass fast halb mal so viele Konsolen wie Gaming PCs abgesetzt werden. Und in diesen ist fast ausschliesslich AMD zu finden.
Und als PS4 + XBO kamen hieß es damals dass AMD nun extrem am PC zulegen wird weil sich ja soviel von den Konsolen auf den PC umlegen lässt.
NV wird schwere Probleme bekommen usw, eingetreten ist davon nichts.
AMD hat einfach mit XBO + PS4 einen Großauftrag bekommen, damit (also Embedded, Semi-Custom) verdienen sie wenigstens noch etwas Geld im Vergleich zu allen anderen Sparten wo auch in Q3/16 nur Verluste gemacht wurden.

Ich hab letztens mal eine Übersicht gesehen, laut der AMD weltweit die meistens Gaming Grafikbeschleuniger absetzt. Mehr als Intel und auch mehr als Nvidia.
Und das bringt dem Endkunden der eine schnelle PC-Garfikkarte haben möchte jetzt etwas?

Und über ungelegte Eier zu sprechen (siehe Zitat) wird schön langsam etwas langweilig, keiner hier wartet auf einen Vega Cube, sondern endlich auf eine ordentliche Konkurrenz für NV im Ober- bzw HighEnd-Segment bei SingleGPUs.
 
Weil ja soviele mit APUs spielen
In der Tat ist das so. Auch wenn du es nicht glauben magst. ZB laut Steam spielt die Hälfte der Spieler mit einer Auflösung unter FHD. Dafür reicht eine APU oft schon aus. Fast ein Viertel spielt zB in 1366x768. Das sind idR Lappies ohne dGPU. Ich weiss das gut genug, da ich jeden Tag mit genügend solcher Modelle zu tun habe. ;) Einige sollten langsam echt mal begreifen, dass Enthusiasten wie in diesem Forum nicht repräsentativ für den gesamten Markt sind. Und der Gaming-Markt besteht auch nicht nur aus Enthusiasten.

Und als PS4 + XBO kamen hieß es damals dass AMD nun extrem am PC zulegen wird weil sich ja soviel von den Konsolen auf den PC umlegen lässt.
Nein. Es hiess damals nur, dass das AMD hin und wieder begünstigen könnte. Und genau das ist auch eingetreten. Nicht zuletzt ist Mantle (und damit auch Vulkan) eine direkte Konsequenz aus diesem Umstand.

Und das bringt dem Endkunden der eine schnelle PC-Garfikkarte haben möchte jetzt etwas?
Wer hat denn behauptet, dass das dem Endkunden etwas bringen soll? :rolleyes:

Und über ungelegte Eier zu sprechen (siehe Zitat) wird schön langsam etwas langweilig, keiner hier wartet auf einen Vega Cube, sondern endlich auf eine ordentliche Konkurrenz für NV im Ober- bzw HighEnd-Segment bei SingleGPUs.
Es ist mir ehrlich gesagt völlig egal, was du denkst auf was andere warten. Der Thread ist der Vega Architektur gewidmet. Und da sind auch Infos wie der Vega Cube passend. Wenn dich das nicht interessiert, dann bleibe dem Thread einfach fern oder spare dir zumindest solche überflüssigen Kommentare.
 
Mantle und Vulcan unterstützen insg wie viele Spiele? mehr als ne Randerscheinung is das auch nich ...
 
10 Spiele. (Edit: Und 12 unterstützen Mantle) Zudem noch der Dolphin Emulator für Wii und Gamecube- Spiele, also im Grunde laufen die auch alle damit(wobei die Emulation halt dazwischen hängt).

Steam VR läuft soweit ich weiß, auch mit Vulkan.

Bei allen Vulkan- Spielen(für PC) wurde Vulkan erst nachträglich implementiert - keines davon hat sofort auf Vulkan gesetzt, weil sie bereits in der Entwicklung waren, als es Vulkan noch nicht mal gab. Bei DX12- Spielen wird es wohl auch so sein. Die Entwicklung dauert je nach Spiel mindestens 2-4 Jahre, und Vulkan underscheidet sich von DirectX deutlich. Das Team muss somit auch erst ausgebildet werden und viele Engines haben Vulkan erst jetzt implementiert oder werden es in den nächsten Monaten erst machen.(Edit: In ein bestehendes DX11- Game ein paar DX12- Features zu integrieren und dann DX12 als Werbung draufzuschreiben ist verhältnismäßig deutlich einfacher)

Weder Hardwarehersteller noch Spieleproduzenten haben ein Interesse an DX12 oder Metal. Die einzigen, die von der Plattformabhängigkeit profitieren, sind Microsoft und Apple. Deshalb wird sich sowieso Vulkan durchsetzen, auch wenn DX12 zuerst da war und jetzt für 1-2 Jahre eine längere Liste von Spielen gegenüber Vulkan hat.
 
Zuletzt bearbeitet:
Und als PS4 + XBO kamen hieß es damals dass AMD nun extrem am PC zulegen wird weil sich ja soviel von den Konsolen auf den PC umlegen lässt.
NV wird schwere Probleme bekommen usw, eingetreten ist davon nichts.
AMD hat einfach mit XBO + PS4 einen Großauftrag bekommen, damit (also Embedded, Semi-Custom) verdienen sie wenigstens noch etwas Geld im Vergleich zu allen anderen Sparten wo auch in Q3/16 nur Verluste gemacht wurden.


Nvidia wird sicherlich damals auch um die Konsolendeals gekämpft haben. Ab dem Zeitpunkt, als AMD den Zuschlag bekam wird man zeitgleich den Effizienztrumpf Maxwell angestoßen haben. Einen ähnlichen Sprung wird AMD mit Vega auch hinlegen. Zumindest ist ja bekannt wie Maxwell rendert im Vergleich zu Kepler, also auch kein Hexenwerk, braucht eben nur Zeit.

Vermutlich hat man diesen Schachzug aber auch nicht erwartet, oder gehofft, dass die Konsolenabhängigkeit noch stärker durchschlägt.

Das der Vorteil aber gegeben ist sieht man wieder schön an folgendem brandaktuellen Benchmark.
Resident Evil 7: Technik-Test mit Benchmarks von 22 Grafikkarten - gruselig mit weniger als 4 GiB VRAM
7970 schneller als die doppelt so teuere GTX780 und 3x so teure Titan1.
Auffällig ist auch, dass ohne angepassten Treiber die GTX970 ein starkes Problem mit dem segmentierten Speicher hat. (Das künstliche "Verfallsdatum" funktioniert ab dem Zeitpunkt wo keine extrem angepassten Treiber mehr geliefert werden.)
Auch wenn die GTX770 und 270x offentsichtlich zuwenig VRAM haben ist es dennoch sehr auffällig, dass die 270x die GTX770 nun auch immer regelmäßiger überholt.
Auch wenn die Fury noch eine gute Figur macht, sollte einem klar sein, dass die 8GB der AMD390 immer passender und runder erscheinen. "Soviel VRAM braucht kein Mensch..."

Das sind jetzt keine utopischen Settings solange eine 7970 80fps erreicht!
Vor 4 Jahren:
2GB oder 3Gb für Full HD

Veränderung der Spieleanforderungen:
Hardware- und Nachrichten-Links des 21./22. Januar 2017 | 3DCenter.org
 
Zuletzt bearbeitet:
Das der Vorteil aber gegeben ist sieht man wieder schön an folgendem brandaktuellen Benchmark.

Wobei die tatsächliche Leistung(wiedermal bis auf die Fury X...) hier einfach sehr gut mit der Rohleistung skaliert. Da bleibt immer die Frage, inwieweit die Konsolen den Ausschlag gegeben haben, oder wollten die Entwickler einfach generell gute Arbeit leisten und deshalb werden auch die GPUs alle gut ausgelastet...
 
hat alles nur am Rande mit dem thread-Thema zu tun ...
 
Die müssen mal was zu Preis und grober Leistung sagen, so geht das nicht weiter.
 
Wenn es so wie bei Polaris ist, werden sie erst eine Woche vor Release was dazu sagen - eventuell noch später. Und ich glaube sogar fast, dass sie zur Leistung gar nichts sagen. Ist auch meiner Meinung nach die beste Strategie. Treiber perfekt optimieren, Samples an die Presse/Youtuber etc. rausgeben und dann einfach in den Sessel setzen, Tee trinken und vielleicht "some noise" machen, ohne Details zu nennen. So kann keiner AMD für falsche Infos verantwortlich machen und mehr als die Performance, die jetzt in DOOM gezeigt wurde, muss die Karte nicht liefern, damit AMD aus dem Schneider ist.
Bei Nvidia war "the new king" auch doppelt so schnell wie alles bisherige eingezeichnet - doch darüber beschwert sich dann niemand. Jeder hat andere "Fans" und jede Firma wird auch verschieden behandelt. Man muss eben das aus seiner Position machen, was man rausholen kann und nicht bei jedem ist die gleiche Strategie die richtige.
 
Im März kommt Mass Effect Andromeda. Das ist ein recht "großes" Spiel. Wenn vorher nix von AMD kommt, dann gute Nacht.
 
Vega wird meiner Meinung nach leider nicht vor Juni kommen, zumindest wird es für ein Release im Mai sehr knapp. Es sei denn, sie wollen ohne Linuxsupport starten. RyZen müsste in ungefär 5 Wochen startbereit sein.
 
zu den resi 7 test
Erstmal ist bei den Test was aktuell nur PCGh gemacht hat.
Shadow cache an
Was bewirkt das
mit schatten cache wird berechnungen der schatten von der CPu vorgeladen und es wird jedes bit an vram belegt
das kann bei schwachen CPu und hohen cpu overhead eine Beschleunigung des Spiels führen siehe Test ohne shadow cache
Was ein yt mal gemacht hat bzw forum Nutzer finden den Beitrag nicht
ich meines war ein Kommentar im PCGh rsi 7 test Thread
Dort war eine Steigerung mit cache von 30% drin rx480
Dieser hatte außer eine rx 480 und 470 keine andere amd Karte
ich verwette meinen after das die ganze amd Riege bis zur HD7970 davon profitiert
nvidia GPu hatten 1% Differenz.
Das Spiel ist wieder so ein Ding wo vram entscheidend ist
zumal das vorladen des cache kaum was bringt.es wird wie bei anderen games die die Texturen und Berechnungen vorladen nur vram vergeudet siehe cod aw, cod iW, mirrors edge catalyst usw
Somit ist ein Vergleich dann Sinnlos mit shadow cache
 
Vega wird meiner Meinung nach leider nicht vor Juni kommen, zumindest wird es für ein Release im Mai sehr knapp. Es sei denn, sie wollen ohne Linuxsupport starten. RyZen müsste in ungefär 5 Wochen startbereit sein.

Wieso ruhen die sich so extrem lange auf nicht vorhandenen Lorbeeren aus? Wo hängts denn da immer?
 
Sie ruhen sich nicht aus, aber jeder Chip ist kostenintensiv und wenn man statt immer mit dem Konkurrenten gleich zu ziehen, ihn einmal so übertrumpft, dass man 2 Generationen von ihm überbrücken kann, spart man sich natürlich Entwicklungskosten, kann die Chips billiger ansetzen und dadurch mehr absetzen.

Zudem müssen die Produktionskapazitäten vorhanden sein, und wenn man sie zu bestimmten Zeitpunkten erzwingen möchte, kostet es wieder Geld. Und AMD braucht immense Kapazitäten, weil neben den GPUs auch RyZen und die Konsolen produziert werden müssen. All das muss gut getimed werden, damit es in die jeweilige Umrüstung und Bau der Fabriken des Fertigers passt.

Außerdem wurden natürlich viele Ressourcen in die Entwicklung der Windows- und Linuxtreiber, Werbung für Vulkan/Entwicklung von Vulkan, DX12 und entsprechenden OpenSource- Tools gesteckt, die aktuell das wichtigste Kriterium sind, denn AMD hat mittlerweile auch erkannt, dass ihre Treiber oft der Grund waren, dass nicht ihre Karte gekauft wurde, und der Umstand lässt sich nicht dadurch beheben, einfach nur immer bessere Hardware herzustellen und sich um Marketing, Softwarekompatibilität, Marktanteile etc. nicht zu kümmern... Das bedeutet nicht, dass AMD z.B. in Marketing extrem viel Geld reinstecken würde, sondern man macht aus wenigen Mitteln das maximal mögliche.

Meiner Meinung nach ist das definitiv kein Ausruhen, sondern es ist ihnen ein Licht aufgegangen und AMD macht meiner Meinung nach aus der eigenen Sicht alles richtig, obwohl es mir natürlich genausowenig schmeckt, dass Vega nicht schon längst im PC steckt.
 
Zuletzt bearbeitet:
Kochen beide nur mit Wasser. Die Chips sind je nach Größe und Fertigungsprozess Leistungstechnisch immer in einer Liga.
Mit Ausnahme, nvidia baut wieder absichtlich Bremsklötze ein, aber das ist ein anderes Thema.
 
mit Vega 2 Gens NVs? ernsthaft? mit 1080-Leistung? wie soll das gehn?
Seit wann hat die GTX 1080 12 TFLOPS? In Spielen, die sowieso 200FPS mit einer RX 460 erreichen, interessiert es niemanden, ob er 50 mehr oder weniger hat... Die einzigen Spiele, die interessant für HighEnd- Karten sind, sind Low- Level- API- Spiele, die die 12 TFLOPS und 4.000 Shader auch voll auslasten können. Edit: Und in den maßgeblichen Spielen hat Vega somit bis zu 30% mehr Potenzial, mit FP16 sogar noch deutlich mehr.
 
Zuletzt bearbeitet:
wüßte nicht, dass AMD je ihre TFlops so aufn Monitorbringen gebracht haben, wie NV. ich glaub auch nich, dass AMD das jemals so hinbekommen wird.
 
Du bist vielleicht einfach nur ein wenig vergesslich ;) https://www.pcper.com/files/imagecache/article_max_width/news/2016-07-13/amd-2016-doom-vulkan-benchmark-computerbasede.png

Ich könnte jetzt auch noch mehr Benchmarks heraussuchen, man findet genug AAA- Games, selbst wenn sie nur mit DX11 geschrieben sind, die zeigen, dass bei guter Optimierung die TFLOPS auf die Straße gebracht werden können. (Bis auf die Fury X, bei der es wohl noch an anderen Stellen hakt und nicht immer so rosig wie hier in DOOM aussieht.)

Ich weiß zwar, dass es auch nach dem Vega- Release Schlaumeier geben wird, die mit solchen Spielen wie CS:GO testen und sich dann beschweren werden, dass die eine Karte nur 370 FPS macht und die andere 400 schafft - aber ich glaube, dass die meisten Käufer (letztlich auch mich einbezogen) nur interessiert, dass sie eine ruhige Karte haben, mit der alles reibungslos läuft - auch die Treiber.

Und deshalb bin ich mit Vega sehr zuversichtlich, dass das, gemixt mit der hohen Leistungsfähigkeit, und einem angemessenen Preis erfolgreich sein wird, weil am Ende performancemäßig zählt, ob der Kumpel in DOOM, Deus Ex: MK, Battlefield etc. 55 vs. 60 FPS hat, und nicht, ob jemand 900 oder 1000 FPS in Point and Click- Adventures bekommt. (Und wenn die fiktive Person mit einer GTX 1060 in besagten 2D- Spielen seine 100FPS mehr als ein anderer mit der Vega hat, darf er sich meinetwegen erbärmlich freuen, das sei ihm gegönnt :haha:)
 
Zuletzt bearbeitet:
wird ja immer lächerlicher
und hat nix mitm topic zu tun. ich wette Vega wird genau so ne Lachnummer
 
Ich wollt nur seine Qellen sehen. Bei wccftech wurde alles klar....
Ich bin hier raus, bei dem verblendetem Gebrabbel.

Gesendet von meinem E6653 mit Tapatalk
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh