AMD Radeon RX Vega mit 4.096 Shadereinheiten und 1.200 GPU-Takt aufgetaucht

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Naja wenn die FE Ende Juni erscheint und die RX Karten kurz danach... eigentlich logisch oder :>
 
Wenn es nicht AMD gesagt hätte bei den ganzen Verschiebungen - Ja ;)
 
Interessant, ich dachte eigentlich, dieses Mal hätte AMD jetzt die Linuxtreiber nicht rechtzeitig im Kernel. Aktuell ist Vega in der Vorversion von Kernel 4.12 unterstützt, die in ca. 5 Wochen final sein sollte. Allerdings besteht noch kein Support für die Display-Anschlüsse von Vega. Man kann die Karte also mit diesem Kernel bisher nur als Rechenbeschleuniger nutzen.

Bis AMD also die Consumerkarte rausbringt, wird es sicherlich Release-Kandidaten für Kernel 4.13 geben, die dann auch die Anzeige unterstützen und auch das im freien Treiber lange herbeigesehnte Feature integriert haben, was für FreeSync-Support und Ton über HDMI nötig ist.
 
Ich hoffe auch das bis zum Vega Release der quelloffene Treiber damit mit aktuellem Kernel out of the box funktioniert. Will AMDGPU-PRO nicht benutzen müssen...
 
Das ist natürlich die Frage. Wenn die Consumer-Vega mit dem finalen Kernel 4.13 funktionieren soll, käme sie frühestens am 26. August. Ich denke, dass es AMD aber bereits reicht, wenn ein Release Candidate die Karte voll unterstützt(Mir auch, weil ich so lange nicht darauf warten will, bzw. möglichst schnell Sicherheit haben möchte). Das wäre dann frühestens der 8. Juli.
 
Zuletzt bearbeitet:
Wenn ich mich irgendetwas mit 100%iger Sicherheit bei Vega RX sagen traue, dann dass AMD sicher völlig unabhängig von irgendwelchen Linux-Kernel-Geschichten seinen Release plant.
 
It is hard to forget the fact that Vega is more than a year late. It was supposed to launch last year and AMD had to settle for Polaris 10 and 11 performance mainstream / mainstream parts.*
Fake-News
 
Gamer werden bald nurnoch die 3te Geige spielen, die Margen bei Deep Learning sind einfach zu hoch um sie zu ignorieren und der am schnellsten wachsende Markt.
Volta ist zu 100% für Deep Learning gemacht, Vega ist noch ein Hybrid aber ebenso hauptsächlich für Deep Learning etc.
Danach kommen die Workstations die ebenfalls deutlich höhere Margen haben als Gamerkarten.
 
Wer würde aber von einer 1080ti auf die neue AMD Karte umsteigen bei gleicher Leistung? AMD muß schneller werden um Marktanteile zu gewinnen.

Gesendet von meinem Moto G (4) mit Tapatalk
 
der markt besteht doch nicht nur aus aufrüstern die schon in dem bereich unterwegs sind.
das ist doch eher der kleinste teil.

vega muss erstmal konkurrenzfähig sein und eine alternative bilden.
dann kommt auch der marktanteil von alleine.
 
Zuletzt bearbeitet:
ich denke AMD wird alles andere als "gleich schnell" sein, und das obwohl ich aktuell eher rot unterwegs bin und rot bleiben will.
Das einzig Gute daran wird sein, dass die bereits zu Release angesetzten VEGA-Preise wirklich die Leistung widerspiegeln werden müssen,
allerdings auch nur gemessen an der idR teureren Konkurrenz.

meine Prophezeihung: im Zeitraum um den Releasetermin herum wird NV die Preise senken. Früh genug um die Kunden durcheinander zu bringen, spät genug um AMD zu drängen den eben angekündigten Preis* bereits wenige Tage nach Marktstart nach unten zu korrigieren und damit die Gewinnmarge von AMD deutlich zu schwächen.



*ich vermute dass wenn release bekannt ist, auch die Preisempfhelungen bekannt gegeben werden-
 
Zuletzt bearbeitet:
Das find ich viel interessanter, da es uns ALLE betrifft (AMD sowie Nvidia Käufer)

When Did GPU Manufacturers Stop Caring About Graphics? - YouTube

Einige seiner Videos sind ganz OK. Aber dieses hier ist ihn nicht geglückt. Er zieht z.B. den Schluss, das wenn das Data-Center-Segment in Zunkunft mehr an Bedeutung gewinnt, dies nachteilig für den Gamer-Konsumenten sein könnte. Das ist zwar grundsätzlich nicht ausgeschlossen, aber dafür müsste das Gaming-Segment schon vom Anteil am Gesamtumsatz her so stark einbrechen, das es quasi in die Bedeutungslosigkeit verschwindet - sehr unwahrscheinlich auf absehbare Zeit.

Das Volta (GV100) und Vega auf Deep Learning getrimmt sind, ist auch kein Nachteil für Gamer. Bei Volta werden kastrierte Gamingableger folgen. Und Vega ist ohnehin mit dem Hintergedanken eines Allrounders designt. AMDs Ein-Chip-Design für mehrere Märkte spart Kosten. Ist bei AMD auch nicht erst seit Vega der Fall. Diese Benachteiligung von Gamer, weil in anderen Segmenten die Margen höher sind sehe ich jedenfalls nicht kommen. Ohnehin reicht es im Profisegment nicht allein nur auf die Produktionskosten zu schauen. Die Entwicklung von Volta mit den ganzen neuen Tensor-Cores und den anderen architektonischen Neuheiten war ganz sicher kein Schnäppchen. Dazu braucht es schon fähige Ingenieure. Support ist dann auch noch ein viel wichtigerer Punkt als im Consumersegment, der auch irgendwie entlohnt werden will. Es hat also auch schon seine Gründe warum Profikarten teils mehrere tausend Euro kosten (müssen).
 
Ich glaube du hast ihn falsch verstanden, es wird für Gamer nachteilig sein, weil das Data Center Segment jetzt schon deutlich lukrativer ist (Margen) und der Umsatz in diesem Segment massiv ansteigt. Dadruch bleiben die Innovationen für den Gaming Sektor so gut wie aus, da alles an R&D in das Datacenter Segment investiert wird.
Daneben wird es wohl bei beiden GPU Herstellern zu Preissteigerungen in den nächsten Jahren kommen.
Rohe Power wird natürlich ansteigen, aber gamingspezifische Innovationen werden wohl ausbleiben.
Also werden wir weniger große Leistungssprünge per GPU Generation sehen.

Ob es so kommt kann natürlich keiner hier sagen, aber Vega und speziell Volta sehen sehr danach aus.
Mir gefällt diese Entwicklung genauso wenig wie jedem anderen Gamer, aber aus geschäftlicher Sicht absolut verständlich.
Vielleicht wird es Navi rumreißen (2 Mid Range GPUs per Infinity Fabric auf einer Platine) was günstiger wäre als einen großen Chip zu produzieren.

Warum Nvidia überhaupt Tensor Cores auf der GPU verbaut hat ist mir nach wie vor ein Rätsel, da die Tensor Processing Units von Google in dem Bereich deutlich schneller sind.
Tensor Processing Unit: Google baut eigene Chips fr maschinelles Lernen - Golem.de

edit: bei AMD gibts bzgl. Vega immerhin ein paar Dinge die für Gamer interessant sind:
HBCC, Rapid-Packed Math
 
Zuletzt bearbeitet:
Ich glaube du hast ihn falsch verstanden, es wird für Gamer nachteilig sein, weil das Data Center Segment jetzt schon deutlich lukrativer ist (Margen) und der Umsatz in diesem Segment massiv ansteigt. Dadruch bleiben die Innovationen für den Gaming Sektor so gut wie aus, da alles an R&D in das Datacenter Segment investiert wird.

Ich denke schon, dass ich ihn verstanden habe, nur sind mir seine Schlussfolgerungen teils zu einseitig und etwas in die Schieflage geraten. Es gibt jedenfalls keinen Grund warum das Data-Center-Segment die Innovationen im Gaming-Segment massiv behindern sollte, ganz egal wie lukrativ er ist, denn das Gaming-Segment wird auch weiterhin ein potenzieller Multi-Millionen $ Markt bleiben, den man gerne ausschöpfen möchte. Zumindest nVidia dürfte auch genug $ erwirtschaften um das nötige R&D für beide Segmente lohnend refinanzieren zu können - wenn nötig! Ich sehe das eigentliche Problem nicht in den höheren Margen im Data-Center-Segment begründet, sondern viel eher in der mangelnden Rivalität/Konkurrenz im Gaming-Segment, die zu weniger Innovationen führen könnte. Das Data-Center könnte sich am Ende für AMD sogar als Chance erweisen wieder im Gaming-Segment ganz oben mitzumischen.
 
Ryzen ist die Chance für mehr Geld.

Vergleiche mal den Gewinn/Umsatz von Nvidia (mit Rekordjahren!) und Intel
Der GPUs sind dagegen Peanuts :/

Aber ja auch der Data Center Markt ist für AMD eine Chance, da besser als GP100 aber schlechter (aber deutlich günstiger) als GV100
 
Zuletzt bearbeitet:
Ich glaube du hast ihn falsch verstanden, es wird für Gamer nachteilig sein, weil das Data Center Segment jetzt schon deutlich lukrativer ist (Margen) und der Umsatz in diesem Segment massiv ansteigt. Dadruch bleiben die Innovationen für den Gaming Sektor so gut wie aus, da alles an R&D in das Datacenter Segment investiert wird.
Daneben wird es wohl bei beiden GPU Herstellern zu Preissteigerungen in den nächsten Jahren kommen.
Rohe Power wird natürlich ansteigen, aber gamingspezifische Innovationen werden wohl ausbleiben.
Also werden wir weniger große Leistungssprünge per GPU Generation sehen.
An was machst du das denn nun fest? Seit spätestens dem G80/R600 sind die Gamer HighEnd Karten Zwitter zwischen Profimarkt und Gamerbereich... Der GPGPU Markt wächst seit je her, idR. Sprunghaft mit jeder neuen Generation, weil meist die Effizienz bei Leistung/Energieaufnahme steigt. Aber seit 2006 hat sich eine ganze Menge getan, zocken geht heute besser denn je.
Ebenso gibt es mit GM200 und Fiji die erste Generation GPUs mit fast ausschließlichem Graphics Fokus, seit dem verfolgt NV den geteilten Weg, AMD geht weiterhin den Zwitterweg. Was sich besser ausgeht, wird sich zeigen. Es gibt dabei doch aber keinerlei Indizien auf ausbleibende Innovationen oder fehlenden Fortschritt.

Ob es so kommt kann natürlich keiner hier sagen, aber Vega und speziell Volta sehen sehr danach aus.
Mir gefällt diese Entwicklung genauso wenig wie jedem anderen Gamer, aber aus geschäftlicher Sicht absolut verständlich.
Vielleicht wird es Navi rumreißen (2 Mid Range GPUs per Infinity Fabric auf einer Platine) was günstiger wäre als einen großen Chip zu produzieren.

Vega und Volta lassen sich da nicht in einen Topf werfen. Volta ist im Moment GV100 und quasi reinrassig auf HPC getrimmt. Graphics wird ziemlich sicher ein GV102 werden...
Vega ist/bleibt Vega. Ehrlich gesagt wundert mich, wo du da nun einen Nachteil siehst? Wäre ich reinrassiger Gamer, interessiert mich HPC doch nicht die Bohne, solange es bei den Games passt.
Witzig ist auch, das du gerade Navi mit via IF verbundenen Chips ansprichst -> diese Fabric ist doch ein Resultat aus dem HPC Bereich und den dort zu findenden Anforderungen?? Eben um ein Werkzeug für ein skalierbares Backend zu haben. Das IST primär, fast ausschließlich HPC. Wenn daraus in Folge ein Vorteil für Gamer entsteht, um so besser. Die aktuellen Gerüchte zu NVLink als SLI-Connector Nachfolger sind auch so ein Beispiel.
Unterm Strich ist das eher ein Vorteil aus meiner Sicht, weil der HPC Bereich aufgrund hoher Margen und hohen Preisen für die "Erfindung" von Technik sorgt, dessen Vorteile man als Gamer auch bekommt.
HBM bspw. könnte man da auch noch nennen...

Warum Nvidia überhaupt Tensor Cores auf der GPU verbaut hat ist mir nach wie vor ein Rätsel, da die Tensor Processing Units von Google in dem Bereich deutlich schneller sind.
Tensor Processing Unit: Google baut eigene Chips fr maschinelles Lernen - Golem.de

edit: bei AMD gibts bzgl. Vega immerhin ein paar Dinge die für Gamer interessant sind:
HBCC, Rapid-Packed Math

Warum sollte NV das nicht tun (dürfen)?
Das Framework ist OpenSource und Google baut dediziert ASICs für dieses Framework, die Dinger können nichts anderes als das. In gewissen Marktteilen könnte das ein Vorteil pro NV sein!
Was aber nunmehr immer offensichtlicher wird, es wird langsam aber sicher keine wirklich guten Allrounder mehr geben, weil immer Alternativen in Teilbereichen deutlich besser abschneiden... Unter diesem Gesichtspunkt denke ich wird AMD auch in Zukunft die GPUs trennen! Einfach um das ganze Beiwerk nicht mitzuschleppen... Navi könnte hier der erste Ansatz davon werden. Möglicherweise bekommt der Gamer dann den Mittelklasse Chip x2 ohne den ganzen HPC Kram

PS: was du für Gamer interessant findest, gibts auch bei anderen... ;) Ist alles eine Frage des Fokus und was man gern hätte. Bspw. gab es bei NV ein paar nette Sachen mit Pascal in Sachen VR oder Multimonitoring. Die Wichtung von Features ist ohne Anforderung aber extrem subjektiv, wer da wichtet, ist perse nicht objektiv. (meine Meinung

- - - Updated - - -

Vergleiche mal den Gewinn/Umsatz von Nvidia (mit Rekordjahren!) und Intel
Der GPUs sind dagegen Peanuts :/

Unpassende Vergleiche... Datacenter bei Intel bringt 4,2/1,5Mrd. Umsatz/Gewinn. Datacenter bei NV kommt auf ca. 10% vom Umsatz. Was gemessen daran, das GPGPU im Grunde nach wie vor Niesche ist, schon recht viel. In jedem Datacenter stecken haufenweise CPUs, aber ggf. nicht eine GPU abseits reiner Konsolenausgabe. Was dazu kommt, die GPUs benötigen zwangsweise nen Unterbau, im Moment gibt es nur Intel im x86, die liefern... Jede AMD oder NV GPU sitzt also irgendwo in einem Server/Workstation mit min. einem, idR. Intel Prozessor, ggf. auch mal IBM.

Sollte denke ich klar sein, wieso diese Zahlenspiele unpassend sind...
Ehrlich gesagt würde ich auch nicht GPU Computing mit klassischem CPU Computing in einen Topf werfen. GPU Computing ist eher ein Spezieller Teil vom Ganzen mit ein gewissen Fokus.
 
Fdsonne, warum musst du alles verkomplizieren?
Du scheinst außerdem vieles falsch zu verstehen, warum auch immer.

AMD muss den Zwitterweg gehen, da fehlt einfach Kapital.
Volta als Architektur ist auf HPC getrimmt, da wird auch nix spezielles für den Gamer kommen außer mehr Leistung (denke aber weniger als von Maxwell zu Pascal)

Ausbleibende Innovationen für den Gamingsektor die speziell dafür entwickelt werden und kein Nebenprodukt der Data Center Technologie ist wird es nicht mehr geben.
Pascal ist einfach nur ein Maxwell Shrink mit Anpassungen von Features, das was im Video angesprochen wird, tritt wohl erst mit Volta und teilweise schon bei Vega ein.

Was für den Gamer interessant ist und auch bei den anderen gibt:
HBCC und 16FP hat/kann Nvidia nicht :)
Tile Based Rendering wäre jetzt das einzige was Nvidia AMD (noch) vorraus hat.

ps. ich vergleiche Gesamtumsätze nicht die Umsätze eines bestimmten Segments und da sind GPUs nunmal Peanuts.
 
Zuletzt bearbeitet:
Du scheinst außerdem vieles falsch zu verstehen, warum auch immer.

AMD muss den Zwitterweg gehen, da fehlt einfach Kapital.
Volta als Architektur ist auf HPC getrimmt, da wird auch nix spezielles für den Gamer kommen außer mehr Leistung (denke aber weniger als von Maxwell zu Pascal)
Oder du verstehst es einfach falsch?
Seit G80/R600 fährt man diesen Zwitterweg. Fiji/GM200 und GP102 sind die bis dato einzigen Ausnahmen, ggf. noch G92 und RV670. Der Rest ist klar Zwitter und trotzdem hat es seit 10 Jahren eine Menge Innovationen gegeben.
Pascal als Architektur ist ebenso HPC getrimmt (GP100) und trotzdem ist das die im Moment schnellste Technik am Markt. Der Sprung GM200 zu GP102 ist im Rahmen des üblichen Leistungsanstiegs von 50-70% wie üblich bei nem Prozesswechsel. Volta wird es alleim wegen dem Prozess schwerer haben.

Ich sehe einfach den Punkt nicht andem du Innovationsnachteile festmachst... Innovation im Gaming misst sich nicht am HPC Produkt. Nach deiner Theorie dürfte es seit 2006/2007 also keine Innovationen gegeben haben?
Komisch ist auch, das du versuchst, Techniken gegeneinander aufzuwiegen. Es geht nicht (und ging auch nie) darum, wer die meisten Innovationen auf dem Konto hat, sondern darum, was am Markt ankommt. So manche gute Technik ist im Nirvana verschwunden, weil einfach nicht angenommen vom Markt. Und ehrlich gesagt, mir fällt auf, dass man hier mal wieder alle Nase lang versucht Techniken vom präferierten Hersteller in dem Diskusionsfokus zu drücken ;) Lass doch bitte einfach jeden selbst bewerten, was an Technik er für eine Innovation hält und was nicht.

Ausbleibende Innovationen für den Gamingsektor die speziell dafür entwickelt werden und kein Nebenprodukt der Data Center Technologie ist wird es nicht mehr geben.
Deine Benauptung... Ich gehe vom Gegenteil aus. VR hat bspw. Potential ein Zugpferd zu werden. Wenn! die Brillen irgendwann mal soweit sind, hat es auch mal wieder einen Ansatz im Gaming für den man dediziert entwickeln könnte. Wie bspw. gesehen mit DX als Basis im Gamingumfeld. Es werden sich beide Hersteller versuchen mit Features und Vorteilen gegenseitig zu übertreffen. Und irgendwann kommt wer und betitelt irgendwas davon als Innovation und/oder Durchbruch auf dem Gamingmarkt.
Kurzum du denkst viel zu kurz aus meiner Sicht, Innovation misst sich am Bedarf, solange der Gamingmarkt immer dem gleichen altbackenen Vorgaben nachläuft, ändert sich auch nur bedingt was. VR wie gesagt könnte da frischen Wind bringen... Anderer Fokus, anderes Bedienkonzept, andere Leistungsanforderungen usw.

ps. ich vergleiche Gesamtumsätze nicht die Umsätze eines bestimmten Segments und da sind GPUs nunmal Peanuts.

Richtig, macht dem Vergleich doch aber nicht sinniger? Es werden einfach viel mehr CPUs umgesetzt, weil eine x86 CPU ein Allrounder ist (mittlerweile) während die AMD oder NV GPU spezielle Anforderungen hat. Warum sollte in einem Router, Switch, Storage oder was weis ich noch für Equipment eine AMD oder NV GPU stecken? Im Vergleich dazu gibt es dieses Equipment aber mit (Intel) CPUs die im Gesamten auch in dem Umsatz eingehen...
 
1. Ob es Zwitter sind oder nicht hat damit absolut nichts zu tun, es richtet sich eher nach der Nachfrage und die steigt nunmal extrem schnell, um 200%+ bei Nvidia im Datacenter Bereich, der zudem massiv höhere Margen hat.
2. Siehe 1. es richtet sich nach der Nachfrage, bisher wurden GPUs mit Fokus auf Gaming designed mit Compute als quasi Nebenprodukt, jetzt/in der Zukunft scheint sich dies um 180° zu wenden, Compute steht im Fokus und Gaming an 2ter Stelle!
3. VR hat Potenzial.... bisher seh ich da nichts, weder Hardware noch Software, kann sich in Zukunft ändern aber schlagartig wird das nicht passieren.
Bisher seh ich VR genauso an wie 3D, es wird sich mMn. im privaten Sektor (Gaming) ohne großartige Förderung nicht durchsetzen. Wenn es ganz blöd läuft verschwindet es wie 3D
AR hat eher das Potenzial braucht aber noch ne ganze Weile.
4. Die Features/Innovationen werden sich nach dem lukrativeren Segment richten, klar wird es immer wieder was geben, aber das wird mit der Zeit abflauen.
Schau dir doch mal Nvidia an, der Gaming Sektor macht 1.348 Millionen Einnahmen, Datacenter 296 Millionen dennoch ist die Volta Architektur (nicht der GV100 sondern die ARCHITEKTUR!) komplett auf Datacenter getrimmt weil das Segment nunmal 205% gewachsen ist, innerhalb eines Jahres und dazu abartig hohe Margen hat.
Alleine wie Jensen über die "Graphics" spricht sagt doch schon alles aus When Did GPU Manufacturers Stop Caring About Graphics? - YouTube (die ersten Sekunden des Videos)

Du wirfst mir vor ich denke zu kurzsichtig, wobei das eher auf dich zutrifft, vor allem da du ja so auf harte Fakten und Zahlen stehst... du sie hier aber komischerweise ignorierst

5. Warum macht das den Vergleich nicht sinniger?
Ein GPU Hersteller macht nunmal lächerlich geringen Umsatz im Gegensatz zu CPU Herstellern
Auch weil weniger davon verkauft wird, deshalb ja Peanuts.
Es ging ja darum, dass nicht Vega sondern Ryzen AMD zu deutlich höheren Umsätzen verhilft. (was dem GPU Sektor ebenso hilft)
Du widersprichst einfach, um widersprochen zu haben...

Für mich ist die Diskussion mit DIR wiedermal gegessen, es führt zu nichts.

edit: hoffentlich passiert sowas nicht auch bei Vega...
Ethereum Mining GPU Hashrate Performance Roundup
ist ja wie zu 290er Zeiten :(
 
Zuletzt bearbeitet:
4. Die Features/Innovationen werden sich nach dem lukrativeren Segment richten, klar wird es immer wieder was geben, aber das wird mit der Zeit abflauen.
Schau dir doch mal Nvidia an, der Gaming Sektor macht 1.348 Millionen Einnahmen, Datacenter 296 Millionen dennoch ist die Volta Architektur (nicht der GV100 sondern die ARCHITEKTUR!) komplett auf Datacenter getrimmt weil das Segment nunmal 205% gewachsen ist, innerhalb eines Jahres und dazu abartig hohe Margen hat.
Alleine wie Jensen über die "Graphics" spricht sagt doch schon alles aus When Did GPU Manufacturers Stop Caring About Graphics? - YouTube (die ersten Sekunden des Videos)
nVidia macht doch - wenn ich mich recht erinner - schon seit GF100 voll auf 'Business' GPU Hersteller und versucht in verschiedene Profi Segmente vorzudringen?! Als quasi 'nur' GPU Hersteller ein völlig logisches und überlebenswichtiger Schritt sich verschiedene Standbeine aufzubauen. Meines Wissens hatte das auch in den Jahren nach Fermi immer mit die schnellste GPU (Grafikkarten) zum Spielen zur Folge. Auch was Software Features (GameWorks weiterentwicklung, DSR, Gsync, etc) für die eignen Produkte angeht, hatte nVidia meistens vorgelegt und der Kontrahent nur nachgezogen. Sorry ich kann kein mangelndes Engagement im Gaming Bereich erkennen aufgrund nVidia's gestiegenem professionellem Engagement. Und mal ehrlich: wenn der GV102/GV104/GV106 den Spielern mehr Leistung bringt und die Grafikkarten in den anderen Eigenschaften überzeugen können, ist es doch völlig Wurst ob die Architektur auf Datacenter getrimmt wäre.

5. Warum macht das den Vergleich nicht sinniger?
Ein GPU Hersteller macht nunmal lächerlich geringen Umsatz im Gegensatz zu CPU Herstellern
Auch weil weniger davon verkauft wird, deshalb ja Peanuts.
Es ging ja darum, dass nicht Vega sondern Ryzen AMD zu deutlich höheren Umsätzen verhilft. (was dem GPU Sektor ebenso hilft)
Du widersprichst einfach, um widersprochen zu haben...
Hast du mal die aktuellen Geschäftsergebnisse vom GPU Entwickler nVidia und CPU & GPU Entwickler AMD verglichen?!
 
Zuletzt bearbeitet:
Volta als Architektur ist auf HPC getrimmt, da wird auch nix spezielles für den Gamer kommen außer mehr Leistung (denke aber weniger als von Maxwell zu Pascal)

Ich sehe Volta eher als eine Architektur, die bestens für Graphics und Compute geeignet ist. Nur Volta in Form von GV100 ist hauptsächlich für HPC interessant, da der Chip auf Hardwareebene ganz spezielle für HPC wichtige Funktionen mit sich bringt. Das schöne an der Volta-Architektur ist, dass man sie flexibel an die unterschiedlichen Bedürfnisse verschiedener Märkte anpassen kann. So kann man die speziellen HPC-Funktionen in anderen Märkten wie z.B. Gaming weglassen (ganz genau WEGLASSEN(!), der Chip ist also schon für z.B. Gaming bestens geeignet), wenn sie dort nicht gebraucht werden. Genau das wird auch mit den Gamingablegern der Volta-Architektur (GV102, GV104...etc.) passieren. Diese Gamingableger stehen einer GPU, die speziell nur mit der Absicht auf Gaming entwickelt wurde in nichts nach. Oder wo würdest du da die Unterschiede sehen? Was muss denn eine GPU haben um als reine Gamer-GPU zu gelten?

Es mag sein, dass man den Fokus bei der Architektur von Volta mehr auf Data-Center als auf Gaming gelegt hat und man damit weniger stark den Fortschritt im Gaming-Segment fördert. Aber das dies nur und ausschließlich wegen der besseren Lukrativität im Data-Center geschehen sein soll, ist ein zu einseitiges Argument. Im Moment ist der Druck für nVidia, die großen Innovationen im Gaming-Segment voranzutreiben doch auch eher gering. Man kann es sich also durchaus erlauben die ganz großen Gaming-Innovationen zu verwalten und auf die nächste Architektur zu verlegen.

Außerdem würde ich Innovation nicht nur von der Hardware abhängig machen. Software spielt mindestens eine genauso wichtige Rolle. Auch Cloud-PC-Gaming sollte man nicht unterschätzen...

Ausbleibende Innovationen für den Gamingsektor die speziell dafür entwickelt werden und kein Nebenprodukt der Data Center Technologie ist wird es nicht mehr geben.

Und was genau ist daran negativ zu Bewerten? Diese "Nebenprodukte" sind doch gleichwertig zu speziell entwickelten Gaming-Innovationen. Ich sehe nicht warum eine Technologie, die zwar primär für das Data-Center entwickelt wurde, aber dennoch Vorteile im Gaming-Segment bringt als negativ zu werten wäre. Da ist doch irgendwo die Sichtweise beschränkt, wenn man nur gezielte Entwicklungen als positive Innovationen gelten lässt. Was fürs Baby gut ist muss für Erwachsene doch nicht schlecht sein. :d
 
Zuletzt bearbeitet:
Ich gebs auf, ist eh mühselig mit manchen :(
am besten Video (was die Basis dieser ganzen Diskussion ist) anschauen und meine Posts nochmal GENAU nachlesen (speziell SFVogt)
Tipp: das Video und auch meine Beiträge sind eher als eine realistische Prognose für die ZUKUNFT anzusehen.
Zusammengefasst: Du und der Typ im Video 'ningeln' rum weil DataCenter für die GPU Entwickler immer mehr an Bedeutung gewinnt und ihr Angst habt als Gamer nur noch zweite oder dritte Geige zu sein bei eben jenen zwei GPU Entwicklern? Na wenn ihr sonst keine ernsthafteren Sorgen habt in der realen Welt, dann reiche ich euch gern ein Taschentuch.
tempo_bt9u60.jpg
 
Lächerliches Video. Tja fehlender Wettbewerb schadet vor allem dem Kunden. Nvidia kann es sich leisten einen 800mm² Chip mit HBM2 in einer verbesserten 12nm Fertigung exklusiv für den HPC Markt aufzulegen. Das Ding wäre für den Endverbraucher viel zu teuer. AMD muss zwingend eine Mix-Architektur fahren, da das Budget fehlt. Immerhin kann man einige Funktionen auch für den Gamingmarkt nutzen, - auch dank der Konsolen.

Unterm Strich ist es aber defintiv so, dass Nvidia mehr machen könnte, wenn sie den müssten. Auch wird in dem Video nicht auf höhere Fertigungskosten eingegangen. Hier wird Navi vor allem auch etwas für den Gaming-Markt bringen. Epyc bzw die kommenden 16 Kerner machen es ja vor.

Alles in allem aber wie bei Intel. Über hohe Preise rumheulen aber trotzdem immer wieder dort einkaufen, auch wenn man teilweise übern Tisch gezogen wird. (Founders Edition, versprochener Async Shader Patch für Maxwell, 3.5GB GTX970, DX11.1 Kepler, dx10.1 Marktmanipulation,...) Jede Generation ein neuer Streich...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh