AMD Radeon RX Vega mit 4.096 Shadereinheiten und 1.200 GPU-Takt aufgetaucht

Schön, das Dude einen Artikel von 6/16 verlinkt, der genau weiß, das das Produkt wirklich Ende 2016 auf den Markt kam. Explizit ist da von Q4 die Rede.

Gesendet von meinem E6653 mit Tapatalk
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich behaupte mal, dass Fiji mit GDDR5-Speicher gar nicht realisierbar gewesen wäre und AMD daher gar keine wirkliche Wahl gehabt hat als auf HBM zu setzen. Mit GDDR5 hätte man auf ein 512-bit Speicherinterface setzen müssen, das 1. den Chip so weit aufgebläht hätte, das es wohl schon von vornherein die Möglichkeiten der Fertigung gesprengt hätte und 2. die Leistungsaufnahme so weit nach oben getrieben hätte, das es den Chip selbst bei 300W TDP noch eingebremst hätte. Denn schon mit dem HBM-Interface bringt es Fiji auf beachtliche 596mm² und 275W TDP. Wo wäre man da wohl mit GDDR5 gelandet? Aus meiner Sicht war Fiji daher eine Kompromisslösung, da man zum damaligen Zeitpunkt eben keine Alternativen hatte. Der Vorteil ist, das man so Erfahrung mit der Technik sammeln konnte, aber wenn man eine andere Wahl gehabt hätte, so bin ich mir ziemlich sicher, hätte man zum damaligen Zeitpunkt vorerst noch auf HBM verzichtet und gewartet bis die Technik ausgereifter/wirtschaftlicher ist. Das man AMD die Vorreiterrolle bei HBM zuspricht geht daher in Ordnung, aber es erhält einen leicht bitteren Beigeschmack, weil es eben nicht aus proaktiven Handeln geschah, sondern eher aus einer Not heraus. Im Endeffekt dürfte das aber keine Rolle mehr spielen, denn mit Vega scheint man es nun "richtig" zu machen, so sind all die Kritikpunkte (max. 4GB, hohe Kosten etc.) die man bei HBM1 noch hatte nun mit HBM2 wesentlich besser ausbalanciert/ausgereift.
 
Dachte da jetzt ehr so, das wenn ich die "aktuelle" Generation die in die Skorpio kommt, die neuen Features auch in die zukünftige PC Generation einfließen werden. Müssen! Sonst würde sich ja der späte markteintritt null argumentieren lassen. Ich mein hdmi 2.1 freesync 2 usw. Das sind alles kaufargumente + hoffentlich ähnliche Highend Leistungen wie bei nv. Dann wäre ich voll dabei!
 
Ich sehe da keinen Vorteil. 1) ist längerfristig ein Nachteil für Nvidia. Nämlich dass AMD aufgrund ihres Entwicklungsvorsprungs anscheinend schneller neue HBM Versionen auch für Consumer anbieten kann. 2) mag geringere Kosten für den Speicher selbst bedeuten. Dafür hat Nvidia mehr Kosten beim PCB, der Kühlung usw. Also dass es insgesamt geringere Kosten für Nvidia bedeutet, wage ich zu bezweifeln. Du kannst deine Behauptung aber gerne mit Quellen belegen. Bis dahin bleibt es nur eine Behauptung, kein Fakt. Erst recht, wenn auch bald low cost HBM zur Verfügung stehen sollte. Ich sehe dann gar keine Vorteile für GDDR5(X) mehr. 3) Nein. Das hängt immer noch in erster Linie von der GPU und den wirtschaftlichen Rahmenbedingungen ab. Mittelfristig wird sich das genauso einpendeln wie bei GDDR. Ist die aktuellste Version noch nicht ausreichend verfügbar oder zu teuer, dann nimmt man eben die vorherige Version. Oder was glaubst du, warum Nvidia nicht bei allen Pascals auf GDDR5X setzt?

Ich brauche dazu keine extra Rechnung aufmachen. Ich schaue mir Nvidia's fast doppelt so hohe Margen im Vergleich zu AMD an und weiß Bescheid. Diese sind im übrigen seit Kepler ordentlich nach oben gegangen und Pascal hat dem Ganzen die Krone aufgesetzt und weißt Du warum? Weil eben Nvidia nicht nur in Summe mehr Umsatz macht im Consumer und Professional Segment sondern insbesondere deshalb weil kluge Design und Geschäftsentscheidungen ihnen durch die Bank weg mit Maxwell und noch viel mehr mit Pascal ermöglicht haben die in der Herstellung günstigeren Produkte bei gleicher oder besserer Leistung gegen die direkten AMD Counterparts zu stellen. In der aktuell vermuteten Konfiguration wird man aber in der Bandbreite den Pascal Gamingprodukten mit GDDR5x vermutlich nicht groß davon rennen können.

HBM hat für AMD einige erhebliche Vorteile gebracht. Wie Effizienzverbesserung mit GCN3, speziell bei der Nano zu beobachten. Man kann neuere HBM Versionen einfacher realisieren, da die Basis bereits vorhanden ist. Nvidia fehlt diese noch, vor allem eben im Consumer Markt.
Dann musst Du hier vermutlich schlauer sein als der Markt. Der hat das nämlich so nicht gesehen was man ja an AMDs wirtschaftlichem Erfolg seit Fiji in der GPU Abteilung gesehen hat. Und die von Dir so ominös genannte Basis fehlt Nvidia eben nicht. Das ist schlechtweg gelogen. GP100 gibt es mit HBM2 und wenn Nvidia will schnallen die das auch easy auf eine Consumer GPU. Sie müssen nur nicht und das ist der Punkt. Vega hat übrigens eine kleinere HBM2 Anbindung als GP100 so wie es aussieht. Daher auch die Speicherlimitierung nach oben und am Ende auch keine signifikant größere Bandbreite als GP102 mit GDDR5X. Um sich in der Speicherbandbreite richtig abzusetzen und HBM2 Vorteile voll ausspielen zu können müsste AMD bei Vega schon auf die gleiche Stack Anzahl wie Nvidia bei GP100 setzen. Daher hat sich m.E. Nvidia genau richtig entschieden. Die aktuellen Gamingchips liefern nicht genug effektive Rohleistung um die Vorteile von HBM2 in der vollen Stackkonfiguration wie beim GP100 auszuspielen. Also setzt man korrekterweise auf etwas günstigeres und verdient somit mehr Geld. Mit ziemlich hoher Wahrscheinlichkeit wird AMD wieder Hardwareseitig mehr Aufwand betreiben um auf das gleiche Ergebnis zu kommen vermutlich auch deshalb, weil man nicht die Finanzen hat Gaming von Professional zu trennen. Das wird langfristig sowieso das größte Problem für AMD. Nvidia's Datacenter und AI Sparte ist so stark gewachsen, dass die sich immer mehr das Beste für beide Welten in getrennten Produkten leisten werden. Die generieren pro Quartal mehr positiven Cash Flow als AMD Umsatz mit Add-In GPUs macht. Sie sparen sich den unnötigen Professional Balast in den Gaming Produkten der nur DIE Fläche und Leistungsaufnahme verschwendet und können dafür im Professional Bereich dann die darauf hin getrimmten Produkte auffahren.
 
Zuletzt bearbeitet:
Was man nicht vergessen sollte ist, dass AMDs Entscheidungen stark an die ihnen zur Verfügung stehenden finanziellen Möglichkeiten gebunden sind. NVidia genießt hier momentan wesentlich mehr Freiheiten. Den Luxus einer speziell optimierten GPU-Architektur, jeweils für das Consumersegment und für das Profisegment, kann sich AMD schlicht nicht erlauben. Man muss so weit wie nur irgend möglich kosteneffizient wirtschaften. Eine Allround-GPU macht für AMD deshalb mehr Sinn, ist aber eben mit Kompromissen behaftet. Trotzdem dürfte es aus AMDs Perspektive eine kluge Entscheidung sein so zu verfahren. Einen Vorwurf, wenn man es so nennen will, kann man hier niemanden machen. Man kann nur erwarten, das jeder aus den für ihn geltenden Umständen auch die für ihn sinnvollsten Entscheidungen trifft.

NVidia hat in der Vergangenheit auch einige kluge Architekturanpassungen vorgenommen, die es ihnen erlaubt hat GDDR5 weiter auszureizen. Zu den u.a. am wichtigsten dürften das Tile-Based Rendering und das Software-Scheduling zählen. Alles was man dazu wissen muss ist, dass beide Technologien enorme Effizienzsteigerungen ermöglichen und für die Erfolge seit Kepler/Maxwell wohl maßgebend sind. Keine der beiden genannten findet man in der Form momentan bei AMDs GCN-Architektur. Eine ähnliche Form des Tile-Based Rendering wird nun mit Vega kommen. Höchstwahrscheinlich wird man aber weiterhin bei einen Hardware-Scheduler bleiben. Das scheint aber ein sinnvoller Kompromiss, denn für das Profisegment dürfte ein HWS nämlich von Vorteil sein.

Mehr zum Tile-Based Rendering: On NVIDIAs Tile-Based Rendering | techPowerUp

Mehr zum SWS/HWS: AMD vs NV Drivers: A Brief History and Understanding Scheduling CPU Overhead - YouTube

Zu guter letzt, kann man sich nur wünschen das AMD wieder ein stärkerer/ebenbürtiger Konkurrent für nVidia wird, denn davon würden wir Konsumenten/leidenschaftlichen Gamer/Nerds in Form von besseren Preisen/besser optimierten Games/besserer DX12-Unterstützung nur profitieren.

Frohe Ostern.
 
Was man nicht vergessen sollte ist, dass AMDs Entscheidungen stark an die ihnen zur Verfügung stehenden finanziellen Möglichkeiten gebunden sind. NVidia genießt hier momentan wesentlich mehr Freiheiten. Den Luxus einer speziell optimierten GPU-Architektur, jeweils für das Consumersegment und für das Profisegment, kann sich AMD schlicht nicht erlauben. Man muss so weit wie nur irgend möglich kosteneffizient wirtschaften. Eine Allround-GPU macht für AMD deshalb mehr Sinn, ist aber eben mit Kompromissen behaftet. Trotzdem dürfte es aus AMDs Perspektive eine kluge Entscheidung sein so zu verfahren. Einen Vorwurf, wenn man es so nennen will, kann man hier niemanden machen. Man kann nur erwarten, das jeder aus den für ihn geltenden Umständen auch die für ihn sinnvollsten Entscheidungen trifft.

Absolut. Da stimme ich mit Dir voll und ganz überein. Das habe ich ja auch geschrieben, dass sie halt einfach ein finanzielles Resourcen Problem haben. Das ist zwar auf der langen Achse gesehen auchhausgemacht durch diverse Fehlentscheidungen seit der ATI Übernahme aber das ist ein anderes Thema.

Mir ging es nur darum, dass ich das Fanboygesabbel von strategischen Vorteilen durch HBM entscheidung nicht mehr hören kann, denn dem ist defakto nicht so. HBM hat zwar für AMD etwas bei Fiji gebracht durch Senkung des Energiebedarfs für den Speicher und die Speicheranbindung. Es hat ihnen nur im Vergleich zu Konkurrenz keine Vorteile beschafft. Und zwar weder durch den Erstzugriff via Hynix uf HBM noch in Bezug auf HBM2. Defakto war Nvidia mit HBM2 sogar früher drann. Wenn ich mal sammeln würde was da so in den letzten 24 Monaten für ein Bullshit von einigen Fanboys geschrieben wurde:

1) Exklusiver Zugriff und Nvidia ausgesperrt
2) langfristige Vorteile durch Erfahrungen beim HBM Einsatz und und und....

Dann muss man doch ganz klar erkennen, dass dem nicht so ist. Nvidia ist bei HBM2 einfach zu Samsung gegangen. Pech für AMD. Letztendlich hätte dem letzten Fanboy damals schon klar sein müssen, dass ein JEDEC Standard keinen Exklusivzugriff ermöglichen kann, denn genau deshalb ist es ein Standard. Höchstens Lieferschwierigkeiten hätten existieren können, wenn andere noch nicht so weit sind. Und was die Erfahrungen angeht ist das auch limitiert. Die Interposer kommen von Fremdfertigern und wenn ein Standard spezifiziert ist, dann ist das auch kein Hexenwerk das zu bauen.

NVidia hat in der Vergangenheit auch einige kluge Architekturanpassungen vorgenommen, die es ihnen erlaubt hat GDDR5 weiter auszureizen. Zu den u.a. am wichtigsten dürften das Tile-Based Rendering und das Software-Scheduling zählen. Alles was man dazu wissen muss ist, dass beide Technologien enorme Effizienzsteigerungen ermöglichen und für die Erfolge seit Kepler/Maxwell wohl maßgebend sind. Keine der beiden genannten findet man in der Form momentan bei AMDs GCN-Architektur. Eine ähnliche Form des Tile-Based Rendering wird nun mit Vega kommen. Höchstwahrscheinlich wird man aber weiterhin bei einen Hardware-Scheduler bleiben. Das scheint aber ein sinnvoller Kompromiss, denn für das Profisegment dürfte ein HWS nämlich von Vorteil sein.

Absolut. Das waren richtig sinnvolle Investitionen. Das ist m.E. sogar noch sinnvoller als sich mit Speicherstandards zu beschäftigen. Genau diese Dinge haben Nvidia wirtschaftlich in eine signifikante Vorteilsposition gebracht. Das Ganze ist im Endeffekt ein Resultat aus den Lehren der GTX480 und der mit der von einigen belächelten Tegra Sparte eingeläuteten Mobile First Strategie. Das hat sich da komplett ausgezahlt. Denn letztendlich besagt das Paradigma im ersten Schritt mal primär zu versuchen mit so wenig wie möglich Hardware bzw. DIE Fläche und Leistungsaufnahme auszukommen. Ein Effizienzansatz sozusagen. Im mobilen Bereich auch komplett unerläßlich.

Zu guter letzt, kann man sich nur wünschen das AMD wieder ein stärkerer/ebenbürtiger Konkurrent für nVidia wird, denn davon würden wir Konsumenten/leidenschaftlichen Gamer/Nerds in Form von besseren Preisen/besser optimierten Games/besserer DX12-Unterstützung nur profitieren.

Frohe Ostern.

Von besseren Preisen auf jeden Fall. Von besseren DX12 Games bin ich nicht überzeugt. Ich bin generell kein Freund des ganzen Low Level Krams. Denn hier wird die Optimierung komplett dem Entwickler überlassen. Ich fürchte die Kunden werden sich darauf einstellen müssen, dass diese Spiele immer wieder tolle ausreißer und Kurriositäten vorweisen werden. Es gibt viele Studios die einfach nicht viel Geld in sowas investieren werden. Das wird eher dazu führen das Spiele beim Verkaufsstart auf der einen oder anderen Plattform komplett unrund laufen werden oder sogar mal auf beiden. Das Problem wird sich m.E. sogar innerhalb der Produktlinien eines Herstellers vermehrt zeigen, denn die Architekturen zwischen den Generationen können auch mal signifikant abweichen. Kein Gamestudio wird darauf groß Zeit investieren.

Da war mir der Ansatz mit High Level in der Vergangenheit lieber. Letztendlich war der GPU Hersteller für die letzten % Optimierungen im Treiber verantwortlich. Er ist es ja auch der sein PRodukt verkaufen will. Mit DX12 werden wir größere Abweichung je nach Spiel und/oder auch Engine sehen und wir werden zunehmend sehen wie die GPU HErsteller noch mehr bei der Entwicklung der Spiele bzw. Engine Einfluss nehmen werden, was unter Umständen dem jeweils anderen zum Nachteil gereichen könnte.
 
Zuletzt bearbeitet:
Was man nicht vergessen sollte ist, dass AMDs Entscheidungen stark an die ihnen zur Verfügung stehenden finanziellen Möglichkeiten gebunden sind. NVidia genießt hier momentan wesentlich mehr Freiheiten.
Was man auch nicht vergessen sollte ist dass NV sich diese finanziellen Möglichkeiten eben selbst geschaffen hat.
Leider habe ich auf die Schnelle keine ordentlichen Vergleichszahlen gefunden, nur Ansichten mit unterschiedlichen Zeitspannen, aber sieht man sich die überlappenden Zeiträume an, dann hat NV zeitweise genauso Verluste gemacht wie AMD, jedoch nahezu immer steigenden Umsatz über das Jahr gerechnet
NV hat weitaus besser gewirtschaftet und in Entwicklung investiert welche ihnen am Markt einen Vorteil verschafft.

NVidia hat in der Vergangenheit auch einige kluge Architekturanpassungen vorgenommen, die es ihnen erlaubt hat GDDR5 weiter auszureizen. Zu den u.a. am wichtigsten dürften das Tile-Based Rendering und das Software-Scheduling zählen. Alles was man dazu wissen muss ist, dass beide Technologien enorme Effizienzsteigerungen ermöglichen und für die Erfolge seit Kepler/Maxwell wohl maßgebend sind. Keine der beiden genannten findet man in der Form momentan bei AMDs GCN-Architektur.
Richtig und genau das nenne ich sinnvolle, zielgerichtete Entwicklungsarbeit.
AMD hat für seine Größe auch viel in Entwicklung investiert, wurde oft für seine Innovation gelobt, nur waren das zT Entwicklungen die sich am Markt nicht durchsetzen konnten bzw keine Relevanz für die nächste GPU-Generation hatten.
Kleines, wahrscheinlich unbedeutendes Beispiel von der benötigten Manpower, war für mich Mantle.
Warum investiert eine HW-Bude seine limitierten Ressourcen in eine Schnittstelle, anstatt die gleichen Ressourcen zu nutzen um seine Produkte für die bestehenden Ressourcen zu optimieren?

Was ich damit sagen will, früher war NV kleiner vom Umsatz her wie AMD.
Jetzt ist NV in der GPU-Sparte der Platzhirsch weil AMD so einiges versemmelt hat in letzter Zeit.
Das dauernde "AMD hat die finanziellen Möglichkeiten nicht" stimmt definitiv ggü Intel, aber versus NV hat AMD diesen Status selbst verschuldet

Zu guter letzt, kann man sich nur wünschen das AMD wieder ein stärkerer/ebenbürtiger Konkurrent für nVidia wird, denn davon würden wir Konsumenten/leidenschaftlichen Gamer/Nerds in Form von besseren Preisen/besser optimierten Games/besserer DX12-Unterstützung nur profitieren.

Frohe Ostern.
Da kann ich nur absolut zustimmen, fröhliches Eiersuchen :wink:
 
Zuletzt bearbeitet:
Schön, das Dude einen Artikel von 6/16 verlinkt, der genau weiß, das das Produkt wirklich Ende 2016 auf den Markt kam. Explizit ist da von Q4 die Rede.
1. Dort wird nicht behauptet, dass das Produkt Ende 2016 auf den Markt kam.
2. In dem Artikel ist nirgendwo die Rede davon, dass entsprechende Produkte bereits verfügbar wären. Und 06/2016 ist noch kein Jahr her. Widerspricht also trotzdem der Behauptung von Richthofen, dass es GP100 bereits ein Jahr geben würde.
3. Es ist die Rede von "shipping" (deutsch: Auslieferung) in Q4 2016. Das ist nicht gleichzusetzen mit "auf den Markt kommen". Da kannst du noch den einen oder anderen Monat hinzurechnen.


und irgendein technologischer Vorsprung ist dahergeholt, früher oder später bauen alle Hersteller HBM und nvidia kauft eben günstig ein
Ich glaube Nvidia kauft HBM2 im Moment alles andere als günstig bei Samsung ein. ;) Anders als AMD hat da Nvidia einfach kein Mitspracherecht. Sie sind auf das angewiesen, man man ihnen anbietet.




Ich brauche dazu keine extra Rechnung aufmachen.
Doch, musst du. Margen sind dafür irrelevant, wenn du unterschiedliche Produkte hast. Und die hast du im konkreten Fall nun mal. Zumal es noch mehr Unterschiede gibt. Die RX 480 besitzt zB ein höherwertigeres PCB als die GTX 1060, was nichts mit HBM zu tun hat. Insofern weisst du mit solch oberflächlichen Betrachtung nichts über die Kosten von HBM. Halten wir also fest, du hast keinerlei Ahnung davon, ob und welche Kostenvor- oder nachteile mit HBM entstehen.

Man kann es aber zumindest so sehen, mit HBM hat AMD selbst zwar höhere Kosten, drückt aber zumindest die Kosten für die Boardpartner, da das PCB weniger aufwändig und die Kühlung geringer dimensioniert ausfallen kann. Was im Endeffekt positiv für uns Endkunden sein kann. Auch ein Grund, warum man Entwicklungen wie HBM unterstützen sollte. Nvidia geht da im Moment nur den Weg mit dem geringstmöglichen Aufwand für sie selbst. Technologisch treiben sie die Entwicklung nicht voran und ihre Boardpartner entlasten sie auch nicht. Und solange man kein Nvidia Sprecher ist, sondern es aus Endkundensicht betrachten, kann ich daran nichts Positives erkennen. Schon irgendwie fragwürdig, dass du genau das aber tust.

Dann musst Du hier vermutlich schlauer sein als der Markt. Der hat das nämlich so nicht gesehen
Bleibe bitte beim Thema. Mir ist schon klar, warum du versuchst, alles auf wirtschaftliche Aspekte zu reduzieren. Andere Argumente lassen sich schlecht für Nvidia finden, speziell wenn man den technologischen Aspekt betrachtet. Aber genau darum geht es in dem Thread und auch in meiner Aussage. Insofern hat dein Einwand keine Relevanz. Ich sage es nochmal:
HBM hat für AMD einige erhebliche Vorteile gebracht. Wie Effizienzverbesserung mit GCN3, speziell bei der Nano zu beobachten. Man kann neuere HBM Versionen einfacher realisieren, da die Basis bereits vorhanden ist. Nvidia fehlt diese noch, vor allem eben im Consumer Markt.
Diese Aussage bleibt ja bestehen. Wie Cippoli schon sagte, Fiji mit GDDR5 wäre womöglich gar nicht realisierbar gewesen oder wäre zumindest kein richtiger Konkurrent für die High-End Maxwells gewesen, da die TDP zu hoch gewesen wäre. Für AMD war es anscheinend ein guter Zeitpunkt, den ersten Testlauf mit HBM zu wagen. Man forschte daran ja schon seit Jahren. Und so konnte man sich auch sparen, die Architektur nochmal intensiver aufzubohren, was der Entwicklung von Vega zugute kam. Wie auch immer, diese ersten Erfahrungen mit HBM werden AMD in Zukunft helfen, solche Produkte schneller, ausgereifter und kostenschonender für den Consumer Markt zu realisieren. Nvidia hat das noch vor sich. Dafür werden sie auch noch ordentlich an Ressourcen verbrennen müssen. So "easy" mal HBM2 auf eine Consumer GPU zu schnallen, ist nicht. Erst echt wenn man die Kosten im Auge behalten muss.

Zumal das bei AMD noch viel weitreichender ist. Es geht da um ein ganzes Ökosystem aus CPUs, GPUs, Embedded und Semi-Custom, samt entsprechenden Interconnects wie Infinity Fabric. Das hat Nvidia schlichtweg nicht. Deshalb kann man beide Unternehmen schlecht vergleichen. Was für den einen vorteilhaft ist, kann für den anderen nachteilig sein bzw umgekehrt. Das scheinst du auch nicht so wirklich zu realisieren.

Vega hat übrigens eine kleinere HBM2 Anbindung als GP100 so wie es aussieht. Daher auch die Speicherlimitierung nach oben
Dann kannst du uns ja sicherlich Quellen zur HBM2 Anbindung der Vega Firepros und deren Speicherlimitierung posten? Bis dahin, nur Behauptungen, keine Fakten!

und am Ende auch keine signifikant größere Bandbreite als GP102 mit GDDR5X.
Du scheinst immer noch keine Ahnung davon zu haben, was HBM eigentlich ist und welche Vorteile es mit sich bringt. Es wäre für AMD absolut kein Problem, den Radeon Vegas eine Speicherbandbreite mitzugeben, die mehr als doppelt so hoch im Vergleich zu den GP102 Geforces ist. 4 Stacks hatte man ja schon bei Fiji. Das wäre also kein Neuland für AMD. Anscheinend ist das aber gar nicht notwendig, zumal Vega neue Funktionalität im Vergleich zu Polaris besitzt, um Bandbreite zu sparen. Wichtiger sind daher die niedrigeren Latenzen und die geringere Leistungsaufnahme. Da hat GDDR5(X) klar das Nachsehen.

Also setzt man korrekterweise auf etwas günstigeres und verdient somit mehr Geld.
Hat zwar absolut nix mit dem Thema zu tun. Aber ich bin auch echt gespannt, wie viel Geld Nvidia mit ihren GDDR5 APUs verdient und wie viel verlorenen mobilen Marktanteil sie damit wieder zurückgewinnen. Wird bestimmt mächtig gewaltig. :rolleyes:


AMD hat für seine Größe auch viel in Entwicklung investiert, wurde oft für seine Innovation gelobt, nur waren das zT Entwicklungen die sich am Markt nicht durchsetzen konnten bzw keine Relevanz für die nächste GPU-Generation hatten.
Kleines, wahrscheinlich unbedeutendes Beispiel von der benötigten Manpower, war für mich Mantle.
Warum investiert eine HW-Bude seine limitierten Ressourcen in eine Schnittstelle, anstatt die gleichen Ressourcen zu nutzen um seine Produkte für die bestehenden Ressourcen zu optimieren?
Erstmal, wer immer noch nicht kapiert hat, dass auch für Hardwarehersteller Software essentiell ist, dem sei es an dieser Stelle nochmal ausdrücklich gesagt. AMD hat das mittlerweile verstanden. Auch deshalb wächst ihr Softwareökosystem mittlerweile bedeutender als das von Nvidia. Mantle war eine der wichtigsten Entwicklungen von AMD überhaupt. Nicht speziell für sie, aber für UNS (!!!). Dafür kann man AMD gar nicht dankbar genug sein. Frage dich lieber mal, wenn es AMD nicht gemacht hätte, wer hätte es denn sonst gemacht? Nvidia? Die nur auf proprietären Müll wie G-Sync aus sind? Vergiss es. Intel? Denen fehlt es vermutlich nach wie vor an Know-How im Gaming Bereich. Es war ja auch nicht so, dass Mantle auf Initiative von AMD entstand. Es entstand auf Initiative diverser Spielentwickler, die bei den üblichen Verdächtigen angefragt hatte. AMD hatte letztendlich zugesagt.
 
Zuletzt bearbeitet:
von welchem Mitsprache - und Exklusivrecht sabbelt ihr immer?

die Technik als solches ist im Gegensatz zu RAMBUS nicht exklusiv und für die Hersteller zählen nur $$$$$$$

mag sein das AMD mehr Insider ist und gefragt wird, aber herstellen und verkaufen geht auch ohne AMD


irgendwelche Exklusivverträge gibts nicht...

das war übrigens auch nicht das Thema - sondern der postulierte Vorsprung seitens AMD, den es Stand heute nicht gibt
 
Du laberst nur und versuchst dich wieder einmal rauszureden Dude. Du hast behauptet, nicht der verlinkte Artikel, das besagter tesla Ende 2016 ausgeliefert wurde und verlinkst dazu einen Artikel von 6/2016, wo von Q4/16 die Rede ist. Also ein Artikel der monatelang vor deinem behaupteten Auslieferungzeitpunkt veröffendlicht wurde, soll als Beweis für den wirklichen, späteren Auslieferungszeitpunkt dienen. Interessant......
Siehe:
Einschlägige Seiten haben zumindest davon berichtet, dass der PCIe Tesla P100 erst Ende letzten Jahren ausgeliefert wurde. In Wahrheit ist also auch der GP100, so wie Vega, ein 2017 Produkt.

Der Rest ist nur dein übliches Schöngerede.
 
Du hast behauptet, nicht der verlinkte Artikel, das besagter tesla Ende 2016 ausgeliefert wurde
Okay. Dann formuliere ich es um:
Einschlägige Seiten haben zumindest davon berichtet, dass der PCIe Tesla P100 erst Ende letzten Jahren ausgeliefert werden soll.
Besser für dein Seelenwohl? :rolleyes: Zugegeben, das war etwas unglücklich formuliert. Jeder mit ein bisschen Verstand kann sich aber denken, wie es gemeint war.

und verlinkst dazu einen Artikel von 6/2016, wo von Q4/16 die Rede ist. Also ein Artikel der monatelang vor deinem behaupteten Auslieferungzeitpunkt veröffendlicht wurde, soll als Beweis für den wirklichen, späteren Auslieferungszeitpunkt dienen.
Du scheinst wie immer nicht zu verstehen, worum es bei der Aussage eigentlich geht. Wenn der Artikel von 06/2016 ist, damals noch nichts von der Auslieferung des GP100 bekannt war und dies erst für Q4 2016 in Aussicht gestellt wurde, mit Verfügbarkeit also noch später zu rechnen war, vermutlich nicht vor Q1 2017, wie passt dann Richthofens Behauptung dazu, GP100 würde es bereits ein Jahr im professionellen Markt geben, also seit 04/2016? Du kannst uns das doch sicherlich plausibel erklären, richtig? Da bin ich ja mal echt gespannt. Bis dahin kannst du dir deine haltlosen Unterstellungen sparen und dies einfach mal als berechtigte Frage auffassen.

Übrigens, wenn du nur mit persönlichen Angriffen rumstänkern und den Grammatik-Pedanten spielen willst, dann bleibe doch einfach den Threads fern! Das brauche weder ich, noch andere.

- - - Updated - - -

irgendwelche Exklusivverträge gibts nicht...
Die hat AMD definitiv mit Glofo. Warum sollte es die nicht auch mit SK Hynix geben? Zumindest gab es entsprechende Berichte dazu. Das mag auch ein Grund sein, warum Nvidia im Consumer Markt noch die Mittel fehlen, AMD jedoch weniger. Trivial aber plausibel, Lieferkapazitäten.
 
Zuletzt bearbeitet:
Ach, jetzt versuchst du mich jetzt für deine Unfähigkeit, Daten in geordneten Zeitlinien darzustellen, verantwortlich zu machen? Du bist hier doch der Korinthenkacker, der jetzt auf dem Erscheinungsdatum umherrreitet. Es ist egal ob es ein Jahr her ist oder 5Monate. Fakt ist, wenn AMD einen Fertigungsvorteil bei HBM/HBM2 besitzt, warum gibts davon nichts mit HBM2 zu kaufen,aber Tesla mit 16 GB HBM2 schon seit Monaten? Woher willst du wissen, was NV für HBM2 bezahlt? Und höre du doch auf, dich jetzt als das Opfer von persönliche Angriffen hier darzustellen. Eierst hier selbst gegenüber Anderen mit Worten wie" AMD-Hater" und "Bla bla bla" umher.
 
Was man auch nicht vergessen sollte ist dass NV sich diese finanziellen Möglichkeiten eben selbst geschaffen hat.
Leider habe ich auf die Schnelle keine ordentlichen Vergleichszahlen gefunden, nur Ansichten mit unterschiedlichen Zeitspannen, aber sieht man sich die überlappenden Zeiträume an, dann hat NV zeitweise genauso Verluste gemacht wie AMD, jedoch nahezu immer steigenden Umsatz über das Jahr gerechnet
NV hat weitaus besser gewirtschaftet und in Entwicklung investiert welche ihnen am Markt einen Vorteil verschafft.

Ich glaube nicht das er das bestreitet. Ihm ging es darum, dass AMD versucht hat mit den limitierten Möglichkeiten an R&D das Beste aus der Situation zu machen und damit hat er (Cippoli) dann schon Recht.

Dass Nvidia nicht einfach so an mehr R&D gekommen ist, dürfte ja jedem klar sein. Es gibt keinen logischen bzw. naturgegebenen Grund wieso Nvidia heute so viel mehr finanzielle Resourcen hat als das kombinierte Unternehmen aus AMD und ATI. Defakto war Nvidia zum Zeitpunkt der ATI Übernahme durch AMD in vergleichbarer Größe wie ATI, sowohl von den Finanzen wie auch Manpower. Das hat sich über die Jahre deutlich zu Gunsten von Nvidia gewandelt und Schuld daran sind diverse strategische Fehlentscheidungen des AMD Managements. Das ist aber ein anderes Thema. Letztendlich brauch man sich nur die CEOs ansehen:

- AMD diverse CEOs die verschlissen wurden. Der einzige richtig gute war Jerry Sanders. Der war aber auch Mitgründer und Mitinhaber. Danach kamen eine ganze Reihe von angestellten CEOs denen die Firma komplett egal ist. Bei Su muss man mal noch abwarten.

- Nvidia immer noch Jen-Hsun Huang, Mitgründer und Mitinhaber und er hält sich hartnäckig :) Und er kassiert nicht umsonst regelmäßig Awards und Auszeichnungen ein. Zuletzt erst wieder als Nummer 6 der best performenden CEOs durch Havard Business Review eingeordnet.

Harvard Business Review ranks Nvidia boss Jen-Hsun Huang as a top 10 best-performing CEO | VentureBeat | Business | by Jeff Grubb
Nvidia chief executive officer Jen-Hsun Huang is the No. 6 best-performing CEO in the world, according to the latest rankings from Harvard Business Review. The publication notes that this list is about revealing the corporate leaders that are best at delivering reliable long-term performance. Huang cofounded Nvidia in 1993, and he has overseen its growth into the market leader for PC graphics while simultaneously expanding into new sectors like self-driving cars, consumer electronics, and deep-learning cloud computing.


Mehr muss man dazu nicht wissen.

mr.dude schrieb:
Die hat AMD definitiv mit Glofo. Warum sollte es die nicht auch mit SK Hynix geben? Zumindest gab es entsprechende Berichte dazu. Das mag auch ein Grund sein, warum Nvidia im Consumer Markt noch die Mittel fehlen, AMD jedoch weniger. Trivial aber plausibel, Lieferkapazitäten.

SK Hynix braucht AMD nicht. Die sind selber groß genug. GloFo ist etwas anderes. Das ist ehemals AMD. Eine Abspaltung die aber alles andere als erfolgreich ist. Trotzdem haben die GloFo Eigentümer bei der Abspaltung darauf geachtet, dass AMD ordentlich zahlt wenn sie nicht genug abnehmen. Sollen wir diese Rechnung über die letzten Jahre wirklich mal aufmachen? Dafür kann sich die Konkurrenz HBM2 mit Platin veredeln und im vergoldeten Care Paket persönlich nach Hause schicken lassen.
 
Zuletzt bearbeitet:
Hast du jetzt doch auf 2 bis 3 1080ti hochgerüstet?

naja Intel + NV Jünger halt, war doch nicht anders zu erwarten ;)

On Topic:

PandaNation: Why are FreeSync monitors so much cheaper than their G-Sync counterparts? I know you won't be able to say much, but how does Vega compare to the Nvidia GeForce GTX 1080 Ti and the Nvidia Titan Xp? Big fan of AMD, thinking of doing a Mini-ITX Ryzen 5 build. Keep up the good work!
DON WOLIGROSKI: FreeSync is cheaper because it's an open standard. In many cases a panel manufacturer can make a FreeSync panel by changing their monitor's firmware and having it meet the spec. For G-Sync, Nvidia charges a licensing fee. Because of this differentiation alone, I think the inevitable future is FreeSync.
Vega performance compared to the Geforce GTX 1080 Ti and the Titan Xp looks really nice.

M.2 Performance, FreeSync Vs G-Sync, and CCX Performance - AMD Ryzen AMA

- - - Updated - - -

das is hier kein HBM-thread

Und auch kein "AMD ist scheiße und Nvidia geil" Thread ;)

- - - Updated - - -

Was man auch nicht vergessen sollte ist dass NV sich diese finanziellen Möglichkeiten eben selbst geschaffen hat.
Leider habe ich auf die Schnelle keine ordentlichen Vergleichszahlen gefunden, nur Ansichten mit unterschiedlichen Zeitspannen, aber sieht man sich die überlappenden Zeiträume an, dann hat NV zeitweise genauso Verluste gemacht wie AMD, jedoch nahezu immer steigenden Umsatz über das Jahr gerechnet
NV hat weitaus besser gewirtschaftet und in Entwicklung investiert welche ihnen am Markt einen Vorteil verschafft.
:

Mhh das lag wohl eher an den Nvidia Jüngern die über Jahre/heute noch, predigen, wie scheiße AMD und deren Treiber sind ;)
Was wird wohl empfohlen, wenn ein Laie eine neue GPU will...
Ist doch wie bei Apple, die Marke als Statussymbol.
 
Ich glaube nicht das er das bestreitet. Ihm ging es darum, dass AMD versucht hat mit den limitierten Möglichkeiten an R&D das Beste aus der Situation zu machen und damit hat er (Cippoli) dann schon Recht.

Jep, genau das wollte ich damit ausdrücken.

Und vor Jen-Hsun Huang kann man nur den Hut ziehen. Bisher scheint er sein Handwerk zu verstehen. Unter ihm läuft nVidia "like a fine-tuned Machine". ;)
 
naja jedenfalls ist ne Vega auf 1080ti Niveau für 500€ + Freesync-Glotze das günstigere Angebot :)

aber erstmal sehen
 
Mit Vulkan bestimmt, bei Dx11 vermute ich allerdings schlechtere Leistung, aber das macht nichts :d
 
Und vielen anderen Spielen die in Zukunft in Vulkan rauskommen werden :asthanos:

Ne, bin zuversichtlich dass mehrere Firmen auf Vulkan aufspringen werden.
 
ich bin ganz zuversichtlich das der große Vega (falls es mehrere Varianten geben wird) schon sehr nahe an der TI Leistung drann sein wird - nur der Traum vom Kurs denn manche hier haben wird sich niemals erfüllen - 8 GB HBM2 um 500 Euro - never ever - 700 sind das minimum wenn die Leistung passt, wovon ich diesmal wie gesagt doch ausgehe ...
 
sollte sie sehr nahe an der ti drann sein,zahle ich 700 ;)
 
natürlich - das ist für mich auch grad so die Grenze wo ich sage ok - das ist für die dann gebotene Leistung noch in Ordnung - alles andere (Nvidia Preise für aktuelle TI und die Titanen sowieso) sind für mich nur noch Wucher weil man es halt kann.

zudem ging es in erster Linie darum das manch einer halt schon wieder von TI Leistung um 500 Euro träumt und das wird es nicht spielen - leider
 
Also ne Vega für 700 findest du okay, auch wenn sie nicht ganz an die Leistung einer 1080ti herankommt, aber den Preis einer 1080ti, der aktuell ab 739,- beginnt, empfindest du als Wucher?
 
Ihr streitet euch hier als wenn Ihr die Vega oder den Konkurrenten am ReleaseTag zuhause haben müsst und zwar noch bevor es hell draussen ist. Nur damit ich ihr über "installationserfahrungen" posten könnt und die Treiber anpreisen dürft :d

Die Vega darf nicht zuviel kosten....wenn das Teil 600€ kostet muss es ne das Niveau eine 1080Ti halten können. Bei 380€ muss "nur" noch die 1080 überflügelt werden....aber nur 380€ für HighEnd? Das traut sich AMD nicht :d
 
Also ne Vega für 700 findest du okay, auch wenn sie nicht ganz an die Leistung einer 1080ti herankommt, aber den Preis einer 1080ti, der aktuell ab 739,- beginnt, empfindest du als Wucher?

oh ich vergass, wo lag nochmal der Releasepreis für die 1080ti Fe ? waren doch 830 euros oder und ja das war für mich in Verbindung mit dem Founders Edition Kühler Wucher und wenn ich aktuell ne 1080ti mit vernüftigem Luftkühler will darf ich immer noch min 800 Euro hinlegen soferne überhaupt lieferbar - darum fände ich 700 Euro als Releasepreis für 8 GB HBM2 und TI Leistung durchaus noch in Ordnung.

@ProphetHito
und ja ich hätte Vega gerne noch am Releasetag bei mir zu Hause, da Fury mit ihren 4GB in 4K leider immer öfter gewaltig einknickt selbst mit stark reduzierten Qualitätseinstellungen - und alles von Nvidia fällt mangels adaptive Sync sowieso raus - denn ich ersetze sicher nicht meinen adaptice sync/freesync 4K Monitor mit dem proprietären Nvidia Pendant nur um nochmal ein bisschen gemolken zu werden
 
Zuletzt bearbeitet:
ich bin ganz zuversichtlich das der große Vega (falls es mehrere Varianten geben wird) schon sehr nahe an der TI Leistung drann sein wird - nur der Traum vom Kurs denn manche hier haben wird sich niemals erfüllen - 8 GB HBM2 um 500 Euro - never ever - 700 sind das minimum wenn die Leistung passt, wovon ich diesmal wie gesagt doch ausgehe ...

Naja, nachdem nVidia das High-End Segment mit der 1080 Ti bereits frühzeitig kanibalisiert hat, macht es m.M.n. nicht mehr viel Sinn Vega, selbst bei annähernd gleicher Leistung zum gleich hohen Preis wie eben jene 1080 Ti zu veräußern. Es fehlt dann nämlich der nötige Kaufanreiz. Zudem würde es jeden, der sich die 1080 Ti verkniffen hat und auf Vega gewartet hat ziemlich enttäuschen. Das könnte sich dann auf zukünftige Produkte auswirken, da man nun die Erfahrung gemacht hat das sich warten nicht auszahlt. Für AMD suboptimal, denn man wird wohl auch auf absehbare Zeit noch die Verfolgerrolle innehaben. Wenn die 1080 Ti momentan bei ~750,- Euro liegt, sollte Vega also schon darunter liegen um interessant zu sein. Je günstiger Vega (bei vergleichbarer Leistung) nämlich im Vergleich zur 1080 Ti ist, desto mehr Kaufanreiz, damit mehr Verkäufe und letztendlich auch mehr Marktanteil. Bei vergleichbarer Leistung würde ich momentan den "Sweet-Spot" bei 600-650,- Euro für Vega sehen. Ich halte es sogar für realistisch einen abgespeckten Vega (-> Vega 11?) mit HBM bis hinunter in den Preisbereich ~350,- Euro zu platzieren. :angel:
 
Zuletzt bearbeitet:
@cippoli
650-700 Euro da bin ich bei dir wenn die Leistung in etwa gleich wie bei der Ti ist.

über klein Vega mit 4 GB HBM2 wird ja nun auch schon vieles gemunkelt - nur frage ich mich wer soll eine kleine Vega mit 4GB HBM um 350-400 Euro kaufen wenn daneben im Regal eine 1070 ums gleiche Geld mit 8GB Vram steht, wo man doch jetzt schon sieht das auch Fiji/Fury mit nur 4GB HBM ordentliche Probleme hat selbst in FHD, das erscheint mir noch weniger sinnvoll als ein großer Vega zu einem ähnlichen Preis wie die günstigsten TIs.

Ich hoffe das wir nicht mehr allzulange auf Antworten zu diesen Spekulationen/Fragen warten müßen ....
 
über klein Vega mit 4 GB HBM2 wird ja nun auch schon vieles gemunkelt - nur frage ich mich wer soll eine kleine Vega mit 4GB HBM um 350-400 Euro kaufen wenn daneben im Regal eine 1070 ums gleiche Geld mit 8GB Vram steht, wo man doch jetzt schon sieht das auch Fiji/Fury mit nur 4GB HBM ordentliche Probleme hat selbst in FHD, das erscheint mir noch weniger sinnvoll als ein großer Vega zu einem ähnlichen Preis wie die günstigsten TIs.

Gute Frage. Vielleicht kann der High-Bandwidth-Cache-Controller (HBCC) diesen Makel irgendwie relativieren. Ich glaub es zwar erst wenn ich es sehe, aber was anderes fällt mir dazu auch nicht ein. 4GB VRAM wären bei dem Preispunkt wirklich problematisch.

Was ich mir noch vorstellen könnte wären 8GB VRAM auf allen Karten, nur mit unterschiedlicher Taktung. Vega 10 mit 8GB und 512GB/s und Vega 11 ebenfalls mit 8GB aber dafür nur mit 408GB/s. Mal schauen, es ist die letzten Wochen aber auch verdächtig ruhig um Vega geworden... :hmm:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh