AMD Radeon Vega: Frontier Edition teilweise für 1.199 bzw. 1.799 US-Dollar bestellbar

Falsch. Auf dem freien Markt ist Tesla P100 erst seit einigen Monaten erhältlich. Vorher gab es sie nur als Gesamtpaket in einem neuen System. Der DGX-1 mit 8 Tesla P100 ist seit Ende Juni 2016 erhältlich. Im November wurde Piz Daint auf Tesla P100 umgerüstet. Wurden wohl einige P100 dort verbaut.....
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
also doch nur 1200 Dollar... wurde ich nicht blöd angemacht als ich auf 1000€ getippt habe? :d Mal schauen ob sich der Musti meldet, ach stimmt bin ja auf ignore weil ich keine Ahnung habe... 3000€ sollten es ja werden ^^ oder 4000€ vielleicht sogar 5000€
 
ok dude du hast recht ;D

ich fasse zusammen, hbm kann theoretisch mehr bandbreite liefern, geht aber durch fehlende produkte nicht. aber kein problem.
ein 512er si bläht den chip so sehr auf dass eine 290er.... äh was? genau yields, schon was vom volta chip gehört?

fiji kann einer 980ti paroli bieten, ok, aha. mit den 4gb ram erst recht...

nicht diw geringen latenzen und kurzen wege auf dem pcb sind vorteilw von hbm sondern kleine karten ( wie bekommt man auch schon eine 1080 unter) und paar W gespaart, wahrscheinlich nichtmal 10% tdp.

dass man davon ausgeht dass vega zw 1080 und der ti liegt, im besten fall über ti ist nicht düster, nachdem man 1 jahr nv das feld uberließ und die ti einige male für um 600€ zu haben war.

dann sind wir mal gespannt, ich hätte vega gerne wegen 4k freesync moni.


p.s. ist in der welt in der du lebst noch ein platz für mich?
 
Zuletzt bearbeitet:
Nein, der P100 ist erst seit einigen Monaten erhältlich. Daran ändert auch nix, dass er vor einem Jahr vorgestellt wurde. Wie oft willst du dieses Märchen eigentlich noch erzählen? Ob die FE FP64 Support hat, ist bisher nicht klar. Das kannst du also gar nicht wissen. Ist aber auch nicht wesentlich. Die FE richtet sich vor allem an Deep Learning Kunden und Workstations. Da zählt vor allem FP32 und FP16. Da hat die FE auf jeden Fall deutlich mehr zu bieten als der P100 oder die Titan Xp. Vega selbst unterstützt natürlich FP64. Für die Bereiche, wo es gebraucht wird, werden natürlich auch entsprechende Ableger kommen. Mach dir da mal keine falschen Hoffnungen. CUDA? LOL. Warum soll sich AMD mit proprietärem Altschrott belasten? Es gibt keinen Grund, für neue Projekte CUDA zu benutzen. Es gibt genügend gleichwertige oder teils sogar bessere Alternativen. OpenCL ist lediglich eine davon. Ausserdem, schon mal was von CUDA Konvertierern gehört, wie zB HIP? Es stimmt zumindest, dass FE und P100 andere Ligen sind. Das bezieht sich aber lediglich auf den Preis. Das was die FE zu bieten hat, da schaut der P100 jetzt schon irgendwie alt aus. Da wird es der Titan Xp wohl nicht viel besser ergehen.

P100 ist schon sehr viel länger erhältlich als Dir lieb ist oder was meinst Du womit Nvidia das Data Center Wachstum in den letzten 12 Monaten hingelegt hat? Mit alten Maxwells wohl kaum. Data Center bei Nvidia macht mittlerweile gleich viel Umsatz wie AMDs gesamte RTG Gruppe. Du scheinst nur gekonnt Nvidia's eigene Server die mit P100 bestückt und verkauft wurden sowie diverse Großprojekte gekonnt zu übersehen. Wundert mich aber auch nicht. Darüber hinaus fabulierst du von tollen Deep Learning Werten. Wenn ich mir die jedoch im Detail ansehe, dann stelle ich folgendes fest:

1) 12 Monate nach P100 ist man bei FP16 und FP32 leicht drüber. Viel ist das jedenfalls nicht.
2) Bei der HBM2 Bandbreite ist man wie es aussieht dahinter
3) Kein Gegenstück zu NVLink um GPUs im Verbund schnell zu vernetzen
4) Kein Deep Learning Software Stack den sich Nvidia seit mehreren Jahren aufgebaut hat.
5) P100 ist mit V100 altes Eisen. In Q3 gehts mit DGX auf V100 Basis los. Dagegen wirken bei Deep Learning P100 und Vega FE wie Steinzeit.

Davon mal abgesehen ist AMDs Marketing Message ein einziges Rumgeeier. Für Workstation fehlt die App Zertifizierung und für echtes Deep Learning die Hardware und Software Infrastruktur. Einfach nur irgendeine Karte ausliefern bringt da gar nichts. Was folgert daraus? Das Teil ist einfach Prosumer wie die Titan, mehr aber auch nicht. Jede Wett das mit dem Teil AMD keine Duftmarke im professionellen Bereich setzen wird. Weder im HPC noch Deep Learning Umfeld. Und solange AMD nicht kapiert dass man über Jahre konstant und konsequent einen Softwarestack zur maximalen Ausnutzung der eigenen Hardware mitliefern muss, solange werden die im professionellen Segment ein Fliegenschiss bleiben, völlig egal was für eine GPU das jeweils ist. AMD hat bis heute keinen voll ausgebauten Softwarestack mit Relevanz. Die Konkurrenz ist schon eine ganze Ecke weiter. Die hat das seit Jahren und liefert nun auch noch frecherweise ganze Server samt Servermanagement Software sowie eine eigene Cloud Plattform für Deep Learning Kunden. AMD ist davon Lichtjahre weg.
 
Nützt natürlich nix, wenn es niemanden interessiert und einfach weiterbasht, als gäbe es keinen Morgen. Unternehmen sind was Infrastruktur angeht halt auch gerne Mal Dinosaurier - das ist aber nicht das Problem von AMD.

??
Worauf willst du hinaus? Die Wohlfahrtshaltung, die man hier gern mal AMD nachstellt zieht am Markt nunmal nicht... Und das wissen auch alle. Außer die paar Fans in der Community, die es einfach nicht eingestehen wollen.

Ich find es witzig, wie du nen Link auf das Argument: "ganze Server samt Servermanagement Software sowie eine eigene Cloud Plattform für Deep Learning Kunden" von ner popligen API als Gegenargument bringst... Denn genau das ist das, was Richthofen ansprach. Da liegen Welten Unterschied zwischen!!! Denn es geht weit über eine simple API hinaus... Hier trifft mal wieder das alte Sprichwort zu: "das was der Bauer nicht kennt, dass frisst er nicht..."
Aber lass dir gesagt sein, es gibt durchaus auch eine Menge Bauern, die wissen was am Markt so funktioniert -> und das ein ums andere mal frisst ein Bauer auch etwas nicht, weil es anderes gibt, was schlicht besser schmeckt... egal wie toll oder scheiße du das nun findest ;)

Und nein, das heist nicht, dass ICH die NV Lösung als das Maß der Dinge sehe. Ganz im Gegenteil, aber die Lösung ist nunmal in so manchen Teilen der Konkurenzlösung einen Schritt vorraus. Das muss man nicht gut finden, aber Akzeptieren wäre ein Anfang.
 
Auf dem freien Markt ist Tesla P100 erst seit einigen Monaten erhältlich.
Sag ich doch. Also alles richtig was ich sagte. Alles anderes ist irrelevant in dem Kontext.


ich fasse zusammen, hbm kann theoretisch mehr bandbreite liefern, geht aber durch fehlende produkte nicht. aber kein problem.
ein 512er si bläht den chip so sehr auf dass eine 290er.... äh was? genau yields, schon was vom volta chip gehört?
Und dir ist auch dessen Grösse bekannt? Es wird von über 700mm² gemunkelt. Viel Spass beim fertigen. Es gibt Gerüchte, nachdem Wafer keinen einzigen (in Worten: NULL) voll funktionsfähige GV100 besitzen. Ein Desaster für Nvidia, sollte da was dran sein. Naja, vielleicht schaffen sie bis zum Paperlaunch die Risikofertigung auf 10% Yields zu bringen. :rolleyes: Ist aber kein Thema für den Thread.

fiji kann einer 980ti paroli bieten, ok, aha.
Jap, so isses. Referenz vs Referenz natürlich.

nicht diw geringen latenzen und kurzen wege auf dem pcb sind vorteilw von hbm sondern kleine karten
Sag ich doch. Geringere Latenzen sind übrigens ein weiterer Vorteil von HBM. Kommt aber vor allem beim Computing zum Tragen, weniger beim Gaming.

dass man davon ausgeht dass vega zw 1080 und der ti liegt, im besten fall über ti ist nicht düster, nachdem man 1 jahr nv das feld uberließ und die ti einige male für um 600€ zu haben war.
Die Ti ist übrigens noch kein Jahr erhältlich. Aber mal davon abgesehen, was soll uns diese Aussage jetzt konkret sagen? Ist in Zukunft kein Geld mehr mit High-End Grafikkarten zu verdienen? Konnte man das nur in den letzten 12 Monaten? Besitzen jetzt alle Grafikkartenbesitzer mindestens eine GTX 1080 Ti, so dass sich für niemanden mehr Vega lohnt? Aha, sehr interessant. :rolleyes:


P100 ist schon sehr viel länger erhältlich als Dir lieb
Nein. Das ist und bleibt nur ein Wunschtraum deinerseits. P100 ist erst seit wenigen Monaten frei erhältlich.

1) 12 Monate nach P100 ist man bei FP16 und FP32 leicht drüber. Viel ist das jedenfalls nicht.
2) Bei der HBM2 Bandbreite ist man wie es aussieht dahinter
3) Kein Gegenstück zu NVLink um GPUs im Verbund schnell zu vernetzen
4) Kein Deep Learning Software Stack den sich Nvidia seit mehreren Jahren aufgebaut hat.
5) P100 ist mit V100 altes Eisen. In Q3 gehts mit DGX auf V100 Basis los. Dagegen wirken bei Deep Learning P100 und Vega FE wie Steinzeit.
Wie immer ignorierst du wichtige Fakten. 1) AMD ist nicht nur leicht darüber. Wichtig ist, wie die vorhandene Rohleistung umgesetzt wird. Und da scheint Vega DEUTLICHE Vorteile gegenüber Nvidias DX11 Altmetall zu besitzen. 2) Dass Nvidia eine höhere Speicherbandbreite braucht, um im Endeffekt trotzdem deutlich langsamer zu sein, spricht ebenso für Vega und gegen Pascal. Und wenn AMD will, können sie jederzeit relativ easy ein angepasstes Package mit mehr als 2 Stacks auf den Markt werfen für mehr Bandbreite. Nvidia wird nicht einfach so das SI verbreitern können und auch nicht beliebig mehr Takt aus GDDR5X holen können. 3) Das Gegenstück existiert schon lange, Stichwort IF. Was nicht nur als On-Chip Netzwerk fungiert, sondern auch als Link zwischen IF kompatiblen Chips. Wundert mich aber nicht, dass du das nicht weisst. Mit AMD scheinst du dich echt null auszukennen. 4) Klar. AMD hat sogar einen Deeper Deep Learning Software Stack, aufgebaut seit Jahrzehnten. :rolleyes: 5) P100 ist Steinzeit, das stimmt. V100 wird vielleicht Mittelalter, wenn Nvidia viel Glück hat. Vega ist Neuzeit. Nächstes Jahr, wenn V100 dann vielleicht irgendwann mal erhältlich sein wird und nicht nur Nvidia typisch als Paperlaunch präsentiert wird, dann steht auch schon Navi in den Startlöchern. Der setzt nochmal ordentlich eins drauf mit Next-Gen Speicheranbindung, 7nm usw. Tja, Nvidia wird wohl weiterhin architektonisch erstmal nur hinterherhecheln können.

Und solange AMD nicht kapiert dass man über Jahre konstant und konsequent einen Softwarestack zur maximalen Ausnutzung der eigenen Hardware mitliefern muss ...
Das hat AMD schon lange kapiert und machen sie auch seit Jahren. Offenbar hast du das noch nicht kapiert. Wie will man das aber auch mitbekommen, wenn man in einer Nvidia Blase gefangen ist, ohne jeglichen objektiven Blick nach aussen? :rolleyes:

Ach ja, wie immer bist du mit deinen lächerlichen und weltfremden Nvidia Lobhudeleien völlig deplatziert in AMD Threads. Und das ist keineswegs ironisch gemeint.
 
Zuletzt bearbeitet:
Nein Dude. Es ist nicht irrelevant, seit wann es Tesla P100 gibt. Du behauptet ja permanent in jeder Diskussion, das er erst seit wenigen Monaten erhältlich ist. Es ging aber darum, das er seit einem Jahr produziert wird. Da ist es herzlich egal, für wen er erhältlich war. Fakt ist, das Ding ist seit nahezu einem Jahr erhältlich. Das hast du schon einmal geleugnet und behauptet, Tesla P100 wurde erst ab November ausgeliefert. Als Beweis hattest du einen Artikel von Mitte 2016 verlinkt.....Ich kanns dir gerne noch einmal heraussuchen. Steh doch einmal zu deinen Falschaussagen.

Gesendet von meinem E6653 mit Tapatalk
 
1200$ - das hätte ich AMD gar nicht zugetraut... so einen Preis würde AMD nicht machen, wenn man sich seiner Sache nicht absolut sicher wär. Das ist ein stolzes Sümmchen. Die FE scheint damit einfach AMDs Titan zu sein.

Die TDP würd ich ganz schnell vergessen, die stimmt eh nicht. 300W mit Radialkühler in der Größe klappt nicht. Da hätte man schnell über 45dB/A. Das macht kein Mensch. Zudem war die Karte vorher als 6+8 geplant, mit HBM bekommt man damit nicht mehr als 250W hin, da kaum was über den PEG gezogen wird. Ich wette, die 2x 8Pin gibts vor allem wegen erhöhter TDP bei der Wasserkühlung und weil man nur ein PCB verwenden möchte.

Ich wette, Vega macht ein deutlich effizienteres HSR als die Maxwell/Pascal, das wird der ganze Trick dahinter sein.
 
Zuletzt bearbeitet:
Nein, das ist nicht wie die Titan, das ist eine Profi Karte und nicht für den Consumermarkt gedacht.
 
dude du hast leider meinen wichtigsten punkt nich beantwortet...
 
Nein Dude. Es ist nicht irrelevant, seit wann es Tesla P100 gibt. Du behauptet ja permanent in jeder Diskussion, das er erst seit wenigen Monaten erhältlich ist. Es ging aber darum, das er seit einem Jahr produziert wird.
Selbst das ist falsch. Die P100 Massenproduktion läuft erst seit Q4 2016. Wir haben noch lange nicht Q4 2017. Fakt ist, hier geht es um eine für jedermann erwerbbare Vega Frontier Edition. Das Pendant auf GP100 Basis gibt es eben erst seit wenigen Monaten. Alles andere sind Märchen oder ist irrelevant.

Und jetzt dürfen die bekannten AMD Basher gerne ihre deplatzierte Nvidia Lobhudelei einstellen. Hier geht's nicht um P100. Hier geht's um Vega.


dude du hast leider meinen wichtigsten punkt nich beantwortet...
Welchen denn?
 
Warum kann man dann seit Juni 2016 einen DGX-1 mit 8 Tesla P100 kaufen? War das keine Massenproduktion? Das etwas für jedermann frei verkäuflich ist, stand nicht zur Debatte. Das erfindest du gerade, um dich herauszureden. Es ging eizig und allein darum, das etwas produziert wird.
Im November wurden übrigens allein 5.320 der Tesla P100 im Piz Daint verbaut. Aber warte, vor kurzem hast du ja noch behauptet, Tesla P100 würde erst ab Q1/17 verfügbar?

. Wenn der Artikel von 06/2016 ist, damals noch nichts von der Auslieferung des GP100 bekannt war und dies erst für Q4 2016 in Aussicht gestellt wurde, mit Verfügbarkeit also noch später zu rechnen war, vermutlich nicht vor Q1 2017....

Und nun winde dich wie üblich mit fadenschneidigen Behauptungen heraus.
 
Das etwas für jedermann frei verkäuflich ist, stand nicht zur Debatte.
Doch, genau darum geht's. Dir ist schon klar, worum es in dem Thread geht? Hör endlich mit deinem sinnlosen und deplatzierten Gespamme auf. Hier geht's um normale Grafikkarten. DGX-1 & Co. hat damit nichts zu tun. Ist also irrelevant. Punkt.
 
Er windet sich....Du hast den P100 erwähnt. Davor war davon nicht die Rede. Und wenn der erst ab Q4 16 produziert worden sein soll, wieso sind dann 8 Stück davon in einem DGX-1 verbaut gewesen und das ab 6/16 kaufbar? Haben ddiese 8 Karten die helfenden Elfen da hineingezaubert, da ja laut deinem Gespamme diese P100 zu diesem Zeitpunkt nicht gefertigt wurden? Das behauptest du doch permanent. Es ging um Serienproduktion und seit wann P100 produziert wird. Ob nun einzeln oder im Paket ist doch herzlich egal, hätte sich jemand etwa im Juni 2016 einen DGX-1 zugelegt, wären diese Karten darin verbaut gewesen!
 
Nein, das ist nicht wie die Titan, das ist eine Profi Karte und nicht für den Consumermarkt gedacht.

Hab ich auch erst gedacht, dafür wär sie dann aber zu billig. Ne, das wird schon ne Consumerkarte sein, die RadeonPro Vega wird es ja auch geben.
 
Du hast den P100 erwähnt.
Ich habe nichts von P100 Verfügbarkeit und dergleichen gesagt. Diesen Spam hat dieser Nvidia Schönredner losgetreten. Also beschwer dich bei ihm, nicht bei mir. Ich musste nur wieder seine Märchen richtig stellen.

Übrigens, informiere dich doch endlich erstmal, bevor du glaubst, mitreden zu können. Anfangen kannst du damit, was Testfertigung, Risikofertigung, Massenfertigung etc sind. Deine vor Unwissenheit strotzenden Ironieversuche sind ja kaum noch zu ertragen. Massenfertigung des P100 begann erst Q4 2016. Deshalb war es davor auch nicht möglich, entsprechende Produkte in den freien Handel zu bringen. Das Resultat ist, solche Produkte gibt es erst seit wenigen Monaten. Da kannst du noch so sehr auf DGX-1 und Co rumreiten. Es ist und bleibt irrelevant fürs Thema.


Komisch, selbst Raja sagt "optimized for professional use cases" und wer eine Karte für Gaming braucht soll auf Vega RX warten
Die Consumer sind in dem Fall Prosumer, nicht Gamer. ;)
 
Wie er sich windet. Wie ein Aal. Dann belege deine Aussage doch mit Fakten zur Test, Risiko und Massenfertigung. Wann wurden diese einzelnen Abschnitte begonnen? Wieviel Stückzahlen waren es in den ersten 2 Abschnitten? Gehörten die 8 Karten pro DGX-1 dann zur Test oder Risikofertigung? Wieviele wurden davon abgesetzt, ohne das es eine Massenfertigung gab?

Ps. Nach deiner Logik wird die RX 580 auch noch nicht Massengefertigt. Ist sogut wie gar nicht als Endverbraucher zu bekommen....
 
Zuletzt bearbeitet:
??
Worauf willst du hinaus? Die Wohlfahrtshaltung, die man hier gern mal AMD nachstellt zieht am Markt nunmal nicht... Und das wissen auch alle. Außer die paar Fans in der Community, die es einfach nicht eingestehen wollen.

Ich find es witzig, wie du nen Link auf das Argument: "ganze Server samt Servermanagement Software sowie eine eigene Cloud Plattform für Deep Learning Kunden" von ner popligen API als Gegenargument bringst... Denn genau das ist das, was Richthofen ansprach. Da liegen Welten Unterschied zwischen!!! Denn es geht weit über eine simple API hinaus... Hier trifft mal wieder das alte Sprichwort zu: "das was der Bauer nicht kennt, dass frisst er nicht..."
Aber lass dir gesagt sein, es gibt durchaus auch eine Menge Bauern, die wissen was am Markt so funktioniert -> und das ein ums andere mal frisst ein Bauer auch etwas nicht, weil es anderes gibt, was schlicht besser schmeckt... egal wie toll oder scheiße du das nun findest ;)

Und nein, das heist nicht, dass ICH die NV Lösung als das Maß der Dinge sehe. Ganz im Gegenteil, aber die Lösung ist nunmal in so manchen Teilen der Konkurenzlösung einen Schritt vorraus. Das muss man nicht gut finden, aber Akzeptieren wäre ein Anfang.

Du legst mir hier Worte in den Mund, die ich nicht gesagt habe. Ich habe mit den Links gezeigt, dass es durchaus möglich ist bei einigen Projekten die mit CUDA laufen (und das sind ja anscheinend nicht wenige) die mit ner AMD GPU ausführen zu lassen. Geschwindigkeit ist äquivalent, Anschaffungskosten niedriger. Wenn ein Projekt es also zulässt: Why not?

Du tust ja so als hätte man mit AMD im Computing-Bereich gar keine Möglichkeit Land zu sehen. Aber genauso wie sich die Server-Projekte unterscheiden kannst du nicht einfach den Sack zumachen und AMD aburteilen. Ansonsten sagst du ja genau das, was ich gesagt habe: "Was der Bauer nicht kennt..." Gefällt mir tatsächlich nicht, ist aber nicht AMDs Fehler. Dinos halt.

edit: Und das ist keine "popelige API" - da steckt ne ordentliche Menge Arbeit hinter. Ist doch das, was alle verlangen - oder? "AMD, wasch mich, aber mach mich nicht nass"
 
Zuletzt bearbeitet:
Je nach Anwendungsfall, sind die schon längst da.

HIP : C++ Heterogeneous-Compute Interface for Portability - GPUOpen
https://github.com/ROCm-Developer-Tools/HIP

Nützt natürlich nix, wenn es niemanden interessiert und einfach weiterbasht, als gäbe es keinen Morgen. Unternehmen sind was Infrastruktur angeht halt auch gerne Mal Dinosaurier - das ist aber nicht das Problem von AMD.

Doch am Ende ist es das Problem von AMD weil der Softwarestack der Konkurrenz sich zementiert hat und in vielen Teilen bereits eine Mindestanforderung ist an der AMD nicht so einfach vorbei kommt. Da nützten auch Übersetzungstools nichts, denn die übersetzen nicht alles automatisch bis ins letzte Detail und es muss immer noch manuell angepasst werden. Und AMD ist dann immer auf Gedeih und Verderb angewiesen Nvidia hinterherzurennen. Die können nämlich die Struktur ihrer Tools und Software auch anpassen und verändern und mit neuen Features anreichern. Letzteres passiert sowieso zwangsläufig.

Nachtrag noch allgemein zu Vega in Bezug auf HPC. Seit der Vorstellung der MI25 wissen wir nun auch, dass Vega keine adäquate Konkurrenz für HPC ist. Es fehlt eine gleichwertige FP64 Leistung. 0,78TFLOPs bei Vega vs. 7TFLOPS bei P100 und 7 bzw. 7,5 TFLOPS bei V100. Für den restlichen Deep-Learning Teil (FP16 und FP32) ist V100 ebenfalls vorn und INT8 legt V100 dann richtig los. Das kann Vega gar nicht.

AMD stellt Radeon-Instinct-Serie inklusive MI25 mit Vega-GPU vor - Hardwareluxx


- - - Updated - - -

Komisch, selbst Raja sagt "optimized for professional use cases" und wer eine Karte für Gaming braucht soll auf Vega RX warten
Radeonâ„¢ Vega Frontier Edition: Empowering the New Generation of Data Scientists, Visualization Professionals, and Digital Pioneers

Raja und AMD wissen selber das dies analog zur Titan maximal Prosumer ist. Nochmal es fehlt die offizielle App Zertifizierung und Treiber, es fehlt FP64 für HPC. Für echtes Professional in Workstations brauchts die Zertifzierung und das kostet richtig Geld. Für HPC brauchts FP64. Wenn das Teil echtes Professional wäre, dann würde ja kein Grund mehr bestehe die MI25 zu verkaufen die deutlich mehr kosten wird. Das ist genau die gleiche Eierargumentation wie bei Nvidia mit der Titan. Da ist auch nix so richtig professional dran. Das ist alles halbgar für einzelne Fummler zum antesten und ausprobieren. Echtes CAD auf einer Workstation wird damit keiner betreiben und sich auch nicht einen HPC Großrechner damit aufbauen. Auch da hat keiner die Titan sich reingebaut sondern eben das TESLA Teil im HPC Umfeld und das Quadro Teil in den Workstations und beide kosten erheblich mehr aus guten Gründen.
 
Zuletzt bearbeitet:
@ Richthofen,

zu deinem zweiten Absatz (Prosumer).
Da hast du vollkommen Recht.

Die Tesla und Quadro kosten einfach wegen der Lizenzierung, Zertifizierung und dem enormen Support der dahinter steckt soviel mehr Geld.
Ich denke jedoch das AMD hier zumindest teilweise am Ball ist, mal schauen was draus wird.
Konkurrenz belebt das Geschäft und ist sehr wichtig!

Siehe Intel und Core-X....
 
Doch am Ende ist es das Problem von AMD weil der Softwarestack der Konkurrenz sich zementiert hat und in vielen Teilen bereits eine Mindestanforderung ist an der AMD nicht so einfach vorbei kommt. Da nützten auch Übersetzungstools nichts, denn die übersetzen nicht alles automatisch bis ins letzte Detail und es muss immer noch manuell angepasst werden. Und AMD ist dann immer auf Gedeih und Verderb angewiesen Nvidia hinterherzurennen. Die können nämlich die Struktur ihrer Tools und Software auch anpassen und verändern und mit neuen Features anreichern. Letzteres passiert sowieso zwangsläufig.

Nachtrag noch allgemein zu Vega in Bezug auf HPC. Seit der Vorstellung der MI25 wissen wir nun auch, dass Vega keine adäquate Konkurrenz für HPC ist. Es fehlt eine gleichwertige FP64 Leistung. 0,78TFLOPs bei Vega vs. 7TFLOPS bei P100 und 7 bzw. 7,5 TFLOPS bei V100. Für den restlichen Deep-Learning Teil (FP16 und FP32) ist V100 ebenfalls vorn und INT8 legt V100 dann richtig los. Das kann Vega gar nicht.

Wenn die Industrie sich selbst zuzementiert hat, ist das ein Problem der Industrie. Google hat ja auch einen Deep-Learning Chip rausgebracht, der die GPUs von Nvidia einfach nur verdampft - nur gekauft wird der nicht, weil man halt Beton an den Füßen hat. Wenn eine Firma das mal merken sollte und sich ein Google-System anlacht, weint die Konkurrenz. Aber anscheinend ist der Markt so ungemein profitabel, dass die Kosten weder Nvidia noch den Serverbetreibern irgendwie Sorgen machen.
 
Wenn die Industrie sich selbst zuzementiert hat, ist das ein Problem der Industrie. Google hat ja auch einen Deep-Learning Chip rausgebracht, der die GPUs von Nvidia einfach nur verdampft - nur gekauft wird der nicht, weil man halt Beton an den Füßen hat. Wenn eine Firma das mal merken sollte und sich ein Google-System anlacht, weint die Konkurrenz. Aber anscheinend ist der Markt so ungemein profitabel, dass die Kosten weder Nvidia noch den Serverbetreibern irgendwie Sorgen machen.

Google's TPU war für das Inferencing und nicht Trainieren. Das Teil ist für ganz spezielle Cases gebaut aber eben nicht so generisch einsetzbar wie GPUs. Es ist logisch, dass es für einen entsprechenden Anwendungsfall Vorteile ausspielen kann, wenn andere Anwendungsfälle nicht bedacht werden müssen. Da kann man aber nicht einfach sagen einen Deep Learning Chip der die Konkurrenz verdampt. Das ist einfach Quatsch. Inferencing ist ein Teilaspekt von Deep-Learning aber nicht der einzige.

- - - Updated - - -

@ Richthofen,

zu deinem zweiten Absatz (Prosumer).
Da hast du vollkommen Recht.

Die Tesla und Quadro kosten einfach wegen der Lizenzierung, Zertifizierung und dem enormen Support der dahinter steckt soviel mehr Geld.
Ich denke jedoch das AMD hier zumindest teilweise am Ball ist, mal schauen was draus wird.
Konkurrenz belebt das Geschäft und ist sehr wichtig!

Siehe Intel und Core-X....

Der Punkt ist einfach, dass das Marketing von AMD bei der Vega FE einfach Käse ist. Da wird dann von Professional gefaselt und eine Titan als Vergleich herangezogen. Und wenn man dann in die offiziellen Specs schaut und Verkaufsunterlagen von AMD, dann steht da doch tatsächlich drinn, dass das Teil eben nicht Professional ist sondern eher so Prosumer und man weist selber auf die MI25 für den Professional Case hin. Ansonsten sind sie mit der MI25 zwar näher drann als vor 1 Jahr aber auch nicht näher als in den letzten 10 Jahren. Hardwaremäßig waren die da schon hier und da mit dabei aber bei der Software eben nicht und das hat sich bei den Workstations bis heute nicht geändert.
 
Du legst mir hier Worte in den Mund, die ich nicht gesagt habe.
Du bildest dir das leider nur ein...

Und das ist keine "popelige API" - da steckt ne ordentliche Menge Arbeit hinter. Ist doch das, was alle verlangen - oder? "AMD, wasch mich, aber mach mich nicht nass"
Wer ist "alle"?
Keine Ahnung, wen du hier meinst, meine Aussage bezog sich darauf, dass du auf das Argument "ganze Server samt Servermanagement Software sowie eine eigene Cloud Plattform für Deep Learning Kunden" Links zu einer API bringst...

Die Menge der Arbeit war übrigens NIE Bestandteil der Aussage... Irgendwie sinnfrei mal wieder
 
... Irgendwie sinnfrei mal wieder

Mit deiner Geisteskraft kann hier halt keiner mithalten.

Btt: Mit jeder weiteren Meldung erhärtet sich bei mir der Verdacht, dass Amd sich verspekuliert hat und nicht in der Lage ist etwas brauchbares oberhalb der rx480 zu bringen. Die schnellste "Mainstream"-Karte ist nach wie vor die 390, das ist schon übel.

Bei den CPUs Top, bei den Gpus absoluter FLOP.
 
Du bildest dir das leider nur ein...

Nö, ich schrieb "Je nach Anwendungsfall" - in diesem Falle CUDA. Du sägst dir "der gesamte Servermarkt" daraus zusammen.


"Alle" meint in diesem Zusammenhang die Leute, die AMD vorwerfen "zu spät" zu sein und dann, wenn AMD mit einer Lösung um die Ecke kommt, diese einfach links liegen lassen und so tun, als wäre sie wertlos.

Keine Ahnung, wen du hier meinst, meine Aussage bezog sich darauf, dass du auf das Argument "ganze Server samt Servermanagement Software sowie eine eigene Cloud Plattform für Deep Learning Kunden" Links zu einer API bringst...
Ich verstehe dich also richtig, dass du "Je nach Anwendungsfall" als "ganze Server samt Servermanagement Software sowie eine eigene Cloud Plattform für Deep Learning Kunden" interpretierst. Gut, kannst du gerne machen - ist dann aber weder das was ich gesagt habe, noch das was ich gemeint habe noch das worauf ich mich bezogen habe.

Die Menge der Arbeit war übrigens NIE Bestandteil der Aussage... Irgendwie sinnfrei mal wieder
Das hier ist ein Diskussionsforum, nicht fdonne-Unterhaltungsprogramm auf Kanal 4.

Google's TPU war für das Inferencing und nicht Trainieren. Das Teil ist für ganz spezielle Cases gebaut aber eben nicht so generisch einsetzbar wie GPUs. Es ist logisch, dass es für einen entsprechenden Anwendungsfall Vorteile ausspielen kann, wenn andere Anwendungsfälle nicht bedacht werden müssen. Da kann man aber nicht einfach sagen einen Deep Learning Chip der die Konkurrenz verdampt. Das ist einfach Quatsch. Inferencing ist ein Teilaspekt von Deep-Learning aber nicht der einzige.
Und je nach Anwendungsfall (!) macht es dann auch Sinn Googles TPU einzusetzen. Nicht überall, nein. Nicht alles, nein. Aber je nachdem wie unterschiedlich die Anwendungsfälle aussehen, kann ich mir die Hardware dafür zusammenschrauben. Wenn ich die gleiche Arbeit mit weniger Geld realisieren kann - mache ich das.

Wollen wir jetzt verallgemeinern und ALLES abdecken? Dann brauchen wir über Googles TPU und AMDs Vega nicht mehr zu reden. Dann können wir genau hier aufhören, den Deckel dicht machen und Nvidia auf ewig das Feld überlassen. Denn die Dinos werden sich da nicht einen Millimeter bewegen.

Reden wir über sowas wie Homeoffice, Studentenprojekte oder auch kleine Unternehmen oder Privatpersonen, die mit FP16 bis FP32 und knappen Budget ein Projekt bearbeiten wollen, hat Vega hingegen eine gute Stellung. 1.100 € für fast die gleiche FP16 und FP32 Performance wie die V100, die mehrere tausend Euronen kostet. Wenns geht, warum nicht? Und testweise kann man sogar FP64 anschalten. Lahmarschig, aber zu mindest vorhanden.
 
Zuletzt bearbeitet:
@Shevchen

sag mal was soll der quark?
Da oben wird eine Aussage getroffen (DAS WAR NICHTMAL ICH!!!)-> DU bist der, der widersprochen hat mit zwei Links zu einer API.
Und MIR machst du das zum Vorwurf?? Siehst du noch klare Bilder?? Geh doch Richthofen irgendwelche Unterstellungen machen, aber lass mich aus dem Spiel. Warum auch immer du angepisst bist. Ich kann es nicht nachvollziehen. Wo ist das Problem einfach zu verstehen und zu akzeptieren, dass es nunmal ein Unterschied zwischen einer API und "ganze Server samt Servermanagement Software sowie eine eigene Cloud Plattform" gibt??

Du scheinst ein massives Problem zu haben, andere Meinungen als die eigene zu akzeptieren und das noch in einem Themengebiet, wo klar erkennbar es nichtmal auf persönliche Befindlichkeiten ankommt. Und nein, "der gesamte Servermarkt" -> ebenso nie Aussage gewesen. Wieder irgendwas erfunden... Soll AMD mal liefern, die haben es höchstselbst in der Hand. Wenn es gut wird, wird der Markt es annehmen, gerade im GPGPU Geschäft. Kommt aber nix, wird es weiter nix...

Das hier ist ein Diskussionsforum...

Dann empfehle ich dir mal endlich die Aussagen der Diskusionspartner als solche zu akzeptieren und natürlich beim gesagten zu bleiben und nicht irgendwas hinzuzudichten... Aber hey, mir ist bewusst, wenn man argumentativ nicht weiter kommt, schießt man halt unter die Gürtellinie ;) Ich kann das ab, kein Ding. Du hingegen machst deinen eigenen Standpunkt damit um so lächerlicher, da für Jedermann klar sichtbar, dass die Aussage einfach nicht aufgeht/aufging.

Übrigens, egal welchen Anwendungsfall du da sehen willst. Von der API bekomme ich immernoch kein Blech. Der "Lichtjahre" Unterschied, der da angesprochen wurde (noch extra für DICH, ICH war das NICHT!!!), ist also unabhängig vom Anwendungsfall... Kannst du nun wieder akzeptieren oder weiterhin ignorieren. AMD und auch dir hilft es nicht weiter... :wink:
 
@Shevchen

sag mal was soll der quark?
Das frag ich mich auch.

Richthofen: (sinngemäß) AMD hat im Serverbereich keine Infrastruktur
Ich: In einigen Anwendungen schon - dank den APIs.
Du: ganze Server samt Servermanagement Software sowie eine eigene Cloud Plattform für Deep Learning Kunden
Ich: Nochmal - in einigen Anwendungen
Richthofen: (sinngemäß) Wenn AMD den Anschluss verloren hat, ist das auch deren Problem.
Ich: (sinngemäß) Dann kann AMD halt versuchen dort Anschluss zu finden, wo der Bereich etwas dynamischer ist - wie Google es mit seiner TPU versucht
Du: BEACHTE MICH!
 
NEIN... "Du: ganze Server samt Servermanagement Software sowie eine eigene Cloud Plattform für Deep Learning Kunden"
Ist einfach unwar... Die Aussage ist von Richthofen... Wie oft denn noch!

Und nochmal NEIN, eine API wird nicht zu einem ganzen Serversystem. Auch nicht sinngemäß und ebenso nicht in Abhängigkeit vom Anwendungsfall. Es wurde doch nicht umsonst die Hardware erwähnt... Wieso ist das so schwer zu kapieren!?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh