Doppelte von 13TFlops bei FP32 sind aber 26TFlops bei FP16?
Wenn man die maximal sinnigen Werte beim Abrunden berücksichtigt, kommt das Ding auf maximal 12,7495 TFlop/sec und das bei grob 1,55GHz.
Die Wortwahl ist aber dennoch etwas komisch. Denn wenn man vorher von 12,5 TFlop/sec sprach, dann wäre das genau genommen auch zu runden. Jetzt soll(t)en es dann 12,75 sein.
Wirkt auf Jedenfall nicht ganz schlüssig und eher nach künstlichem Hochhalten der Zahlen... NV liefert demnächst 15TFlop/sec mit GV100. Warscheinlich sogar mehr, weil das Ding wieder höher boosten wird... Da macht es schon einen Unterschied ob da 20% Unterscheid sind oder eben weniger, weil man günstig rundet...
Was mir übrigens vom Marketing noch aufgefallen ist was ich sehr unschön finde. AMD positioniert sich natürlich gegen Nvidia und möchte wie Sie selber sagen auch im Deep Learning Bereich mit einer breit gefächerten Opensource Unterstützung punkten. Dabei stellen Sie das Themenfeld zwar als "einfach" dar ("20 Entwickler reichen uns dafür aus") jedoch sagen Sie gleichzeitig, dass ihre Karten für Profis und besonders Spezialisten gemacht sind die die Fähigkeiten und den Ehrgeiz haben das Maximum aus den Karten heraus zu holen. Nvidia´s Aussage dagegen war eher, dass Sie das Thema und die Arbeit daran erleichtern wollen und dem Kunden alles dafür bereit stellen. Finde ich eine bessere Ausrichtung um sich im Gesamtmarkt breiter zu positionieren.
Das ist doch nichts neues!?
Aus meiner Sicht ist das schlicht und ergreifend logische Konsequenz... Warum? AMD macht sich seit geraumer Zeit für offene Standards stark. Das ist auf der einen Seite gut, auf der anderen Seite aber eben auch ein Nachteil. NV hingegen verkauft ihr Produkt, platziert ihr Produkt wie man es für richtig hält und geht natürlich auch auf Wünsche der Partner ein. Mach das mal mit nem offenen Standard... Wie soll das gehen?
Unternehmen in derartigen Gefilden verkaufen eher Dienstleistungen oder Beiwerk -> AMD versucht eher den Standard als ihr Produkt zu vermarkten. Das kann so aus meiner Sicht nur bedingt aufgehen. Zumal auch AMD nicht das aller letzte Wort bei den Themen hat -> es sich auch alle Nase lang ändern kann, die Wertigkeiten verschieben usw. Dann stehen die Regen weil es keiner mehr will.
Klarer Vorteil für properitäre Sachen. Da gibts keinen, der da drin rum fingert außer der Erfinder selbst...
Ich denke, dass die 1080 TI AMD komplett überrascht hat. Keiner hatte mit dieser Karte so schnell gerechnet.
Die 1080TI war das unüberaschendste am kompletten Pascal Lineup. Da es einfach nur eine Frage der Zeit war, WANN NV genau den GP102 als HighEnd Produkt größer 1080 los lässt (abseits der TitanX)... Eher ist/war es wohl so, das AMD von Pascal als Lineup selbst überrascht war. Da man (so denke ich) davon ausging, dass auch NV auf HBM setzen wird -> und damit die selben Restriktionen unterliegt -> und ggf. sogar zeitlich einen Nachteil hat, weil keine Voraberfahrung ala Fiji.
Das machen aus meiner Sicht eigentlich alle Präsentationen und Info-Leaks bis kurz vor Pascal Release deutlich... AMD hat sich auf richtigem Wege gewähnt. Und wurde eiskalt überrascht vom GP104 als 1070/1080 sowie auch GP100 im Profibereich (wobei das absolut nicht hätte passieren sollen -> ein nächster Schritt in Sachen FP64 Performance nach GK110 war lange überfällig) wie auch GP102 ein wenig Später als TitanX...
Darüber hinaus wissen wir noch das anscheinend eine 2GB Vega mit HBCC nur 9% langsamer ist als eine 1080ti im Tombraider Benchmark.
Es ist doch aber mindestens genau so unsinnig, diese 2GB wie auch immer gekünstelten Werte zu vergleichen wie eben die Behauptung, NV wäre mit weniger Speicher an dieser Stelle ebenso deutlich langsamer!? Und noch schlimmer finde ich die Gegenteiligen Behauptungen -> mit vollem Speicher ist Vega dann noch schneller...
Alles basiert auf Wunschdenke.
Hat sich denn wer mal mit RotT auseinander gesetzt? Diese Schneeszene gehört doch, wenn mich nicht alles täuscht zum absoluten Anfang. Der VRAM Bedarf am Anfang in diesem Schlauchlevel ist extrem gering... Das habe ich seinerzeit mit ner 780TI im SLI absolut flüssig in WQHD gespielt. Und da war bei 3GB hart schluss... Inkl. TrippleScreen Setup (ca. 700MB für DWM in use, also nicht nutzbar für Games) Zwar nicht 4k, aber wir alle wissen auch (oder sollten es wissen) dass der VRAM Bedarf bei mehr Res. nicht so ultra stark ansteigt... Da gibt es ganz andere Szenen im Spiel, die extrem am VRAM lutschen... Geothermales Tal bspw.
Es stellt sich also in aller erster Linie hier die Frage, wie sind die Werte zustande gekommen!? Von AMD kennen wir bis dato bspw. hingekünstelte Mantle vs. DX Vergleiche in BF4, die einen extremen Vorsprung suggerieren. Der ist zwar real, aber eben auch nur deswegen so hoch, weil die DX11 Umsetzung bescheiden ist... Schaut man sich mal die Reviews im Speicherlimit an fällt eigentlich klar auf, dass mit Ausnahme der Fury quasi durch die Bank weg NV das bessere Ergebnis im Speicherlimit abliefert... Was sagt uns also dieser Wert!?
Ich bin ja weiterhin der Meinung, gerade solche "Späße" sind definitiv mit Vorsicht zu genießen... Die werden die Szenen nicht grundlos gewählt haben.
Was auch sehr interessant ist -> die Szene ist sehr stark Tesselationlastig