Ampere-Architektur von NVIDIA soll im April starten – Turing als Codename der ersten GeForce-Karte

Ist doch egal ob Rebrand, Neuentwicklung oder sonst was. NV hat mit den letzten Generationen die Peformance immer kräftig erhöht.
AMD hat in meinen Augen mit HBM2 einfach nur auf das falsche Pferd gesetzt. Zu teurer und zu aufwendig für die Leistung die am Ende hängen bleibt.

Mir kann keiner erzählen das Treiberoptimierungen hier Wunder bewirken sollen.
Die große Vega schlägt die 1080Ti in genau einer Auflösung in einem Spiel
und in genau dieser Auflösung kann sich die TI nichtmal von einer normalen 1080 absetzen.
In allen anderen Auflösungen ist wieder das normale Bild hergestellt und Vega duelliert sich mit GP104.

Noch dazu kommt dass es dabei eine Vega Liquid war.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ampere wird AMD wieder verhungern lassen da bin ich mir zu 90% sicher.

Diese These ist doch langweilig. Das ist so als würde ich "vorhersehen" dass Ampera besser als Pascal wird :p


Viel Interessanter ist die Frage, wird die neue 2018er AMD GPU die Pascal GPU schlagen können?
 
Ist doch egal ob Rebrand, Neuentwicklung oder sonst was. NV hat mit den letzten Generationen die Peformance immer kräftig erhöht.
AMD hat in meinen Augen mit HBM2 einfach nur auf das falsche Pferd gesetzt. Zu teurer und zu aufwendig für die Leistung die am Ende hängen bleibt.

Mir kann keiner erzählen das Treiberoptimierungen hier Wunder bewirken sollen.
Die große Vega schlägt die 1080Ti in genau einer Auflösung in einem Spiel
und in genau dieser Auflösung kann sich die TI nichtmal von einer normalen 1080 absetzen.
In allen anderen Auflösungen ist wieder das normale Bild hergestellt und Vega duelliert sich mit GP104.

Noch dazu kommt dass es dabei eine Vega Liquid war.
Da ist jedenfalls mal eine nachvollziehbare Argumentation.;)

Letztlich bewirkt Nvidias Gameworks, R&D, Devrel auch noch einiges und dessen Verbreitung. Das ist auch was Koduri mal meinte, als er sagte, man kann nicht endlos Siliziumressourcen verschwenden, endlos shrinken oder Einheiten dazu packen, ohne auf positive Softwareumfelder zu setzen und die Ressourcen die dort für AMD ungenutzt umheroxidieren. Rohleistung hat man doch genug, Bandbreite auch. Der Rest wird irgendwann zu teuer und genau das stellt sich jetzt auch ein, wenn eine Komponente mal knapp wird (sei es Speicher oder schnöde Spannungswandler oder irgendein blöder Poti für paar Cent).

AMD braucht LowLevel (Programmierung in Hardwarenähe wie Nvidia mit Gameworks) um schnell zu sein. Das ist natürlich immer noch Zukunftsmusik, wenn man sieht wie viele Titel noch DX11 unterstützen.

HBM ist eigentlich kein Problem, auch das ist eine reine Zukunftsinvestition. Das Stappeln schafft auf Dauer Platz und spart wegen verkürzter Signalwege Strom. Gerade AMDs SI und dessen Energieverbrauch vorangegangener GCN Gens machte es ihnen schwer idle effizient zu sein. Unter Max/Full-Load spielt Effizienz keine so bedeutende Rolle und nach oben raus ist auch Pascal nicht sparsam, man gewinnt ab bestimmten Takten kaum fps hinzu.

Die wahre Ressource liegt in der Softwareoptimierung auf das eigene Design, dass bringt mehr und kostet weniger als Mrd für neue Fertigungsstrecken bei schlechter Yieldrate.

Vega ist ein Zwitter für Instinct/Prosumer/Highendgamer. Enthusiast will AMD nicht mehr so wirklich und daher glaube ich nicht, dass es einen Navi für Gamer gibt, geben wird der Ampere oder was auch immer für ein 100/102 Derivat schlagen wird. Wie man sieht verdient AMD auch anderswo genug. Nvidia wird den Enthusiasten geben wonach sie verlangen, nur man wird es bezahlen müssen.
 
Zuletzt bearbeitet:
CCC 13.4 Beta war nicht 2012. VLIW eben auch nicht wirklich AMD...für WinX stellt man den 8.970.100.9001 zur Verfügung, der ist bereits in Windows enthalten. Daher ja auch Tahiti als Bsp..
Muss mich korrigieren, Anfang 2012 wurden die Karten Legacy, der letzte Treiber kam erst ein Jahr später und damit über 3 Jahre vor dem miesen Nvidia Support (Dezember 2016).
Unter Win10 kann die Karten also praktisch vergessen? Probleme gibt es da genug.

AMD teilte gerade mit das sie 6.1% im GPU Markt hinzugewonnen haben, im letzten Quartal wohlgemerkt.
Was haben sie dazugewonnen?

Dein vermeintlich guter Legacy Support brauchte knapp 2 Jahre um FL12 Support auf Fermi bereitzustellen.
Wieder die Frage: Wie sieht es denn da bei AMD Karten 5000/6000 aus? Mal wieder ein schönes Eigentor von dir.
Versteh mich nicht falsch, ich finde auch, dass es bei Nvidia viel zu lange gedauert hat, aber bei AMD wirst du halt noch länger warten müssen. Um den Faktor unendlich...

War da nicht in der Vergangenheit mal was mit den Verpackungen? Stand DX11.1 drauf und 4GB VRAM...bei 256bit SI. Alles Fanboygequatsche klar.:rolleyes:
Respekt, jetzt hast du was in einer von wie viel hundert Karten gefunden?

Viel Interessanter ist die Frage, wird die neue 2018er AMD GPU die Pascal GPU schlagen können?
Welche 2018er AMD GPUs? :cool:
 
Versteh mich nicht falsch, ich finde auch, dass es bei Nvidia viel zu lange gedauert hat, aber bei AMD wirst du halt noch länger warten müssen. Um den Faktor unendlich...

Respekt, jetzt hast du was in einer von wie viel hundert Karten gefunden?

Welche 2018er AMD GPUs?
Nvidia versprach schon 2014 FL12 Support, geworden ist es was anderes. Ich war schon human, wenn ich nur 2 Jahre schreibe. Und du kannst das bei Fermi gerne mal aktivieren, Support sieht anders aus. Weil aktivierbar und optimiert - zwei paar Schuhe sind.

Welche 2018 Nvidia GPU kennst du? Erinnere dich mal was gerade angekündigt haben, drittes Quartal 2018, bis dahin steigen die Preise. Was das wohl bedeutet?
 
Vega ist ein Zwitter für Instinct/Prosumer/Highendgamer. Enthusiast will AMD nicht mehr so wirklich und daher glaube ich nicht, dass es einen Navi für Gamer gibt, geben wird der Ampere oder was auch immer für ein 100/102 Derivat schlagen wird. Wie man sieht verdient AMD auch anderswo genug. Nvidia wird den Enthusiasten geben wonach sie verlangen, nur man wird es bezahlen müssen.

Ich habe eher die Befürchtung das nach dem Mining-Boom einfach ein tiefes Loch für AMDs GPU Sparte kommt.
Es gibt halt kein Prestigeobjekt im Lineup.
Nvidia hat gut vorgelegt mit Titan X(p) und dann auch noch der V.
Und Vega nur über den Preis zu verkaufen kanns ja auch nicht sein, Stichwort HBM wie schon angesprochen.
 
Zuletzt bearbeitet:
Nvidia versprach schon 2014 FL12 Support, geworden ist es was anderes. Ich war schon human, wenn ich nur 2 Jahre schreibe. Und du kannst das bei Fermi gerne mal aktivieren, Support sieht anders aus. Weil aktivierbar und optimiert - zwei paar Schuhe sind.
Nochmal: wie sieht es denn bei AMD aus?

Welche 2018 Nvidia GPU kennst du? Erinnere dich mal was gerade angekündigt haben, drittes Quartal 2018, bis dahin steigen die Preise. Was das wohl bedeutet?
Was hat denn AMD angekündigt? Nichts, nur Profikarten. Und bei der Ausbeute würde da wohl auch kaum etwas für Gamer übrig bleiben. Bei Nvidia kannst du zu 99% davon ausgehen, dass in den nächsten Monaten neue Karten kommen. Aktuell ist ja die Rede von einer Vorstellung im April.
 
Ich habe eher die Befürchtung das nach dem Mining-Boom einfach ein tiefes Loch für AMDs GPU Sparte kommt.
Es gibt halt kein Prestigeobjekt im Lineup.
Nvidia hat gut vorgelegt mit Titan X(p) und dann auch noch der V.
Und Vega nur über den Preis zu verkaufen kanns ja auch nicht sein, Stichwort HBM wie schon angesprochen.

Also sprechen wir jetzt mittlerweile bei Gamerkarten von Preisbereichen jenseits von 1299 Euro? Da wird AMD längerfirstig vermutlich keine Karte für entwickeln, weil ihnen die niemand abkauft. Genau deshalb nennen sie es nun mehr Premium oder Prosumer mit deutlicherer Richtung hin zu den Entwicklern. 3000 EUR rein zum Spielen ist aber mehr als krank oder?

Der Miningboom hat jedenfalls dazu geführt, dass sie insgesamt mehr absetzen und mehr einnehmen, womöglich bleibt was für zukünftige Entwicklungen hängen. Ich habe vorhin gerade wieder UDH in 60fps gezockt, geht auch mit Vega. Wer Rekorde brechen will, dafür reicht sie halt nicht. Habe noch eine für um 500 geschossen, bin recht froh das es so ist. Nvidia unterstützt nun mal kein Freesync, wenn sie mein Geld nicht wollen - nicht mein Problem.

- - - Updated - - -

Nochmal: wie sieht es denn bei AMD aus?
Auf GCN1 (was man auch AMD zuschreiben kann) läuft es bis auf Freesync tadellos. Was ja die Ausgangsbase zu dem "Stuss" war.

Was hat denn AMD angekündigt? Nichts, nur Profikarten. Und bei der Ausbeute würde da wohl auch kaum etwas für Gamer übrig bleiben. Bei Nvidia kannst du zu 99% davon ausgehen, dass in den nächsten Monaten neue Karten kommen. Aktuell ist ja die Rede von einer Vorstellung im April.
GDC ist gestorben, wo lebst du - auf dem Mond? Dort werden keine Ampere "Gamer" Karten vorgestellt. Hat Nvidia selbst verlauten lassen und GP 102 ging bereits Oktober 2017 EoL, wegen fehlender Kapazitäten.
 
War da nicht in der Vergangenheit mal was mit den Verpackungen? Stand DX11.1 drauf und 4GB VRAM...bei 256bit SI. Alles Fanboygequatsche klar.:rolleyes:

Bei solchen Aussagen Frage ich mich wo du lebst :fresse2:

Die Aussage, dass die 970 4 GB und das beworbene SI hat sind wahr - das sie nicht so angebunden sind wie gedacht ist aber auch wahr. Rein faktisch war das keine Lüge und Leute die das nicht einsehen disqualifizieren sich für jegliche Diskussion. Ich hatte die 970 und sie lief sogar in 2k reibungslos auch über den 3.5 GB RAM in The Division und das ist alles andere als hardwareschonend. Die Geschichte war fern ab von nett und akzeptabel - aber sie war keine Lüge und wer da nicht differenzieren kann ... nunja ;)

Ich gönne es AMD wirklich - weil jeder gewinnt wenn die Konkurrenz da ist und dadurch die Preise sinken (zumindest mal ohne den Sonderfall Mining). Das Problem bei AMD ist halt das Image welches sie sich über Jahre wie Opel damals zerschossen haben. Sie hatten fast immer mehr Rohleistung, waren aber genau so fast immer hinter nVidia mit weniger Power. Woran das nun liegt ist dem Endkunden der nicht so technikaffin ist am Ende egal - er kauft was mehr FPS bringt und wenn das nVidia ist und selbst mit 3.5 GB dann werden die Teile gekauft.
 
ich seh grad satuan Mitglied seit 11.1.

das riecht doch nach schaffe oder dem anderen Heinzelmännchen da
 
ich seh grad satuan Mitglied seit 11.1.

das riecht doch nach schaffe oder dem anderen Heinzelmännchen da
Und morgen bin ich der Weihnachtsmann, seit wann schreibt Schaffe pro AMD?

Kannst ja gerne den Admin fragen, ich bin sicher nicht Schaffe. Aber danke. Wenn man nicht weiter kommt...wie war das mit den Trollen?

- - - Updated - - -

Bei solchen Aussagen Frage ich mich wo du lebst :fresse2:

Die Aussage, dass die 970 4 GB und das beworbene SI hat sind wahr - das sie nicht so angebunden sind wie gedacht ist aber auch wahr. Rein faktisch war das keine Lüge und Leute die das nicht einsehen disqualifizieren sich für jegliche Diskussion. Ich hatte die 970 und sie lief sogar in 2k reibungslos auch über den 3.5 GB RAM in The Division und das ist alles andere als hardwareschonend. Die Geschichte war fern ab von nett und akzeptabel - aber sie war keine Lüge und wer da nicht differenzieren kann ... nunja ;)

Ich gönne es AMD wirklich - weil jeder gewinnt wenn die Konkurrenz da ist und dadurch die Preise sinken (zumindest mal ohne den Sonderfall Mining). Das Problem bei AMD ist halt das Image welches sie sich über Jahre wie Opel damals zerschossen haben. Sie hatten fast immer mehr Rohleistung, waren aber genau so fast immer hinter nVidia mit weniger Power. Woran das nun liegt ist dem Endkunden der nicht so technikaffin ist am Ende egal - er kauft was mehr FPS bringt und wenn das nVidia ist und selbst mit 3.5 GB dann werden die Teile gekauft.
Genau - ein 224+32 SI wo man auf einem 512mb Stack über einen 32Bit MC nur schreiben oder lesen kann ist bei GDDR völlig egal. Wahrscheinlich hast du nicht mal verstanden worum es dabei geht. Ob Nvidia seinen Treiber dahingehend optimiert oder nicht ändern nichts daran das sie das SI auf direkte Anfrage mit dem des GM104 gleichstellen. Das ist frei weg gelogen...

AMD macht auch nicht alles richtig das stimmt sicherlich.

Was du einfach nicht kapieren willst und das ist wirkliches Fanboygehate, AMD ist es scheißegal was du für Nvidiahardware heute und in Zukunft bezahlen musst und nur deshalb weint ihr doch umher. Ihr wollt nicht AMD Hardware kaufen, ihr braucht Konkurrenz damit Nvidia nicht melkt. Wenn die sich aber absprechen (wie die Autobauer) bleibt für beide genug. Ich glaube auch nicht das AMD derzeit besonders wackelt oder untergeht, dass CPU Geschäft läuft besser als angenommen, und in dieses Projekt wurde zu Ungunsten der RTG viel Buget gesteckt, was die Zukunft bringt wird sich zeigen. GPU Enthusiast ist für die aber vorerst kein Thema, man sieht es doch daran wo AMD Vega hauptsächlich platziert. Pro und Mobile (embedded), der Rest ist vermutlich Abfall...da muss man auch kein roter Teufel, Fanboy, Schaffe oder ein Heinzelmännchen sein um das zu verstehen.

Wenn ein IHV nichts hat, womit er sich mit seinem vermeintlichen Konkurrenten anlegen kann, wieso sollte er mit aller Macht versuchen dies zu tun? Genau das führt zum Untergang von Unternehmen, wenn man seine knappen Ressourcen nur auf dieses einen Part konzentriert oder fokussiert. Lisa Su hat bereits im Vorfeld und früh genug mitgeteilt, das AMD dort nichts bringen wird. Daher war der ganze Hype um Vega den die Community veranstaltet hat einfach lächerlich. AMD hat dabei wie andere Unternehmen gezieltes Marketing für seine Hardware betrieben, dass ist ja nicht verboten. Sie haben nie angekündigt das sie einen ti/Titan Killer bringen, dass ist ihnen ehrlich gesagt scheißegal. Die brauchen zu aller erst mal steigenden Umsatz...was ihr da reininterpretiert ist den Geldbeschaffern doch völlig egal.

Und was Opel angeht, die Autos sind gar nicht so schlecht, es liegt oft an der Unternehmensführung einen Absatzmarkt für seine Produkte zu finden und zu schaffen (die einen in gewisser Weise auch unentbehrlich machen). Genau da war AMD in der Vergangenheit auch kein Vorreiter, hat eher eine Art Marktanteil-/Unternehmenssicherung betrieben anstatt dann wieder mit gezielten Entwicklungen und Produkten zu expandieren.

Das ein Unternehmen von einem anderen auch mal mit Akquisition oder Übernahme geschluckt wird, ist dem Umstand geschuldet das es um Kapital/Knowhow geht und andere Unternehmen genauso expandieren.
 
Zuletzt bearbeitet:
Das stimmt aber nur halb. Das ist das gleiche Problem wie 2014/15. Man steckt keine Mühe mehr in einer untergehende Architektur (damals war es ein untergehender Fertigungsprozess). Die Ressourcen der RTG ist sehr begrenzt. Man setzt halt alles daran, die neue Architektur 2020 fertig zu haben und ausreichend Masken dafür zu designen (3-4). Das ist jetzt eben in vollem Gange. Vega20 und Navi10 werden finalisiert, die Tapeouts waren schon letztes Jahr, man konzentriert alles eben auf den neuen Kram. Da kann man keine weiteren 7nm GCN-Chips brauchen, das würde nur alles verzögern. Das wird alles schon klar gewesen sein, als die RTG gegründet wurde Ende 2014. Man wird direkt die neue Architektur aus der Taufe gehoben haben und hat 5 Jahre Entwicklungszeit veranschlagt. Man wickelt GCN nur noch ab, genau wie man damals Bulldozer abgewicket hat. Bei Ryzen hat AMD dasselbe gemacht. Es wurde nur minimal Arbeit in die alten Architekturen gesetzt.
 
Zuletzt bearbeitet:
was heisst wenn man nicht weiterkommt satuan? ich diskutier doch gar nicht mit dir?

hier waren nur schon paar rotverblendete vor dir da und die hatten alle ein kurzes Intermezzo nach kürzlicher Anmeldung ;)

du bist auch einer von den Experten, der Schreib- und Quotestil und das rot ritterliche Dummgeschwätz erinnert mich an einen ;)
 
Das stimmt aber nur halb. Das ist das gleiche Problem wie 2014/15. Man steckt keine Mühe mehr in einer untergehende Architektur (damals war es ein untergehender Fertigungsprozess). Die Ressourcen der RTG ist sehr begrenzt. Man setzt halt alles daran, die neue Architektur 2020 fertig zu haben und ausreichend Masken dafür zu designen (3-4). Das ist jetzt eben in vollem Gange. Vega20 und Navi10 werden finalisiert, die Tapeouts waren schon letztes Jahr, man konzentriert alles eben auf den neuen Kram. Da kann man keine weiteren 7nm GCN-Chips brauchen, das würde nur alles verzögern. Das wird alles schon klar gewesen sein, als die RTG gegründet wurde Ende 2014. Man wird direkt die neue Architektur aus der Taufe gehoben haben und 5 Jahre Entwicklungszeit veranschlagt. Bei Ryzen hat AMD dasselbe gemacht. Es wurde nur minimal Arbeit in die alten Architekturen gesetzt.

Erkläre das doch dem Kindergarten hier...die denken das Unternehmen bekommt einen neuen Ceo und schnips liegen ti Knacker auf dem Tisch. Wenn sie das nicht kapieren, wird jeder zu einem Troll.

Navi ist vorerst Pro, das weisst du sicher ganz genau, daher hört auf wieder mit hypen anzufangen.

- - - Updated - - -

was heisst wenn man nicht weiterkommt satuan? ich diskutier doch gar nicht mit dir?

hier waren nur schon paar rotverblendete vor dir da und die hatten alle ein kurzes Intermezzo nach kürzlicher Anmeldung ;)

du bist auch einer von den Experten, der Schreib- und Quotestil und das rot ritterliche Dummgeschwätz erinnert mich an einen ;)
Und dein grün ritterliches Dummgeschwätz ist besser? Was hast du dem Thema mit deinen beiden letzten Postings überhaupt beigetragen als nur die Leute mit Unterstellungen anzumachen?

Um was für einen Quotestil geht es da, du benutzt ihn doch erst gar nicht und schreibst dir freiweg von der Leber was dir in Kram passt ohne Bezug auf igrendwen und irgendwas. Wer im Glashaus sitz....
 
Zuletzt bearbeitet:
Navi wird nix dolles, der profitiert nur von seiner Fertigung. Da gibts dann halt massive 25 TFLOPs bei den natürlich zu veranschlagenden 280W. Die Probleme bleiben aber die gleichen wie bei Vega. Mehr als N10 gibts aber wahrscheinlich auch nicht. Das Lineup wäre dann auch 2019 Polaris 12-21-20, dann Vega 10 (vllt. noch in 12nm) und da drüber N10, das wars. Mehr kommt da nicht. V20 ist ja nur ein Profi-Compute-Chip für die nächsten Jahre.

Es ist aber eben sehr wahrscheinlich, dass GA102, trotz 12nm, es schafft mit Navi mitzuhalten oder den gar zu überholen. Ich fänd das jetzt nicht sonderlich überraschend.

Es ist aber eben auch so, dass man sich jetzt nicht hinstellen kann und behaupten kann, AMD hat für immer den Anschluss verloren - das ist schlicht und ergreifend Quatsch. Man kann es durchaus schaffen, dass man 2020 tatsächlich vorne ist. Da spielen so viele Faktoren mit rein, da ist absolut nicht absehbar, dass NV hier zwingend vorne sein muss.
Den wichtigesten Nachteil aus meiner Sicht löst AMD sogar grade auf, nämlich den massiven Softwaresupport. Da ist man auf einem guten Weg um mit NV gleichzuziehen. Das hat man jahrelang verschlafen und das hat aus meiner Sicht vor allem Tahiti und Hawaii den entsprechenden Erfolg massiv verhagelt. Das war ja schon gradezu peinlich, was man aus Tahiti noch bis Ende 2014 rausgeholt hat, wenn man sich den eher schwachen Start anschaut ggü. dem deutlich schwächeren GK104.
 
Zuletzt bearbeitet:
@Hot
Aber Navi kommt doch mit komplett neuer Architektur, ist doch kein neu Aufguss von Vega, oder ?
 
Den wichtigesten Nachteil aus meiner Sicht löst AMD sogar grade auf, nämlich den massiven Softwaresupport.

Dito...vor etlichen Posts habe ich das schon geschrieben.

Sie haben auch nicht den Anschluss verloren, wenn man das aus Sicht der AMD Hardwarekäufer sieht und das sind nicht nur Fanboy's.

Dieses Jahr opfert man geplante Shrinks der 14nm Arch, um mehr in 7nm investieren zu können. Die Strategie ging wie du beschriebst schon bei Zen auf. Das heißt, der Fokus liegt in diesem Jahr und zu aller Erst auf Ultrathin, Deep Learning und später auf GPGPU-Gaming. Daher hacke mal 12nm Vega ab. Das hat auch überhaupt nichts mit Nvidia zu tun - sondern eher mit Intel, was hier die wenigsten kapieren.

Für Vega 14nm ist noch einiges im Softwarebereich machbar und dort liegt auch das größte Potential brach, damit sind keine Wundertreiber gemeint.

Ist aber weit offtopic...
 
@Hot
Aber Navi kommt doch mit komplett neuer Architektur, ist doch kein neu Aufguss von Vega, oder ?

Navi -> Vega on 7nm Steroids (wahrscheinlich doppelte CUs)
2020 -> komplett neues Lineup in 7 EUV

satuan
volle Zustimmung. Wobei die Vega-Geschichten eh nur theoretisch sind, da man den Chip ja sowieso nicht sinnvoll kaufen kann. Ampere ist der einzige Lichtblick dieses Jahr, und der wird nicht zuletzt aufgrund der beschissenen Speichersituation astronomisch teuer - leider. Ich halte 900€ bein Launch des 2080 durchaus für realistisch. GP104 bleibt dann als 1070ti noch ne ganze Weile unterhalb dessen erhalten.
 
Zuletzt bearbeitet:
...volle Zustimmung. Wobei die Vega-Geschichten eh nur theoretisch sind, da man den Chip ja sowieso nicht sinnvoll kaufen kann. Ampere ist der einzige Lichtblick dieses Jahr, und der wird nicht zuletzt aufgrund der beschissenen Speichersituation astronomisch teuer - leider. Ich halte 900€ bein Launch des 2080 durchaus für realistisch. GP104 bleibt dann als 1070ti noch ne ganze Weile unterhalb dessen erhalten.
Vega spült wegen der Kryptoblase Geld in die Kasse, das man direkt in 7nm investiert (damit haben sie vermutlich selbst nicht gerechnet), es ist besser als zu warten was passiert. Das ist schon richtig so.

Pascalv2 wird sicher im Bereich 2060/8GB zu finden sein, letztlich sind das doch alles noch Fermis, egal was Nvidia behauptet. Man kann aber sagen Nvidia hat aus dem ersten Dilemma massiv gelernt und herausragende Optimierungsarbeit geleistet.

Wenn die 2080 die 1080ti erreicht, dann mach dich mal auf was gefasst...mit "Preise für euch" ist's dann bei Nvidia vorbei, der Prozess ist teuer, VRAM ist teuer und die gesamte Yield...Mist. Die hamstern ja schon seit letztem Jahr.
 
Man kann aber sagen Nvidia hat aus dem ersten Dilemma massiv gelernt und herausragende Optimierungsarbeit geleistet.

Ich glaube nicht dass das das Resultat daraus war dass sie gemerkt haben dass schlechte Effizienz nichts am markt verloren hat. Das weiß man schon vor dem Verkaufsstart. Sie haben es nur in letzter Zeit hinbekommen erheblich besser als AMD zu sein. Aber nicht weil sie aus den vorherigen "Pleiten" gelernt haben.

Einfach weil sie es aktuell können bzw. AMD es nicht kann.
 
Ich glaube nicht dass das das Resultat daraus war dass sie gemerkt haben dass schlechte Effizienz nichts am markt verloren hat. Das weiß man schon vor dem Verkaufsstart. Sie haben es nur in letzter Zeit hinbekommen erheblich besser als AMD zu sein. Aber nicht weil sie aus den vorherigen "Pleiten" gelernt haben.

Einfach weil sie es aktuell können bzw. AMD es nicht kann.
Ich würde da mehr differenzieren, man muss nicht alles gleich als Pleite ansehen. Vermutlich lernt man doch, was die Kundschaft letztlich will. Es ist ja nicht so, dass Effizienz nicht auch kostet. Mehr Takt kostet mehr Transistoren um Schaltungen und Leistungswege innerhalb des Design zu schaffen. Es braucht auch Waferfläche (gerade bei Hochtakt). Irgendwo wird man alles bezahlen müssen, umsonst bekommt man das nicht.

Pleite ist für mich immer so endgültiger Begriff, als wäre etwas ein Fehlschlag. Letztlich ist es nur eine Evolutionsstufe in der Entwicklung aus der man die gesammelten Erfahrungen mitnehmen kann. Lies mal was HOT schreibt, ein Designprozess beginnt weit vor dem Launch der Hardware.
 
Auf GCN1 (was man auch AMD zuschreiben kann) läuft es bis auf Freesync tadellos. Was ja die Ausgangsbase zu dem "Stuss" war.
Frage war wie es mit FL12 bei HD5000/6000 aussieht. Dass du das nicht beantworten willst, beantwortet die Frage automatisch.
Ausgangsbasis zu dem "Stuss" war der angeblich so miese Nvidia-Support.

Pascalv2 wird sicher im Bereich 2060/8GB zu finden sein, letztlich sind das doch alles noch Fermis, egal was Nvidia behauptet. Man kann aber sagen Nvidia hat aus dem ersten Dilemma massiv gelernt und herausragende Optimierungsarbeit geleistet.
Und Vega ist in Wirklichkeit doch eine Rage. :banana:

ich seh grad satuan Mitglied seit 11.1.

das riecht doch nach schaffe oder dem anderen Heinzelmännchen da
Stimmt, jetzt fällt es mir auch auf. Frisch angemeldet mit vielen Beiträgen.
 
Zuletzt bearbeitet:
FL? Gehts dir noch gut? Schau die dir mal an :wall:. Terascale 2 hat FL11_0, genau wie Fermi und Kepler. Es gibt nur kein Resource-Binding, weshalb Terascale 2 nicht LL-fähig ist. Aber hey, Fermi bei LL ist genauso quatsch. Ist ja nett dass das geht, aber es bleibt unsinnig.
 
Was ist mit FL nochmal gemeint, welche Grafikkarten DirectX 12.0 und 12.1 in Hardware beherrschen?
 
Featurelevel
 
FL? Gehts dir noch gut?
Fermi unterstützt kein LL abseits von GW. Wenn hier ... überhaupt wüssten wovon sie reden.:asthanos:
Ich war mit Absicht nicht weiter als Vulkansupport zurückgegangen und GCN unterstützt es nun mal. VLIW nicht, Fermi nicht (und Nvidia teilte anderes mit, mit Veröffentlichung machten sie einen Rückzieher).

Der Stuss begann zu behaupten von AMD kämen nur Refresh's...von Leuten die sich hier als Messias und neuerdings als Moderation/Administration aufspielen. Wobei sie den Verantwortlichen nicht mal zutrauen, an einem Logfile zu erkennen wer hier postet. Traurig...

Soll ich noch weiter zurückgehen und all die Gurken aufzählen die Nvidia sich geleistet hat? Man maßt sich halt an andere Firmen dafür kritisieren zu dürfen nur eben diese nicht.

AMD hatte auf die direkte Entwicklung von VLIW keinen Einfluss, sie haben diese von ATI übernommen. Bei Nvidia sieht das ganz anders aus.

Maxwell ist 12.1 nur optional, Nvidia selbst geht nur von 12.0 aus. Weil er vieles nur über einen Softwarestack ausführen konnte, kam auch Pascal mit erweitertem Support in Hardware. Das lag daran das Microsoft sich nicht auskäste, was jetzt in den Support gehörte und Compiler/Assembler viel Arbeit bedeuten.

Klar zu erkennen ist Fermi-Fermi-Maxwell-Maxwell-Pascal und Volta sollte wieder was neues werden, KI Architektur genannt. Ich vermute mal die war für Gamer nie geplant.
 
Zuletzt bearbeitet:
Maxwell ist ursprünglich 11_0 gewesen. Man hat die Architektur aufgebohrt für DX12-Support, was in Maxwell 2 mündete. Es gab einige Aussagen von Entwickler zum Thema LL und Maxwell, die schrieben, was das fürn Horror ist, LL auf Maxwell zu optimieren mit async-Compute. Das hat NV ja bis heute nicht freigegeben. Der Treiber faked das einfach und führt das einfach seriell aus.
 
Zuletzt bearbeitet:
Maxwell ist ursprünglich 11_0 gewesen. Man hat die Architektur aufgebohrt für DX12-Support, was in Maxwell 2 mündete. Es gab einige Aussagen von Entwickler zum Thema LL und Maxwell, die schrieben, was das fürn Horror ist, LL auf Maxwell zu optimieren mit async-Compute. Das hat NV ja bis heute nicht freigegeben. Der Treiber faked das einfach und führt das einfach seriell aus.
Ja, aber egal, wie du hier liest. Der Support ist bestens.

Pascal setzt dabei zwar auf verbesserte FP64 Performance aber DX12 async wird immer noch massiv über den Treiber optimiert. Genau deshalb kacken die Karten unter Vulkan ab, da gibt es keine Optimierung auf Nvidia. Nvidia favorisieren dann immer noch ihren Gameworkscode und Entwicklerfreundlichkeit (aber die bauen ja die besten GPUs seither).

Eigene Aussage von denen...

Wenn's interessiert ich habe eine 570 hier liegen, nur soviel...zu den roten Teufeln und so.:rolleyes:
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh