NVIDIA-GPU mit 7.552 CUDA-Cores zeigt sich

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Aktuell sehe ich die Situation so. Ja, ich bin davon absolut überzeugt, dass dies eine objektive Betrachtung ist.
Stand heute hat AMD sehr gut aufgeholt. AMD hat in der Mittelklasse geliefert, mehr hat man nicht versprochen. Nvidia hat im Leistungsbereich der Mittelklasse keine Überlegenheit mehr.
Es wird spannend. Wie stark kann AMD in die Oberklasse einsteigen um auch dort mit Nvidia mitspielen zu können. Wir Tastaturhelden sehen natürlich mehr Vorteile bei Nvidia als bei AMD. Der größte Vorteil liegt augenscheinlich in der 7nm Fertigung. Während AMD jetzt schon bei 7nm ist, trotzdem bei der Leistungsaufnahme etwas, aber nicht entscheidend zurück liegt, geht es bei Nvidia mit der 3000 Serie erst los. Da sehe ich das stärkste Argument pro Nvidia. Beide bringen eine neue Architektur. AMD muss also deutlich mehr bringen um auch in der Oberklasse in Konkurrenz zu Nvidia gehen zu können.

Du widersprichst dir halt einfach mal komplett selbst. Wie kann man ernsthaft von "aufgeholt" sprechen, wenn der eine sein Pulver schon fast verschossen hat und im Resultat dabei nur raus kam, dass man etwas liefert, was der Andere schon lange hat - aber der Schritt bei diesem Anderen noch komplett aussteht?
Deine Aussage hatte vor etwas über einem halben Jahr absolut keine Gültigkeit - da waren beide auf einem Vergleichbaren Herstellungsprozess unterwegs - und wird wohl nach dem Release der 7nm irgendwas Produkte auch keine Gültigkeit mehr haben, zumindest wie es aktuell ausschaut.

Objektiv ist bei solcher Rosinenpickerei btw. nicht wirklich viel ;)
Noch dazu ist das wertend - anstatt objektiv. Wieso meinst du zu entscheiden, ob die Leistungsaufnahme trotz neuem Prozess mit entsprechendem Vorteil nicht "entscheidend" zurück liegt? Objektiv betrachtet wäre die Leistungsaufnahme zu nennen, aber nicht zu werten ob das entscheidend viel oder wenig ist. Denn andersherum gesehen ist es eben entscheidend zu viel Rückstand um ausgehend von einer 5700XT bspw. in doppelter Form für den BigN an einer 2080TI Nachfolger 3000er 7nm irgendwas Karte vorbei zu kommen. Es sei denn, die Jungs aus der Lederjacken Fraktion bleiben auf ein und dem selben Effizienzniveau und pulvern alles an 7nm irgendwas Vorteil rein in die Performane. Muss jeder selbst für sich entscheiden, ob das wahrscheinlich ist oder nicht. MMn ist es das nicht, weil es dazu absolut keinen Grund gibt, eher im Gegenteil. In der aktuellen Position kann eine NV sich klar den Sweetspot picken und die Effizienz hoch ziehen. Aber das ist nur meine völlig unbedeutende Meinung dazu - und hat keinerlei Anspruch auf jegliche Objektivität ;)
 
Wie kann man ernsthaft von "aufgeholt" sprechen, wenn der eine sein Pulver schon fast verschossen hat und im Resultat dabei nur raus kam, dass man etwas liefert, was der Andere schon lange hat - aber der Schritt bei diesem Anderen noch komplett aussteht?
Weil das die Wortbedeutung von "aufholen" ist?
Damit geht ja keine Wertung einher, daß der Zustand dauerhaft ist und der bis dato vorne liegende nicht wieder davonziehen kann. "Aufgeholt" ist eine Momentaufnahme, während Du eine Projektion in die Zukunft machst.
 
Weil das die Wortbedeutung von "aufholen" ist?
Damit geht ja keine Wertung einher, daß der Zustand dauerhaft ist und der bis dato vorne liegende nicht wieder davonziehen kann. "Aufgeholt" ist eine Momentaufnahme, während Du eine Projektion in die Zukunft machst.

Das mag verbal so richtig sein, aber wenn diese Momentaufnahme zufällig in der Zeit passiert, wo der eine den Schritt schon gemacht hat, der andere aber nicht, dann verzerrt es die Aussage einfach mal unnötig. Dass der Releasezeitpunkt nicht (mehr) gleich ist, ist seit Jahren und Generationen so. Aber eben darum müsste man nüchtern betrachtet einfach die zusammen gehörigen Paarungen vergleichen anstatt sich zeitlich die argumentativ passende Rosine zu picken. Hier geht es schließlich um eine mehr oder weniger technische Betrachtung - nicht um irgendwelches subjektives Empfinden. Technisch gesehen hat AMD nicht aufgeholt. Sie haben trotz des Fertigungsvorteils den Rückstand nicht egalisiert geschweige denn negiert. Aufholen wäre, wie bspw. aus der Vergangenheit bekannt, eine Cypress GPU aka HD5870, die den Vorgänger dank neuem Prozess, höherer Leistung und gesteigerter Effizienz hinter sich lässt und dazu noch im Rahmen der Möglichkeiten mehr Leistung bietet. Das was Navi leistet ist eigentlich das, was man nüchtern gesehen von AMD hätte erwarten können für ihre 16nm Produkte. Denn wenn NV das schafft, sollte AMD dazu auch in der Lage sein. Und eben nicht erst 2-3 Jahre später und eine Prozessgeneration neuer notwendig haben!? Oder etwa doch?

Das ganze ist argumentativ genau so unnötig wie bspw. jetzt hier und heute zu behaupten, Intel hätte lange schon wieder Zen2 überholt, weil es im Mobile Sunny Cove als Architektur gibt ohne jeglich relevanten Relationen dabei zu beachten. Ob und wann Intel aufholt/überholt, kann man für den Desktop Markt betrachtet sehen, wenn Zen3/4 am Start ist und Intel Sunny Cove/Willow Cove im Desktop in der Lage ist zu bringen. Ob AMD hier also aufgeholt hat, sieht man, wenn NV ihr 7nm irgendwas Produkt ggü. RDNA/RDNA2 based GPUs auf vergleichbarem Prozess stellt. (meine Meinung dazu)

Nea, was früher die 8800Ulta war, ist heute eher die Titan RTX, und die kostet nicht 1050€ sondern 2800€. So gesehen hat undervolter schon recht. Nvidia nutzt halt sein Monopol, egal wie die Preise sind, die Leute kaufen ja scheinbar trotzdem. Intel hat es Jahre lang genauso gemacht. Aber kann jeder sehen wie er mag. :)
Naja, sooo richtig kann man das aber nicht vergleichen. Es gab seinerzeit kein Gegenstück zu einer Titan - es gab auch überhaupt keinen Markt für diese Art Sonderprodukt. Die Titanen sind/waren auch nie "Gamerprodukte" - sie wurden zwar teilweise als schnellstes Produkt dafür instrumentalisiert, aber der Kernpunkt hinter so einem Produkt war doch schon immer der Zwitter zwischen Profimarkt-GPU und Gamerbereich -> eben der Mischmasch dazwischen. Mal was näher an der einen, mal was näher an der anderen Seite dran.

Die Titan ist seit Anfang an irgend ne Sonderlocke zu hohen Aufpreisen. Eine 8800 Ultra ist das nicht. Das ist ne 0815 Standard Hardware wie jede 8800 GTX aus. Genau genommen hat NV wahrscheinlich einfach nur gesunden "Respekt" vor AMD gehabt seinerzeit. Denn mit der 8800 Ultra lieferte man eine neue Chip Revision der G80 GPU zeitlich im gleichen Fenster wie R600 das Licht der Welt erblickte. In der Gerüchte Küche brodelte es seinerzeit schon gewaltig und es war relativ lange vorher klar, dass da ein komplett anderer Design Ansatz kam bei AMD. Mit 512 GFlop/s war die R600 GPU aber (auf dem Papier) deutlich stärker als die (real praktisch) nur 345 GFlop/s schnelle G80 GPU der 8800 GTX. G80 konnte zwar MADD+MUL, aber das MUL war nicht wirklich nutzbar. R600 lieferte diese Leistung hingegen schon, vor allem abseits Gaming im Compute Bereich. VLIW5 hatte aber eben Nachteile im Gaming. So gab es häufig Auslastungsprobleme. Das besserte sich mit der Zeit etwas, aber ließ AMD mit Cayman von VLIW5 auf VLIW4 zurück und mit GCN sogar "komplett" Umdenken. Das zusätzliche MUL, was praktisch nicht relevant war bei NV strich man mit G200? Oder Fermi? ebenso.

Bei den Titan Modellen hingegen zählen doch andere Maßstäbe. Aktuell gibt es zwei "Linien" Titan Modelle. Die auf Basis der "Gamermarkt" Chips und die auf Basis der "Profimarkt" Chips. Titan (classic), TitanBE, TitanZ und TitanV sind Modelle auf Basis des Profimarkt Chips - Kepler GK110 wurde seinerzeit allerdings noch ebenso auf der Geforce 780er Reihe (abgespeckt) genutzt. Die TitanX'en mit GM200 und GP102 GPUs und die TitanRTX hingegen sind die Gamer-Ableger mit anderer Ausrichtung.

Die GPU, die man hier wohl "sieht" in der Meldung ist wohl klar ein Profimarkt Produkt. Es schaut nach dem GA100 aka GV100 Nachfolger aus. Es könnte also genau das Ding sein, was NV auf der Veranstaltung im März zeigen wird. Auf irgend einen Gamer-Ableger daraus zu schließen dürfte fast unmöglich werden. Das was realistisch aus diesen Daten mitnehmbar ist, dürfte A) die Packdichte des Prozesses werden, B) man kann Effizienzrechnungen anstellen und C) man wird in etwa grob ermitteln können, wie hoch ein möglicher Leistungsansteig der ALU Performance für den Gamerbereich ausfallen könnte. Die Leistungsaufnahme sollte maximal bei 250-300W liegen - mit der Effizienz des GA100 kann man grob errechnen, wo der Gamer TopDog ca. landen wird.
 
Zuletzt bearbeitet:
DU wertest hier selbst nach Deinen eigenen verdrehten Maßstäben. Ja, AMD stand nach Release von Turing eine ganze Zeit doof da und hat zu lange gebracht, um aufzuholen. Ja, es ist nicht unwahrscheinlich, das NV mit Ampere wieder deutlich vorbeizieht.
Aber wann wird Ampere in dieser Preisklasse erwartet? Im Spätsommer? Noch später? Dann ist die aktuelle Konstellation mit NVs Super-Modellen vs Navi schon etwa ein Jahr auf dem Markt. Das ist in dem Geschäft nun auch kein kleiner Zeitraum, wenn innerhalb eines Jahres auch nicht mehr so viel passiert wie früher.

Versteh mich nicht falsch, ich sehe leider auch, dass NV insgesamt besser aufgestellt ist und nun regelmäßig längere Phasen hat und wohl auch wieder haben wird, in denen man AMD ins Abseits drängt und AMD zu lange zum Gleichziehen braucht. Aber man muss auch objektiv anerkennen, dass AMD über längere Zeiträume in einigen Preisbereichen konkurrenzfähige oder bessere Produkte liefert. Bei Dir klingt es, als wäre AMD generell so minderwertig, dass nur Fanboys kaufen.
 
DU wertest hier selbst nach Deinen eigenen verdrehten Maßstäben.
Natürlich!? Wieso auch nicht? Ich stell mich aber nicht hin und behaupte, das das objektiv ist - sondern habe doch klar und deutlich erwähnt, dass das eine Meinung dazu ist? Soll mich das jetzt also wirklich angreifen?
Jungs und Mädels, das ist schon arg komisch was hier immer abgeht. Lasst doch einfach mal Meinungen Meinungen sein und spekuliert gesund über das Thema. Kann ich nicht verstehen wieso ihr euch immer angepisst fühlt...


"Aber man muss auch objektiv anerkennen, dass AMD über längere Zeiträume in einigen Preisbereichen konkurrenzfähige oder bessere Produkte liefert. Bei Dir klingt es, als wäre AMD generell so minderwertig, dass nur Fanboys kaufen."
Das ist aber bestenfalls deine Interpretation - du findest von mir alle Nase lang Argumente, gerade in Bezug auf Navi, die komplett vom Gegenteil sprechen. Seit doch nicht immer so sentimental. Technisch gesehen ist Navi gut, praktisch gesehen auch. Im direkten Vergleich hinkt das aber eben hinterher, weil etwas, was Jahre jünger, eine komplette Fertigungsgeneration neuer und am Ende noch "nur gleichwertig" ist, eben im technischen Vergleich klar den kürzeren zieht. Ich weiß nicht, was es da zu beschönigen gibt - das macht doch das Endprodukt nicht schlecht(er)? Oder wertet dieses ab?

Nüchtern betrachtet setzt so ein Vergleich lediglich die Basis, wohin die Reise gehen kann. Ein doppelter Navi 10 mit Verbesserungen in der Architektur kann sicher eine TU102 GPU um 20-30% schlagen. Aber es braucht halt dann schon irgendwo auch noch etwas, was die Energieaufnahme eingrenzt. Bekanntermaßen skaliert sowas üblich fast 1:1, wenn der Takt nicht drastisch anders ausfällt. Also doppelter Chip = annähernd doppelte Leistungsaufnahme bei ähnlichem Takt. Macht also 400W grob.
Vom GA100 darf man getroßt weniger als 400W erwarten oder deutlich mehr als nur 30% mehr Leistung als der Vorgänger GV100. Das dort angelegte Effizienzniveau zieht sich bis in die kleinen Bereiche durch.
 
Im direkten Vergleich hinkt das aber eben hinterher, weil etwas, was Jahre jünger, eine komplette Fertigungsgeneration neuer und am Ende noch "nur gleichwertig" ist, eben im technischen Vergleich klar den kürzeren zieht. Ich weiß nicht, was es da zu beschönigen gibt - das macht doch das Endprodukt nicht schlecht(er)? Oder wertet dieses ab?

Ich weiss ehrlich garnicht mehr, wovon Du nun konkret redest. Vergleichst Du Navi mit Turing generell oder die erhältlichen Produkte? Deine Aussagen sind insich widersprüchlich. Ist Navi bzw. sind die Navi-Karten nun "gleichwertig" oder ziehen sie "klar den kürzeren"?

Ich kann Dir die Antwort aber sagen: Jetzt aktuell und schon seit Spätsommer 2019 und wahrscheinlich auch noch bis diesen (Spät)Sommer sind 5700 und 5700XT gute Produkte, die aufgrund der Preisgestaltung den NV-Pendants vorzuziehen sind. Will man was schnelleres als die 5700XT, muss man bei NV deutlich mehr ausgeben.
Ob Turing schon länger am Markt ist und NV lange recht konkurrenzslos war, interessiert für diese Betrachtung nicht, nur für AMDs generelle finanzielle Lage vielleicht. Es ist auch nicht so, als wären die schon länger erhältlichen Turings in diesem Bereich besser gewesen - die 2060 ohne Super war ja wohl deutlich schlechter und kein gutes Produkt, die 2070 ohne Super war vor Navi etwa so teuer wie jetzt die 2070S, also gab es in diesem Bereich einfach kaum was.

Das hat auch nichts mit Meinung zu tun, die Navis sind objektiv schneller als ähnlich teure, aktuell erhältliche NV-Produkte (5700 vs. 2060, 5700XT vs 2060S/2070), es braucht die 2070S, um für deutlich mehr Geld schneller zu sein.
Nur wenn man jetzt Features wie RTX höher hängt oder sich sehr am imho völlig überbewerteten Energieverbrauch aufgeilt, kann man diese objektiven Tatsachen subjektiv zungunsten von NV zurechtrücken.

Und das sage ich, obwohl ich lieber eine 2070 hätte, weil ich sie für das rundere Produkt halte, aber eben nicht zu dem Preis.
 
Ja kann man echt den eindruck bekommen.Aber wie auch immer.Da ja langsam AMD wirtschaftlich aufwärts geht,wird langfristig auch bei AMD mehr in der Entwicklung der GPU und auch bei der Software gesteckt.Also langfristig könnte AMD durchaus noch ne Chance bekommen.Im moment sieht es halt fragwürdig aus.Niemand wird für immer den Abstand halten können.Also Zeit wird AMD ja schon haben.Schließlich kontrolliert AMD ja die Konsolen.DIe meisten werden sich mit Raytracing eben nicht beschäftigen.
Ich habe vorhin Quake 2 Raytracing gesehen.Sah echt gut aus,aber 24 fps sind alles andere als super.Da stand nur Window ,denke mal aber das es bei 720p erst so flüssig lief.Das dauert also noch sehr lange bis Raytracing auf 1080p wirklich flüssig läuft.
Da wird auch die Leistungssteigerung bei Nvidia nichts nützen.Und wie man auf dem Quake 2 Videos sieht,ist 4k noch immer ne Qual,einmal mehr was ich eben nicht verstehen kann wer sich sowas freiwillig wirklich antuen will.
Nun ja wie es weiter geht werden wir alle schon noch sehen.
 
Ich lese hier wieder nur AMD ,AMD ,Navi,Navi was zur Hölle hat das mit der News zu tun ...hier scheint es um den neulich erwähnten Chip von ca 830mm2 zu gehen .
 
Weil hier immer relativ betrachtet wird. So ein GPU-Produkt wird - genauso wie bei den CPUs - nicht in absoluten Leistungsdaten bewertet, sondern hinsichtlich der Leistung im Vergleich zu anderen Produkten. Würden wir nur absolute Sichtweisen haben, wäre die Bewertungsgrundlage sowas wie:
- Ich muss Projekt A mit dieser GPU innerhalb von x-Zeit berechnen. Wenn sie das kann, grüner Daumen
oder
- Ich spiele auf einem Monitor mit der Auflösung x und der Refreshrate y. Wenn die GPU das beides schafft, grüner Daumen

So wird hier aber nicht diskutiert, obwohl es in vielen Fällen sinnvoller wäre. ¯\_(ツ)_/¯
 
Ich weiss ehrlich garnicht mehr, wovon Du nun konkret redest. Vergleichst Du Navi mit Turing generell oder die erhältlichen Produkte? Deine Aussagen sind insich widersprüchlich. Ist Navi bzw. sind die Navi-Karten nun "gleichwertig" oder ziehen sie "klar den kürzeren"?
Das was du im Laden kaufen kannst, ist mehr oder weniger Gleichwertig ggü. dem, was du von NV im Laden kaufen kannst - das wäre ein Vergleich konkreter Umsetzungen. Hier spielt der Preis vllt noch eine Rolle, genau so wie Features, Treiber, blabla.
In einem technischen Vergleich interessiert das aber nur nebenbei. Technisch ist Navi eine Stufe neuer, weil der Prozess mit 7nm gut 2-3 Jahre neuer ist als der 16/12nm Prozess von Pascal oder Turing.

Wie oben schon angedeutet, man vergleicht doch auch nicht nen Ice Lake Mobile Intel und kritisiert Zen2 für die geringere pro Takt Performance bzw. lobpreist die Technik dahinter, wenn das Ding nicht im Desktop zu kaufen geht? Genau so wenig bringt es mir die Rosine navi oder irgend ne fiktive RDNA2 Umsetzung zu picken wenn man von der Performance her da einfach mal klar hinterher hinkt real praktisch. Hier muss also unterschieden werden ob es eine technische Diskussion wird - dann zählt die Umsetzung nicht - oder eine Diskussion über die Umsetzung, dann zählt die Technik zwar schon, aber in anderer Gewichtung.
Der hier gesichtete Eintrag der wohl HPC GV100 Nachfolge GPU ist um Faktor 2, wenn nicht sogar mehr, schneller bei der reinen ALU Rohleistung als jede aktuell erhältliche Navi GPU. Aufgeholt sehe ich da nicht - die Lücke würd leider immer größer. Wir waren zu Zeiten von R600 vs. G80 trotz zeitlichem Versatz mal bei ~20-30% realem Leistungsunterschied. Mit Tahiti vs. GK104 war der Unterschied je nach Spiel viel geringer, mit Hawaii vs. GK110 auch. Maxwell vs. Fiji war fast gleich und seit Pascal über Volta und Turing bis zum kommenden Ampere fällt die Lücke augenscheinlich wieder größer aus.

Ich kann Dir die Antwort aber sagen: Jetzt aktuell und schon seit Spätsommer 2019 und wahrscheinlich auch noch bis diesen (Spät)Sommer sind 5700 und 5700XT gute Produkte, die aufgrund der Preisgestaltung den NV-Pendants vorzuziehen sind. Will man was schnelleres als die 5700XT, muss man bei NV deutlich mehr ausgeben.
Das zweifelt auch Keiner an... Was versuchst du mir da bitte jetzt einzureden?
Hier gehts in der News um eine 7xxx ALU breite unbekannte GPU in nem Geekbench. Was bitte möchte mir jetzt hier eine seit 09/2019 verfügbare Navi GPU mit nem deiner Meinung nach besseren P/L als ein 2070(S) sagen? Ich kritisiere Aussagen zu angeblichem "Aufholen", wenn die Lücke immer breiter und breiter wird. Und genau danach sieht es aktuell aus. Selbst WENN man BigN als doppelten Navi 10 sieht, also 5120 ALUs mit perfekter Skalierung -> hier stehen mal schlapp 50% mehr auf der Uhr...

Und nein, den Schuh, dass Navi angeblich schlecht wäre, den ziehe ich mir bestimmt nicht an. Habe ich nie gesagt, werde ich auch nie sagen...
 
Och wir hatten einen so tollen thread leute. Sonne, kannst du nicht ins hifi forum gehen und dort deine romane ausberteilen.
 
Warum sollte er ?
Ihm steht es genauso zu sich hier zu äußern wie jedem anderem auch !
 
Der hier gesichtete Eintrag der wohl HPC GV100 Nachfolge GPU ist um Faktor 2, wenn nicht sogar mehr, schneller bei der reinen ALU Rohleistung als jede aktuell erhältliche Navi GPU.
Richtig, aber der Vergleich hinkt eh da wir hier Rechenzentren-GPUs vergleichen. Das Monster da oben muss sich gegen Arcturus vergleichen und nicht gegen big Navi. Die Vega-Architektur wurde in der Zwischenzeit für compute-optimiert und hat im Desktop-Bereich nahezu nix mehr verloren (abseits der APUs), weil Vega bei Spielen halt wenig mit der Chipfläche skaliert. (Weshalb es bei kleinen Chips noch ne Existenzberechtigung für Vega gibt)

Navi ist hingegen eine µArchitektur die sehr wohl mit Chipfläche skaliert und wie die sich gegen einen (weiterhin unbekannten) Gaming-Chip von Nvidia schlägt bliebt abzuwarten. Meine Glaskugel hab ich dazu ja bereits abgeliefert und die ist schon über mehrere Füße gerollt.
 
Die bremse seien wir mal ehrlich ist bei AMD eben halt die Software,da kann die GPU noch so gut von der Hardware sein.Solange AMD da nicht mehr Software entwickler einstellt wird das nix.Klar kann man durch immer mehr shader auch etwa mehr Leistung herausquetschen,aber eben halt nicht alles.Um Nvidia also langfristig hinter her zu kommen,kommt AMD wohl nicht drum rum,bei der Software weiter zu Optimieren.Ich habe zufällig gelesen ,man Munkelt bei den 3080 was von 4300 Shader gelesen zu haben,könnten aber auch nur 3700 sein.Dann wäre das aber echt wenig mehrleistung.Dann wird es ja entäuschend sein.
 
Für WQHD reicht eine 2060/70 lange noch aus, so what...., par mehr fps in ultra vielleicht
 
Richtig, aber der Vergleich hinkt eh da wir hier Rechenzentren-GPUs vergleichen. Das Monster da oben muss sich gegen Arcturus vergleichen und nicht gegen big Navi. Die Vega-Architektur wurde in der Zwischenzeit für compute-optimiert und hat im Desktop-Bereich nahezu nix mehr verloren (abseits der APUs), weil Vega bei Spielen halt wenig mit der Chipfläche skaliert. (Weshalb es bei kleinen Chips noch ne Existenzberechtigung für Vega gibt)

Na da wird doch aber eben auch schon viel eher ein Schuh draus ;)

Allerdings sehe ich dann eben im Moment auch keinen Grund von "aufgeholt" zu sprechen, wenn es eben die spekulierte Vega-Compute GPU in der Form nicht gibt. Vega20 als bisherigen Compute Ableger und mehr oder weniger Shrink + Anpassungen von Vega10 hat ggü. GV100 nicht wirklich aufgeholt, womit meiner Ansicht nach die Aussage nach wie vor nicht stimmt. Ggü. GP100 schaut es allerdings schon besser aus, primär aber eben weil die Fertigung um diesen riesigen Schritt neuer ist und damit die Nachteile kompensiert werden.

Das Ding hier wird allerdings, nehmen wir mal fiktive 1,5GHz ALU Takt bei 7552 ALUs, ungefähr 22,5 TFLop/s erreichen. Volta GV100 taktet mit 250W? auf dem PCIe Tesla Modell und erreicht zumindest höheren Takt und um die 14 TFlop/s. Ich denke, das GA100 nicht sooo viel höher takten wird, wir werden bestimmt keine 2GHz oder so sehen, aber was in die Region real 1,5GHz im Boost halte ich für realistisch.
Das wären spekuliert ungefähr um die 50% reale Mehrleistung durch den ALU Ausbau.


Für/bei Arcturus wurde meine ich auf 96-128 CUs spekuliert. Schafft eine AMD damit den gleichen Takt von 1,5GHz, wären sie schneller (bei 128 CUs). Die Vega20 GPU mit 7nm auf der MI60 ist bei 300W eingestuft und stellt 4096 ALUs auf die Waage. ICH frage mich dann allerdings, wo soll die Effizienzsteigerung von annähernd Faktor 2 her kommen? Durch 7nm EUV ggü. bisher nicht bekommt man das wohl nicht hin.

EDIT: Leistungsangaben für FP32, nur der Vollständigkeit halber erwähnt...
 
lustig wie direkt wieder die rote Fraktion kommt :d

aber AMD is doch, kann doch und sowieso

Leute, AMD hat mit KEINER Gen nvidia das Wasser reichen können, nicht im Preis, nicht mit der TDP, nicht mit FPS, nicht mit Features und noch nicht einmal mit technologischem Vorsprung und zum vielzitierten P/L Verhältnis zählt nicht nicht nur der Preis, sondern auch die Leistung ;)

AMD Karten sind gut, aber eben nur 2. Liga.


OT: kommt mit 6144 Cores für Gamer - stfu and take my Money, wird ja auch Zeit!
 
Ich denke nicht, dass Arcturus die Taktraten der MI60 egalisieren wird, sondern etwas drunter näher dem Sweet-Spot landen wird. Wobei ich nicht abschätzen kann, in wie weit der Sweet-Spot sich nach oben geschoben hat durch die bessere Parametrisierung. Am Ende liegen die Taktmäßig wieder nahe beieinander.

Die Effizienzsteigerung von Faktor 2 kann ich dir aber auch bei undervolting auf meiner Vega 64 zeigen. Spannung runter auf 900mV und auf einmal säuft sie nur noch die Hälfte für einen erstaunlich geringen Abschlag an Frequenz. Ich denke mit der Kombination aus Fertigung + Sweet-Spot ist das möglich.
 
Ja genau.Selbst wenn diese Schiere ANzahl an Shader wirklich im Komsumer kommen sollte,dann wird der Takt bestimmt bei 1,2 Ghz höchstens sein.Diese 1 ghz sind auch noch relistisch,aber dann sinkt ja die mögliche Leistungssteigerung,weil der Takt ja dann geringer ist.Also dann ist es dank dem Takt auf einmal nicht mehr so der Stauner.Und wenn das ja stimmt mit je weiter runter die Fertigung ,desto weniger weit kann man die Kerne hochtakten.Wird dies ja auch bei den GPUs genauso ergehen.Also gewöhnen wir uns schon mal an den niedrigeren Takt,denn das wird dann wohl zum standard werden.
 
Nach dieser Nachricht werden wir wohl noch länger auf neue gesicherte Nachrichten warten müssen, was neue Spiele und die Vorstellung von vielleicht neuen GPUs betrifft.

Hier die Offizielle Nachricht:

https://www.gdconf.com

Zitat:

„Nach enger Beratung mit unseren Partnern in der Spieleentwicklungsbranche und der Community auf der ganzen Welt haben wir die schwierige Entscheidung getroffen, die Spieleentwickler-Konferenz im März dieses Jahres zu verschieben.

Nachdem wir das letzte Jahr damit verbracht haben, uns mit unseren Beiräten, Rednern, Ausstellern und Veranstaltungspartnern auf die Messe vorzubereiten, sind wir wirklich verärgert und enttäuscht, dass wir Sie zu diesem Zeitpunkt nicht empfangen können.

Wir möchten uns bei allen unseren Kunden und Partnern für ihre Unterstützung, die offenen Diskussionen und die Ermutigung bedanken. Wie uns alle daran erinnern, geschehen große Dinge, wenn die Gemeinschaft auf der GDC zusammenkommt und sich verbindet. Aus diesem Grund haben wir die feste Absicht, im Laufe des Sommers eine GDC-Veranstaltung auszurichten. Wir werden mit unseren Partnern an den Details arbeiten und in den kommenden Wochen weitere Informationen über unsere Pläne austauschen.“

Übersetzt mit www.DeepL.com/Translator (kostenlose Version)
 
Das willte ich damit nicht sagen. Aber bei ihm verzweigen und verlängern sichvargumente ins unendliche.

Ja entschuldige, kann ich was für dass mit einfach nur in den Raum geplärrten zusammenhangslosen Sätzen kein Bezug zu irgendwas darstellbar ist? Wenn einem die Komplexität zu hoch ist, steht es einem doch frei den Beitrag zu ignorieren? Einfach komische Leute hier...

Die Effizienzsteigerung von Faktor 2 kann ich dir aber auch bei undervolting auf meiner Vega 64 zeigen. Spannung runter auf 900mV und auf einmal säuft sie nur noch die Hälfte für einen erstaunlich geringen Abschlag an Frequenz. Ich denke mit der Kombination aus Fertigung + Sweet-Spot ist das möglich.

Ja, aber das geht im gleichen Maßstab bei der Konkurrenz ebenso. Also hast du damit nix erreicht. Auch bezweifle ich nach wie vor, dass dieses gern gebrachte Argument des UV praktisch eine Relevanz hat. Die Anforderung an die Stabilität, gerade im Bereich HPC sind komplett andere als bei einer hand UV'ten Gamer Karte im privat Umfeld. Dich wird es nicht jucken wenn da mal was abschmiert, wenn du mal nen Bildfehler hast oder irgendwo irgendwas einfach nicht tut (ich weiß - kommt bei dir nicht vor, schon klar). Aber bei einem Produkt von der Stange ist sowas nunmal nicht der Maßstab. ;)

Ja genau.Selbst wenn diese Schiere ANzahl an Shader wirklich im Komsumer kommen sollte,dann wird der Takt bestimmt bei 1,2 Ghz höchstens sein.Diese 1 ghz sind auch noch relistisch,aber dann sinkt ja die mögliche Leistungssteigerung,weil der Takt ja dann geringer ist.
Dir Frage ist eher, wie relevant sind die Taktangaben dort?
Die kleinere GPU müsste, sofern sie nicht durch irgend eine technische Drossel daran gehindert wird, eigentlich höher takten als die Größere. Ist hier aber nicht der Fall. Am Ende muss man sehen, wie realistisch solche Taktangaben überhaupt sind.
GV100 mit 5120 ALUs taktet lange nicht so hoch wie eine GP102 oder TU102 GPU, das stimmt wohl, gemessen an Turing Stock im Ref. Layout hat so ne Volta Titan bspw. aber auch einen Nachteil in der Kühllösung, deutlich mehr Einheiten im Paket und von der Effizienz her ist das Produkt nicht sooo viel hinten dran. Du kannst eine GV100 based TitanV auch mit 1,8GHz oder mit besserer Kühlung ggf. gar bis 2GHz prügeln. Und das geht dann auch ab mit entsprechender Mehrleistung. Sind dann aber auch komplett andere Anforderungen als für so nen HPC Markt Chip eigentlich gelten.
Die Volta Titan sei dabei nur deswegen als Basis genannt, weil Tesla oder Quadro GV100 based Karten mit OC selten zu finden sind in Form von Ergebnissen im Netz... Die TitanV hingegen findet man.

Also dann ist es dank dem Takt auf einmal nicht mehr so der Stauner.Und wenn das ja stimmt mit je weiter runter die Fertigung ,desto weniger weit kann man die Kerne hochtakten.Wird dies ja auch bei den GPUs genauso ergehen.Also gewöhnen wir uns schon mal an den niedrigeren Takt,denn das wird dann wohl zum standard werden.
Das stimmt so pauschal nicht. Seit Kepler steigen im Endeffekt die Taktraten. Trotz feinerer Prozesse, steigender Packdiche usw.
Auch lassen sich Taktraten nicht pauschal überhaupt am Prozess fest machen - es gibt Zusammenhänge, ja, aber es gibt eben auch Zusammenhänge um Produkte auf gewisse Taktraten hin auszurichten.
Das wir hier keine 3GHz sehen werden, dürfte klar werden - aber warum sich der Takt auf einmal fast halbieren soll, wo AMD mit ihren bisherigen 7nm Produkte gezeigt hat, dass da augenscheinlich prozesstechnisch kein Nachteil zu erwarten ist, erschließt sich mir nicht... Das Limit wird ziemlich sicher klar die Leistungsaufnahme. Um so mehr Einheiten da laufen, desto mehr säuft das Ding obenraus. Hart am Sweetspot geht es eben im Rahmen der Effizienzsteigerung mit dem Prozess bergan. Realistisch erscheint mir da der Bereich 50-70% ggü. 12nm durchaus. Kann natürlich auch deutlich weniger werden ;)
 
Naja, sooo richtig kann man das aber nicht vergleichen. Es gab seinerzeit kein Gegenstück zu einer Titan - es gab auch überhaupt keinen Markt für diese Art Sonderprodukt. Die Titanen sind/waren auch nie "Gamerprodukte" - sie wurden zwar teilweise als schnellstes Produkt dafür instrumentalisiert, aber der Kernpunkt hinter so einem Produkt war doch schon immer der Zwitter zwischen Profimarkt-GPU und Gamerbereich -> eben der Mischmasch dazwischen. Mal was näher an der einen, mal was näher an der anderen Seite dran.

Die "Titan's" sind ein Marketingstunt Nvidias aus einer Zeit in der der einzige Konkurrent nicht Mal ansatzweise Land gewann... Lediglich ein elitärer Name für den Big chip ( oft kastriert) und perfide gutes Marketing mit dem Ziel die Margen und Gewinne zu steigern etc. Das es geklappt hat sieht man ja Recht deutlich.


Die Titan ist seit Anfang an irgend ne Sonderlocke zu hohen Aufpreisen. Eine 8800 Ultra ist das nicht. Das ist ne 0815 Standard Hardware wie jede 8800 GTX aus.

Was ist an den Titans (abgesehen vom VRAM Ausbau (V Mal ausgenommen) denn bitte Hardwaretechnisch so relevant anders als an ihren GeForce Pendants???


Bei den Titan Modellen hingegen zählen doch andere Maßstäbe. Aktuell gibt es zwei "Linien" Titan Modelle. Die auf Basis der "Gamermarkt" Chips und die auf Basis der "Profimarkt" Chips. Titan (classic), TitanBE, TitanZ und TitanV sind Modelle auf Basis des Profimarkt Chips - Kepler GK110 wurde seinerzeit allerdings noch ebenso auf der Geforce 780er Reihe (abgespeckt) genutzt. Die TitanX'en mit GM200 und GP102 GPUs und die TitanRTX hingegen sind die Gamer-Ableger mit anderer Ausrichtung.

Titan Black=780Ti... Die "gaming ausrichtung" kam mit dem beschneiden der DP rate ab der Titan X (Maxwell) , welche bis dahin herhalten musste für das Argument semi professionell und den Preis...

Ich will niemandem zu nahe treten aber als Mod sollte man doch besser informiert sein?
 
Die "Titan's" sind ein Marketingstunt Nvidias aus einer Zeit in der der einzige Konkurrent nicht Mal ansatzweise Land gewann... Lediglich ein elitärer Name für den Big chip ( oft kastriert) und perfide gutes Marketing mit dem Ziel die Margen und Gewinne zu steigern etc. Das es geklappt hat sieht man ja Recht deutlich.
Das entspricht nur nicht der Realität. Wie angesprochen - 780 vs. Titan (classic) lagen paar wenige Wochen zwischen. Nix mit elitärer Name für den Big Chip. Bei der 780TI/TitanBE das gleiche. Zwischen der TitanX und der 980TI war die Zeitspanne was länger, wie auch bei den Pascal based Titanen. Die TitanV hat keinen Gamer-Gegenpart, weil es den GV100 nicht im Mainstream gibt. Und die Turing Titan ist auch wieder ggü. der 2080TI kein Argument für den BigChip. Worauf willst du also hinaus?

Ob Margen und Gewinne mit so einem Nieschenprodukt gesteigert werden ist mMn auch absolut fraglich ;)

Was ist an den Titans (abgesehen vom VRAM Ausbau (V Mal ausgenommen) denn bitte Hardwaretechnisch so relevant anders als an ihren GeForce Pendants???
Nichts was den Gamer interessiert... Aber muss das Produkt irgend eine für den Gamer greifbare Relevanz haben?
Das mehr an Speicher bringt in gewissen Märkten einen Vorteil. FP64 in "schnell" ggü. den Quadro/Tesla Modellen für deutlich günstiger in anderen Bereichen ebenso. Beides ist häufig für die Gamer irrelevant. Gleiches gilt für die Treiber, die seit der TitanX mit Pascal Chip auch Profimarkt-Features und Support bekommen. Zumindest im Ansatz.

Wenn DIR das als potentieller Kunde zu wenig ist, kauf es halt nicht. Es ist kein Problem so zu verfahren ;)

Titan Black=780Ti... Die "gaming ausrichtung" kam mit dem beschneiden der DP rate ab der Titan X (Maxwell) , welche bis dahin herhalten musste für das Argument semi professionell und den Preis...

Ich will niemandem zu nahe treten aber als Mod sollte man doch besser informiert sein?
Wenn du andere Unwissenheit vorwirfst, solltest DU dich nicht mit Falschaussagen schmücken. Es gibt keine "beschneiden der DP Rate ab der TitanX Maxwell" - damit man was beschneiden kann, müsste was zum beschneiden da sein!
GM200 hat keine FP64 Einheiten um im Kepler FP32/64 Verhältnis oder im GP100 FP32/64 Verhältnis arbeiten zu können. Das gleiche gilt für den GP102 und den TU102. Auch ist deine Aussage oben "abgesehen vom VRAM Ausbau (V Mal ausgenommen)" schlicht falsch - denn die TitanV hat mit 12GB das klar beschnittene Interface ggü. den 16-32GB GV100 Quadro/Tesla Modellen. Selbst ggü. der 11GB 1080TI oder 11GB 2080TI bringt das keinen nennenswerten Vorteil. Die TitanV CEO mit 32GB gab es meine ich auch nie offiziell im Handel. Und eine andere "V" gab es nicht, die deine Aussage richtig machen würde.

Wenn du meinst "gaming ausrichtung" komme ohne FP64, dann solltest du dazu vielleicht auch wissen, dass es nebst FP64 andere Anforderungen an eine GPU gibt, die sehr wohl im semi Professionellen Bereich zu finden sind. Jüngst ist das der ganze AI Part, Content Creatoren seien als weitere größere Gruppe erwähnt, die profitieren btw. dann vom idR größeren VRAM und perspektivisch von OptiX/RTX. Gerade die Option Treibersupport in Profi-Software für die Titan Modelle zu bekommen, ist auch ein (möglicher) klarer Vorteil.

Lass gut sein, der Versuch hier zu stänkern zieht bei mir nicht... ;)
 
Eine andere Frage ist,was kommt dann am ende für eine therretoische mehrleisutng dabei raus,wenn man Raytracing nicht nutzt.Kommt dann noch immer diese therretische 50 % oder wird es dann automatisch weniger sein.Wer also so wie ich kein DX12,kein Raytracing,sowie diese AI berechnung sowie das reduzieren von der Auflösung als Future nicht nutzt.Da bleibt bei der reinen rohleistung wohl nicht mehr so viel übrig.
Achja die meisten Spiele nutzen ja keine FP64.Also die Entwickler überlegeben auch FP16 neben FP32 zu Nutzen.In gewissen bereichen sieht man ja eh keinen Unterschied ob es genau oder ungenau ist.Ab einer gewisse Reichweite ,sieht man doch eh nix mehr.Also da wird wohl FP16 die zukunft sein.Dann hat man also für den Sichtbaren bereich auch mehr Luft bei der Leistung.
 
Ich sehe das so, rein vom Gefühl wähle ich eher GRÜN statt ROT! Und hatte immer RECHT, so für mich :geek:. Gruß Harry
 
Leute, AMD hat mit KEINER Gen nvidia das Wasser reichen können, nicht im Preis, nicht mit der TDP, nicht mit FPS, nicht mit Features und noch nicht einmal mit technologischem Vorsprung
HD5870 haste aber mitbekommen nee? :coffee2:

Und der später darauf folgende "Konter" von Nvidia war auch mehr als beschämend, für den Großteil der Leute hatte AMD auch nach Fermi noch die bessere GPU, weil erheblich effizienter.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh