GeForce Special Event: NVIDIA stellt am 1. September die Ampere-Grafikkarten vor

 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Einige Prozente an Leistung werden sie bestimmt rausholen.Müsste ich grob schätzen 5-10% vielleicht, das ist aber nur ne Vermutung je nach Anwendungsfall.
Klar, das stimmt wohl ;)
Volt kommt da noch mehr was den Aufwand irgendwo erklärt? 5120 ALUs gabs auf der TitanV schon, mit OC unter Wasser, ShuntMod und hohem Powerbudget war da Bandbreite nie wirklich das große Problem - skalieren wird es sicher, aber wegen 5-10%, kein Plan ob das lohnt?
 
Die Frage ist nur, was kommt bei rum?
GDDR6X anstatt non X bringt nebst bissle Bandbreite jetzt erstmal nichts weiter groß an Vorteil... oder überseh ich was?

Ich denke da unterschätzt du wie dringend mehr Bandbreite benötigt wird. Der Flaschenhals ist hier seit Jahren die Bandbreite. Es fällt nur wegen effizienter Kompression und intelligenten Caching nicht so sehr auf (sofern Code ordentlich optimiert). Aber der "Durst" bei GPUs nach mehr Bandbreite ist weiterhin enorm...

Und dieser ominöse Coprozessor - Keine Ahnung was das genau sein möchte, klingt mir auch nur bedingt nach nem Gamechanger. Das Ding ist - wenn das Teil nicht in 0815 Titeln performt, wird es schwer für NV hohe Preise bzw. noch höhere als bisher zu verlangen, die Meute hat bei Turing schon gemeckert was das Zeug hält.
Und AMD schickt sich an dieses mal mit BigN durchaus stino 0815 Perf. zu liefern. Anders als Polaris, Vega und Navi, wo man entweder nicht wollte oder nicht mehr liefern konnte ohne den Verbrauch zu eskalieren...

Mal schauen wie leistungsstark das Ganze am Ende wird. Sofern es gut performt, sehe ich im Falle von RT schon als Gamechanger. Am Ende kommt es dann auch auf das Gesamtpaket an, also die Summe an Features und Leistung die man für sein Geld bekommt. Da wird man mit Rasterisierungsleistung allein nicht groß punkten können, sofern diese nicht enorm höher ausfällt als bei Ampere, wovon ich aber bis jetzt nicht ausgehe.
 
Ich hoffe mal nicht, dass es einen abgetrennten Co-Prozessor gibt...warum hat man das da nicht gleich mit in die GPU reingebaut?
Vielleicht geht's hier ganz einfach um Wirtschaftlichkeit.

Denn wenn du die Einheiten die jetzt im Co-Prozessor werkeln auch noch in der GPU integrierst wird der Chip noch größer.
Ein größerer Chip ist schwieriger und teurer zu fertigen, da einerseits die Ausbeute von voll funktionsfähigen Chips sinkt und andererseits kriegst du weniger Chips pro Wafer raus.

Fertigst du einen schon nicht kleinen Chips und lagerst bestimmte Funktionen in einen separaten Co-Prozessor aus wirst du vermutlich mit geringeren Fertigungskosten aussteigen.
Man muss nur sicherstellen dass die Anbindung des Co-Prozessors gut implementiert wird.
 
Könnte mir auch vorstellen, dass ein reiner RT CoProzessor billiger hergeht als die RT Cores in die eigentliche GPU zu integrieren.
Würde so viele der komischen Leaks erklären. Auch die Ansage, dass RT Leistung um den Faktor 4 steigen soll, ohne FPS zu kosten.

Man stelle sich den CoProzessor für RT vor.
Schatten, Lichter, Reflektionen werden von dem RT Ding berechnet, alles andere von der eigentlichen GPU.
Die FPS würden sogar noch steigen, weil ja drei Dinge nicht mehr berechnet werden,... und wenn der CoProzessor nicht hinterherkommen würde, könnte man da ne Art dynamisches Scaling in der Hardware haben, was automatisch die Auflösung der RT Effekte an die FPS der PrimärGPU anpasst.

Keine Ahnung wie umsetzbar das wirklich ist, aber es würde wirklich viel erklären.
 
Ihr dürft auch DLSS (Tensor-Cores) nicht vergessen, vielleicht läuft das auch über den Coprozessor.

Auf jeden Fall würde der Coprozessor auch Platz für die Shadereinheiten machen. Wie war das nochmal? 20% der Chipfläche gingen bei Turing für RT und TC drauf?
 
Kannst du nichtmal den schwachsinnigen OT entfernen?
 
@DDbom
Die Preisdiskussion über das kommende Produkt empfinde ich durchaus noch zum Thema zugehörig - dass man es aber immer und immer wieder rauf holen muss um sich darüber aufzuregen, hingegen eher nicht. Habe den Spaß mal weggeputzt und hoffe, dass das Thema damit geklärt ist und wir uns wieder der Spekulation über das Produkt widmen können anstatt darüber zu unterhalten, wer sich was wann und wieso leisten kann oder will. :wink:
 
Zuletzt bearbeitet:

Also, wenn das stimmt, dass eine 3070 bereits die Leistung einer 2080TI haben soll und die 3070 dann nur 499$ kosten soll, na dann....krass krass
 
Also, wenn das stimmt, dass eine 3070 bereits die Leistung einer 2080TI haben soll und die 3070 dann nur 499$ kosten soll, na dann....krass krass
Diese Spekulation ist mMn nicht schlüssig...
Wo soll auf einmal die Leistung denn her kommen?
Einfach mal angenommen - 10k und 9k Punkte für die 3090/3080 stimmen. Dann müsste die 3070er mit der kleineren GPU deutlich! höher takten, damit da 7,3k Punkte bei rum kommen.
Im Gerücht wird gesagt, man braucht andere Benches um die Leistung auszufahren - das gilt dann sicher auch für alle Amperes, sprich sollte hier wenn überhaupt, wenig Einfluss haben für den Vergleich.

Was ich durchaus nachvollziehbar und damit für wahrscheinlich halte, die 10k bei 5248 ALUs könnten schon hin kommen. Denn im Verhältnis ALU Anzahl zu Punkten stimmt das in etwa überein. Es sind 1,90 zu 2,07 Punkte. Die 80er mit weniger ALUs müsste also grob 10% höher takten. -> definitiv realistisch im Schnitt.
Aber diese Rechnung geht nicht auf bei 2944 ALUs zu 7,3k Punkten. Denn das wären 2,48 Punkte und damit noch 20-30%! mehr. 20-30% mehr Takt ist absolut unrealistisch für den 04er Chip. Der taktet im Schnitt vllt nochmal 5% drüber. OK, geschenkt. Aber nicht 20-30%? Realistisch, sofern die 10k/9k in der Basis stimmen, wären bei 2944 ALUs eher im Bereich 6,0-6,3k Punkte. :wink:
 
Wobei sie selbst mit 6,3K noch auf Founders 2080Ti Level wäre .:wink:
Da durch das man die 3080 anscheinend auf Ti Level gehoben hat und die 3090 auf Titan Level hat man bei der 3070 den 80er Level eingenommen .
 
Falls sie aber nur 8GB bekommt ist sie wieder uninteressant.
 
Also eine 3070 mit 6300-7500 Punkten und 16GB GDDR6X. Hört sich doch gut an.

Vor allem wette ich schon jetzt darauf, dass wir nach 6-12Monaten eine 3070 super oder 3070TI sehen werden.
 
Über die Höhe kann ich nur bedingt spekulieren, weil bis dato keiner wirklich abschätzen kann, wie viel mehr Leistung aus so nem Ampere Shader rauszuholen gehen ggü. Turing.
Rein aus dem Bauchgefühl heraus würde ich sagen, dass eine 2944 ALU breite GPU nicht den alten TopDog mit 4352 ALUs schlägt. Weil dazu bräuchte es knapp 50% mehr Leistung pro ALU. Vllt gehen davon sagen wir 10-15% auf den Takt, von mir aus 20. Bleiben immernoch 30% über. Bisher sah ich zumindest noch keine Hinweise, dass dem irgendwo in der Richtung so kommen wird... Der einzige Hinweis ist die möglicherweise doppelte FP32 Geschichte - aber da wird auch immer dazu erwähnt, dass die alten Benches das gar nicht ausfahren können usw. -> dann kommt ein TSE Wert und da gehts um 60%+ hoch? Ich mein, nicht dass ich das nicht gut heißen würde, aber ich halte es für eher unrealistisch... ;)

In den Kommentaren der Twitter Posts schaut das auch alles andere als realistisch aus. Dieser Typ, der die TSE Werte da im Beidu Forum fallen lassen hat soll wohl auch behauptet haben, dass die PS5/Series X NV GPUs nutzen -> angeblich ein Bubie von NV, der Störfeuer schürt. Habe ich zwar nicht verifiziert, aber es wäre echt gut, wenn man nicht immer ungesehen einfach nur Links breit tritt - sondern auch mal gegenprüft, was da steht. Oder allerwenigstens dazu erwähnt, wenn da kritische Meldungen in den Quellen stehen! Das macht das spekulieren ungemein einfacher ;)
 
Falls sie aber nur 8GB bekommt ist sie wieder uninteressant.
Muss man mal schauen was hier dran ist !
  • NVIDIA Titan - 48 GB GDDR6X
  • NVIDIA GeForce RTX 3090 - 24 GB GDDR6X
  • NVIDIA GeForce RTX 3080 - 20 GB GDDR6X
  • NVIDIA GeForce RTX 3070 - 16 GB GDDR6X
  • NVIDIA GeForce RTX 3060 - 12 GB GDDR6X
 
Vor allem wette ich schon jetzt darauf, dass wir nach 6-12Monaten eine 3070 super oder 3070TI sehen werden

Aber NVIDIA wollte doch schon nächstes Jahr Hopper bringen um weiter gegen amd zu bestehen?
 
@Thunderburne
Zumindest 22-24GB auf der nicht Titan sind mMn 100% sicher. Denn es gibt diese Leaks zu einem Custom PCB mit 22 Speicherchips. Seit kurzem auch ein weiteres Bild was die Position eines 12. Speicherchips zeigt. Da es sich um eine Rückseitige Bestückung handelt, sind mMn sehr sicher vorn auch welche. Das heißt, das Ding bekommt 22-24GB und es ist keine Titan. Es sei denn, die Titan hat neuerdings ein Custom PCB ;)

Die anderen Spekulationen würden dafür sprechen. 20GB mit 320Bit für die 80er wie schon seit Wochen vermutet mMn seeehr wahrscheinlich. Die Wahloption auf 10GB mMn auch. (sind rein für den Namen immernoch 2GB mehr zum Vorgänger). Die 70er bekommt den 04er Chip -> nach den bisherigen Gerüchten soll die 60er den 06er Chip mit 192Bit SI bekommen. Das halte ich aber für eher unwahrscheinlich, dass NV für die 70er nen eigenen Chip auflegt und diesen dann fast voll beschaltet. -> da wird noch was zwischen liegen. Also eine 3060TI oder 3060S oder so. Bzw. vllt wird die 60er nichtmal der 06er Chip. Da man bei der 80er auf den großen geht und bei der 2060S ebenso den 04er Chip nutzt wäre das eher wahrscheinlich, es hier auch zu tätigen. Also 8GB für die 3060, 16GB für die 3070.

Was ich ebenso als wahrscheinlich erachte, dass der spekulierte GA106 vllt ohne RT/Tensor Stuff kommt. Als Nachfolger für die 1xxxer Turings im Einsteigerbereich. Oder ohne RT, aber mit Tensor? Kein Plan wohin sie mit DLSS noch wollen.

Aber NVIDIA wollte doch schon nächstes Jahr Hopper bringen um weiter gegen amd zu bestehen?
Bitte keine Unwahrheiten verbreiten... Du forderst das alle Nase lang ggü. AMD - stellt dich dann aber selbst immer absolut unwissend, wenn es darum geht andersherum irgendwas zu behaupten! Schön gepaart mit einer völlig unnötigen Provokation, ala "um weiter gegen AMD zu bestehen" - von weiter kann man wohl kaum sprechen, wo AMD überhaupt erstmal zeigen muss, dass ihre Versprechen zu Navi2x keine Luftnummer war.

Was NV wollte und was nicht, ist zudem auch nicht belastbar aussagbar, denn es gibt dazu keine Informationen von offizieller Stelle.
Dieses angebliche Hopper in 2021 auf TSMC 5nm Gerücht stammt, wie bpsw. hier zu lesen ist von einem Twitter Post:
Und ursprünglich von einem Digitimes Bereicht -> solchen Berichten, die Zen3 bevor AMD das klar selbst dementierte auch schon 5nm angedichtet haben für nächstes Jahr.

Lass einfach mal Ampere ins Haus kommen - dann sprechen wir über Hopper ;) Eins after dem Anderen... :wink:
 
@fdsonne
Die 48 GB GDDR6 X bei der Titan erscheinen aktuell zumindest unwahrscheinlich bzw. will Micron 2 GB GDR6X Chips bringen dann wäre es natürlich machbar.
 
Also eine 3070 mit 6300-7500 Punkten und 16GB GDDR6X. Hört sich doch gut an.

Vor allem wette ich schon jetzt darauf, dass wir nach 6-12Monaten eine 3070 super oder 3070TI sehen werden.

Es wird ECHT Zeit das man auf 16 GB erhöht bei Karten die 750 euro + kosten ....24 viell ned unbedingt aber ein Verkaufsargument aber 12 - 16 sind mMn ein muzß für 4k ect.

aber diesmal hört es sich soweit AUCH Preisl gut an :)
 
@fdsonne
Die 48 GB GDDR6 X bei der Titan erscheinen aktuell zumindest unwahrscheinlich bzw. will Micron 2 GB GDR6X Chips bringen dann wäre es natürlich machbar.
Das wird kommen ;) Alein weil die Quadro RTX8000 mit 48GB auf Turing TU102 das ja schon lieferte... Meinst du NV bringt nen Nachfolger und bleibt dann beim Speicher bei der Hälfte? Kommt das Ding halt erst nächstes Jahr, sollte das mit den 2GB Chips erst in 2021 stimmen.

Auf der anderen Seite - ich wäre mit nichtmal 100% sicher ob das nicht vllt sogar ne bewusst gestreute Aussage ist. Denn wenn man mal schaut, jetzt mit dem PCB ist es mMn sicher, dass das mit viel mehr Speicher als bisher kommt. ABER, ohne dieses Bild -> es wurde zwar immer spekuliert, aber Zweifel bleiben/blieben. Was wenn Micron die Chips NV Exklusiv auch in 2GB vertreibt? Steht halt nirgends... Dann liefern sie das einfach und fertig... Ich würde die Marketingangaben von Micron da nicht für 100% voll nehmen, weil da steht auch die TitanRTX mit der 5700er Navi bei 12 Chips in der gleichen Spalte.
Das ist wie damals mit Pascal - es wurde in den Foren großflächig behauptet, NV hätte kein HBM und das kann nur AMD. Und schwubs - Pascal kam mit HBM. Gleiches Spiel in bunt bei Volta, wo es hieß, NV hätte kein HBM2.
 

12GB auf ner 3060 finde ich was viel... klar man kennt die Leistung der Karte noch nicht, aber 12GB klingen nach nem recht hohen Preis. Ob da überhaupt noch was für den <=200€ Bereich kommt?
 
Ist halt die Frage ginge das RTX3060 auf Leistungs Level RTX 2080+-???...wen ja wären 12GB doch super!
Man könnte natürlich auch auf 256 bit mit normalen GDDR6 arbeiten bei der 3060 dann halt mit 8GB .
Sollte es stimmen das die RTX 3070 etwas schneller ist als die 2080Ti oder gleich auf dann könnte auch die 3060 stark sein.
 
Zuletzt bearbeitet:
Hört doch mal fdsonne zu. Er sagte, dass eine 3070 niemals eine 2080ti schlagen können wird. Weil man einfach mal verstehen muss, dass das technisch total unvorstellbar ist. Er hatte quasi die Quelle schon als zu übertrieben entlarvt.

Weil dazu bräuchte es knapp 50% mehr Leistung pro ALU. ]...[ aber ich halte es für eher unrealistisch...
Quelle: Post #376
 
Das mit den 50% habe ich auch gelesen. Mir erschließt sich der Rechenweg nicht. Bin leider kein Mathematiker.
Die Einschätzung teile ich jedoch. Die 2070 hat die 1080ti schliesslich auch nicht weggebügelt.
 
Zuletzt bearbeitet:
Nun, es geht hier um die Leistung pro Alu vergleichbar auch mit der ipc bei Cpus, sollte schon nachvollziehbar sein ...
 
War klar, dass du den Kontext wieder verdrehst. Ich verstehe den RECHENWEG nicht. Für dich extra nochmal in gross. Manmanman.

Edit:
So hab mal meinen alten Taschenrechner bedient. Bin auf 48% gekommen. Jetzt habe ich den Rechenweg verstanden. Danke für nichts, Holzi McGuttenberg.
 
Zuletzt bearbeitet:
Ganz ohne Bashing,... kann mir jemand schlüssig erklären wieso bei NVidia so ein Hype entsteht um neue GPUs, bei AMD eher nicht?

Ich merke das bei mir selber.
BigNavi soll ja auch +50% auf die 2080ti bieten UND RT haben.
Ampere quasi identisch, von den Leaks her.
Trotzdem kann ich die Vorstellung von Ampere kaum erwarten und BigNavi "kommt halt, wenn's kommt" und wir dann bewertet.

Also ganz ehrlich: Bin mir nicht ganz sicher, wieso das so ist. Liegt es nur daran, dass AMD selten liefert was sie versprechen (bei GPUs) und man deswegen Gerüchte um sie eher zur Seite wischt?
 
Das mit den 50% habe ich auch gelesen. Mir erschließt sich der Rechenweg nicht. Bin leider kein Mathematiker.
Falls das auf mich bezogen war - ich teilte einfach die genannten TSE Punkte durch die Anzahl der genannten ALUs um einen Punktewert pro ALU raus zu bekommen.
Und das war bei 5248 zu 10k Punkte eine 1,90 Punkte pro ALU, 4352 zu 9k PUnkte eine 2,07 Punkte pro ALU und bei 2944 ALUs auf 7,3k Punkte eine 2,48 Punkte pro ALU.
Unter der Annahme, dass die Shadereinheiten NV typisch relativ gleich skalieren über die verschiedenen Ausbaustufen ist der einzige Indikator, der dafür sorgen kann, dass 30% mehr Punkte pro ALU auf der 2944 breiten Ausbaustufe zu sehen sind, der Takt. Während ich die 10% mehr für die 4352 vs. das 5248er Ergebnis noch für realistisch halte, halte ich die 30% für den anderen Wert für deutlich zu hoch.

Selbst sehr konservative 1,7GHz für den großen Chip mit dem 10k würden dann bedeuten, dass der kleine mit 2,2GHz im Schnitt laufen müsste damit die Zahlen schlüssig insich wären.
Leider wird bei den Werten mal wieder kein Link in die 3DMark DB mit gegeben. Denn dann könnte man ggf. mehr in Erfahrung bringen respektive suchen ob es in zeitlicher Nähe weitere Ergebnisse gibt, die irgendwo auf andere Samples schließen lässt - vllt war das aber auch nur ne ausgedachte Luftnummer, alles unbekannt.

BigNavi soll ja auch +50% auf die 2080ti bieten UND RT haben.
Ampere quasi identisch, von den Leaks her.
Trotzdem kann ich die Vorstellung von Ampere kaum erwarten und BigNavi "kommt halt, wenn's kommt" und wir dann bewertet.
BigN soll 50% Effizienz! auf Navi10 bringen. Wie viel das in Power bedeutet, ist aktuell nicht raus. Rechnerisch wären 50% höhere Effizienz bei doppelter Navi10 Performance mit 280W ca. möglich. Das wäre dann im Schnitt bei 10-30% schneller als eine 2080TI Stock. Mit 300-350W würde auch mehr gehen, sofern das taktseitig funktioniert. Wenn man mit dem Takt runter geht, aber auch weniger absolute Leistung. Vllt kommt auch nur 10% >2080TI und ein Gegenspieler zur bisdato spekulierten 3080 auf dem groß kastrierten GA102. Die Messlatte ist im Endeffekt das, was AMD angekündigt hat - und das waren 50% mehr Effizienz für RDNA2 "end of the year" - und ich meine, vor den Konsolen. Viel mehr wissen wir nicht, außer, dass es höchst wahrscheinlich 80 CUs werden - also 5120 ALUs im Vollausbau.

Was den Hype angeht - ich sehe wenig Hype. Bis auf Ausnahmen geht es eher nüchtern sachlich zu. Warum aktuell NV eher in aller Munde ist als AMD könnte einfach daran liegen, dass das Marketing nen Countdown mit Ablauf in ein paar wenigen Tagen geschaltet hat während bei AMD aktuell November, also noch gut paar Wochen bis Monate, spekuliert wird. Weiterhin dürfte bei manchem Spekulanten die Ernüchterung bisheriger AMD GPU Releases die "Stimmung" auf was neues eher getrübt haben. Wer 3x, ja sogar 4x in Folge bei reinem HighEnd Stuff enttäuscht wurde mit Fiji, Polaris und Vega schlussendlich Navi, der schaut halt kein fünftes mal hin und guckt einfach was kommt... Wobei Navi eigentlich nie als HighEnd gehandelt wurde, deswegen würde ich den vierten eher ausklammern. Bleiben aber immernoch drei Releases die letzten 6 Jahre, viel Hoffnung, viel Hype, wenig Ergebnis. Ggü. NV, wo eher der Preis die Hoffnung trübt - und eben Turings eher mauer Fortschritt, hat das bis dato eigentlich meist funktioniert... Mit dem Prozesssprung, den man ggü. alt 12/16nm tätigen wird, muss da mehr kommen als nur 30% ;) Das dürfte mMn viele potentielle Käufer aktuell dazu anhalten, eher von NV als von AMD gehypt zu sein ;)

Ich denke und hoffe, das war bashfrei genug ;)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh