NVIDIA-GPU mit 7.552 CUDA-Cores zeigt sich

HD5870 haste aber mitbekommen nee? :coffee2:

Und der später darauf folgende "Konter" von Nvidia war auch mehr als beschämend, für den Großteil der Leute hatte AMD auch nach Fermi noch die bessere GPU, weil erheblich effizienter.
Und die dh 4870 hatte auch ne fette kerbe geschlagen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Der geekbench OpenCL Benchmark besteht aus typischen gp-gpu Tests?
K.A. was da für eine Spieleleistung herauskommt. 50 % mehr Rasterleistung gegenüber dem nicht-super Lineup dürfte wohl drin sein.
Geekbench 4.x hat der rx 5700 Serie besser gelegen als 5.x. Hier ist rtx 2070 nun weiter vorn.
Die rtx 2080 ti ist hat bereits einen CL Score von 130k +. Trotz 40 % mehr streaming processors schaut dass 10 % höhere Benchmarkergebnis gar nicht so beeindruckend aus; auch den gpu-Takt miteinbezogen.
Von Seiten der nvidia Beschäftigten heißt es doch auch "ein cuda core bietet 50 % mehr Leistung als ein cuda core der pascal Generation". In der Realität wohl nicht ganz^^
 
10 % nur,das ist allerdings dann echt wenig mehrleistung.Wenn man dann noch ohne RTX funktion dann zockt weil die Games die ich so zocke,garkein RTX unterstüzung mitbringen,dann wird drauf dann nur noch 5 % mehrleistung oder gar ein gleichstand,weil nur die RTX einheiten erhöht wurden und die ich nicht auslaste.Somit wird die Leistung brach liegen.Am ende also nur sehr wenig mehrleistung.Dann kann man sagen,es lohnt sich dann nicht mehr für mich.Bin ja eh zufrieden mit der gtx 1060,also von daher alles bestens.
 
Und die dh 4870 hatte auch ne fette kerbe geschlagen.
ich sage nur 9700Pro / 9800 Pro, X850XT, HD5870, HD7970, R9 290X hat im uber Modus die Titan geknackt... Alles Karten die zu ihrer zeit schneller waren als die Grünen ...
 
Latiose, der CL Score wird ohne die ganzen Turing Tensor Kerne ermittelt.
Kommt da noch ein höherer Gpu-Takt dazu, werden es deutlich mehr als 10 %.
Bei nvidia veröffentlicht man immer zuerst die professionellen Grafikkarten; die hier gezeigten Ergebnisse dürften wohl mit solchen Karten entstanden sein.
7000 - 7500 SMs - könnte auch ein Nachfolger von tesla v 100 sein?
Quadro und Rtx dann mit 6000 - 7000 SMs?
 
Von Seiten der nvidia Beschäftigten heißt es doch auch "ein cuda core bietet 50 % mehr Leistung als ein cuda core der pascal Generation". In der Realität wohl nicht ganz^^
Die Frage ist, was ist damit gemeint?
Turing kann jetzt schon INT und FP gleichzeitig - je nach Workload kommt da also schon mindestens mal 50% mehr ggü. Pascal bei rum, der das eben nicht kann. Wenn ich das richtig verfolgt habe gibt es da bestenfalls noch ein Scheduler Limit.
Und das ist real praktisch nachweisbar ;) Nur ist in der Realität abseits von Benchmarks der INT Anteil im Schnitt wohl ungefähr 1/3tel ggü. dem FP Anteil. Dazu gibt es Folien bei NV - ob man die Werte für glaubwürdig hält, muss halt jeder für sich wissen. Das ist ja so ein gewisses Thema seit ein paar Jahren alles an Herstellerinfos pauschal kritisch zu betrachten :d

ich sage nur 9700Pro / 9800 Pro, X850XT, HD5870, HD7970, R9 290X hat im uber Modus die Titan geknackt... Alles Karten die zu ihrer zeit schneller waren als die Grünen ...
R300 und Ableger wie R400 und Ableger ist nicht AMD, das war ATI ;)
Und schneller ist relativ - zu ihrer Zeit auch. HD5870 zwar zeitlich 6 Monate eher dran, verlor aber deutlich ggü. der GF100 480 in der reinen Performance. Die 7970 verlor anfangs gegen die mickrige 680er Mainstream Geforce und Hawaii als 290X zog den kürzeren gegen die 780TI.
Argumentativ da jetzt "Titan" rein zu schreiben bringt doch nix weil anders ausgerichtet am Markt.

Bei nvidia veröffentlicht man immer zuerst die professionellen Grafikkarten; die hier gezeigten Ergebnisse dürften wohl mit solchen Karten entstanden sein.
7000 - 7500 SMs - könnte auch ein Nachfolger von tesla v 100 sein?
Quadro und Rtx dann mit 6000 - 7000 SMs?

Das ist absolut wahrscheinlich. Man könnte natürlich auch höher stapeln und wie in den jüngsten Gerüchten von nem riesen 830mm² GA100 mit deutlich gesteigerter Packdichte ausgehen. Die Packdichte ist halt irgendwie für ein 7nm Ding scheinbar zu hoch gegriffen, was das bisschen unglaubwürdig macht. Aber diesen Umstand außen vor, könnten lediglich um die 50% mehr ALUs als GV100 bei ähnlicher DIE Size fast nach zu wenig klingen und ggf. auch für nen GA102 sprechen? Für nen Prototypen könnten die 24/48GB Speicher mit 384Bit SI auch hinkommen. Aber reinste machbarkeits Spekulation. Halte ich aktuellen Infos nach für recht unrealistisch.

NV wird mMn nicht ewig mit 11/12GB rummachen können. Und Speicher ist im Moment auch (noch) relativ günstig im Vergleich zu Turing Release. Nix genaues weiß man allerdings nicht...
 
Ja, aber das geht im gleichen Maßstab bei der Konkurrenz ebenso. Also hast du damit nix erreicht. Auch bezweifle ich nach wie vor, dass dieses gern gebrachte Argument des UV praktisch eine Relevanz hat. Die Anforderung an die Stabilität, gerade im Bereich HPC sind komplett andere als bei einer hand UV'ten Gamer Karte im privat Umfeld. Dich wird es nicht jucken wenn da mal was abschmiert, wenn du mal nen Bildfehler hast oder irgendwo irgendwas einfach nicht tut (ich weiß - kommt bei dir nicht vor, schon klar). Aber bei einem Produkt von der Stange ist sowas nunmal nicht der Maßstab. ;)
Ist richtig, keiner undervoltet per Hand im HPC Bereich (Davon ab, dass man mehrere Verträge gleichzeitig damit brechen würde), allerdings könnte mit entsprechendem Binning und gut geschriebener Regelungssoftware der halbe Weg schon Mal beschritten werden. Kann die Konkurrenz aber auch - logisch.

Ansonsten: Klar hab ich Bildfehler und das Ding schmiert mir ab, wenn die Spannung *zu* niedrig ist. Deswegen ist das ja auch ein händischer Prozess wo ich so lange tweake, bis eben keine mehr auftreten. Dann kommt noch ne kleine Sicherheitsmarge oben drauf (aka 5mV rauf und 5MHz runter) und dann ist das "gut genug" für mich. Aber da hat jeder so seine eigene Methoden.

PS:
Die 7970 verlor anfangs gegen die mickrige 680er Mainstream Geforce und Hawaii als 290X zog den kürzeren gegen die 780TI.
Das stimmt so leider nicht. Die 7970 (möge sie in Frieden ruhen) wurde im Dezember 2011 veröffentlicht und die GeForce 680 kam 3 Monate später. (nach der 680 gabs nur die 690 - eine Dual-GPU-Karte. Hier von "mickrig" zu sprechen ist irreführend, es war Nvidias Top-Karte - bis Mitte 2013) Während die beiden Karten zum Release relativ gleich auf lagen, stiegt die Performance der 7970 durch Treiberupdates über die Jahre (!) gehörig an, während das Niveau der 680 sich kaum noch verändert hat - gibts sogar Youtube-Videos dazu, die den Verlauf betrachten.

An dieser Stelle muss man aber vorsichtig sein keine Äpfel mit Birnen zu vergleichen. Beim Launch der Karten war die 680 schneller - was dann auch das initiale Kaufverhalten prägt. Niemand kauft sich eine Karte und spekuliert auf 10% Performance-Verbesserung in 3 Jahren, die vielleicht kommen möge oder nicht um damit dann seine Kaufentscheidung zu validieren. 3 Jahre ist der mittelfristige Neukauf-Zyklus bei Grafikkarten.

Ich möchte dazu noch anmerken, dass meine Karte keine GHz Edition war, diese aber ohne Anstand auf 1150MHz übertaktbar war und so auch 6,5 Jahre durchgehalten hat. Speicherwerte habe ich leider nicht mehr im Kopf, der hatte aber auch Luft nach oben. Die 680 - soweit ich mich erinnern konnte, hatte kein so hohes Übertaktungspotential. Das aber nur am Rande. Dem durchschnittlichen Käufer juckt das nicht die Bohne.
 
Zuletzt bearbeitet:
Ich möchte dazu noch anmerken, dass meine Karte keine GHz Edition war, diese aber ohne Anstand auf 1150MHz übertaktbar war und so auch 6,5 Jahre durchgehalten hat. Speicherwerte habe ich leider nicht mehr im Kopf, der hatte aber auch Luft nach oben.
Die HD7970 GHZ war echt gut!
Hab die mit 1415 durch den Heaven bekommen (Polepostion Single GPU)
1350 Gamestable ach das waren noch Zeiten.


Aber das ist halt Vergangenheit.
Ich hoffe AMD bekommt es hin auf Augenhöhe zu kommen mit den Highend 3000 aber was zuletzt von AMD kam lässt einen halt skeptisch bleiben.
Gegen einen Kampf auf Augenhöhe im Highend Bereich hat glaub ich niemand was einzuwenden nur muss AMD das auch auf Kette kriegen .
 
Zuletzt bearbeitet:
Amd wird wohl kaum die krone erlangen, aber ein oreiskampf ist möglich. Nimm eine 570pxt und das mal 2.2 das ist das maximale das man erwarten kann. Da es aber die selbe rdna ist, sollte man auf viele optimierungen aufbauen können. Der uncore soll aufgebohrt worden sein. Mal sehen
 
Ansonsten: Klar hab ich Bildfehler und das Ding schmiert mir ab, wenn die Spannung *zu* niedrig ist. Deswegen ist das ja auch ein händischer Prozess wo ich so lange tweake, bis eben keine mehr auftreten. Dann kommt noch ne kleine Sicherheitsmarge oben drauf (aka 5mV rauf und 5MHz runter) und dann ist das "gut genug" für mich. Aber da hat jeder so seine eigene Methoden.

Das ist halt das was ich damit meine... Das würde hinten und vorn nicht reichen.
Allein Temperatur und damit Verbrauchsabhängigkeiten würden dir da einen Strich durch die Rechnung machen, sowas muss halt mit viel mehr Puffer gebaut werden. Es bringt dabei auch nicht sooo viel, das Design aufs letzte Prozent hin auszuquetschen, denn dann hättest du im Resultat ne hohe Streuung zwischen verschiedenen Endprodukten des Selben Typs.

Ich kann dir bspw. von meinen Blender Cycles Volllast Tests der Pascal und Turing Gen. berichten, sowas geht dann schon eher in die Leistungsanforderungen einer HPC GPU! Zocken mit 1,9-2,0GHz auf GP102 oder TU102 ist klar nicht das Problem. Nun zocke ich aber auch nicht 24/7, eher komplett das Gegenteil davon. Nämlich extrem selten. Aber so ne GPU kommt bei mir gern mal auf ein paar Tage Dauervollast unter Blender. Selbst Werks OC Modelle (hier bspw. 1080TI FTW3 von EVGA) schaffen da teils ihren Takt nicht über Tage hinweg stabil zu halten. Auf den EVGAs habe ich -150 auf der GPU - resultiert irgendwo im Bereich 1,8GHz und je nach Umgebung bei um die 70°C GPU. Hält dann aber auch mal ne Woche durch. Und da hab ich über UV nichtmal nachgedacht.

Meiner Erfahrung nach ist das bei AMD nicht anders - nur interessiert sich von den ganzen Navi/Vega GPU Usern im privaten Umfeld sogut wie überhaupt keiner für Anforderungen in Sachen Stabilität aus dem HPC Bereich. Auf 5mV und/oder 5MHz an die Kante kalkuliert funktioniert nicht für Dauervollast. Never...


Wenn wir nun auf den HPC Ampere zurück kommen bzw. auf den von dir genannten AMD Gegenspieler wäre halt nach wie vor die Frage, wo der drastische Effizienzsprung herkommen soll, wenn die 300W Vega20 GPU mit "halber" ALU Anzahl auf der einen - 96-128CU aber auf der anderen Seite stehen.
Kann natürlich alles nur ne Ente sein und es gibt nur 50% oder so mehr Leistung - dann braucht es auch keinen deutlichen Sprung in der Effizienz ;) Weder bei NV noch bei AMD...

Aber eigentlich ist der Rest ziemlich OT hier ;)
Das stimmt so leider nicht. Die 7970 (möge sie in Frieden ruhen) wurde im Dezember 2011 veröffentlicht und die GeForce 680 kam 3 Monate später. (nach der 680 gabs nur die 690 - eine Dual-GPU-Karte. Hier von "mickrig" zu sprechen ist irreführend, es war Nvidias Top-Karte - bis Mitte 2013) Während die beiden Karten zum Release relativ gleich auf lagen, stiegt die Performance der 7970 durch Treiberupdates über die Jahre (!) gehörig an, während das Niveau der 680 sich kaum noch verändert hat - gibts sogar Youtube-Videos dazu, die den Verlauf betrachten.
Mickrig, was soll man sonst dazu sagen? Tahiti als GHz Edition hat 40% mehr Shaderrohleistung als die 680! Das ist meine Interpretation von mickrig, wenn dieses Ding dann gleich auf agiert... Das ne Tahiti GPU ggü. Kepler irgendwann nach Jahren am Markt ihren anfänglichen Rückstand aufgeholt hat, ist nett für den Kunden - aber absolut bescheiden für AMD als Hersteller. Denn während NV munter GK110 als "neue" Generation vermarktet hat und Kunden, die nach der Leistung streben/strebten das als Wechselgrund sahen, gab es bei AMD in der Form keinen wirklichen Sinn. Hawaii war anfangs "nur" ~18% schneller als ne Stock 7970GHz. Ne 780TI GK110 legte um 50+% auf eine 680 zu. Hawaii Leistungsskalierung steigerte sich - analog Tahiti - auch erst über die Jahre. Bis hin zu Maxwell, der wieder klar schneller als Kepler war und Wechselgründe bot - während AMD weiter an der Technik fest hielt (oder nur seichte Besserung bot - Tonga bspw.)

Nicht falsch verstehen, aus Kundensicht ist das klar gut - aber AMD braucht eben auch mal ein paar Dollar in der Tasche. NV hat es geschafft mit Kepler und Maxwell 2-3x die Kunden abzuholen. Gerade im HighEnd Bereich 680 -> 780TI -> 980 oder 980TI, war absolut nicht unüblich.
Bei AMD in der gleichen Zeit -> HD7970 oder HD7970GHz -> ?
Wer länger gewartet hat, R9-290(X) -> ?
Ein Schuh wird/wurde vllt drauß, wer ne günstige Tahiti HD7950 später mit ner R9-390(X) getauscht hat. Dann haben sie 2x "verdient", hängen bliebt aber deutlich weniger...

An dieser Stelle muss man aber vorsichtig sein keine Äpfel mit Birnen zu vergleichen. Beim Launch der Karten war die 680 schneller - was dann auch das initiale Kaufverhalten prägt. Niemand kauft sich eine Karte und spekuliert auf 10% Performance-Verbesserung in 3 Jahren, die vielleicht kommen möge oder nicht um damit dann seine Kaufentscheidung zu validieren. 3 Jahre ist der mittelfristige Neukauf-Zyklus bei Grafikkarten.

Ich möchte dazu noch anmerken, dass meine Karte keine GHz Edition war, diese aber ohne Anstand auf 1150MHz übertaktbar war und so auch 6,5 Jahre durchgehalten hat. Speicherwerte habe ich leider nicht mehr im Kopf, der hatte aber auch Luft nach oben. Die 680 - soweit ich mich erinnern konnte, hatte kein so hohes Übertaktungspotential. Das aber nur am Rande. Dem durchschnittlichen Käufer juckt das nicht die Bohne.
Hier stimme ich dir in beiden Aussagen ziemlich vollständig zu. Gerade das mit der Leistungsspekulation in die Zukunft. Tahiti und Hawaii haben einfach übel im Vergleich zugelegt. Tahiti krazt an der Titan classic bzw. überholt diese teils gar in so manchem Titel. Rein von der Rohleistung ist das aber auch eigentlich das, was man hat erwarten können! Zumindest ggü. der 780, denn das ist Tahiti Shaderpower +- minimale Unterschiede. Titan classic liegt ca. 10% in Front auf dem Papier, aber real praktisch damals war das einfach nicht gegeben.

Was die Taktraten von GK104 anging. Meine 680er liefen 1296MHz - aber klein Kepler hatte massiv ein Bandbreitenlimit, sodass die Taktraten zwar anlagen, aber je nach Titel der Takt im Wurst-Käse nur 1/2 skalierte. 30% mehr Takt von 1GHz auf 1,3GHz also nur 15% mehr Leistung bot. GK110 hat das deutlich besser hinbekommen - und ließ sich ebenso in die gleiche Taktregion prügeln... ;)
 
Also @fdsonne dann hatte ich Deine Aussage zum Aufholen wirklich in den falschen Zusammenhang gestellt. Natürlich wäre es in diesem Thread logisch gewesen, an die Profi-GPUs zu denken. Da kann ich zwar nicht mitreden, weil ich nicht verfolgt habe, wie die beiden sich da schlagen. Eigentlich hätte ich durchaus gedacht, dass Fiji und Vega sich da besser schlagen als bei Games.

Aber es bleibt dabei, dass das eben nur ein Markt ist. AMD hat, wie ich ja sagte, in einigen Preisbereichen aufgeholt. Das ist nicht super, aber ein Anfang. Es klingt bei Dir immernoch so, als wäre AMD langfristig dem Untergang geweiht, wenn Sie gegen Nvidia nicht ganz oben mithalten können. Sind Ford und PSA dem Untergang geweiht, weil sie oberhalb der Mittelklasse keine Konkurrenten für Audi, BMW und Mercedes haben? Sind Toyota, Renault-Nissan, Fiat-Chrysler usw. am Ende, weil Ihre Oberklasseprodukte technisch nicht ganz mit ABM mithalten können? Wird Porsche keiner mehr kaufen, weil ein McLaren, Bugatti oder Lamborghini deutlich mehr Leistung hat?

Und wie viele ja schon geschrieben haben, wird AMD sich dem Profi-Bereich demnächst mit Arcturus auch mit Macht widmen, da würde ich dien Sieg der Grünen nicht vorschnell erklären.

Ich sehe das so, rein vom Gefühl wähle ich eher GRÜN statt ROT! Und hatte immer RECHT, so für mich :geek:. Gruß Harry
Woher willst Du das wissen, wenn Du nie was rotes hattest,.

Leute, AMD hat mit KEINER Gen nvidia das Wasser reichen können, nicht im Preis, nicht mit der TDP, nicht mit FPS, nicht mit Features und noch nicht einmal mit technologischem Vorsprung und zum vielzitierten P/L Verhältnis zählt nicht nicht nur der Preis, sondern auch die Leistung ;)

AMD Karten sind gut, aber eben nur 2. Liga.

Dümmliche Aussage, deren Falschheit ja schon einige gezeigt haben. Da kann man auch nicht die vor-AMD ATIs ausschließen. 9700 Pro, 9800 Pro, X850XT und auch deren Derivate, HD5870, HD7970 und R9 290X waren schon teils ziemlich deutlich obenauf. Bei der X1900/1950XTX bin ich mir jetzt nicht sicher. Auch unterhalb der Topmodelle hatte ATI/AMD oft gute Produkte, X800XL und GTO, HD3850/4850, HD5770/5850, HD6870, HD7870/R9 270X und R9 380(X) waren sehr gute Produkte der (oberen) Mittelklasse, die ihren Konkurrenten mindestens das Wasser reichen konnten.

Kürzlich habe ich beim Durchstöbern alter Benchmarks auch gesehen, dass GCN 1.0 in Form von HD7870/7950/7970 bzw. 270X/280/280X und die Nachfolger Tonga und Hawaii sowieso sich in neueren Parcours deutlich besser schlagen als Kepler. Da zweifle ich schon fast, ob meine 2014 für 140€ gebraucht gekaufte Gigabyte GTX 670 2GB damals die beste Entscheidung war und ich nicht eher eine AMD gekauft haben sollte.
 
Toll 50 % hier und 50 % da.Wenn beide 50 % mehrleistung machen,dann ist freilich der Ausgang natürlich so,das es wie im moment ist.Dann würde sich am verhältnis sich nix dran ändern.Ist halt dann die Frage,was das dann am ende bringt,weil so kann man den Abstand nicht aufholen sondern nur den Abstand beibehalten um nicht noch weiter abgehängt zu werden.Ist auch keine schöne sache wenn das wirklich so kommt,wir werden ja sehen,was kommen wird.
 
Wie sieht es denn momentan/zukünftig in der Spieleentwicklung diesbezüglich aus?
Mit den neuen Konsolen am Horizont, virtuellen Welten die immer größer und komplexer werden, die ganzen Physik-Berechnungen, zerstörbaren Objekten, prozeduralen Welten etc.
Hier müssten doch Fließkommaberechnungen FP32 oder gar FP64 immer mehr von Vorteil gegenüber ganzen Zahlen oder FP16 sein? Die Berechnungen sind teils deutlich schneller als bei ganzen Zahlen.
Andererseits ist hier die Basis für Fehler größer - wiederum scheint die Genauigkeit aber auch auszureichen, sonst würde man solche Berechnungen auch nicht machen^^

Hat jetzt nur der Vollausbau des Turing Chips FP64 Kerne verbaut? RTX 2080 ti kann doch aber auch fp64 Berechnungen durchführen, nur halt deutlich langsamer (1:32).
Vollausbau 72 SMs heißt es " The TU102 GPU also features 144 FP64 units (two per SM), which are not depicted in this diagram. The FP64 TFLOP rate is 1/32nd the TFLOP rate of FP32 operations. The small number of FP64 hardware units are included to ensure any programs with FP64 code operates correctly."

Und da Turing nun auch fp32/64 gleichzeitig kann, was ja den ganzen gp-gpu Berechnungen zugute kommt: Wie sieht es da bezüglich den Kosten und der Effizienz aus?
FP64 Einheiten verbrauchen mehr Fläche als FP32? Somit höherer Stromverbrauch?
Möglich dass sich das Verhältnis zugunsten Fließkommaberechnungen und Einheiten verschiebt? Ich meine nun auch raytracing mit ins Boot geholt.
 
Du willst also damit sagen,das Raytracing von FP64 profitieren könnte.Hm ist halt die Frage ob sich das denn überhaupt lohnen würde,dies so zu machen.Denn ich denke mal Nvidia wird kein Interesse an einem Stromfresser und heizungs Chip haben.Am besten wäre es,gleich ganz auf FP64 zu verzichten,dann hat man auch mehr Platz für FP32 EInheiten und schwups mehr Leistung.Wäre auch deutlich sinnvoller,weil Gamer Grafikkarten ja garkeine FP64 Einheiten gebrauchen können.Wird beim GPU VIdeoumwandeln etwa echt wirklich FP64 benötigt oder geht das etwa auch durch FP32 Einheiten,mit der selben Qualität?
 
Aber es bleibt dabei, dass das eben nur ein Markt ist. AMD hat, wie ich ja sagte, in einigen Preisbereichen aufgeholt. Das ist nicht super, aber ein Anfang. Es klingt bei Dir immernoch so, als wäre AMD langfristig dem Untergang geweiht, wenn Sie gegen Nvidia nicht ganz oben mithalten können.
Dann verstehst du mich da leider komplett falsch - was bringt es denn, wenn man in einer gewissen Konkurrenz Situation den Punkt zum Betrachten zufällig dann setzt, wenn das Pendel beim hin und her schwenken genau auf die Partei zeigt, die man argumentativ hervorheben möchte?
Gemessen am Fortschritt kommt eine NV genau so mit ihrem 16/12nm Nachfolge Produkten wie eine AMD auch. Es gibt nunmal keinen fixen Zeitpunkt für die Releases. Da braucht man mMn dann aber auch eben nicht sich nen Zeitpunkt picken um eine Wertung abgeben zu wollen, auf die man dann behaart, weil das gerade so passt. Im Wechsel zwischen den Architekturen und Fertigungen kommt nach Turing und Volta bei NV eben Ampere, im März gibt es mit hoher Wahrscheinlichkeit Details an denen man klar ableiten wird, wie viel eine AMD aufgeholt oder verloren hat. Denn die Effizienzbewertung gilt ziemlich 1:1 im HPC Bereich wie auch im Mainstream analog...

Betrachtet man die Entwicklung/den Fortschritt etwas differenzierter und von weiter oben, dann spielt das auch weniger eine Rolle, ob das jetzt mal ein Jahr mehr oder weniger ist an Zeit zwischen Produkten. Man erkennt klar die Fertigungsklassen einzelner Generationen. Und die kann man auch 1a vergleichen. Anders im CPU Bereich bspw. - hier hat Intel den Fertigungsvorteil mehr oder weniger komplett eingebüßt. TSMC und Samsung haben also gut 3-4 Jahre Vorteil komplett aufgeholt. Und Intel kann das jetzt nicht aus dem Hut zurück biegen.

Siehst du den Unterschied? Selbst wenn du in 1-2 Jahren nochmal nach siehst, der Vorteil, mühsam über Jahre bis Jahrzente aufgebaut ist weg... Und bleibt vorerst auch weg. Wenn sie das fixen, dann nicht in der nächsten Zeit. Während NV einfach nur liefern wird, was eh geplant ist - und eine Aussage zum Abstand mit nur einer zeitlich begrenzten Gültigkeit obsolet macht.

Sind Ford und PSA dem Untergang geweiht, weil sie oberhalb der Mittelklasse keine Konkurrenten für Audi, BMW und Mercedes haben? Sind Toyota, Renault-Nissan, Fiat-Chrysler usw. am Ende, weil Ihre Oberklasseprodukte technisch nicht ganz mit ABM mithalten können? Wird Porsche keiner mehr kaufen, weil ein McLaren, Bugatti oder Lamborghini deutlich mehr Leistung hat?

Und wie viele ja schon geschrieben haben, wird AMD sich dem Profi-Bereich demnächst mit Arcturus auch mit Macht widmen, da würde ich dien Sieg der Grünen nicht vorschnell erklären.
Der Autovergleich hinkt. Aber ziemlich gewaltig...
Der Vergleich, passend zu dem, was ihr hier sagt, wäre nen alten Golf oder jedes andere KFZ mit den alten Spezifikationen in Sachen Verbrauch und Abgasverhalten ggü. der niegel nagel neuen Errungenschaft der Konkurrenz zu stellen und dann zu sagen, die haben aber aufgeholt, weil man sich eben genau den Punkt gepickt hat, wo der eine am Start ist, der andere aber (aus welchen Gründen auch immer) noch nicht.
7nm und Ableger als Fertigung wird noch eine Weile halten müssen. Genau so wie die 16/12nm ziemlich lange gehalten haben und 28nm davor auch. Das ist alles mehr oder weniger "eine" Generationsstufe. Wenn man jetzt Technik vergleichst, müsste man mMn sehen, wie waren die Abstände bei den 28nm Modellen, wie bei den 16/12nm Modellen und wie bei den 7nm Modellen. Man wird erkennen, dass 28nm AMD vs. NV recht vergleichbar war. 16/12nm die Lücke recht groß wurde und mit 7nm wäre halt die Frage...

Und was den Sieg der Grünen angeht - warum denn immer mit so Unwichtigkeiten argumentieren? Es geht doch nicht um Sieg oder Niederlage? Das ist mMn Stammtisch, nix mehr... Die Technik ist interessant genug um sich über Details unterhalten zu können. Ob da jetzt Grün oder Rot oder Blau oder weiß der Geier wer das Rennen macht, ist doch nebensächlich.

Wie sieht es denn momentan/zukünftig in der Spieleentwicklung diesbezüglich aus?
Mit den neuen Konsolen am Horizont, virtuellen Welten die immer größer und komplexer werden, die ganzen Physik-Berechnungen, zerstörbaren Objekten, prozeduralen Welten etc.
Hier müssten doch Fließkommaberechnungen FP32 oder gar FP64 immer mehr von Vorteil gegenüber ganzen Zahlen oder FP16 sein? Die Berechnungen sind teils deutlich schneller als bei ganzen Zahlen.
Andererseits ist hier die Basis für Fehler größer - wiederum scheint die Genauigkeit aber auch auszureichen, sonst würde man solche Berechnungen auch nicht machen^^
Die höhere Genauigkeit ist irrelevant in Games aktuell. Das ist bei Wissenschaftlichem Zeugs ne andere Nummer, aber in Games könnte der Trend sogar in die andere Richtung gehen. FP16 ist in Teilen schon ausreichend. Das AI/KI Zeugs als aktueller Trend profitiert in Games auch nicht von der Genauigkeit, sondern eher vom Speed. Die Tensor Cores sind mehr oder weniger Einheiten mit niedrigerer Genauigkeit und damit "schnell" ggü. den klassischen Shadern. Die RT-Cores sind da noch ne Sonderlocke, da man mit der Gigaray/s Marketingbezeichnung irgendwie nicht viel anfangen kann.
Das kann man schwer bis unmöglich gegen irgendwas einordnen - bestenfalls gegen die Nachfolge-Technik oder wenn es irgendwann mal was verwertbares gibt, wie einen RT-Benchmark mit DXR Backend. Dann könnte man ggf. was gegenstellen oder Relationen bilden.

Hat jetzt nur der Vollausbau des Turing Chips FP64 Kerne verbaut? RTX 2080 ti kann doch aber auch fp64 Berechnungen durchführen, nur halt deutlich langsamer (1:32).
Vollausbau 72 SMs heißt es " The TU102 GPU also features 144 FP64 units (two per SM), which are not depicted in this diagram. The FP64 TFLOP rate is 1/32nd the TFLOP rate of FP32 operations. The small number of FP64 hardware units are included to ensure any programs with FP64 code operates correctly."

Und da Turing nun auch fp32/64 gleichzeitig kann, was ja den ganzen gp-gpu Berechnungen zugute kommt: Wie sieht es da bezüglich den Kosten und der Effizienz aus?
FP64 Einheiten verbrauchen mehr Fläche als FP32? Somit höherer Stromverbrauch?
Möglich dass sich das Verhältnis zugunsten Fließkommaberechnungen und Einheiten verschiebt? Ich meine nun auch raytracing mit ins Boot geholt.

Auch die kleineren Modelle haben FP64 Einheiten. 1:32 bleibt im Verhältnis wenn ich das auf die Schnelle richtig sehe, gegeben.
FP64 braucht natürlich entsprechend Fläche, ob das jetzt hart Faktor 2 ist oder weniger, kann ich aus dem Hut nicht sagen, aber groß dürfte es schon in so eine Richtung gehen. Ähnliches gilt auch für den Verbrauch. Soo viel Unterschied ist bei Volta bspw. soweit mir bekannt nicht, ob da jetzt FP64 Last oder entsprechend doppelt durchgesetzt, als FP32 Last anliegt.

Das "Verhältnis" IST schon lange bei FP - laut NV ist es im Schnitt ca. bei 1/3tel INT vs. FP. NV hat trotzdem die INT Einheiten dran gebaut und kann diese gleichzeitig ansprechen mit Turing bspw. Ampere wird das wahrscheinlich ähnlich handhaben, obwohl aussteht, in welchem Verhältnis.
Bei den HPC Märkten kommt es eh drauf an, was berechnet wird - gemessen an Games ist da eher die Frage, wie die Entwickler drauf aufspringen. Der Unterschied pro Turing ggü. Pascal (und AMD Ablegern) könnte mit der Zeit also größer werden. Mancher wird das dann als künstliche Bremse von NV sehen, wie seinerzeit bei Kepler vs. Maxwell. Aber das kann ganz andere Gründe haben, wie eben mehr INT Anforderung als Anfangs noch...

Wird beim GPU VIdeoumwandeln etwa echt wirklich FP64 benötigt oder geht das etwa auch durch FP32 Einheiten,mit der selben Qualität?
Die Umwandlung kommt von der Videoengine - das ist ne komplett, aber wirklich ganz komplett andere Baustelle!
Und ja, auf FP64 zu verzichten (oder das drastisch einzukürzen) ergibt Sinn. 1:32 ist es bei Turing. 2x pro SM ist jetzt nicht die Masse, das spart nicht viel Fläche das noch wegzukürzen, aber man verliert die Kompatibilität. Einer der Gründe, warum NV hier offenbar zwischen HPC und Mainstream seit Pascal eben einen Slit macht. Im Mainstream ist das so nicht notwendig. Und im HPC Markt kann man den Chip hin auf vollen Durchsatz ausrichten. Selbst wenn das weniger Takt bedeutet um den Verbrauch nicht zu sprengen - während im Gaming der Takt durchaus hoch sein darf, denn mehr Takt bedeutet auch gleichzeitig mehr Durchsatz bei den TMUs, TAUs, ROPs usw. usf. Den ganzen Rest müsste man ohne Takt auch mit Skalieren = mehr Fläche.

Ich könnte mir sogar vorstellen, dass man irgendwann komplett auf Compute only Chips geht! Also alles an Grafikbeikram da raus fliegt. Volta kann immerhin noch Grafik - siehe TitanV, mal schauen was Ampere da fabriziert. Vega20 kann bekanntlich auch noch Grafik.
 
Zuletzt bearbeitet:
Puh, auf Deine WoT kann man echt kaum sinnvoll antworten, wenn man noch was anderes machen will.

Auch Du verstehst mich falsch. Ich picke mir nicht nur einen kurzen Zeitraum raus und betrachte nur den. Ich betrachte viele Zeiträume nebeneinander.
Du bist ja nun auch lang genug hier dabei. Du solltest wissen, dass es in diesem Geschäft keine Verlässlichkeiten für die Zukunft gibt. Sonst hätte ATI nie zur Konkurrenz für Nvidia und AMD nicht für Intel werden können. Alle vier hatten immer wieder große Würfe oder große Pannen, wo man Zweifel hatte, wie die das wirtschaftlich verkraften können. Sie haben es immer überlebt und uns immer wieder überrascht.

Aktuell sehe ich eben, dass AMD in einigen Preissegmenten spät, aber ordentlich gekontert hat. Das ist ein bischen wie beim R580 oder RV670, wo der ursprüngliche Highendchip ziemlich schlecht war, eine Optimierung in einem anderen Preissegment dann aber recht erfolgreich war.

Wer weiss, wann Nvidia in seiner unfassbaren Arroganz wieder einen Thermi landet, also eine neue Generation Probleme kriegt, später erscheint und dann nicht ganz zufriedenstellend ist bzw, durch Fertigungsprobleme weniger Takt oder mehr Energiehunger als nötig hat?
Wer weiss wann AMD wieder wie bei HD5870 und HD7970 frühzeitig einen guten Wurf landet?

Vielleicht verschätzt sich NV ja, spendiert den Consumer-Ampere weiterhin nur die Speichermengen wie bei Turing und haut gar eine RTX 3060 mit 6GB und 192Bit für 400-450€ raus und AMD hat plötzlich mit 16GB die besseren Argumente?

Zum Autovergleich: Auch hier betrachte ich eben auch nicht einzelne Modelle nur zu einem bestimmten Zeitpunkt. Vergleiche von neuen Modellen mit den alten, kurz vor der Ablösung stehenden Konkurrenzmodellen sind ähnlich unfair wie bei Grafikkarten, weil eben alle Hersteller unterschiedliche Modellzyklen haben, wie bei Grafikkarten. Aber auch hier kann es mit jedem Generationswechsel unterschiedlich laufen, eine Mercedes A-Klasse kann vom biederen Opa-Auto zum sportlich-stylischen Luxuskompakten werden, ein BMW 1er kann vom sportlichen Hinterradantrieb und längseingebauten Reihensechszylinder zum 0815-Frontantrieb mit quereingebauten Reihenvierer wechseln und so reichlich Alleinstellungsmerkmale einbüßen, die Karten werden neu gemischt.
Was ich mit dem Autovergleich eigentlich sagen wollte: Ab der Mittelklasse mögen ABM die Platzhirsche sein, For Mondeo, Opel Insignia, Peugeot 508 usw. kämpfen ums Überleben, in der Kompaktklasse und v.a. der Kleinwagenklasse haben diese Hersteller aber konkurrenzfähige oder besserre Produkte. Boxster/Cayman sowie 911er mögen nicht so schnell wie viele Lambos oder gar ein Bugatti sein, spielen aber in einer anderen Liga.

Also, nur weil AMD momentan vielleicht nicht ganz oben mithalten kann oder spät konkurrenzfähige Produkte geliefert hat, muss es nicht sein, dass NV auch mit Ampere in allen Segmenten überlegen ist.
 
So mal spekulatius
Zuerst die situation bei den gpu preisen ist deshalb entstanden wiel es zuvor noch nie so einen situation gab.
amd hatte schon mal eine harte zeit 2007 bzw ati 2003
damals war man nvidia gut 2 gen hinterher
Was an Fertigung lag und an performance für den euro
Was war damals anders, kosten sicherlich geringer aber vergleichbar
Es gab quasi keine vollen lager wie derzeit.
damals musste man noch was bieten damit sich was verkauft . Namen waren wie schall sobald eine schnellere gpu herauskam wurde die alten fallen gelassen .
gutes bsp waren die curie gpu anfangs noch Verhätschelt und belacht wegen eines Föhn Kühlers (fx5900gt) und später gefeiert als gforce 7900gtx
Selbe Architektur
Dann kam aber g80 tesla und warf alles um und amd hatte nix zudem Zeitpunkt
amd/ati ende 2006 HD1900xt nvidia mit 8800gtx mal zum selben preis etwa 500€ doppelt so schnell.
Die HD2xxx floppte technisch sowie performance
Erst die HD3xxx serie brachte amd wider zu nevidia bei deutlich gesenkten preisen
2009 kam Amd mit vliw hd4xxx zurück un dbekam gut 6 Monate Vorsprung bei der Fertigung an die Leistungsspitze
Bis nvidia 2010 gtx480 brachte viel zu heiß viel zu laut.
Was nicht lang so blieb nur 6 Monate späte kam gtx580 und machte wieder alles platt
Nebenbei die preise blieben stabil
Amd lag eine gen zurück

Der große Umbruch kam mit gcn und den Fokus auf hpc
als dann nvidia ihre gaming und hpc Lösungen klar trennte und somit mit einen Mittelklassen chip den high end chip von amd besiegte war klar wohin die reise geht bei den preisen.
GCN war ein reines Desaster für gamer für hpc wars ok aber zu stromhungrig
man spekulierte auf 20nm bei glofo
was bekanntlich nicht kam

2015 konnte amd nicht mithalten mit fiji high end gpu und war immer noch zu heiß und stromhungrig zudem die Beschränkung auf 4gb vram tat ihr übriges
2016 endlich kann amd im Einsteigerbereich mithalten
2017 kam überraschend ein neuer markt für Konsumenten gpu auf = mining
Was an seinen Höhepunkt dez 2017 und fall märz 2018 brachte
Das mining auf Konsumenten gpu irgendwann nicht mehr geht bzw nicht lohnt war klar von begin an , aber sowas interessiert Kurzzeitige Geschäftemacher nicht
von sept 2017 bis Januar 2018 war keine amd gpu mehr im msrp
Die ganzen mining firmen haben den markt Leergekauft
Das brachte amd dazu die Verträge mit glofo um die wafer pflichtabnahmen auf die gpu chips auszulegen und die kapazitäten darin zu binden mehr als geplant und vom alten marktsituation Kalkulierten chipmengen.
als dann märz 2018 die nachfrage abrupt abbrach hatte man zu viele chips auf lager bei amd
Nvidia ebenso
Nvidia konnte das per neue gen und höheren preisen quasi egalisieren. bei amd tut es sich da sehr schwer. Weil die mengen die zuviel sind immer noch im lager sind
Und man schon einen neue gen hat aber diese nicht voll ausfahren kann also macht man dasselbe wie nvidia und setzt deutlich zu hohe preise an. Damit endlich die lager leer werden.

Den amd kann so eine situation nicht gut finden quasi schreibt ,man zu Selbstkosten die polaris20 chips ab
Und ein ende des Lagerbestands ist kaum in Sicht.
Folge die preise für schnellere gpu bleiben hoch nvidia hat keinen Grund die preise zu senken da keine Konkurrenz. amd kann nicht wenn sie nicht die polaris chips quasi verschenken und draufzahlen.
Das geht in der Bilanz nicht gut. auch aus Sicht der Schuldenlast die man endlich los werden will.
nvidia dagegen steht besser da. keine schulden hohe R&D und Marktführer
man diktiert quasi die gpu preise.

Was tun bei amd zuerst muss das lager leer werden.
Mit lager meine ich die vertraglich pflicht abnahmen der glofo wafer
Dann muss amd nvidia möglichst früh an der high end gpu debütieren.
Wenn das nicht gelingt also noch im Sommer 2020 muss man ab herbst quasi zum showdown mit dem Mittelklassenchip gleichziehen.
Das wäre die 700€ region aktuell (gh104 vs n21)
und den rest des lineups refreshen mit mehr vram
bei den preisen wird sich kaum was tun ich erwarte nur mehr vram ansonsten bleibt die Leistung quasi stehen.Das wäre der schlimmste fall der eintreten könnte. ist aber sehr unwahrscheinlich.
Aber das hängt maßgeblich von den Konsolen ab.
vielleicht bekommt man bei 400€ bereich etwa 25% ,mehr Leistung
Und beim wichtigen 300€ bereich max 20% gemessen an der konkurrenz

Das kann man leicht ausmachen was die ps5 ~499€ kostet etwa 9tf bringt
9tf entspricht am pc etwas um die 10-11tf aufgrund des api layers
11tf an aktuellen shader ipc sind
64*2*44*1,9=10,7tf (2816 shader)
ich glaube aber eher das man im 350€ bereich auf 3328 geht
im max also 44%
im 250€ bereich wird man dagegen die bisherige 2560 shader behalten
ergibt mit 12gb gddr6 14ghz sattes 12% schneller gpu für denselben preis einer rx5600xt mit mehr vram 12gb
um die 279€
was nvidia tun wird ist offen ich erwarte aber eine rtx3050 mit etwa 2560 oder 2816 shader
Der gh106 wird vermutlich entweder 3584 shader haben oder 3840
Daraus lassen sich 3 sku erstellen rtx3070 rtx3060 rtx3050
vor ende 2020 wird das aber nix
ich ahne aber das nvdia hier nochmal die sku heraufstuft
gh102 only HPC als quaddro
gh104 titan 1300€ ~16gb vram 16ghz 5120 shader 1,4ghz
gh106 high end rtx3080 ab 700€ 16gb 256bit 16ghz ~3840 shader~2ghz
gh106 cut rest ab 279€-500€ 12gb 192bit 14ghz 2816-3328-3584 ~1,8ghz
gh117 low end 179-249€ 8gb ram 128bit 2560shader cut dann 2048 und 1536 shader ohne rtx ~1,9ghz
ampere wird HPC only

Nvidia hat den luxus einfach neue sku zu bringen ohne Lagerbestand, zwar sitzt man auf rtx2xxx karten aber die verkaufen sich dennoch zu so extremen Margen das ein 50% preiscut kaum wehtut.
Szenario...... wen die rtx3080 mit 3840 shader kommt was etwa 25% schneller ist und die rtx3070 auch in etwa 10% schneller ist dann wird die rtx2080s kurzzeitig auf unter 400€ droppen.
Da geht das lager ganz schnell leer.den so viele wird nvidia nicht vorverkauft haben.
am härtesten beim preis wird es die rtx2070s treffen und unter 250€ droppen.
Das liegt primär am geringeren vram 12 vs 8gb
Selbst wen die rtx3050 nur 10% mehr leistet bei einen Einstiegspreis um die 279€ wäre es die bessere option.
Das aber hängt primär von amd ab.

Das ist der Zeitpunkt sich eine neue gpu zu kaufen wann ist offen das kann schon im sommer 20 soweit sein aber auch erst september okt 20.
Eine rtx3050 erwarte ich aber vor dez 20 nicht
Etwas gutes hat die lange Nutzungsdauer von GPu aber.
man hat mehr geld um die nächste gpu zukaufen.als geplant.
Max budget war bei mit immer 300€ vermutlich geht das direkt auf 350€ zu. hängt davon ab ob 12gb vram für unter 300€ gibt oder nicht.
nebenbei meine gtx1060 wird bald 4 die längste gpu Lebensdauer bisher.
 
Zuletzt bearbeitet:
[QUOTE="fdsonne

Die Umwandlung kommt von der Videoengine - das ist ne komplett, aber wirklich ganz komplett andere Baustelle!
Und ja, auf FP64 zu verzichten (oder das drastisch einzukürzen) ergibt Sinn. 1:32 ist es bei Turing. 2x pro SM ist jetzt nicht die Masse, das spart nicht viel Fläche das noch wegzukürzen, aber man verliert die Kompatibilität. Einer der Gründe, warum NV hier offenbar zwischen HPC und Mainstream seit Pascal eben einen Slit macht. Im Mainstream ist das so nicht notwendig. Und im HPC Markt kann man den Chip hin auf vollen Durchsatz ausrichten. Selbst wenn das weniger Takt bedeutet um den Verbrauch nicht zu sprengen - während im Gaming der Takt durchaus hoch sein darf, denn mehr Takt bedeutet auch gleichzeitig mehr Durchsatz bei den TMUs, TAUs, ROPs usw. usf. Den ganzen Rest müsste man ohne Takt auch mit Skalieren = mehr Fläche.

Ich könnte mir sogar vorstellen, dass man irgendwann komplett auf Compute only Chips geht! Also alles an Grafikbeikram da raus fliegt. Volta kann immerhin noch Grafik - siehe TitanV, mal schauen was Ampere da fabriziert. Vega20 kann bekanntlich auch noch Grafik.
[/QUOTE]
ALso braucht es beim Umwandeln kein FP64.Gut zu wissen.Und für wen sind dann die Compute Onyl Chips dann gedacht dann.Ich meine damit kann man doch nicht wirklich Zocken oder etwa doch?
 
ALso braucht es beim Umwandeln kein FP64.Gut zu wissen.Und für wen sind dann die Compute Onyl Chips dann gedacht dann.Ich meine damit kann man doch nicht wirklich Zocken oder etwa doch?

Für den HPC Bereich... Alles was Tesla im Namen bei NV bspw.
Es gibt schon länger immer mal wieder Produkte, die primär in diesen Märkten angesiedelt sind. Bei NV wäre das bspw. der GK210, den es als Tesla und ich meine noch bestenfalls als Quadro gab. Sowie GP100, Telsa bzw. Quadro only. GV100 hat immerhin noch ne TitanV als Zwitter im Mainstream und Profibereich erhalten. Ansonsten wieder Tesla/Quadro only.

In diesen Märkten macht NV einen relativ hohen Umsatz und ziemlich sicher auch ne recht hohe Marge.
 
Und bei diesen ganzen Server und Höchtesn GPUS ist FP64 ,sowie auch Compute only am wichtigsten.Alles andere Braucht weder FP64,noch wirklich viele Compute einheiten.Also kann man es beim zocken und GPU umgewandeltes dann sowas komplett weglassen.Ja vielleicht kommt ja irgewndwann mal sowas auch mal,will das meisten aus der GPU rausholen und dabei so wenig strom wie möglich zu verbrauchen und auch so wenig Abwärme ,was halt geht.
 
Was ich mit dem Autovergleich eigentlich sagen wollte: Ab der Mittelklasse mögen ABM die Platzhirsche sein, For Mondeo, Opel Insignia, Peugeot 508 usw. kämpfen ums Überleben, in der Kompaktklasse und v.a. der Kleinwagenklasse haben diese Hersteller aber konkurrenzfähige oder besserre Produkte. Boxster/Cayman sowie 911er mögen nicht so schnell wie viele Lambos oder gar ein Bugatti sein, spielen aber in einer anderen Liga.
Das Problem bei diesem Autovergleich ist aber, dass das Auto eben aus weit mehr Merkmalen besteht als das, was bei Grafikkarten wichtig ist. Während das bei Grafikkarten eben keine wirklichen Unterschiede gibt. Dazu kommt, dass Autohersteller nicht selten lange nicht alleine agieren. Konzerne wie VW, PSA und Fiat-Chrysler usw. Da konkurrieren zwar "Hersteller", aber real praktisch konkurriert ein Seat Leon einem VW Golf bzw. einem entsprechendem Skoda Gegenpart auch nicht wirklich. Das ist die gleiche Suppe in anderer Farbe vom gleichen Baukasten... Ein Porsche ist auch VW - ein Bugatti auch, Lambo auch, usw. usf. Das lässt es auch zu, dass "Marken" nicht in Märken konkurrieren müssen - oder eben preislich und Featureseitig gerade nebeneinander plaziert werden, wie bei dem Leon/Golf/A3/Skoda irgendwas vergleich - weil 4x Produkte zur Wahl.

Bei GPUs aber, die Architektur und der Prozess gibt den Rahmen einer gewissen Skalierungsbandbreite vor. In diesem Rahmen wird der Hersteller die Produkte mehr oder weniger beliebig hoch oder runter skalieren können. Die GPUs sind heute lange voll Modular. Da entwickelt kein Hersteller mehr DAS eine Produkt - und im zweiten Leistungsbereich gibt es DAS andere Produkt. Nein, da gibt es eine Architektur, die anhand gewisser Parameter skaliert wird.
Das sieht man ziemlich klar, wenn man die verschiedenen Produkte/Chips der verschiedenen Klasse einer Generation mal miteinander vergleicht - die Effizienz ist mehr oder weniger auf ein paar Prozent genau eher gleich, Unterschiede kommen vom Takt und wie gut man sich am Sweetspot bewegt. Die Leistungsentfaltung innerhalb des Chips ist über die Klassen meist sehr linear. Ein Mainstream Mittelklasse Chip performt fast linear mit dem HighEnd Ableger. Hier zählt maximal noch die Powerdrossel rein - die wirkt dort dagegen. Kann man aber öffnen oder versuchen auszuhebeln, dann passt das wieder.

Also, nur weil AMD momentan vielleicht nicht ganz oben mithalten kann oder spät konkurrenzfähige Produkte geliefert hat, muss es nicht sein, dass NV auch mit Ampere in allen Segmenten überlegen ist.
Woran machst du das jetzt bitte fest? Das war doch auch nirgends auch nur ansatzweise überhaupt die Aussage!
Es ging darum, dass die Wertung ob etwas ausgeholt wurde oder nicht erst dann erfolgen kann (sinnvoll), wenn die Technik auf einem vergleichbaren Level ist. NV liefert analog zu Kepler/Maxwell im Mainstream mit Turing einfach eine zweite Generation im alten Prozess. Das stellt ihre Produkte besser auf den Markt und sorgt für Anreize für die Käufer.
AMD hat sich diesen Schritt (abermals - wie damals auch) gespart und ist direkt auf die nächste Prozessstufe gegangen. Inkl. neuem Architekturansatz. Wie viel das aber wirklich gebracht hat, wird man sehen wenn Ampere das Licht der Welt erblickt. In sofern stimme ich dir natürlich klar zu, dass das nicht sein MUSS, mit Ampere und AMDs Navi.


Zum Rest, weiß nicht so richtig, wir drehen uns im Kreis habe ich das Gefühl - das ist wenig sinnvoll das weiter und weiter drin rum zu rühren.
mMn ist das so aktuell einfach nicht benenn bar, weil die Wertung nicht möglich ist. Auch das Preisthema ist da schlicht ein Problem bei der Wertung, da die Preise vom Markt abhängen und nicht davon, was die Technik am Ende leistet. Schnellere/Bessere Produkte können teils auch mal günstiger sein. Das macht so einen Vergleich auch von der Seite her ziemlich komisch... Vor allem auf die Technik bezogen. Für dich als Endkunde hingegen zählt möglicherweise der Preis ziemlich stark. Für mich bspw. nicht sooo wirklich. Ich kaufe das, was ich kaufen will - erfüllt es die Anforderungen und MIR ist es das wert, wird es gekauft. Fertig... Ich behaupte mal ganz frech, in den Preisregionen in denen wir hier unterwegs sind, seh ich das auch nicht völlig alleine so :d
 
Zuletzt bearbeitet:
Wie sieht es denn momentan/zukünftig in der Spieleentwicklung diesbezüglich aus?
Mit den neuen Konsolen am Horizont, virtuellen Welten die immer größer und komplexer werden, die ganzen Physik-Berechnungen, zerstörbaren Objekten, prozeduralen Welten etc.
Hier müssten doch Fließkommaberechnungen FP32 oder gar FP64 immer mehr von Vorteil gegenüber ganzen Zahlen oder FP16 sein?

Genau anders herum. Je mehr Zeug du in ein Spiel werfen willst, desto mehr Abkürzungen willst du haben um das Zeug auch effizient zu berechnen und ohne den GPU-Scheduler zuzumüllen. Da gibt es mehrere hochinteressante Tech-Talks bei Star Citizens Engine Programmierern, welche die ganzen Methoden zur Optimierung vorstellen. (ohne jetzt den Rest des Spiels zu bewerten)

Das funktioniert ähnlich wie bei der Tessellation, dass du relevante Objekte und auch deren Berechnungen filtern und priorisieren kannst - anstatt das einfach nur bei Polygonen zu machen. Gerade bei den Physikberechnungen willst du das Zeug so schnell und effizient wie nur irgend möglich berechnen, weshalb dort FP16 extrem wichtig wird.

Die Berechnungen sind teils deutlich schneller als bei ganzen Zahlen.
Das hängt davon ab, wie die Funktionen aufgebaut sind und was du damit machen willst. Wenn möglich willst du Sachen als Integer berechnen, was aber nicht immer möglich ist - vor allem bei dynamischen Prozessen, wo du Werte von der Physik-Berechnung mal eben in eine Subfunktion schiebst um dort Schadenswerte anhand von Masse und Geschwindigkeit zu berechnen. Die Konvertierung von Int zu FP kostet dann auch wieder Rechenzyklen und oftmal spart man sich diesen Keks und geht gleich überall auf FP. Aber das kommt auch von einem faulen Ingenieur, der nie Bock hatte performant zu coden - also bitte mit nem Löffel Salz nehmen. ;)

Andererseits ist hier die Basis für Fehler größer - wiederum scheint die Genauigkeit aber auch auszureichen, sonst würde man solche Berechnungen auch nicht machen^^
Jupp, in Spielen interessiert es niemanden mehr, ob der Putz von der Wand jetzt Zentimetergenau die richtige Stelle im Boden getroffen hat. So lange es glaubwürdig genug aussieht, reicht das.
 
@fdsonne :Jeder Vergleich hinkt immer, deswegen sollte man aber nicht aufhören, sie zu benutzen. Natürlich gibt es sinnlose Vergleiche, wenn Du aber mal nach Ähnlichkeiten statt nach nebensächlichen Unterschieden suchtest, verstündest Du, worauf ich hinaus will.

Auch das Preisthema ist da schlicht ein Problem bei der Wertung, da die Preise vom Markt abhängen und nicht davon, was die Technik am Ende leistet. Schnellere/Bessere Produkte können teils auch mal günstiger sein. Das macht so einen Vergleich auch von der Seite her ziemlich komisch... Vor allem auf die Technik bezogen. Für dich als Endkunde hingegen zählt möglicherweise der Preis ziemlich stark. Für mich bspw. nicht sooo wirklich. Ich kaufe das, was ich kaufen will - erfüllt es die Anforderungen und MIR ist es das wert, wird es gekauft.

Mit dem Argument brauchen wir natürlich garnicht mehr zu diskutieren. Klar, es zählt nur, was die Technik leisten kann, egal zu welchem Preis. Das mag für einige Wirtschaftsbereiche und für einen geringen Prozentsatz der Konsumenten zutreffen, die große Mehrheit wird den Preis aber nicht ausblenden können. Man kann einen WV Golf oder Ford Focus eben deshalb noch mit einem 1er BMW und Audi A3 vergleichen, obwohl letztere technisch überlegen sind, weil es eine andere Preisklasse ist, die ähnliche Bedürfnisse bedienen, aber eben mit unterschiedlichem Fokus.

Da bleibe ich dabei, aufgeholt ist eine Momentaufnahme, es zählt was aktuell kaufbare Technik jetzt und in naher Zukunft für sinnvolle Preise leisten kann. Es hilft nichts, wenn Nvidia aktuell noch ab 2070S schneller ist, wenn aber die Meisten in diesen Preisregionen garnicht kaufen wollen. Sonst hätte man ja damals auch sagen können, es sei egal, das AMD mit der HD5000-Reihe über Monate absolut überlegen war, weil NV ja dann mit Fermi mit der Brechstange irgendwann wieder die Leistungskrone zurückgeholt hat. Auch das galt ja damals nur für die GTX 480/580, darunter war es wieder in jeder Preisklasse ein hartes Ringen.
Auch wenn Ampere BigNavi und Arcturus jeweils schlagen können, wird es eben darauf ankommen, zu welchem Aufpreis diese Mehrleistung zu haben ist.
Und wie ich oben gesagt habe, wenn NV in seiner Arroganz nun die konkrete Gestaltung einzelner SKUs verkackt, kann das durchaus eine Chance für AMD sein, siehe GTX 1660Ti und RTX 2060, die kann man echt kaum empfehlen.

Da entwickelt kein Hersteller mehr DAS eine Produkt - und im zweiten Leistungsbereich gibt es DAS andere Produkt. Nein, da gibt es eine Architektur, die anhand gewisser Parameter skaliert wird.
Das sieht man ziemlich klar, wenn man die verschiedenen Produkte/Chips der verschiedenen Klasse einer Generation mal miteinander vergleicht - die Effizienz ist mehr oder weniger auf ein paar Prozent genau eher gleich, Unterschiede kommen vom Takt und wie gut man sich am Sweetspot bewegt.

Auch das trifft eben nurnoch bedingt zu. Insbesondere AMD verfolgt sein Jahren eine Strategie, bei der man unterschiedliche Architekturen bzw. Generationen in unterschiedlichen Preiskategorien und nun auch für unterschiedliche Märkte anbietet. Angefangen mit der Mischung aus VLIW5 und VLIW4, dann die verschiedenen Generationen von GCN, dann das Duett von Polaris und Vega und nun dreigeteilt in Navi10, BigNavi und Arcturus.
Erst ging es wohl nur darum, Entwicklungskosten zu sparen bzw. nicht alles auf einmal zu ändern, nun lässt man so einerseits schneller Veränderungen einfließen, entwickelt aber inzwischen auch für unterschiedliche Anforderungen ganz andere Produkte (Big Navi und Arcturus).
Nvidia hat das Gleiche auch gemacht, in geringerem Maß. Ich erinnere an den unterschiedliche Aufbau von GF100/110 und GF104/114 und kleiner, an Maxwell 1.0 und 2.0, nun an TU116 und TU106 sowie GP100 und GV100 als reine Profi-Chips, wobei Volta auch einen TU100 überflüssig gemacht hat, weil eben die Neuerungen von Turing in diesem Bereich nicht wichtig waren. Da zeigt sich der Vorteil dieses Ansatzes.
Das halte ich für klug, sehe aber einen Pferdefuß: Wenn nun BigNavi erscheint mit den tollen Änderungen von RDNA2, die ja einiges an Effizienzsteigerung und neuer Technik versprechen, die man auch bei Navi10 tlw. vermisst, Navi10 dann aber nur als Refresh neu aufgelegt wird, also RX 6700XT mit etwas mehr Takt und Effizienz dank verbesserter Fertifung, mehr oder schnellerem Speicher, bestenfalls 7nm+, aber immernoch nur RDNA1, dann ist das für Kunden nicht so attraktiv und fühlt sich an wie alter Wein in neuen Schläuchen, was nie gut ankommt, selbst wenn das Produkt gut ist.
 
Zuletzt bearbeitet:
Eine NV News die man Öffnet und ein Haufen zu AMD hier zu lesen.. Die üblichen Verdächtigen auf Missionierungs Mission..
Da fässt man sich mitlerweile nur noch an den Kopf.
 
Circle Jerking nennt man das, CB auch jede News nur Off-Topic und Fanboys die gar nichts zum Thema beitragen oder Diskurs fördern :poop:, bzw. die Diskussion immer in Richtung ihrer Marke schieben wollen.

Klar wird Jensen und Co. die Leistung Big Navis evaluieren, im Gesamtpacket ist aber schon auch bei den HTC Karten klar das man AMD komplett planieren wird, um die 6000 Shader-Einheiten für die GeForce und nicht das Platinen-Layout vermasseln lassen nach dem Shrink mit TSMC keinerlei anderen Schluss zu, das AMD plötzlich konkurrenzfähiges High-End bringt mit Raumschiffchip und Wundertreiber ist ein Hirngespinnst basierend auf gar nichts, mich würde auch stark wundern wenn man ansatzweise RT Performance in Spielen zusammenbekommt im Vergleich zu Ampere.
 
Na gut also es könnte auch sein das big Navi nicht so stark wie viele sagen werden wird also eventuell, dann muss man noch etwas Gedult haben und weiter warten, nach Navi kommt Uregano wird's schon richten ;)
 
Eine NV News die man Öffnet und ein Haufen zu AMD hier zu lesen.. Die üblichen Verdächtigen auf Missionierungs Mission..
Da fässt man sich mitlerweile nur noch an den Kopf.
Und ich hab mich schon gewundert, ob hier manche Leute Selbstgespräche führen, bis ich dann an diversen Zitaten erst gemerkt habe, das wohl die Hälfte der Poster hier auf meiner Ignoreliste steht. :fresse2:
Das neue Forum blendet die Beiträge ja jetzt komplett aus.
 
Circle Jerking nennt man das, CB auch jede News nur Off-Topic und Fanboys die gar nichts zum Thema beitragen oder Diskurs fördern :poop:, bzw. die Diskussion immer in Richtung ihrer Marke schieben wollen.

Klar wird Jensen und Co. die Leistung Big Navis evaluieren, im Gesamtpacket ist aber schon auch bei den HTC Karten klar das man AMD komplett planieren wird, um die 6000 Shader-Einheiten für die GeForce und nicht das Platinen-Layout vermasseln lassen nach dem Shrink mit TSMC keinerlei anderen Schluss zu, das AMD plötzlich konkurrenzfähiges High-End bringt mit Raumschiffchip und Wundertreiber ist ein Hirngespinnst basierend auf gar nichts, mich würde auch stark wundern wenn man ansatzweise RT Performance in Spielen zusammenbekommt im Vergleich zu Ampere.

Drei Zeilen mit wirren Aussagen, die nur mit Kommas getrennt, aneinandergereit wurden. Respekt.

Cunhell
 
Zuletzt bearbeitet:
Drei Zeilen mit wirren Aussagen, die nur mit Kommas getrennt, aneinandergereit wurden. Respekt.

Cunhell

Dafür aber ein Kommentar zum Thema und ohne persönlichen Angriff, anders als bei dir.

Zum Thema:

Ich frage mich wann wir offizielle Fakten zu den kommenden Karten von Nvidia und AMD höheren werden. Da die GDC ja verschoben wurde, auf der zu erwarten war, das Nvidia die ersten Fakten preisgibt. Es stellt sich die Frage welche Events überhaupt stattfinden werden. Ich hoffe das Nvidia trotzdem im März noch die ersten Infos raus haut.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh