nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Damit hast du recht, die Frage ist nur, ob NV das auch so sieht. Speziell in Zeiten von Dual-GPU Karten.

Auch wenn sich die Mikrorucklerproblematik gebessert hat, ist das leider nicht vergleichbar. Das hab ich AMD schon übelgenommen, dass man das damals mit der 3870X2 gemacht haben. Ich habe es Nvidia immer hoch angerechnet, echte Highendchips zu bringen und MGPU dann extra obendrauf zu setzen. Ich wäre arg enttäuscht, wenn sich das ändern würde - es sei denn, man würde eine hardwarebasierte Lösung als Ersatz für AFR finden, z.B. per Interposer zwei GK114 zu verbinden und als einen Chip laufen zu lassen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
wir leben nicht in "zeiten von dual-gpu". das ist nach-wie-vor eine option, die von einer schwindend geringen anzahl der user eingesetzt wird und ich orakle mal, dass mpgu-karten einen in der jahresbilanz nicht erwähnenswerten promilleanteil ausmachen.
Sagt der mit der Dual-GPU Karte. ^^
Natürlich ist das nur ein sehr kleiner Anteil, ich beziehe mich auch mehr die progagandistische Seite. Man kann auch bei eine Dualkarte sagen, dass man die schnellste Karte am Markt hat. Ob nun Single oder Dual-Karte ist Nebensache. Und der evtl. Anteil des GK110 am Umsatz im Gamingbereich dürfte nicht sehr hoch ausfallen... wie immer im High End Segment gibt es nur eine kleine Gruppe, die dort auch kauft. Daher ist es eben auch denkbar, dass der GK110 gar nicht kommt, wenn tatsächlich der GK114 ausreichende Leistung bietet, um AMD zu schlagen. Das wäre unschön, ist aber eben nicht undenkbar vor dem Hintergrund, dass der K20 ein kleines bisschen mehr Kohle abwirft.
Meine Meinung...
 
Zuletzt bearbeitet:
Daher ist es eben auch denkbar, dass der GK110 gar nicht kommt, wenn tatsächlich der GK114 ausreichende Leistung bietet, um AMD zu schlagen.

Das Szenario ist natürlich auch denkbar und aus Gamersicht kann es eigentlich auch nichts besseres geben wie einen entschlackten GK110 mit möglicherweise 15 SMX Paketen

Solch ein Chip hätte für sein Einsatzgebiet bessere Vorraussetzungen wie der schwerfällige Tesla/Quadro Chip

Der Anteil der GPGPU Prozesse ist für den Geforce der noch überwiegend Grafik in herkömmlicher Manier rendert doch sehr überschaubar

Die große Frage wird dabei noch eher die Wirtschaftlichkeit dieses Vorgehens sein,denn Geforce ist nun nicht gerade dafür bekannt die gewinnbringenste Sparte zu sein

Und zwei konträr laufende Chipdesigns kosten in der Entwicklung sowie Produktion auch extra Ressourcen und Geld
 
Zuletzt bearbeitet:
Das Szenario ist natürlich auch denkbar und aus Gamersicht kann es eigentlich auch nichts besseres geben wie einen entschlackten GK110 mit möglicherweise 15 SMX Paketen

Und das ist genau das, was ich mittlerweile denke. Nicht zwangsläufig mit 15 SMX, aber doch ein Desgin welches die Vorzüge vom 104er mit der Power des GK110 verknüpft. Etwas schlanker, evtl. ein paar Verbesserungen am Energiemanagement und satte Leistung. Zumindest klingt es so, wenn wir von einem neuen Design des GK114 hören.
Oder es wird ein Versuch wie Fermi 1... nein... ;)
 
Mich interessiert an erster stelle der Vollausbau mit 2880 Shader, mit WaKü @1Ghz wird diese Karte besser als jede Dual Karte skalieren.
 
ich hoffe ja ein bisschen auf eine sinnvoll abgespeckte GPU, die sich wieder als MPGU-tandem auf ein PCB packen lassen. nicht vorrangig wg. der leistung oder des potenzials, aber ich habe doch die wertigkeit und verarbeitung bei den MGPU-modellen von nvidia zu schätzen gelernt und würde in zukunft nur ungern darauf verzichten.


(..)

mfg
tobi
 
Ich denke einige sollten sich mal entspannen u. nicht schon wieder überzogene Erwartungen schüren. Auch Fermi u. Kepler waren im Vorfeld schon zu Überchips gemacht worden die alles v. AMD vernichtend schlagen werden. Klar waren ja auch im Vergleich zu den kokurrierenden AMD-GPUs riesig u. mussten deshalb ja auch wesentlich schneller sein. Ich frage mich wie viele NV-Gens es noch braucht, bis man erkennt, dass die Größe einer GPU nicht zwangsläufig auf die Performance schließen lässt. Das soll aber nicht heißen, dass es bei HD89xx/GTX7xx nicht mal wieder einen wirklich großen Abstand bei der Performance geben könnte.
 
Um ehrlich zu sein, mehr wie 14 SMX erwarte ich nicht für die GTX780. Da 20nm noch bis weit in 2014 hinein auf sich warten lassen wird voraussichtlich, könnte ich mir eine GTX785 mit allen 15 SMX vorstellen, die dann als Refresh von GK110 im Herbst/Winter 2013 kommt.
 
Um ehrlich zu sein, mehr wie 14 SMX erwarte ich nicht für die GTX780. Da 20nm noch bis weit in 2014 hinein auf sich warten lassen wird voraussichtlich, könnte ich mir eine GTX785 mit allen 15 SMX vorstellen, die dann als Refresh von GK110 im Herbst/Winter 2013 kommt.

Wäre möglicherweise auch die sinnigere Wahl nvidias. Schließlich könnte man so mehr chips verkaufen, da die ausbeute mit 14 SMX schlicht höher sein würde und man hätte auch eine Option, wie du gesagt hast, einen Refresh zu bringen, ohne groß etwas verändern zu müssen. Außerdem würde die 28nm Fertigung bis Herbst 2013 nochmals besser laufen was dann in etwa ähnlich resultieren würde wie bei GF110 (vllt nicht ganz so stark wie bei GF100 und GF110).
 
Sowas passiert schonmal wenn andere Projekte Vorrang haben Stichwort Oak Ridge Laboratories

Was soll daran jetzt außergewöhnlich sein das man den "Hauptsponsor" zuerst mit entsprechenden GK110 Chips versorgt,bevor man das ordinäre Volk mit Tesla bedient?

Weithergeholte Untergangsszenarien wie immer halt

Schonmal aufgefallen wie schnell nun plötzlich die gesamte Kepler Palette verfügbar ist?

Recourcenengpass überwunden?

Nur mal so als Denkanstoß

Ich meinte ja auch nicht dass das außgergewöhnlich sei. Ich sehe halt die Chips die jetzt dann langsam mal kommen und diese sind gut beschnitten und von einem schnelleren Part sind bisher noch keine "Rumors" zu lesen.
Das kann verschiedenes heißen, zu einem dass das nichts zu bedeuten hat und zum anderen dass sich alles etwas verzögert und es erstmals kein schnelleres Modell gibt, weil es sich dann einfach nicht rentiert nen 14oder 15 SMX Chip da rauszuhauen, weil der yield kacke ist.

Schonmal aufgefallen wie schnell nun plötzlich die gesamte Kepler Palette verfügbar ist?

Schonmal aufgefallen, dass sich der Releasezeitraum seit mitte März bis Mitte Oktober erstreckt hat, wieso soll das plötzlich sein? Und was hat GK104 mit einem riesen Chip wie GK110 gemein?
GK104 ist knapp 300mm² groß und GK110 wahrscheinlich 550mm², das ist fast das doppelte.

Natürlich kommt GK110 im Desktop, glaubt dem Schwarzmaler nix.

Das wurde auch zu denen gesagt, welche vermutet haben dass GK 110 eben nicht gleich nach GK104 im Sommer kommt, die waren dann alle schwarzmaler.

boxleitnerb schrieb:
Ich wollte ja nur richtigstellen, dass K20 nicht erst im November massenproduziert wird wie Schaeffe89 fälschlicherweise behauptet.

Hatte ich erst gestern in einer News gelesen. Vielleicht wars auch der falsche Zusammenhang.

Scully1234 schrieb:
Weithergeholte Untergangsszenarien wie immer halt

Untergangszenarien? Jetzt hör aber mal auf. Du wirst ja wohl nicht weinen müssen, wenn GK110 nicht für den Desktop kommt.
Einzusehen dass es auch durchaus Argumente dafür gibt, dass man GK110 nicht für den Desktop released ist wohl schwer. Nvidia würde auch mit nem aufgebohrtem GK 114 gut fahren, wie der aussieht weiß man ja noch nicht.
Nvidia spricht zumindest von einem neuen Design, soviel ich mich erinnern kann.
 
Zugegeben, die Hoffnung GK110 im Sommer zu sehen musste recht zügig begraben werden. Hätte man sich aber eigentlich dann auch denken können, so gut wie GK104 mithalten konnte.

Jedenfalls macht es keinen Sinn, GK110 nicht im Desktop zu bringen. Wozu soviele TMUs, wenn der Chip nicht für 3D gemacht ist? Hätte man ja abspecken können. Oder sich nur auf DP konzentrieren, für SP gibts ja K10 - die beiden will man eh im Zuge des Maximus-Programms paarweise verkaufen.
 
Es ist immer wieder traurig zu sehen, dass Leute aus der Vergangenheit nicht lernen.
Wir haben hier exakt das selbe g92 <> GT200 Spielchen.
 
ich glaube ehrlich gesagt nicht das die neue Generation soviel schneller sein wird wie die jetzige. Was mich ein bisschen zweifeln lässt ist folgendes:

1. Nvidia sperrt und verbietet den Herstellern die voltage grossartig ändern zu können. EVGA Bot zb.
2. Könnte ja sein das EVGA jetzt die 180 Tage aktion startet weil viele in 6 Monaten keinen sinn für eine umrüstung sehen,da neue gpu nicht soviel schneller und man mit OC nah dran kommt,aber nicht gleiche geschwindigkeit wegen der Spannungswall, so nenne ich sie mal. So geben die leute dann halt noch 50-100€(je nach preis der neuen karten) aus für nen wechseln von 680 zu 780.

vielleicht weit hergeholt, aber finde könnte schon was dran sein. Sonst hat NV nie die GPU`s gesperrt was Spannung angeht. Sie haben am anfang sogar noch geprallt mit der 680. Sie lässt sich ja auch super übertakten,aber man ist halt limitiert und das sie es nur sperren damit nicht soviele Karten kaputt gehen,glaube ich nicht dran. Die können das doch prüfen,auch wenns mehr aufwand ist.

nehmen wir an jetzt kommt nen GK110,der so 30% schneller ist,aber 75w mehr braucht,wäre ne aufrüstung fast sinnlos. Kommt natürlich aufs OC bei ihm an. Echt kurios das die Lightning bis vor kurzem noch die einzigste voltage freie Karte war und sie jetzt auf einmal gesperrt ist. Alles bisschen komisch. Bei AMD fängt das ja langsam auch an,siehe DC2 Rev.2.


Ich hoffe einfach mal das das alles was ich geschrieben habe totaler Müll ist und die neue Gen wieder 50% drauf legt und nen OC wunder ist ! :).
 
Nicht vergessen GK104 ist nur 30% schneller als GF110 ;) (GTX680 ist eig. Performance und kein High End)
Wenn GK110 > 50% schneller als GK104 wird, dann haben wir eine ähnliche Leistungssteigerung wie damals GT200 > GF110 :wink:
 
Wenn GK110 > 50% schneller als GK104 wird, dann haben wir eine ähnliche Leistungssteigerung wie damals GT200 > GF110 :wink:

Selbst mit 14 SMX und rund 850 MHz sollte man über 40% auf GK104 packen können, in bestimmten Situationen, wo die Bandbreite GK104 limitiert, teils noch mehr.
 
Hier findet man auch ein wenig zum schmökern.

Nvidia Geforce 2013: Mögliche Roadmap für die Geforce-700-Serie
Semi-Accurate hat eine Prognose zu Nvidias kommenden GK114-Chip veröffentlicht, der als möglicher Nachfolger des GK104 im Performance-Segment gilt. Dieser soll um 15 Prozent schneller als das bisherige Topmodell sein (verbaut in der Geforce GTX 680). Ein ziemlich geringer Perfomance-Zuwachs werden die meisten denken, doch es gibt dazu einen Hintergrund: Der GK114 ist nicht für den High-End-Bereich vorgesehen. Hier übernimmt der GK110 die Führung. Dieser verfügt mit bis zu 2.880 Shader-Einheiten über wesentlich mehr als der Vorgänger - der GK104 bietet lediglich 1.536 Rechenwerke. Nvidia zahlt dafür aber einen hohen Preis: Der Chip bietet eine riesige Chipfläche von circa 550 mm² und verfügt laut 3dcenter.de über eine TDP von fast 300 Watt. Diese wird bei niedriger Taktung natürlich auch entsprechend etwas niedriger ausfallen.

GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler]
Die Katze ist aus dem Sack: GK110, auch bekannt als Big Kepler, wird ein wahres Monster. Anhand des veröffentlichten Die-Plots lässt sich eine Chipgröße von mehr als 500 Quadratmillimetern ableiten auf die sich die rund 7,1 Milliarden Transistoren verteilen. Laut Huang ist er damit der komplexeste, kommerziell hergestellte Chip (IC) der Welt - noch vor einem 6,8 Mrd. Transistoren schweren FPGA von Xilinx. Weitere ofiziell bekannte technische Eckdaten sind die bis zu 15 SMX (à 192 Shader-ALUs, 2.880 ALUs insgesamt), ein 384 Bit breites Speicherinterface mit einem Speicherausbau von bis zu 6, falls entsprechend dichte Speicherchips bis Ende des Jahres verfügbar sind, sogar 12 GiByte GDDR5-RAM.

Were schon geil ein GK114 GTX760 der den GK104 ablöst im Performance Bereich und da zu noch die Dicke fette Berta GK110 als sagen wir mal Leckerlie ala' GTX780 2880 Shader 384 Bit und als Trostpflaster die GTX770 mit ca 2496 Shader und 320Bit .:)
 
Zuletzt bearbeitet:
das wäre ne echt schöne sache wenn es so kommen würde,aber wenn das wörtchen WENN nicht wäre ;).
 
Wenn wäre es schon der Hammer... aber Semi-Accurate glaube ich nicht mal, wenn die schreiben, Gras sei grün...
 
na da bin ich mal auf die dicke Berta gespannt :)

Bespaßt sich selbst: GK110 kann durch "Dynamic Parallelism" Threads und Kernels selbst erzeugen ohne dafür auf die CPU angewiesen zu sein.

wäre das nur für den Cudabereich oder meint ihr würde sich das in Games ebenso bemerkbar machen. Das würde quasi ja ein CPU Limit umgehen, oder irre ich ?


€dit: aber ernsthaft glaube ich nicht dran was da steht.. 6-12GB Ram ?? klingt extrem Overkill :hmm: 3 und als upgradeversion mit 6 kann ich verstehen^^oder ist das K20?

wenn ich mir das so ansehe dürfte die Kiste aber wieder deutlich an Wärme zu nehmen. Wakü FTW
 
Zuletzt bearbeitet:
Charlie blubbert übrigens wider etwas zu GK110 im Desktop Segment bei Semi Accurate, natürlich wie immer negativ.
Aber naja OBR wird hier auch immer zitiert.
 
wäre das nur für den Cudabereich oder meint ihr würde sich das in Games ebenso bemerkbar machen. Das würde quasi ja ein CPU Limit umgehen, oder irre ich ?

Für Games relativ irrelevant

Es besteht eine gewisse Chance das PhysX eventuell davon einen Nutzen hat wenn viele Partikel in ihre Bestandteile zerlegt u berechnet werden müssten

Aber wie viele PhysX Games gibt es schon

Raytracing würde hier vielleicht auch Vorteile haben

Allerdings waren und sind das alles noch Nischenprodukte und bis eine GPU soweit ist ein ganzes Game zu raytracen fließt auch noch viel Wasser den Don hinab.

Dynamic Parallelism nutzt imo also nur den wirklich professionellen Anwendungen die Unmengen an Threads kreieren können

Also fast Nvidia hier in erster Linie die Cuda User und Rechenzentren ins Auge
 
Zuletzt bearbeitet:
GK110 ist doch schon finanziert. Es geht hierbei um die Architektur an sich und nie um einzelne Chip-Designs. Deswegen hat BigK auch die ganzen TMUs, SP-Einheiten, Geometriepipelines und Rasterizer. Und deswegen wird der Chip auch als Geforce und Quadro rauskommen, da der Anteil der Fläche, der sich rein um Grafik kümmert, nimmt einen Großteil ein. Wäre also eine komplette Verschwendung von Fläche, wenn man den Chip nur für Tesla nehmen würde.

Wieso muss es auch Geforce Versionen dann geben?
Die Quadro Ableger sind zwar den Geforce Ablegern ziemlich gleich, dennoch wäre es denkbar, das man Tesla und Quadro als Hochpreisige Profikarten baut und die niedrig Preisigen Geforceprodukte hinten runter fallen lässt.
Je nachdem, ob sich der ganze Spaß querfinanzieren lässt.
Beispiel G200(b). Gegen Ende hin waren die Preise derart niedrig, das sich die Boardpartner beschwerten (es gab offizielle News darüber). Man hätte bei einigen Produkten gar draufbezahlt. (295GTX bzw. 260GTX als Beispiel)
Die Quadropreise waren aber weitestgehend unbeeindruckt von der Gamerreihe... Und da musste man immernoch weit über 1000€ für das Quadro Dickschiff hinblättern, wo die 260er mit gleichem Chip für 140€ den Besitzer gewechselt hat.

In meinen Augen wäre eine reine Profi-Produktlinie durchaus denkbar, sofern der Absatz stimmt.

Der G80 war damals auch mit kleineren SI gegenüber den ATI R600er deutlich schneller und was Qualitiät angeht sowieso Meister aller klassen :wink:

Nüchtern betrachtet sollte man hier klar differenzieren. R600 hatte ein massives Filterproblem. Bei den meisten Qualitätsbeches war 16x AF aktiv. Was natürlich sinnvoll ist, dennoch haben diese Benches dem R600 massiv die Suppe verdorben. Beispielsweise mit 8x MSAA konnte die AMD teils klar zur deutlich schnelleren G80 aufholen, bzw. teils sogar vorbei ziehen ;) Bei marktüblichen Vergleichen in HQ Settings mit 4xMSAA + 16xHQAF war natürlich deutlich schneller der Ofen aus...
Da waren mal locker 10-15% mehr Einbußen bei 16x HQAF auf dem Plan als bei G80. Den Fehler bzw. das Problem ist AMD aber angegangen und hat mit kommenden Produkten deutlich bessere Arbeit geliefert.

nVidia ist eine Generation voraus. Wenn sie wieder einen "Fermi" Chip mit Maxwell bauen, dann wird dieser genauso revolutionär für diesen Bereich sein.

Ansonsten werden sie den Kepler-Weg weitergehen: Perf/Watt. Kepler ist ja im Grunde nichts anderes als Fermi auf effizienz getrimmt.

Wer definiert denn die Generationen?
Nur mal so nebenbei, rein aus technischer Sicht durchlebeten die AMD Produkte weit mehr Anpassungen seit DX10 (G80/R600). Angefangen von VLIW5 zu VLIW4 zu GCN. Bei NV hast du nach wie vor die Grundtechnik vom G80 mit Optimierungen.
Und selbst auf zeitlicher Ebene ist AMD deutlich fixer unterwegs. Wo R600 noch ein halbes Jahr nach G80 erschien, zieht RV770 zeitlich zum G200 gleich und RV870 deutlich (ein halbes Jahr+) vor dem GF100. Auch wenn der Vorsprung heute etwas kleiner ist (ca. ein viertel Jahr) hat es AMD geschafft, die Technik vollständig zu ändern (VLIW5 zu 4 zu GCN).
Warum man den Zwischenschritt ging, ist allerdings unklar.

Die Tesla Karten werden üblicherweise in großen Stückzahlen von einem Kunden gekauft, d.h. gleich mehrere hunderte oder tausende Karte auf einmal. Dabei sollen alle Karten die gleiche Spezifikation aufweisen. Den Kunden dann mangels Stückzahlen Varianten mit 13, 14 oder 15 SMX zu verkaufen geht da gar nicht. Die Stromaufnahme ist nicht so das Problem, man stopft mittlerweile ohnehin bis zu 6 Teslas in ein 2U Gehäuse.

Gibt es dazu genauere Zahlen?
Ich könnte mir gar vorstellen, die Masse der frei gekauften Tesla Produkte ist gar höher als die, der im Verbund gekauften.
Denn die Stückzahl ist primär erstmal unabhängig der Spezifikation. Wenn es Modelle gibt, die 13, 14 oder 15 SMX haben, dann kannst du genau diese Modelle auch in Massen ordern. Ein Engpass kommt dann, wenn die Nachfrage höher der Verfügbarkeit ist. (logisch)
Aber selbst wenn es nur 13 SMX Chips geben sollte, kann dir dieser Engpass genau so passieren, weil die Nachfrage nach den Modellen dann gleichsam auch im gesamten höher ausfällt.

PS: Stromverbrauch ist durchaus wichtig, gerade bei sowas, sollte dir denke ich ja bekannt sein. Ob da nun 6x225W drin schlummern oder 6x300W ist schon ein gewaltiger Unterschied, wenn man ein 42HE Rack voll hat ;)

Da gibt es in den Hardware und SOftwareverträgen auch FEhlerquoten die EInzuhalten sind vom GK-Hersteller.
Und nVidia wird den Teufel tun und eine Millionenklage riskireren nur um 3 % mehr leistung rauszuquetschen.

Woher soll diese Annahme stammen?
Der Hersteller wird sich wohl kaum hinsetzen und dem potentiellen Käufer bescheinigen, das sein Produkt fehlerfrei läuft. Das geht ziemlich schnell nach hinten los. Es gibt haufenweise bekannte Bugs in aktueller Hardware. Schau dich mal bei Intel und AMD durch die Listen. Da gibt es Seitenweise Ausführungen, unter welchen Situationen und welchen Bedingungen die CPUs fehlerhaft rechnen.

Auch wenn sich die Mikrorucklerproblematik gebessert hat, ist das leider nicht vergleichbar. Das hab ich AMD schon übelgenommen, dass man das damals mit der 3870X2 gemacht haben. Ich habe es Nvidia immer hoch angerechnet, echte Highendchips zu bringen und MGPU dann extra obendrauf zu setzen. Ich wäre arg enttäuscht, wenn sich das ändern würde - es sei denn, man würde eine hardwarebasierte Lösung als Ersatz für AFR finden, z.B. per Interposer zwei GK114 zu verbinden und als einen Chip laufen zu lassen.

Da bleibt dann wohl eher das Bandbreitenproblem, welches die beiden (oder mehr) Chips miteinander verbindet. Die Überlegung ansich ist äußerst interessant. Die Umsetzung aber äußerst schwer. Um die Probleme auszumisten, müsste man eine Art DualCore GPU bauen, was aber wiederum ziemlicher unsinn ist, da man auch gleich hätte die Einheiten beider GPUs in einem großen DIE vereinen können. Dual GPU Technik ist wohl auf absehbare Zeit nur ein Kompromiss mit deutlichen Einschränkungen. Vor allem ist der Gedanke selbst schon leicht kontrovers. Da eine GPU selbst schon massiv auf parallelität ausgelegt ist. Was bei einer CPU im Vergleich so nicht ganz der Fall ist...

Zugegeben, die Hoffnung GK110 im Sommer zu sehen musste recht zügig begraben werden. Hätte man sich aber eigentlich dann auch denken können, so gut wie GK104 mithalten konnte.

Jedenfalls macht es keinen Sinn, GK110 nicht im Desktop zu bringen. Wozu soviele TMUs, wenn der Chip nicht für 3D gemacht ist? Hätte man ja abspecken können. Oder sich nur auf DP konzentrieren, für SP gibts ja K10 - die beiden will man eh im Zuge des Maximus-Programms paarweise verkaufen.

Die Quadro Modellreihe?
3D heist nicht nur Gaming... Und verglichen mit den Marktpreisen sind die Quadros weit mehr auf Marge gebaut als die Geforcen... Dazu kommt der stetige Optimierungsbedarf seitens NV selbst für tonnenweise Games. Profisoftware selbst ist in Sachen Anzahl da weit weit überschaubarer.

ich glaube ehrlich gesagt nicht das die neue Generation soviel schneller sein wird wie die jetzige. Was mich ein bisschen zweifeln lässt ist folgendes:

1. Nvidia sperrt und verbietet den Herstellern die voltage grossartig ändern zu können. EVGA Bot zb.
2. Könnte ja sein das EVGA jetzt die 180 Tage aktion startet weil viele in 6 Monaten keinen sinn für eine umrüstung sehen,da neue gpu nicht soviel schneller und man mit OC nah dran kommt,aber nicht gleiche geschwindigkeit wegen der Spannungswall, so nenne ich sie mal. So geben die leute dann halt noch 50-100€(je nach preis der neuen karten) aus für nen wechseln von 680 zu 780.

vielleicht weit hergeholt, aber finde könnte schon was dran sein. Sonst hat NV nie die GPU`s gesperrt was Spannung angeht. Sie haben am anfang sogar noch geprallt mit der 680. Sie lässt sich ja auch super übertakten,aber man ist halt limitiert und das sie es nur sperren damit nicht soviele Karten kaputt gehen,glaube ich nicht dran. Die können das doch prüfen,auch wenns mehr aufwand ist.

Der Gedanke mal ganz andersrum...
Wieso ist das OC Verhalten bei NVs GK104 schlecht?
Die 680er mit 1006MHz Basistakt (+ Turbo) schafft bei guten Modelle ohne Spannungsänderung ihre 1300MHz. Das sind satte ~30%.
Die 670er mit 915MHz Basistakt (+Turbo) schafft bei guten Modellen ebenso annähernd 1300MHz. Das sind sehr gute ~42%.
Den Turbo habe ich absichtlich ausgeklammert, weil es stark von der Umgebung abhäng wie dieser greift, bzw. ob er überhaupt greift.

Was willst du mehr?
Mal ganz ehrlich, welcher GPU Hersteller verkauft gerne GPUs, mit OC Potential von 50%+? (was ausgehend von der 670er ja dann wohl mindestens machbar sein sollte, wenn 42% als schlecht gelten)
Das würde die nächste Generation ziemlich unsinnig machen. Und Refreshs von GPUs sind es so oder so schon meistens, wenn man die direkte Vorgängerkarte schon besitzt und nach oben hin nicht weiter kann (weil es dort keine Modelle mehr gibt)

Klar geht bei AMD aktuell etwas mehr in Sachen OC, wenn es ums Verhältnis Basistakt zu max. OC geht. Aber auch das ist eher geschludet daran, das AMD mit den nicht GHz Editionen deutlich niedrigere Taktraten anlegt. Was wiederum daher kommen kann, dass AMD eher auf dem Markt war und somit die Performancelatte vorgelegt hat.

Ich habe ja vollstest Verständnis dazu, das die Leute OCen wollen, mache ich ja auch. Aber irgendwie muss die ganze Kritik auch gerechtfertigt sein. Wenn wir 50%+ OC Spielraum haben wollen, können wir uns wohl ziemlich bald vom immernoch gängigen ~2 Jahrestakt von neuen GPU Generationen verabschieden. Einfach weil es für den Hersteller nicht machbar ist, derart hohe Leistungssprünge in derart kurzen Zeiten zu bringen und das ganze dann noch ohne nenneswerten Mehrverbrauch oder gar geforderten weniger Verbrauch (GreenIT lässt grüßen)

PS: und nochmals ein kleiner Gedenkanstoß. R600 wurde in 80nm! mit 1,2V ausgeliefert. Die letzten 2900XT Karten kamen gerade mal mit 1,05V Lastspannung auf den Markt.
Heute 680GTX liegen bei 28nm! wiederum 1,175V an. Eigentlich möchte man meinen, mit kleinerer Fertigung sollte das genau andersrum gehen ;)
Die Freaks, die da dann 1,3V+ drauf ballern würden, hätten wohl zeitnah ihre Karten gehimmelt und das nur um ein paar MHz mehr rauszukitzeln. -> NV macht hier einfach dicht. Finde ich nun nicht unbedingt verkehrt ;) Vor allem für Gebrauchthardware ein ruhiger Gedanke, da die Hardware eigentlich nicht runtergeritten sein kann, wie es noch bei Fermi vorgekommen sein konnte ;)

Were schon geil ein GK114 GTX760 der den GK104 ablöst im Performance Bereich und da zu noch die Dicke fette Berta GK110 als sagen wir mal Leckerlie ala' GTX780 2880 Shader 384 Bit und als Trostpflaster die GTX770 mit ca 2496 Shader und 320Bit .:)

Abwarten was bei rum kommt...
Ausgehend von aktuellen ~15%+ auf GK104 aka GTX 680 für den GK114 würde man bei ~800MHz und realistischen 14 SMX im GK110 gerade mal noch ca. 40% Mehrleistung zum GK104 aufweisen. Ziehst noch die ~15% für den spekulierten GK114 ab, bleibt nicht mehr viel Luft für BigK. Klar, mehr VRAM, mehr Bandbreite, Detailverbesserungen hier und dort, lassen das Teil sicher gut dastehen. Gemessen daran, das sich der Verbrauch wohl dann bei ~250-275W mindestens einfinden dürfte, ist der reine Leistungsvorsprung überhaupt nicht mehr sonderlich gut.
Geht man dann noch weiterhin davon aus, das die ALUs nicht 1:1 skalieren mit der Anzahl, was ziemlich realistisch sein dürfte, kommen vllt an den theoretischen ~40% noch 35% beim Monitor an sofern man mit GK104 nicht im VRAM oder Bandbreitenlimit verhungert.

Und spinnen wir mal weiter. AMD bringt mehr wie die aktuell im Speku-plan stehenden ~15%. Sagen wir einfach mal 20%. Und setzt diese Marke auf die GHz Edition der 7970 an. So wäre der Vorsprung für BigK nur noch marginal. Man müsste ggf. sogar den kleinen BigK aka GTX x70 Ableger gegen die möglicherweise heißende 8970 antreten lassen.
 
klingt doch spannend fdsonne :fresse:
das wird ne Bencherkarte die schir zwingend in einem Preiskampf verwickelt wird wenn der Vorsprung geringer ausfällt als erwartet.
Bringt sie das was ich erwarte an Performance für meine 3 Bildschirme wird sie auch gekauft. Andernfalls nicht.
 
Wieso muss es auch Geforce Versionen dann geben?
Die Quadro Ableger sind zwar den Geforce Ablegern ziemlich gleich, dennoch wäre es denkbar, das man Tesla und Quadro als Hochpreisige Profikarten baut und die niedrig Preisigen Geforceprodukte hinten runter fallen lässt.
Je nachdem, ob sich der ganze Spaß querfinanzieren lässt.
Beispiel G200(b). Gegen Ende hin waren die Preise derart niedrig, das sich die Boardpartner beschwerten (es gab offizielle News darüber). Man hätte bei einigen Produkten gar draufbezahlt. (295GTX bzw. 260GTX als Beispiel)
Die Quadropreise waren aber weitestgehend unbeeindruckt von der Gamerreihe... Und da musste man immernoch weit über 1000€ für das Quadro Dickschiff hinblättern, wo die 260er mit gleichem Chip für 140€ den Besitzer gewechselt hat.

In meinen Augen wäre eine reine Profi-Produktlinie durchaus denkbar, sofern der Absatz stimmt.

Und? Hätte nVidia die Karten nicht und einzig und allein mit g92b auf dem Markt vertreten sein sollen? :hmm:
Der Gaming-Markt ist für nVidia der Grund den Chip überhaupt durchgehend zu fertigen. Quadro und Tesla sind immer abhängig von einer bestimmten Nachfrage. Vorallem Tesla wird zZ immer noch in Schüben nachgefragt, da meisten große Systeme bestückt werden sollen. Die Verwendung der Chips ermöglicht nun das durchgehende Füllen des Inventars und somit die zeitnahe Belieferung. Und alles, was darüber hinaus übrig bleibt, geht in den Gamingmarkt.

Wer definiert denn die Generationen?
Nur mal so nebenbei, rein aus technischer Sicht durchlebeten die AMD Produkte weit mehr Anpassungen seit DX10 (G80/R600). Angefangen von VLIW5 zu VLIW4 zu GCN. Bei NV hast du nach wie vor die Grundtechnik vom G80 mit Optimierungen.
Und selbst auf zeitlicher Ebene ist AMD deutlich fixer unterwegs. Wo R600 noch ein halbes Jahr nach G80 erschien, zieht RV770 zeitlich zum G200 gleich und RV870 deutlich (ein halbes Jahr+) vor dem GF100. Auch wenn der Vorsprung heute etwas kleiner ist (ca. ein viertel Jahr) hat es AMD geschafft, die Technik vollständig zu ändern (VLIW5 zu 4 zu GCN).
Warum man den Zwischenschritt ging, ist allerdings unklar.

Fermi hat überhaupt nichts mehr mit G80 zu tun. Das Einheitentypen "übernommen" wurden, ist logisch. Immerhin kann eine 1D-Einheit nicht weiter verkleinert werden. Auto's fahren auch heute noch mit Reifen wie auch schon vor 100 Jahren.

nVidia brauchte nur die halbe Zeit, um einen Architekturumschwunk zu schaffen und das auf jeder Ebene. Wo AMD gerademal ihre Back-End angepasst hat und das OnChip-Memory-System auf Fermi Niveau erweitert, scheitern sie immer noch im Front-End. Dieses Problem hat nVidia bei Fermi mit einem Schlag gelöst.
Nur mal so: Zwischen Fermi und G80 lagen 3 1/2 Jahre. Zwischen GCN ohne deutlich verbessertes Front-End und r600 4 1/2 Jahre. Und dabei hat sich Fermi sowie r600 jeweils um knapp 5 Monate verspätet. AMD ist eine komplette Generation hinter nVidia, weil sie mit Cypress eben den sicheren Weg gegangen sind.
 
@fdsonne:

Die Bandbreite wäre ja gerade durch Interposer gegeben. Damit kannst du sehr breite Interfaces zwischen benachbarten Chips realisieren.
Und seit wann braucht man für Quadros TMU-Leistung? Ich sprach es ja schonmal an, da ist Geometrieperformance gefragt.
 
klingt doch spannend fdsonne :fresse:
das wird ne Bencherkarte die schir zwingend in einem Preiskampf verwickelt wird wenn der Vorsprung geringer ausfällt als erwartet.
Bringt sie das was ich erwarte an Performance für meine 3 Bildschirme wird sie auch gekauft. Andernfalls nicht.

Luft für den Preiskampf hätten wir Endkunden zumindest zu Genüge ;)

Und? Hätte nVidia die Karten nicht und einzig und allein mit g92b auf dem Markt vertreten sein sollen? :hmm:
Der Gaming-Markt ist für nVidia der Grund den Chip überhaupt durchgehend zu fertigen. Quadro und Tesla sind immer abhängig von einer bestimmten Nachfrage. Vorallem Tesla wird zZ immer noch in Schüben nachgefragt, da meisten große Systeme bestückt werden sollen. Die Verwendung der Chips ermöglicht nun das durchgehende Füllen des Inventars und somit die zeitnahe Belieferung. Und alles, was darüber hinaus übrig bleibt, geht in den Gamingmarkt.

Darum gings doch gar nicht... Der Vergleich zur Vergangenheit zeigt, das man auch auf die Nase fallen kann, wenn man das Konzept so im Profi und Gamermarkt gleich lässt.
Und eventuell wäre es für NV genau so aufgegangen, hätte man den G92(b) weiter vermarktet, schließlich fehlten von der GTS250 zur GTX260 nur ein paar Prozentpunkte, bei deutlich geringerem Verbrauch und deutlich weniger Fläche...
Aktuell ist es aber so, das man seitens NV eben einen quasi Gamer-Optimierten GK104 als Basis hat, und einen quasi Profimarkt optimierten GK110 in der Hinterhand. Die Frage bleibt, eben ob, man GK110 möglicherweise mit Verlusst auf den Gamermarkt drückt, wenn man mit einem GK114 genau so gut, wenn nicht gar besser, weil effizienter, kostengünstiger und gewinnbringender, dafür aber etwas langsamer da steht... Genau hier setzt das Beispiel von oben an, G200(b) (was ja schon die geshrinkte Version war) konnte hier nicht punkten.

Übrigens machst du es dir zu einfach. Meinst du wirklich, NV spricht bei TSMC vor und sagt, hier Freunde, wir hätten hier mal ne Sammelbestellung für irgend so nen Supercomputer, baut uns mal 100.000 GK110 GPUs.
Das läuft viel eher andersrum, das man den Markt analysiert und dann beim Fertiger gewisse Mengen in Auftrag gibt. Der Fertiger fertigt dann in definierten Zeiträumen diese Mengen (oder schafft es nicht) Bleibt der Absatz aber weg, kann man daran erstmal nur bedingt was machen, außer eben die Produkte attraktiver gestalten (Preis, Ausstattung/Features usw.)
Hat man überspitzte Nachfrage, sind einem ebenso die Hände gebunden...

Das geht alles in einem Rutsch, Schubweise ist in dem Zusammenhang ziemlich das falsche Wort. Vor allem, idR fertigt NV ja selbst nix... Die designen die GPU, der Rest machen die Boardpartner. Drehst du nun den "GPU-Hahn" zu, was machen die ganzen Boardpartner aus dem Gamermarkt? Die arbeiten für Nasse? Und genau so die/der Boardpartner für die Profikarten, die machen in den Zeiten ohne Nachfrage dann auch nix? Oder wie?


Fermi hat überhaupt nichts mehr mit G80 zu tun. Das Einheitentypen "übernommen" wurden, ist logisch. Immerhin kann eine 1D-Einheit nicht weiter verkleinert werden. Auto's fahren auch heute noch mit Reifen wie auch schon vor 100 Jahren.

nVidia brauchte nur die halbe Zeit, um einen Architekturumschwunk zu schaffen und das auf jeder Ebene. Wo AMD gerademal ihre Back-End angepasst hat und das OnChip-Memory-System auf Fermi Niveau erweitert, scheitern sie immer noch im Front-End. Dieses Problem hat nVidia bei Fermi mit einem Schlag gelöst.
Nur mal so: Zwischen Fermi und G80 lagen 3 1/2 Jahre. Zwischen GCN ohne deutlich verbessertes Front-End und r600 4 1/2 Jahre. Und dabei hat sich Fermi sowie r600 jeweils um knapp 5 Monate verspätet. AMD ist eine komplette Generation hinter nVidia, weil sie mit Cypress eben den sicheren Weg gegangen sind.

Irgendwie kommt mir das Gefühl, das du die Zusammenhänge etwas durcheinander wirfst. Nur weil man eine Änderung an einem Chip vollführt, ist man keine Generation weiter. Was zu einer Generation gehört und was nicht, bestimmt wohl in erster Linie die Betrachtungsweise.
Man kann nicht so einfach einen einzigen Teil aus einem kompletten Design rauspicken und sagen, das ist nicht optimal, die Konkurenz macht es besser, und im nächsten Atemzug dann behaupten, ja weil das bei der Konkurenz besser läuft, ist diese eine Generation weiter vorraus... Das ist ein unsinniger Äpfel/Birnen Vergleich...
Vor allem der Vergleich, GCN vs. Fermi. Eine HD7970 GHz Edition lässt eine GTX480 mal locker um 50%+ stehen.

Dazu kommt noch, das es nicht um Einheiten verkleinern geht. Das ist sogar eher suboptional. Die Aussage, man kann eine 1D Einheit nicht weiter verkleinern, ist also irgendwie ohne Zusammenhang an der Stelle.
mr.dude hat irgendwo mal zusammen gefasst, wie das bei AMD mit GCN läuft. NV verwendet seit G80 SuperSkalare Einheiten. Welche genunden sind an ein paar "Cluster", welche sich mittlerweile SMX schimpfen. Bei AMD sah man anfangs VLIW5, später VLIW4 Vectoreinheiten. Und heute hat man mit GCN 16-fach Vectoreinheiten diese sind in CUs zusammengefasst. Es hat sich also weit mehr getan in dieser Hinsicht. Nicht umsonst bekommt man mit GCN 4TFlops SP Leistung ;)
Je nach Betrachtungsweise ist könnte man nun zwar sagen, mit einem verbesserten Front-End, wäre mehr drin gewesen. Aber zu welchem Preis? Das lässt sich so nicht wirklich beurteilen... Denn wie man aktuell sieht. Für die aktuelle NV Top Karte reicht das "alte" Backend ohne nennenswerte Änderungen vollkommen aus und tut seinen Dienst ;)

Aber zurück zum GK110...

@fdsonne:

Die Bandbreite wäre ja gerade durch Interposer gegeben. Damit kannst du sehr breite Interfaces zwischen benachbarten Chips realisieren.
Und seit wann braucht man für Quadros TMU-Leistung? Ich sprach es ja schonmal an, da ist Geometrieperformance gefragt.

Aber es muss einen Grund geben, warum man nach wie vor an der aktuellen Umsetzung fest hält. Und der ist in meinen Augen eben die Unsinnigkeit, ein Produkt, was massivst auf gleichzeitig arbeitende Mechanismen ausgelegt ist, nochmals zu doppeln. SLI/CF nutzt hier einen Kompromiss ohne nennenswerten Mittelaufwand in Sachen technischer Vorraussetzung. So einen Interconnect zu bauen wäre bestenfalls irgendwie möglich, ob in der Praxis aber überhaupt sinnvoll einsetzbar, steht auf nem ganz anderen Blatt.
Mich selbst stört an SLI/CF in der aktuellen Form ja nichtmal unbedingt AFR. Denn das ganze Skaliert mittlerweile bei zwei GPUs ziemlich sauber. Viel eher ist das Problem der doppelten Datenhaltung und eventuell noch das Inputlag, sofern man es spürt. Thema MR ist wiederum ne subjektive Frage.

Ich könnte mir da zwar vorstellen, das man durchaus eine Umsetzung hinbekommen würde. Mit shared VRAM und zwei GPUs. irgendwie durch nen fixen Interconnect verbunden. Die Frage ist, ob das nicht zu viel des guten wäre und man eben nicht mit nem einzel Chip ungleich besser, weil effizienter gefahren wäre.
Für mich macht so ein Konzept auch nur dann Sinn, wenn man shared Memory nutzt. Da es der Punkt ist, der bei SLI/CF aktuell unnütz doppelt läuft. Nur bleibt genau hier das angesprochene Bandbreitenproblem. Du bräuchtest quasi doppelte Memory Bandbreite zwischen VRAM und Memory Controller. Der IMC müsste quasi bildlich gesehen irgendwo in der Mitte sitzen und die Ausführungseinheiten der GPU müssen über den angesprochenen Interconnect zum IMC verbunden sein. Dann aber so, das man einerseits die Bandbreite durch VRAM Zugriffe hat und andererseits, das man dazu noch Daten mit der anderen GPU austauschen kann. Das ganze möglichst ohne Latenz, da das wiederum Verzögerungen und somit Speednachteile mitbringt.

Im Grunde genau das, was man bei CPUs bis einschließlich Athlon MP Dual Sockel A sowie Intel Xeon auf Dual S771 Basis gefahren ist. MC im Chipsatz, und Verbindung dazwischen. -> schwierig würde ich meinen :fresse: da dieses Konzept ja sowohl von AMD, als auch von Intel aufgegeben wurde.
Der andere Weg, wie aktuell, IMC in der GPU belassen und durch einen Interconnect Zugriffe auf die andere GPU ermöglichen ist leider ebenso ziemlich suboptional. Vergleicht man mal ein paar Benches, so sind "Über-Kreuz-Zugriffe" zwischen zwei CPU Sockeln und dessen Speicher deutlich langsamer im Vergleich zu den Ergebnisen von einer einzigen CPU mit eigenem RAM.
Das lässt sich zwar nicht 100% auf GPUs übertragen, aber das Grundprinzip sollte zumindest vergleichbar sein.

Thema Quadro. Das kommt wohl auf das Einsatzgebiet der Hardware an ;)
Es gibt ja etliche Software mit Quadro Support. Mal ist es Echzeit 3D Rendering, mal Raytracing, mal ganz was anderes... So einfach pauschal zu sagen, ne Quadro braucht keine TMU Leistung, ist in meinen Augen etwas unglücklich getroffen ;) Der Quadro Markt ist dafür denke ich zu alt. Man kann auch nicht sagen, das ne Grafikkarte nur noch für GPGPU taugt und alles weglassen. Das ist dann zwar möglich, und wird auch so fabriziert. Nur ist es keine Grafikkarte mehr ;)
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh