nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Ob das soviel teurer wird den Die einmal für GPGPU und einmal für Games auszulegen

Das werden sie dann wohl nicht tun...
Schau die Quadro/Tesla GPUs an, alles der selbe Abwasch wie die Geforce GPUs, teils gibts dann "spezielle" Updates, welche dann irgendwie neue Versionen hervorbringen. Der Rest wird dann durch das Bios und die Treiber erledigt. Plus eben die Anbauteile auf dem PCB (Anschlüsse, VRAM usw.)
So spart sich zumindest der Hersteller die zweite Straße für die HighEnd GPU. Wie gesagt, GK104 als Refresh, mit kosmetischen Änderungen halte ich für gegeben, wenn 2013 wirklich noch was neues kommt. Wird dann die Mittelklasse ala 760GTX oder sowas. Wenn man so will, wie der G92 seinerzeit. Erster der obligatorische Nachfolger der G80 GPUs. Dann die Mittelklasse in Form der 9800GTX bzw. später der 250GTS.
Der Markt für BigK dürfte bei den Preisen äußerst klein sein. Da macht es gleich zwei mal keinen Sinn, das Teil als Tesla/Quadro only zu bringen, immerhin dürfte sich mit den HighEnd GPUs auch ordentlich Gewinn pro Stück einfahren lassen (zumindest wenn die Konkurenz mitspielt, was aktuell aufzugehen scheint)
Den schwarzen Peter haben so oder so wieder die Boardpartner. Denn NV verkauft ihre GPUs dann egal wohin, entweder Tesla, Quadro oder GeForce... Zumindest die letzten Jahre ging die Masche bei NV auf. Die Boardpartner fangen dann nur an zu Meckern, wenn der Konkurent die Preise zu stark drückt (siehe G200(b) und RV770)

ich versteh so u. so nicht das die nicht 2 gpus auf einen chip packen u. den hs dementsprechend anpassen.vielleicht gibts da aber auch nen physikalisches limit.2 gpus auf einer platine ist ja auch schon was...

Das macht keinen wirklichen Sinn... Die GPU ist schon massivst auf viele kleine gleichzeitige Berechnungen ausgelegt. Im Grunde macht das doppeln oder allgemein Mehrfachauslegen der ganzen GPU keinen wirklichen Sinn. Da könnte man auch gleich die eigentliche Chipfläche so groß wählen, das alles in Summe zwei mal Platz hätte. Und dazu noch den unnötigen Balast weglassen, den es zwingend bei exakt zwei identischen DIEs geben würde.

Dazu wären dann wohl immernoch Techniken ala SLI nötig um diese beiden GPUs unter einem Deckel miteinander agieren zu lassen. -> dann kann man es auch gleich so lassen wie es ist.

Im Moment nutzt man das Mittel von mehreren GPUs einfach nur deswegen, weil es ein paar verrückte gibt, die sowas wollen, sprich die sich nicht mit der Leistung einer Karte zufrieden geben. Da liegt die einfachste Option dann am nähesten, nämlich einfach zwei drei oder vier Karten verbauen. SLI zu implementieren dürfte nicht so massiv der Akt gewesen sein. Das ganze aber beispielsweise in einem DIE zu vereinen, ohne lästige und nötige SLI Profile und dessen Optimierungen wäre hingegen ein Mehraufwand sondersgleichen.

Wenn man es nicht ganz so genau nimmt, kann man das im groben mit CPUs vergleichen. Heute gibt es 6-8 Kern CPUs. Will man die Leistung steigern, liegt es am nähesten einfach ein Dual oder Quad Sockel Brett zu nutzen und eben jene zwei oder vier (oder noch mehr) CPUs zu verbauen. Dennoch kommt der Hersteller der CPU nicht auf die Idee zu sagen, na wenn ich Dual oder Quadsockel fahre, dann geht das auch in einem DIE ;)
Wobei der Vergleich natürlich etwas hinkt.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Eine zweite Produktionsstrasse brauchen sie so oder so

Gk104/Gk110 werden ja auch nicht unter der selben Haube gefertigt

Teurer u ineffizienter (Perlen vor die Säue)wäre es,so sehe ich das,Profi u Gamerkarte auf selber Chipbasis herzustellen beim Refresh

Jetzt wo man das Modell eines kleinen sparsamen u potenten Gamerchip sowieso schon in der Pipeline hat,kann man auch darauf weiter aufbauen und einen Refresh aus der Sparte bringen ohne dabei die schweren Geschütze eines GK110 sinnlos zu verballern

Mit dem GK104 Modell bräuchte man optimale Packdichte vorausgesetzt nichtmal die Die Size eines GK110 um ordentlich Dampf im Kessel zu machen.


Waferkosten sind immerhin auch eine Kostenfrage
 
Zuletzt bearbeitet:
Mit dem GK104 Modell bräuchte man optimale Packdichte vorausgesetzt nichtmal die Die Size eines GK110 um ordentlich Dampf im Kessel zu machen.

Das stimmt auch nicht. Ein GK104 wäre mit 15 SMX bereits über 550mm² groß, da sind noch nicht ein paar mm² für die Infrastruktur mit drin. Größer wird GK110 auch nicht. Der DP-Part ist nicht riesig und der Takt wird nacher dem Verbrauch geschuldet sein. GK110 ist also im Prinzip das was du willst ;)
 
Das stimmt auch nicht. Ein GK104 wäre mit 15 SMX bereits über 550mm² groß, da sind noch nicht ein paar mm² für die Infrastruktur mit drin. Größer wird GK110 auch nicht. Der DP-Part ist nicht riesig und der Takt wird nacher dem Verbrauch geschuldet sein. GK110 ist also im Prinzip das was du willst ;)

Das sehe ich auch so... Nur eben dann noch der Punkt, klar brauchen sie zwei Produktionsstraßen für GK104 und 110. Nur würde man den Quadro/Tesla Ableger dediziert seperat fertigen, wären es eben schon drei. Und so massiv scheint sich der Markt wohl dann doch noch nicht zu rechnen. Es ist eigentlich egal wie rum man es dreht. Egal ob Quadro/Tesla oder GeForce. Die GPUs sind zu 99,9% aus dem absolut gleichen Abwasch. Hier aufzusplitten und zu trennen wäre wirtschaftlich ziemilch unsinnig. Auch wenn diesem Zwitter sowohl von der einen als auch von der anderen Seite gesehen ein paar Kompromisse einfließen werden, wäre das wohl mit größter Warscheinlichkeit immernoch wirtschaftlicher als eine Profi und eine Gamerlösung für HighEnd zu bringen. Und nein, ein GK104 kann die HighEnd Gamerlösung wohl nicht sein, auch wenn sie im Moment ganz oben steht (der Konkurenz geschuldet) bleibt es eigentlich das Konstrukt der Mittelklasse GPU mit gepushtem GPU Takt. Ich würde fast jede Wette eingehen, das GK104 als Facelift dann bei der 700er Reihe fast so wie er aktuell ist eben die Mittelklasse darstellt. Einfach, weil das Konzept so oder so ziemlich gut ist für genau diesen Bereich. Ohne viel Schnickschnack, Effizient, klein, kühlbar und nicht viel verbrauchend.
 
Zuletzt bearbeitet:
Das drückt niemand der vier Fertiger mal so auf einer Arschbacke ab. Wie man eben sieht schafft es nichtmal der mit Abstand größte Fertiger. (und da sind noch nichtmal alle GPUs von NV auf dem Markt in 28nm und allen Leistungsklassen)

Ich glaube das man könnte, aber aktuell einfach nicht will. AMD kann von der 7750 bis zur 7970 alles anbieten und das nicht erst seit gestern. Nvidia hat sich laut einer News verkalkuliert und es sind noch unmengen GTX570 Karten im Markt. Man sieht auch an den Preisen, dass Nvidia nicht in den Preiskampf gehen will. Der ist aber unabdingbar im Mainstream Segment, wo Preis über allem steht. Die GTX570 verramschen und den Preiskampf anfachen will man ja auch nicht mehr, da ist man sich wohl mit AMD einig. Zu mal man so den GK104 nicht als GTX660 verschachern muss und so noch schöne Gewinne einfährt.

Was also tun? Es so weiter laufen wie bisher bis die GTX570 abverkauft wurde und dann durch 28nm bei nahezu gleichem Preis ersetzten. Siehe 6950 ersetzt durch 7850. AMD verspürt ja auch keinen Druck etwas an der Situation zu ändern. Die 7870 kostet einiges mehr als die 6870 die weiterhin seit über einem Jahr für 140€ zu haben ist.
 
Zuletzt bearbeitet:
Schön das du dich ein wenig um den Thread kümmerst :wink:
Was ist denn bis jetzt schon zum Speicher bekannt?
3GB, 4GB?
Bei so nem Texturmonster kann man nie genug Ram haben^^
 
Je nach SI wohl 3-4GB. Wobei ich mir eine "Sparversion" mit 2GB bei 512Bit SI auch vorstellen könnte. 256Bit SI glaube ich aber ehrlich gesagt nicht dran.
 
Schön das du dich ein wenig um den Thread kümmerst :wink:

THX ;) Gab lange Zeit nix neues, da gabs nicht viel zu tun. Nen danke wäre übrigens mal schön :(

Was ist denn bis jetzt schon zum Speicher bekannt?
3GB, 4GB?
Bei so nem Texturmonster kann man nie genug Ram haben^^

Wohl erst 3GB und später 6GB.

Je nach SI wohl 3-4GB. Wobei ich mir eine "Sparversion" mit 2GB bei 512Bit SI auch vorstellen könnte. 256Bit SI glaube ich aber ehrlich gesagt nicht dran.

Bastelst du schon wieder nen neuen Chip? :d
 
Zuletzt bearbeitet:
Nö, ich spekuliere. Würden wir das hier nicht machen, könnte der Thread ganz dicht. Die Newsmeldungen über diverse Gerüchte und Co. kommen so oder so dediziert von der Redaktion. ;)
 
Dass es 384bit wird, hat Nvidia doch schon direkt bestätigt, da muss man nicht mehr spekulieren diesbezüglich ;)

Ich hatte auf 512bit gehofft, 4GB wären ein guter Sprung. 6GB ist schon wieder viel zuviel, 3GB sind mir etwas zu wenig, will mir nämlich 3 Karten holen.
 
THX ;) Gab lange Zeit nix neues, da gabs nicht viel zu tun. Nen danke wäre übrigens mal schön :(
Wohl erst 3GB und später 6GB.

Na steht das jetzt schon richtig feste mit dem 384er Speicherinterfache?
Fallst nicht kann man ja auch nicht einfach 3GB oder 6GB sagen, bei nem 512er können es auch ganz schnell mal 4GB oder 8GB werden :d

Edit, oh man wo ist denn jetzt der Danke Knopf, ich hab den jetzt luxxüblich rechts gesucht aber der ist ja links versteckt^^
 
Zuletzt bearbeitet:
Gut, dann schließe ich 512Bit einfach mal aus fürs SI. :fresse:

Interessant ist aber ob NV eigentlich auch kleinere Ableger plant ala GK114 oder GK104 bis Maxwell ebenfalls bestand hat. Eine abgespeckte Version mit 1-2 SMX weniger wird es wohl in jedem Fall geben. Zum einen laufen Karten wie die 570 oder 670 recht gut und zum anderen ist die Verwertung von fehlerhaften Chips immer optimal und das dürfte bei der größe gerne mal passieren.

Interessant wäre eigentlich ob man die 690 dann irgendwann streichen wird.

UHJJ36 schrieb:
Na steht das jetzt schon richtig feste mit dem 384er Speicherinterfache?
Fallst nicht kann man ja auch nicht einfach 3GB oder 6GB sagen, bei nem 512er können es auch ganz schnell mal 4GB oder 8GB werden

Meines wissens nach ziemlich fest. Zumindest hat NV den GK110 so präsentiert.

UHJJ36 schrieb:
Edit, oh man wo ist denn jetzt der Danke Knopf, ich hab den jetzt luxxüblich rechts gesucht aber der ist ja links versteckt^^

oh-stop-it-you-picsay.jpg
 
Zuletzt bearbeitet:
Hier das spuckt Golem aus vom 16 Mai:

Auch zum Speicherausbau ist noch nicht das letzte Wort gesprochen. "Wir werden so viel Speicher hinter den 384-Bit-Bus klemmen, wie uns die DRAM-Industrie bereitstellen kann. Wie viel das sein wird? Wenn es 8 GByte sind, wird auch das schnell zu klein sein. Es gibt einfach nie genug Speicher", sagte Huang
 
Naja gut, zum einen wurde das Ding ja als Tesla vorgestellt, da geht Ram über allem ;)

Zum anderen wäre natürlich auch möglich das NV hier Asynchron zum Interface fährt wie schonmal. Allerdings weiß ich nicht ob das nicht negative Auswirkungen auf die Performance hat, zum anderen wären 6GB auch für 2013 ziemlich heftig.
 
Stimmt schon 6GB wären schon böse aber: wenn dann kauf ich wieder zwei davon und die sollten ja dann auch wieder 3 Jahre ausreichen für das Geld ;)
Dann kommen auch noch Ende 2013 die neuen Konsolen dann kann sich das V-Ram Blatt ganz schnell wenden und der Speicherhunger enorm ansteigen.
 
Zuletzt bearbeitet:
Interessant ist aber ob NV eigentlich auch kleinere Ableger plant ala GK114 oder GK104 bis Maxwell ebenfalls bestand hat. Eine abgespeckte Version mit 1-2 SMX weniger wird es wohl in jedem Fall geben. Zum einen laufen Karten wie die 570 oder 670 recht gut und zum anderen ist die Verwertung von fehlerhaften Chips immer optimal und das dürfte bei der größe gerne mal passieren.

GK104 auf GK114 refreshen wären wohl das naheliegendste. Wenn man in Sachen Effizienz den GK110 verbessern kann, zum GK104, dann würde eine ähnliche Optimierung auch dem GK104 zu gute kommen. Name wäre folglich dann GK114 (wie bei Fermi auch schon) mit ggf. etwas mehr Takt. Oder ggf. auch weniger und mehr Turbo/OC Potential.

Zum Thema Resteverwertung. Die würde man ja mit den Tesla/Quadrokarten schon deckeln. Denn dort sollen doch wie in einem deiner Links nicht alle SMX benutzt werden.

Zum anderen wäre natürlich auch möglich das NV hier Asynchron zum Interface fährt wie schonmal. Allerdings weiß ich nicht ob das nicht negative Auswirkungen auf die Performance hat, zum anderen wären 6GB auch für 2013 ziemlich heftig.

Logisch hat das negative Auswirkungen. Ein Teil des VRAMs wäre mit voller Bandbreite angeschlossen, der andere Teil nur mit theoretisch halber. Wobei das zwar nur die halbe Wahrheit ist, aber kommt für den Vergleich schon hin. Bei 384Bit SI hast du 6x64Bit Controller. 4 davon wären mit je zwei 256MB Chips angebunden. 2 der Controller wären mit je 512MB Chips angebunden (in der Art hat NV das schonmal gezeigt)
Das Problem ist dann, die ersten 2GB der Karte (also die Chips an den ersten vier Controllern) können mit voller Bandbreite angesprochen werden. Bei den anderen beiden hast du die doppelte Größe an Speicherchips bei gleicher Bandbreite. Für die vollständige Befüllung wäre die doppelte Zeit nötig.

Unterm Strich würde die Karte also 3GB VRAM mit voller Bandbreite nutzen können (im einen Extrem), oder eben 2GB mit voller und 2GB mit jeweils halber Bandbreite (im anderen Extrem)
Die Warheit wird irgendwo dazwischen liegen.

Wenn man sich das aber mal genauer betrachtet, so verkehrt ist das zumindest für ne Gamerkarte gar nicht. Denn erst wenn die Speichernutzung über 3GB geht, wirkt es sich negativ aus. Würde man dann aber stattdessen nur 3GB verbauen, heist das für den Speicher eben gleichsam, das bei Überbuchung die Framerate auf ein Minimum wegbricht. Wohingegen diese andere Lösung noch für genügend weiteren Speicher sorgen würde. Welcher zwar langsamer ist, dafür aber immernoch um Welten schneller als der Umweg über den Arbeitsspeicher auszulagern.
 
GK104 auf GK114 refreshen wären wohl das naheliegendste. Wenn man in Sachen Effizienz den GK110 verbessern kann, zum GK104, dann würde eine ähnliche Optimierung auch dem GK104 zu gute kommen. Name wäre folglich dann GK114 (wie bei Fermi auch schon) mit ggf. etwas mehr Takt. Oder ggf. auch weniger und mehr Turbo/OC Potential.

Zum Thema Resteverwertung. Die würde man ja mit den Tesla/Quadrokarten schon deckeln. Denn dort sollen doch wie in einem deiner Links nicht alle SMX benutzt werden.

Fraglich ist natürlich ob die Geforce am Start mehr Funktionsfähige SMX bekommt.


Logisch hat das negative Auswirkungen. Ein Teil des VRAMs wäre mit voller Bandbreite angeschlossen, der andere Teil nur mit theoretisch halber. Wobei das zwar nur die halbe Wahrheit ist, aber kommt für den Vergleich schon hin. Bei 384Bit SI hast du 6x64Bit Controller. 4 davon wären mit je zwei 256MB Chips angebunden. 2 der Controller wären mit je 512MB Chips angebunden (in der Art hat NV das schonmal gezeigt)
Das Problem ist dann, die ersten 2GB der Karte (also die Chips an den ersten vier Controllern) können mit voller Bandbreite angesprochen werden. Bei den anderen beiden hast du die doppelte Größe an Speicherchips bei gleicher Bandbreite. Für die vollständige Befüllung wäre die doppelte Zeit nötig.

Unterm Strich würde die Karte also 3GB VRAM mit voller Bandbreite nutzen können (im einen Extrem), oder eben 2GB mit voller und 2GB mit jeweils halber Bandbreite (im anderen Extrem)
Die Warheit wird irgendwo dazwischen liegen.

Wenn man sich das aber mal genauer betrachtet, so verkehrt ist das zumindest für ne Gamerkarte gar nicht. Denn erst wenn die Speichernutzung über 3GB geht, wirkt es sich negativ aus. Würde man dann aber stattdessen nur 3GB verbauen, heist das für den Speicher eben gleichsam, das bei Überbuchung die Framerate auf ein Minimum wegbricht. Wohingegen diese andere Lösung noch für genügend weiteren Speicher sorgen würde. Welcher zwar langsamer ist, dafür aber immernoch um Welten schneller als der Umweg über den Arbeitsspeicher auszulagern.

Zumindest wenn man das organisatorisch so hinbekommt. Aber du hast recht, die Möglichkeit wäre ziemlich interessant. Statt 3GB halt 4 und das zusätzliche GB als "Überlauf". So würde man den kritischen Framedrop wenn der Ram voll ist aus dem Weg gehen. Andererseits wäre das beim Top-Dog weniger sinnig als im Mainstream, ganz einfach weil es bisher eigentlich immer so was das die Karten genug VRam zu dem Zeitpunkt unb auch ne Weile danach hatten. Enthusiasten die auch das letzte an Performance wollen und gerne mehrere Karten nutzen greifen gleich zur 6GB Version.

Wirtschaftlich siehts da wieder anders aus. Sollte man wirklich auf schnelleren Speicher setzen wirds natürlich teuer und so kann ich mit mehr VRam punkten ohne gleich den Preis ins Extrem zu treiben.
 
wie gesagt, bei irgend so ner Mittelklassekarte hat NV genau das schonmal gemacht. "Krummes" SI bei gerader RAM Größe mit unterschiedlich großen Chips.
 
Nöö, sonst würde es hier auch stehen, denke das ganze wird noch 6-12 monate dauern... Mal abwarten. :d

Grüße
Sharie
 
Also spätestens 6 Monate nach Tapeout sollte man schon ein paar Informationen kennen, das wäre im September. Ich schätze, ab da bis Launch hoffentlich Januar/Februar 2013 gibts dann mehr.
 
Interessant werden wohl vor allem mögliche neue Features werden und die erfährt man ja immer erst kurze Zeit vor launch. Mal sehen was sie am Takt so hinbekommen mit 300 Watt.
 
300? Ich hoffe 250. Mehr als die 480 oder 7970 GHE sollte die GTX780 nicht verbrauchen, das war schon so ne Grenze wo man schlucken musste.
 
Die 480 und die 7970GHZ Edition würden ungedrosselt aber auch locker die 300er Marke erreichen bzw die 480 sowieso:)


Kraft kommt von Kraftstoff und wenn das Ding dann richtig Bumms hätte sollten auch die 300Watt nur Makulatur sein:d
 
Zuletzt bearbeitet:
In Spielen mein ich, da wird ja nicht gedrosselt meines Wissens nach. Die 480 hat die 250W teilweise überschritten - die 7970 GHE übrigens auch. +/- 10W, da kräht kein Hahn danach. Aber +50W TDP ist zuviel. Bei GK110 300, bei GM100/10 dann 350, bei GH100 (Graphics Huang :d) dann 500? Ne, irgendwo muss eine Grenze her.
 
Zuletzt bearbeitet:
Ohne Mehrverbrauch wird es auch keine Mehrleistung geben. Ich denke mal nicht das GK110 wesentlich effizienter zu Werke geht als die 7970 GHE.
 
Wenn ich bei HT4U schaue, kommt eine 680 auf ca. die doppelte Performance einer 560Ti bei 20% mehr Verbrauch. Rechnet man das mit GK110 auf die GTX580 um und streicht diese extra 20%, dürften unterm Strich immer noch 70% Plus rumkommen. Das wäre voll ok und im Rahmen.
 
Ich bezweifel mal das das eine zulässige Rechenweise ist :fresse:
 
Der Grad der Effizienz wird mit Sicherheit steigen. Das ist nicht gleichbedeutend mit verbraucht weniger. In diversen Interviews wurde ja nun schon die damalige Problematik des data-movements sowie der hotclocks angesprochen. Hot-Clocks gibts nicht mehr und die Datenbewegungen wurden optimiert. Hinzu kommt dass GK110 (aller Wahrscheinlichkeit nach) mehr autark von der CPU agiert als bisherige GPUs. (Letzlich wird es aber eine Entscheidung der Softwarehersteller sein wie sinnvoll diese eingesetzt wird.) Summa summarum sind die 250 Watt optimistisch aber nicht unrealistisch.

Übrigens ist die VRAM-Diskussion eher so gemeint: Macht die DRAM-Industrie schnelle Fortschritte verbauen wir das auf Tesla-Karten ;) DRAM-Cube und wer weiß was. Der IMC ist schon lange 6GB-fähig.

Using x16 DRAMs in a single rank, Fermi can access 24 devices. In theory, this means that Fermi will support up to 6GB with 2GBit DRAMs and 12GB with 4GBit devices.
Quelle

Edit: Witzigerweise gibts nur XDR mit 4GBit-Chips - klingelts da? *hrhr*
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh