nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
PAX | PDX

Whatever. :d

Achja, um im 3DMARK 67% schneller zu sein, pass folgendes:
1019MHz * 15 SMX = 69,9% mehr Rechenleistung.

Ich wage aber fast schon zu bezweifeln, dass das eben in 300 Watt mit 6GiB Vram möglich sein könnte... Außerdem: Wenn das der Fall sein sollte... Oh Mann... dann bräuchte der Titan im Verhältnis noch mehr Bandbreite als es die GTX 680 jetzt schon braucht... Also auch ein höherer Einbruch der Leistung bei MSAA...
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
GTX690's Boost liegt auch bei 1019MHz und die Karte hat einen durchschnittlichen Verbrauch von 260 Watt.
TITAN kann also auch 1019MHz haben und leicht unter 260 Watt einschlagen.

Das ist alles im Rahmen, was man erwarten kann.
 
GTX690's Boost liegt auch bei 1019MHz und die Karte hat einen durchschnittlichen Verbrauch von 260 Watt.
TITAN kann also auch 1019MHz haben und leicht unter 260 Watt einschlagen.

Das ist alles im Rahmen, was man erwarten kann.

Nochmal:
K20X ->235 Watt bei 732 MHz (dürfte wohl recht ausgeschöpft sein) Da mehr Takt 1zu1 mehr Leistungsaufnahme verursacht: Über 327 Watt:fresse: Selbst bei 915 Watt wäre man schon bei rund 290 Watt...
Naja, ich gehe einfach davon aus, dass die Karte nicht höher als 900-950 MHz max. takten wird.
 
Ein GK204 mit 1920 Shader, 384 Bit SI wäre schneller, günstiger und kleiner als AMDs Tahiti :)

Das ist aber ne sehr komische Logik. Speziell nach dem Größenvergleich, den du selbst zwei Zeilen drüber bringst.
Nur mal angenommen, die ALUs würden 50% der Fläche füllen. So heist 1920 ALUs = 25% mehr als GK104. Somit erzeugst du allein durch die mehr ALUs schon 330,75mm² bei sonst gleichem Rest.
Da ist weder das SI, noch ROPs, TMUs/TAUs noch sonstige andere Geschichten mit bei.

Mit 1920 ALUs und 384Bit SI wärst du wohl viel eher fast gleichauf mit den 365mm² der Tahiti GPU...

Und reim vom Verbrauch her dürfte sich das Teil ebenso wenig viel von Tahiti unterschieden. 1GB mehr VRAM kompensiert auch gut und gerne ein paar Watt. 25% mehr ALUs ebenso.


In meinen Augen der größere Unsinn ist aber, für was sollte man so eine GPU bauen?
GK110 hätte gerade noch 50% mehr ALUs. Aber das gleiche SI sowie gleichen ROPs Ausbau. Dazu lässt GK110 in Sachen Takt wohl gut eine Ecke mehr Federn als so eine GPU bringen könnte/würde.
Von den reinen 50% mehr ALU Power würden vllt noch 20 oder 30% über bleiben. Wenn überhaupt. Und das auch nur, wenn du wirklich vom Vollausbau ausgehst.
Welchen Sinn sollte somit GK110 noch haben? Wenn man ne derart potente GKxxx GPU in der Pipeline hätte?

Ich kann an der Stelle sontin einfach nur zustimmen. Das was so ne GPU liefern könnte, könnte man spielend mit der GK110 GPUs vermarkten. ;)
Ich glaube auch erst an eine quasi reine Tesla Produktion in Form ner dedizierten GPU nur für diesen Markt, wenn NV das wirklich irgendwann mal so zeigt. Bis dahin überwiegt die Annahme, das wir immer Modelle im Tesla, Quadro und Geforcebereich aufbauend auf ein und der selben GPU gesehen haben.

Ich würde dir im übrigen Zustimmen, sowas wäre wohl Sinnvoll umsetzbar, wenn wir um niedrigstpreis Produkte sprechen. Aber nicht im HighEnd Bereich. Vor allem nicht bei aktuellen Preisen. Es ist irgendwie kein Zugzwang zu so einem Mittel zu erkennen, der Sinnig wäre. So ne dedizierte GPU zu vermarkten, neben dem voll funktionsfähigen Produkt GK110 kostet den Hersteller doppelt. Dazu steht die Frage im Raum, für was hat GK110 überhaupt ROPs, TMUs/TAUs usw. Für GPGPU Sachen brauch es das nämlich nicht ;)
Würde man hier klar von Beginn an trennen, wäre die Tesla GPU genau so ohne unnützen Gamer/3D Balast gekommen, wie es GK104 allein für den Gamerbereich bzw. unteren Workstationbereich heute zeigt.
 
TDP Tesla Karte != TDP Geforce.

GTX580: 244 Watt in Spielen, über 300 Watt in Furmark und Co
M2090: 225 / 250 Watt (suchs dir aus)
 
PAX | PDX

Whatever. :d

Achja, um im 3DMARK 67% schneller zu sein, pass folgendes:
1019MHz * 15 SMX = 69,9% mehr Rechenleistung.

15 SMX sind 87,5% mehr Einheiten, wie passt das?
Außerdem sind das exakt die Taktraten der 690 und 2x256bit=512bit. Glaub der Shop hat einfach Mist hingeschrieben.
 
Zuletzt bearbeitet:
Leistungstechnisch wäre die Karte aber schneller als die Ghz Ediiton.
Das würde ja auch stimmen. Aber man bräuchte einfach nur teildeaktivierte GK110 Samples zu nehmen und Fertig, ohne teure Entwicklung.


TDP Tesla Karte != TDP Geforce.

GTX580: 244 Watt in Spielen, über 300 Watt in Furmark und Co
M2090: 225 / 250 Watt (suchs dir aus)

Die 2090 läuft auch nur mit rund 650/1300MHz (i games hat die GTX 580 aber auch nur rund 220 Watt verbraucht, allerdings bei 1/4 des Vrams. Der Titan scheint aber eben ne "ganz normale" Tesla mit mehr Takt zu werden. Dann geh eben von 215 Watt für einen GK110 mit Tesla-Spezifikationen aus (also weniger Spannung). Dann wäre man bei 915 MHz weiterhin bei rund 270 Watt, 1019 MHz bei 300 Watt (beim Durschschnittlichen Boost!). Wie @Box schon sagte, das ist wohl infach nur mist, was da steht.
 
Zuletzt bearbeitet:
dann wäre ja null OC Spielraum :d
 
Das würde ja auch stimmen. Aber man bräuchte einfach nur teildeaktivierte GK110 Samples zu nehmen und Fertig, ohne teure Entwicklung.
Aber nur wenn die GK110 Karten doch nicht so teuer ausfallen, neben Geforce Titan noch teildeaktivierte Karten für z.b. 450 € als GT770 macht kein sinn, wie soll man dann den teuren Preis der Geforce Titan rechtfertigen, dann greifen ja alle zu den kleineren Modellen...
 
Zuletzt bearbeitet:
15 SMX sind 87,5% mehr Einheiten, wie passt das?
Außerdem sind das exakt die Taktraten der 690 und 2x256bit=512bit. Glaub der Shop hat einfach Mist hingeschrieben.

Boost der GTX680 liegt bei 1124MHz. Die sollten im 3DMark jederzeit anliegen.
Der einzige Fehler beim Shop ist auf dem ersten Blick das Speicherinterface.
 
Aber nur wenn die GK110 Karten doch nicht so teuer ausfallen, neben Geforce Titan noch teildeaktivierte Karten für z.b. 450 € macht kein sinn...

Meinst du wirklich, GK110 wäre so viel teurer als es damals der GF100/110 der GTX 480/580 war? Wenn nVidia es wollte, könnten die den GK110 auch als 500€ Karte mit eben 15SMX rausbringen. Aber ganz ohne Konkurenz...

@Sontin, ein solch hoher Takt ist einfach nicht machbar. Will nvidia dann ganz auf ein zusätzliches PT verzichten? OC plus/minus 0? Wie gesagt, 240-250 Watt wären realistisch, dann das PT + max. 25/20%, so wäre OC auch noch drin.
 
Zuletzt bearbeitet:
Meinst du wirklich, GK110 wäre so viel teurer als es damals der GF100/110 der GTX 480/580 war? Wenn nVidia es wollte, könnten die den GK110 auch als 500€ Karte mit eben 15SMX rausbringen. Aber ganz ohne Konkurenz...
Ich bezog mich auf den Verkaufspreis und nicht auf die Herstellungskosten!
 
Das wäre das beste was uns passieren könnte. Ein Preiskampf zwischen zwei Herstellern ist immer gut. Nur einfältige Menschen freuen sich über schwache Konkurrenz. Eine 3 GiB Edition zusätzlich zur 6 GiB Edition und alle sind glücklich. Man braucht nur zu den CPUs schauen was dort abgeht. Sau teure 6-Kerner im veralteten Prozess ab mindestens 500 Euro, ja ich hab den auch gekauft, Schande über mein Haupt.

Endlich mal einer, ders begriffen hat in der ganzen "AMD Untergangsthematik" der letzten Seiten hier :fresse:
PS: die Intel Hexacores sind an der Stelle wohl nicht ganz vergleichbar. ;)
Die Maßgabe im oberen Workstationbereich liegt aktuell immernoch etwas mehr auf Multithreading als auf reinem IPC. Im Mainstream bekommst du aber ohne mehr IPC und/oder Takt keine mehr CPU Leistung. Deswegen baut auch Intel den Mainstreambereich zuerst auf die neuen Techniken um.
Das ganze zieht sich 1:1 durch die ganze Palette. Schau auf noch viel höher preisige Multi-Sockel Xeons. Da bekommst du aktuell zwar 10 Cores. Aber nur Westmeretechnik. Im Desktopbereich schon horn alte Kamelle, wo man schon zwei Gens. drüber weg ist. ;)

Also wenn sie schon beim SI schlampen, warum sollte dann der Takt stimmen? Wär natürlich erfreulich, wenn das zutreffe sollte.

So sehe ich das auch. Ist eins falsch, liegt die Vermutung nahe, das der Rest auch nicht stimmt. Gerade das SI dürfte aufbauend auf GK110 ja eins der Werte sein, die wirklich fix sind. GK110 hat meine ich keine Möglichkeit auf 512Bit zurückzugreifen.
Könnte aber viel eher auch ne Dual GK104 Lösung sein? Weil 1019MHz klingt stark nach 690er :fresse: 2x256Bit SI wären auch im SLI wie 512Bit.
Das klingt viel eher nach Fakewerten...
 
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

.... Der einzig OFFENSICHTLICHE Fehler...

Alles andere ist Speku - oder weil ein Shop es postet, stimmt der Rest?! :hmm:
 
Boost der GTX680 liegt bei 1124MHz. Die sollten im 3DMark jederzeit anliegen.
Der einzige Fehler beim Shop ist auf dem ersten Blick das Speicherinterface.

Nochmal:
Das sind die Taktraten der GTX690. Wäre das nicht ein ziemlicher Zufall, wenn Titan die exakt gleichen Taktraten hätte?
Der von Nvidia angegebene durchschnittliche Boost der 680 liegt bei 1058 MHz. Wie hoch da jede einzelne Retail-Karte taktet, ist Zufall. Kann 1124 sein, kann aber auch völlig anders sein. Denk dir doch nicht irgendwelche Fantasiewerte aus, nachher bist du nur enttäuscht :)
 
1124MHz ist der höhste Step der Referenzkarten und wird auch von jeder erreicht, wenn die Temps unter 71°C und man nicht ins Powerlimit läuft.

Und warum sollte nVidia nicht die selbe Taktrate wie bei der GTX680 nehmen? Spricht da irgendwas dagegen?!
 
ein solch hoher Takt ist einfach nicht machbar.
Vielleicht hat der GK110 Chip für die Geforce ein neues Stepping im vergleich zum K20, könnte sein das der Chip für höhere Taktraten weniger Energie benötigt.
Nvidia hat beim GF110 auch gute Arbeit geleistet!
 
wie soll man dann den teuren Preis der Geforce Titan rechtfertigen, dann greifen ja alle zu den kleineren Modellen...
Das ist es ja gerade. GK110 besitzt, so wie es zurzeit aussieht, nichts, was diesen Preis rechtfertigen würde. Eine annähernd GTX 690 Leistung? Nope.

Und dass da wohl kleinere Ableger kommen könnten, scheint mir sogar ehr warscheinlich. Schließlich würde zwischen GK110 und der GTX 680 eine derart große Lücke klaffen, dass AMD da "einfach" zwei Modelle reinschieben könnten, wogegen nvidia nichtmal irgendetwas in der Hand hätte. Und was will man denn sonst mit den ganzen anderen teildefekten Chips machen? Alle als Teslas/Quadros verkaufen? Glaube ich nicht.
 
Zuletzt bearbeitet:
1124MHz ist der höhste Step der Referenzkarten und wird auch von jeder erreicht, wenn die Temps unter 71°C und man nicht ins Powerlimit läuft.

Und warum sollte nVidia nicht die selbe Taktrate wie bei der GTX680 nehmen? Spricht da irgendwas dagegen?!

Ja, zwei Dinge. Erstens, dass nur die wenigsten GK110 Chips so hohe Taktraten überhaupt schaffen würden bei vertretbaren Spannungen und zweitens die Leistungsaufnahme. Vielleicht scheißt Nvidia da auch einfach drauf, könnte natürlich sein. Halte ich jedoch für unwahrscheinlich.

Du bist immer noch nicht auf die Sache mit der 690 eingegangen. Welche Karten in der Vergangenheit hatten exakt die gleichen Taktraten? Sorry, an solche Zufälle glaube ich nicht.
 
Halte ich jedoch für unwahrscheinlich.
Sehe das genau so. Nvidia hat seit Jahren mal wieder eine effiziente Architektur. Und solange der GK110 bei max. 250-300 Watt bleiben würde, wäre dieser ja weiterhin ziehmlich effizient.

@Duplex
Klar könnte ein neues Stepping was bringen, Im gegensatz dazu aber steht, dass der GF100 von Anfang an defekt war und erst der GF110 es berichtig hatte. Und an eine solch große Steigerung beim GK110 glaube ich eher weniger.
 
Das ist es ja gerade. GK110 besitzt, so wie es zurzeit aussieht, nichts, was diesen Preis rechtfertigen würde. Eine annähernd GTX 690 Leistung? Nope.
Eine Single GPU Karte hat immer Vorteile gegenüber einer Dual Karte, Mikroruckler, VRAM Limit, SLI Skalierung...Warte mal bis Nvidia paar Treiber optimiert, dann erreicht GK110 mit über 1Ghz Turbo bestimmt 90% GTX690 Performance :)
 
TDP Tesla Karte != TDP Geforce.

GTX580: 244 Watt in Spielen, über 300 Watt in Furmark und Co
M2090: 225 / 250 Watt (suchs dir aus)

Und was interessiert auf einmal Furmark?
Ihr wart doch sonst immer dagegen...

GF110 als 580er hat ne TDP Einstufung von 244W wenn mich nicht alles täuscht.
Und kommt unter normaler Gamerlast auch annähernd an diese Werte. ht4u.net miss 246W direkt für die Karte.

Somit TDP Tesla exakt TDP Geforce ;)

Leistungstechnisch wäre die Karte aber schneller als die Ghz Ediiton.

könnte, bzw. wird auch so sein.
Die 680er leidet ja doch schon etwas an der Bandbreite. Klar sie würde zulegen. Vllt auch mehr als ne AMD GHz Edition. Die Frage ist aber, welchen Sinn hätte das?
AMD hat die GHz Karte ja gebracht, weil Tahiti da war. NV würde in dem Fall aber eine gänzlich neue GPU aus der Tasche zaubern müssen. Und wenn das Teil dann vllt 10% über ner GHz AMD lieg, was hat man da bitte gewonnen?

Die Leute, die heute GK104/Tahiti kaufen/kauften, wechseln nicht wegen 10%+
Schau dich hier um, es gibt sogar eingefleischte HighEnd Freunde, die nichtmal für ~35% der GK104 zu haben waren. Trotz quasi mehr Leistung in jeder Lebenslage, trotz weniger Verbrauch usw.
Die Kosten, die so ne minimal bessere GPU erzeugen würde, dürfte NV lange nicht reinspielen können. Speziell nicht bei den aktuellen Preisen...
Ich halte das für viel zu wenig. Da muss mehr kommen. Wie gesagt, GK110 wird da schon realistischer. Der ist da, der hat alles an Board, was NV braucht und der ist vor allem auch schon im Einsatz und Marktbereit.

Aber nur wenn die GK110 Karten doch nicht so teuer ausfallen, neben Geforce Titan noch teildeaktivierte Karten für z.b. 450 € als GT770 macht kein sinn, wie soll man dann den teuren Preis der Geforce Titan rechtfertigen, dann greifen ja alle zu den kleineren Modellen...

Was machst du mit teildefekten GPUs, wenn du diese nicht weiterverwerten kannst? ;)
Lieber 450€ für ne Teildefekte GPU einnehmen, als 0€ für nen nicht funktionsfähigen Chip in die Tonne rammeln.

AMD zeigt doch aktuell, das die 28nm Fertigung durchaus noch gut Ausschuss produziert. Andernfalls hätte so eine Tahiti LE GPU gar keinen Sinn ergeben.
Und NV macht sowas auch. Siehe GTX 465, siehe 560TI 448Core usw.

Eventuell sammelt man auch einfach erstmal die GPUs und schiebt dann was weniger hochpreisiges nach.
 
Und was interessiert auf einmal Furmark?
Ihr wart doch sonst immer dagegen...

GF110 als 580er hat ne TDP Einstufung von 244W wenn mich nicht alles täuscht.
Und kommt unter normaler Gamerlast auch annähernd an diese Werte. ht4u.net miss 246W direkt für die Karte.

Somit TDP Tesla exakt TDP Geforce ;)

Stimmt, weil Maximalverbrauch auch das selbe ist wie ein Durchschnittsverbrauch. :rolleyes:
 
Eine Single GPU Karte hat immer Vorteile gegenüber einer Dual Karte, Mikroruckler, VRAM Limit, SLI Skalierung...Warte mal bis Nvidia paar Treiber optimiert, dann erreicht GK110 mit über 1Ghz Turbo bestimmt 90% GTX690 Performance :)

Naja, glaube ich eher weniger. Die Treiber scheinen schon ganz gut Kepler optimiert zu sein, ein GK110 würde davon dann genauso profitieren, wie es eine GTX 690 auch tun würde. Außerdem: Solange nVidia noch keinen Nachfolger für die GTX 690 hat, wären die mehr als dämlich eine Konkurenz aus dem eigenen Haus zu erstellen. Schließlich will nvidia die 690 ja weiterhin verkaufen. Ich glaube, dass GK110 einfach genau zwischen der GTX 680 und der 690 liegen wird, wie es schon lange spekuliert wurde. So würde nVidia weiterhin die GTX 690 verkaufen können, als absolute Speerspitze, den Titan als Single-GPU-Flaggschiff und eben den GK104 als Performance Karte für 450€:fresse:

Stimmt, weil Maximalverbrauch auch das selbe ist wie ein Durchschnittsverbrauch. :rolleyes:
Und eben deswegen kannst du Kepler nicht mit Fermi vergleichen, da eben GPU-Boost. Sobald die max. TDP erreicht wird, taktet die Karte runter.
 
Zuletzt bearbeitet:
DVI-I x 2, DVI-D x 1, Mini DP

2x DVI-I hört sich auch unglaubwürdig an, wozu die Möglichkeit für 2 analoge Displays?
 
Und dass da wohl kleinere Ableger kommen könnten, scheint mir sogar ehr warscheinlich. Schließlich würde zwischen GK110 und der GTX 680 eine derart große Lücke klaffen, dass AMD da "einfach" zwei Modelle reinschieben könnten, wogegen nvidia nichtmal irgendetwas in der Hand hätte. Und was will man denn sonst mit den ganzen anderen teildefekten Chips machen? Alle als Teslas/Quadros verkaufen? Glaube ich nicht.
Bei AMD ist es aktuell sehr still, Chef hat wichtige teile der Belegschaft gefeuert, ehem. ATI Chef ist auch weg...tja was soll man dazu noch sagen? Was für ne Lücke soll AMD mit 2 Modellen füllen? Ein Chip mit 2560 Shader (40 CUs), möglicher 7970 Nachfolger macht nur dann sinn wenn man das Frontend verbessern kann, bei Pitcairn > Tahiti Game skalierung sieht man das Frontend ist zu schwach.
 
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Eine zweite "schwächere" Karte die nicht GTX 780 heißt, würde die Aura "GTX" gefährden.
Es kann eigentlich nur eine Titan geben... ein schwächerer Ableger würde das Ganze ja fast nach einem neuen Segment aussehen lassen und eine GTX 780 hätte für 480 Euro eigentlich kaum noch "Glanz".
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh