nVidia GK100/Geforce 6xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mit zum Kepler Release erscheinenden AMD Grafiktreiber wird es wohl ein Kopf an Kopf Rennen zwischen HD7950 und GF104 werden.
Die HD7970 sehe damit dennoch 10-15% vor GF104.

Träum schön weiter von deinem AMD Wundertreibern.

man man man warum postest du überhaupt im Kepler Thread, wenn du nicht ein Stück weit objektiv bleiben kannst???
 
das wäre echt geil. Dann könnte NV mal stolz auf sich sein.

Sowas gab es aber schonmal und das Produkt hies C2D ;).
 
NV und kleineres Die und weniger Verbrauch.. der War gut :d die Grünen bauen doch immer Spoiler drauf, hauptsache Power :) xD

Ich tippe mal die werden sich Identisch sein, im Idle AMD weiter vorne unter last vllt NV wegen dem besseren P/W Verhältnis
 
und nv wird wieder bessere min fps haben ;). das die hauptsache und das mit GK104. Passt auf was ich sage :d :d :d
 
GK104 670TI dual DVI + HDMI + DP interface, dual-6P-powered turbine radiator

Performance lagged behind the 7970 5%

And "680" has the same number of SP

Broke the news: 40% performance increase through the brush bios (As for you Believe it or not anyway, I believe)

Mit zum Kepler Release erscheinenden AMD Grafiktreiber wird es wohl ein Kopf an Kopf Rennen zwischen HD7950 und GF104 werden.
Die HD7970 sehe damit dennoch 10-15% vor GF104.

demnach wäre der GK104 "lediglich"(aus Enthusiastensicht) 30% schneller als ne GTX580, was ich für nen Performancechip aber als sehr erachtlich empfinde.
Auch wenn AMD mit nem Performancetreiber für diverse Games 10% auf kosten von ??? ... raus bringt, juckt mich das immo auch nicht so.

Ich habe den BigK erwartet mit 70% Mehrleistung. ... zuviel bzw, zu früh
Wenn ich bedenke das wegen der Karten manche ihre HW schon vor nem halben Jahr verschärbelt haben :fresse2:
Nun heißt es Kompromisse zu schließen. Das ist der Punkt der mich ein wenig ärgert. Entweder GK104 direkt im SLI mit 4GB ... dann wohl auch erst wieder später^^
Aber dann kann man noch 2 Monate warten wenn die 4GB Varianten da sind bis der BigK tatsächlich kommt...
oder sich bis BigK der mit weiteren 40% Mehrperformance daher kommt, mit einer normalo GK104 begnügen. Ich denke immernoch besser als mit mittlerweile nur einer 5870. Da AMD bei BF3 extrem abloost, kommt AMD für mich auch nicht in Frage derzeit.

Ich glaube weniger, dass der BigK nur 10-20% Mehrperformance zu GK104 haben wird.
 
Wizzard's Tool wurde ja für GK107 schon vor Monate angepasst. Und anscheinend existiert der HotClock weiterhin:
NVIDIA Kepler Ivy Bridge NBR Exclusive :: v33a.png picture by yknyong1 - Photobucket

NVIDIA Kepler Ivy Bridge NBR Exclusive :: v33a.png picture by yknyong1 - Photobucket

/edit:

Und hier noch etwas von good old OBR - maschinell übersetzt:
Here to entertain small comment, I could not help it. When we show performance of "A" against the 7970-X Mr. Nobody was surprised when he said the frequency and overclocking, orosilo his forehead. As further shown new features, made a really faint ... but when he finally said the number of transistors and the chip size, he fainted and had to wake up ... his world collapsed.

Soon we will laugh at these idiots: DOC Zenith (všeználek ​​you never know nothing), maltra (poor monkey who laugh at the most), of course Kratěna, StacHUJ (also the chance to taste) and other cyhtrolíni which zmehne soon enough ... :) I have backed up all their wisdom for future amusement, and it will come soon ..

"A" = "K":
Zde malá glosa pro pobavení, nemohl jsem si pomoct. Když nám ukázali výkon "K" proti 7970 tak panu Nobody-X zaskočilo

/edit #2:
Eventuell die ersten wirklichen relevanten Benchwerte von GK104:
PHK got the first benchmark numbers in for 3DMark11 confirmed GTX 680 will be faster than Radeon HD 7970.

680-> X3200~3300
(7970)-> X2700~2800
670Ti -> X2500~2600
(7950) -> X2200~2300
http://www.nvnews.net/vbulletin/showpost.php?p=2535011&postcount=95

Könnte logisch sein. Die GTX670TI ist leicht langsamer und damit könnte die Aussage von Heise.de sogar stimmen...

Achja, mit diesen Werten wäre die 680 ca. 18% schneller als die 7970 und ca. 60% schneller als die GTX580.
 
Zuletzt bearbeitet:
Es kommt ganz sicher jetzt en HighEnd Modell, bzw. so kann man es nennen, weil es wohl Nvidias bestes Stück fürs erste sein wird. GK110 aber wahrscheinlich nicht, was ne Sauerei ist. Was macht der Hardwareprofilaie jetzt? ^^
Die schnellste Graka könnte der GK104 werden, bzw. muss er sonst würde Nvidia den GK110 rauskloppen. Aber lohnt es sich?
 
GK110 aber wahrscheinlich nicht, was ne Sauerei ist.

Wieso soll das bitte eine "Sauerei" sein ?? Außerdem: Kannst du mal bitte endlich aufhören hier rum zu heulen ?? Deine Beiträge sind immer nur Geflenne.... ich hoffe inständig dass 2003 dein Geburtsjahr ist, sonst kann man sich das eigentlich nicht erklären.

Sorry für OT.

BTW: Ein integrierter fps-Limiter im Treiber finde ich persönlich eine klasse Idee ! :bigok: Ich hoffe dass das wirklich so kommt...
 
Nun, ich denke viele scheinen hier eins zu vergessen:
High-End ist Leistung nicht mm^2. Wenn GK104 angeblich 128TMUs, 1536Cores@Hotclock, effizienteres Speicherinterface hat, dann ist dies eine Kombination, die High-End schreit.

Guckt man sich den Floor-Plan an, dann können 32SM je 48Cores vorhanden sein. Das wäre doppelt soviel zur GTX580.

Imo ist GK104 = BigK und damit High-End. Leistungssteigerung? 60%+ gegenüber der GTX580 können hinhauen.
 
Nun, ich denke viele scheinen hier eins zu vergessen:
High-End ist Leistung nicht mm^2. Wenn GK104 angeblich 128TMUs, 1536Cores@Hotclock, effizienteres Speicherinterface hat, dann ist dies eine Kombination, die High-End schreit.

Guckt man sich den Floor-Plan an, dann können 32SM je 48Cores vorhanden sein. Das wäre doppelt soviel zur GTX580.

Imo ist GK104 = BigK und damit High-End. Leistungssteigerung? 60%+ gegenüber der GTX580 können hinhauen.

Richtig! Und wenn se das ding auch noch GTX680 nennen, dann dürften auch diejenigen befriedigt sein, die meinen, keine High-End Preise für den Performance chip zu bezahlen.

:d
 
10% schneller als die 7970 bei kleinerem Die und weniger Verbrauch wäre eine kleine Revolution. Das muss man sich mal auf der Zunge zergehen lassen: Kleineres Die und weniger Verbrauch...von Nvidia :d

Abwarten ;)
Der kleinere DIE scheint ja mittlerweile quasi sicher zu sein. Wenn auch nur minimal. So ganz verwunderlich wäre das aber auch nicht. Tahiti fährt in Games ihre ALUs auf Sparflamme, warum, weis keiner so genau... Scheint an anderen Stellen zu limitieren. GK104 könnte es hier besser machen. Und bringt dazu ja auch den größen Vorteil in Sachen Speicherausbau mit. Das SI scheint ja 50% größer bei Tahiti zu sein. Das kost auch Platz...

Aber sei es drum. In Sachen Performance scheint selbst jetzt zwei Tage von dem 12.3. nicht wirklich was handfestes sichtbar zu sein. Mal spekuliert man auf Tahiti Leistung, mal drüber, mal drunter...
Selbst die Aussagen im 3DCenter sollten mit Vorsicht genossen werden... Da dort vor zwei Monaten noch Dinge gesagt wurden, welche so nun wohl doch nicht kommen... Und es absolut auszuschließen ist, das man die Karte dahingehend nochmal umgebaut hat.
 
Ich schrieb ja "wäre". Ich kann mir vorstellen, dass Nvidia die Midrangewurzeln ignoriert, die TDP höher setzt (195W wird gemunkelt), um doch das Schnellste zu haben. Wäre auch untypisch für die Grünen, auch wenn man besser dasteht als erwartet, bedeutet das, dass man sich mit einem neuen Gegner messen muss (Tahiti statt Pitcairn). Rein psychologisch gesehen ist das schlecht, denn die Leute werden nicht sagen "wow, ihr seid so effizient und schneller wie Pitcairn" sondern "meh, ihr schlagt ja nichtmal Tahiti XT". Egal was die Pläne waren/sind, so würde es sicher von der Mehrheit aufgenommen werden.
 
Abwarten ;)
Der kleinere DIE scheint ja mittlerweile quasi sicher zu sein. Wenn auch nur minimal. So ganz verwunderlich wäre das aber auch nicht. Tahiti fährt in Games ihre ALUs auf Sparflamme, warum, weis keiner so genau... Scheint an anderen Stellen zu limitieren. GK104 könnte es hier besser machen. Und bringt dazu ja auch den größen Vorteil in Sachen Speicherausbau mit. Das SI scheint ja 50% größer bei Tahiti zu sein. Das kost auch Platz...

Tahiti limitiert einfach das Front-End. Das ist aber bekannt. Deswegen liegen Cape Verde und Pitcairn sogut und auch die kleinen 40nm Chips konnten so gut mit GF108 und GF106 mithalten.
Aber sei es drum. In Sachen Performance scheint selbst jetzt zwei Tage von dem 12.3. nicht wirklich was handfestes sichtbar zu sein. Mal spekuliert man auf Tahiti Leistung, mal drüber, mal drunter...
Selbst die Aussagen im 3DCenter sollten mit Vorsicht genossen werden... Da dort vor zwei Monaten noch Dinge gesagt wurden, welche so nun wohl doch nicht kommen... Und es absolut auszuschließen ist, das man die Karte dahingehend nochmal umgebaut hat.

Es ist immer so: Manche Leute im Internet nehmen sich ernster als sie es eigentlich sollten. Ich meine, wie kann man jemanden vertrauen, der meinte, dass man die GTX580 weder am 8.11.2010 noch im ganzen Jahr 2010 kaufen könnte?

Ich schrieb ja "wäre". Ich kann mir vorstellen, dass Nvidia die Midrangewurzeln ignoriert, die TDP höher setzt (195W wird gemunkelt), um doch das Schnellste zu haben. Wäre auch untypisch für die Grünen, auch wenn man besser dasteht als erwartet, bedeutet das, dass man sich mit einem neuen Gegner messen muss (Tahiti statt Pitcairn). Rein psychologisch gesehen ist das schlecht, denn die Leute werden nicht sagen "wow, ihr seid so effizient und schneller wie Pitcairn" sondern "meh, ihr schlagt ja nichtmal Tahiti XT". Egal was die Pläne waren/sind, so würde es sicher von der Mehrheit aufgenommen werden.

Oder es handelt sich bei GK104 um den High-End Chip. AMD hat das selbe mit rv770 geschafft, wenn man diesen mit r600 vergleicht. Deutlich kleiner und eine 2,5 fache Erhöhung der Ausführungseinheiten bei ähnlicher Bandbreite.
 
Zuletzt bearbeitet:
Ich schrieb ja "wäre". Ich kann mir vorstellen, dass Nvidia die Midrangewurzeln ignoriert, die TDP höher setzt (195W wird gemunkelt), um doch das Schnellste zu haben. Wäre auch untypisch für die Grünen, auch wenn man besser dasteht als erwartet, bedeutet das, dass man sich mit einem neuen Gegner messen muss (Tahiti statt Pitcairn). Rein psychologisch gesehen ist das schlecht, denn die Leute werden nicht sagen "wow, ihr seid so effizient und schneller wie Pitcairn" sondern "meh, ihr schlagt ja nichtmal Tahiti XT". Egal was die Pläne waren/sind, so würde es sicher von der Mehrheit aufgenommen werden.

Da hast du natürlich recht... Wobei sich NV, sollte das mit dem Namen stimmen, in dem Fall selbst ein Bein stellt... Hätten die das Teil doch 660TI oder sowas genannt... Dann wäre zumindest nach jüngstem Namensschema klar zu sehen gewesen, um was es sich bei der Karte handelt.
NV (typisch könnte man sogar sagen) will man aber mehr und stellt das Teil womöglich als 680er auf die Bahn.

Tahiti limitiert einfach das Front-End. Das ist aber bekannt. Deswegen liegen Cape Verde und Pitcairn sogut und auch die kleinen 40nm Chips konnten so gut mit GF108 und GF106 mithalten.

Woher stammt die Infos mit dem Frontend?
Wenn ich mir die Daten mal so pauschal ansehe. Die HD7950 hat gute 10% mehr ALU sowie Filter Leistung, aber wenig ROP Leistung. Eine HD7870 macht den Boden durch den hohen Takt gut... Auch wenn augenscheinlich die ALUs deutlich höher erscheinen bei Tahiti, sieht man, das eben auch durch Takt das ganze in gewissem Maße ausgleichbar ist.
Auffallend ist beim Tahiti, das die ROPs nicht steigen. Das hält sich alles die Wage...

Ich könnte mir vorstellen, NV steht hier vor einem ähnlichen Problem ;)
Die ALU Leistung steigt um 100% zu GF110... Der Rest teils aber um weit weniger. Am Ende wird das ganze mit den ALUs in Games mit größter Warscheinlichkeit ineffizienter umgehen, als es Fermi tat ;)
 
fdsonne schrieb:
Woher stammt die Infos mit dem Frontend?

Wenn man sich mal die Specs von Pitcairn und Tahiti pro ansieht, ist es nicht verwunderlich dass man da sehr nahe kommt.
Die Sache mit dem Frontend bezieht sich wohl auf die schlechtere Tesselation Performance bei unsinnig hohen Levels, ansonsten gibts dazu keine richtige Quelle, ich denke das ist propaganda.
 
Nun, ich denke viele scheinen hier eins zu vergessen:
High-End ist Leistung nicht mm^2. Wenn GK104 angeblich 128TMUs, 1536Cores@Hotclock, effizienteres Speicherinterface hat, dann ist dies eine Kombination, die High-End schreit.

Guckt man sich den Floor-Plan an, dann können 32SM je 48Cores vorhanden sein. Das wäre doppelt soviel zur GTX580.

Imo ist GK104 = BigK und damit High-End. Leistungssteigerung? 60%+ gegenüber der GTX580 können hinhauen.
Nun ja, Performance ist aber immer noch anhand von mm^2 bewertbar. Wie soll es denn möglich sein, die Fläche auf etwa 60% zu verringern und gleichzeitig die Anzahl der Shader zu verdreifachen, obwohl lediglich ein Full-Node Shrink dazwischen liegt, was die Anzahl der Transistoren bei gleicher Fläche theoretisch verdoppelt? Also an Wunder glaube ich nicht. Entweder stimmt die Anzahl der Shader schlichtweg nicht oder man hat sie deutlich entschlackt, samt Pipeline. Das klingt dann sehr nach AMDs Architektur, mehr Shader, kürzere Pipeline, geringerer Takt. Da würde dann auch der Wegfall der Hotclocks Sinn ergeben.

GK104 klingt für mich eigentlich nach ~GF110, nur halt auf geringerer Fläche und mit weniger Energie. 60%+ Performance gegenüber der GTX 580 und gleichzeitig ein Drittel weniger Leistungsaufnahme halte ich für pure Träumerei.


Oder es handelt sich bei GK104 um den High-End Chip. AMD hat das selbe mit rv770 geschafft, wenn man diesen mit r600 vergleicht. Deutlich kleiner und eine 2,5 fache Erhöhung der Ausführungseinheiten bei ähnlicher Bandbreite.
Allerdings waren die Unterschiede zwischen R600 und RV770 teils noch gravierender. Da wurde zB das Speicherinterface halbiert. Von GF110 auf GK104 fällt wohl ein Drittel weg. Und, AMD hatte beim RV770 enorme Packdichten für den 55 nm TSMC Prozess erreicht. RV670: ~3,47 Mio Transistoren/mm^2, RV770: ~3,73 Mio Transistoren/mm^2. Immerhin war der Prozess zu dem Zeitpunkt auch schon gereift. Ähnliches ist für die 28 nm TSMC Fertigung momentan eher fragwürdig.
 
Zuletzt bearbeitet:
GK104 klingt für mich eigentlich nach ~GF110, nur halt auf geringerer Fläche und mit weniger Energie. 60%+ Performance gegenüber der GTX 580 und gleichzeitig ein Drittel weniger Leistungsaufnahme halte ich für pure Träumerei.

Gemessen an der Basis Fermi GF100/110 sicher, aber gemessen an AMD?
Ich mein, beide kochen mit Wasser. Wenn NV nun die dreifache ALU Anzahl auf die Karte bringt und das in der spekulierten Größenordnung, wie sie für GK104 rumgeistert, dann muss da schon was anders sein, als es bei Fermi ist ;)
Es wäre also in meinen Augen nicht ganz verdenkbar, das man seitens NV hier in Sachen Effizienz (Leistung pro Watt) einen riesigen Schritt vorran geht.
Und das war ja dazu noch angekündigt, zumindest für DP Performance, welche zwar im Gamingbereich nix aussage, aber man zumindest anhand der SP Performance womöglich Rückschlüsse ziehen könnte.

Aber 60% Mehrleistung bei 1/3 weniger Verbrauch klingen für mich auch zu gut :fresse:
580GTX+20% bei ~200W wäre meine Schätzung.
 
BTW: Ein integrierter fps-Limiter im Treiber finde ich persönlich eine klasse Idee ! :bigok: Ich hoffe dass das wirklich so kommt...
is doch schon länger drin und lässt sich mit dem nVidia Inspector einstellen.

ciao Tom
 
Da hast du natürlich recht... Wobei sich NV, sollte das mit dem Namen stimmen, in dem Fall selbst ein Bein stellt... Hätten die das Teil doch 660TI oder sowas genannt... Dann wäre zumindest nach jüngstem Namensschema klar zu sehen gewesen, um was es sich bei der Karte handelt.
NV (typisch könnte man sogar sagen) will man aber mehr und stellt das Teil womöglich als 680er auf die Bahn.

es kommt aber nicht nur eine 6xxer also wenn die 680 -> 660ti heißen sollte was ist dann 670 ... ? man kann einfach mehr eindruck schinden mit 680 und mehr geld verlangen! Guck dir dochmal an wie die leute bei amd am rumheulen sind, so wie die Preise momentarn sind. 660ti für über 400€ ... das passt doch irgendwie dann auch nicht :)
 
es kommt aber nicht nur eine 6xxer also wenn die 680 -> 660ti heißen sollte was ist dann 670 ... ? man kann einfach mehr eindruck schinden mit 680 und mehr geld verlangen! Guck dir dochmal an wie die leute bei amd am rumheulen sind, so wie die Preise momentarn sind. 660ti für über 400€ ... das passt doch irgendwie dann auch nicht :)

Gemessen daran, das GK104 als Performance und nicht HighEnd Chip im Programm steht (wenn man dem üblichen NV Namensschema traut) ist der Name GTX680 etwas unpassend.
Scheinbar hat man sich dazu entschieden den Chip mit diesem Namen auf den Markt zu bringen, weil man damit im Vergleich zur Konkurenz überdurchschnittlich gut abschneidet.

Beim Vorgänger ist es da leicht anders. Der GF104/114 läuft ne ganze Ecke hinter den Top AMD Karten hinterher. Bei Kepler scheint es aber so zu sein, das GK104 womöglich mit ein bisschen rauskitzeln der Reserven die Top AMD Karten zumindest Leistungstechnisch nicht ziehen lassen muss. Was GTX680 rechtfertigen würde. Unterm Strich bleibt aber immernoch der GK110 als kommende HighEnd GPU ziemlich unbekannt.
Mit Eindruck hat das aber alles wenig zu tun ;) Dem Endkunden ist es ziemlich egal, wie das Teil heist und was drunter steckt, da zählt was hinten rum kommt... Und hier könnte NV seit dem G80 das erste mal wieder den Kurs etwas ändern. Indem man eben nicht die AMD Modelle um 10-30% überflügelt. Dafür aber auch zugeständnise in Sachen Leistungsaufnahme und Lautstärke zusichert. Natürlich in erster Linie dennoch unschön für Leute, welche deutlich über Tahiti XT Leistung sehen wollen ;) und sozusagen den üblichen NV Weg eher forciert gesehen hätten ;)
 
vielleicht gibts ja auch am Montag schon den großen Kepler...

weiß ja niemand
 
Ich sag mal so, wenn der am Montag kommen sollte, dann wüssten das wenigstens die Asiaten oder andere bekannte Personen die sich ihren Namen verdient gemacht haben beim leaken von Vorrelease Infos...
Im Moment ist dort aber so ziemlihc alles dunkel ;)
 
Es wäre also in meinen Augen nicht ganz verdenkbar, das man seitens NV hier in Sachen Effizienz (Leistung pro Watt) einen riesigen Schritt vorran geht.
Nun ja, dass man den Rückstand der letzten Generation bezüglich Flächen- und Energieeffizienz plötzlich in einen vergleichbar grossen Vorsprung umwandelt, klingt für mich aber nicht sonderlich realistisch. Nvidia sollte erstmal zeigen, dass sie mit dem GK104 die Performance des GF110 erreichen mit 30-40% weniger Silizium und Energie. Das halte ich schon für ein recht ambitioniertes Ziel, wenn auch sicherlich nicht unrealistisch.
 
Nun ja sonne, 2 Wochen vor G80 Release wurde in "Fachkreisen" heiß diskutiert, ob der Chip überhaupt Unified Shader Architecture hat.

Da hatte keiner infos.

Allein daran würde ich es jedenfalls nicht festmachen :wink:
 
Nun ja, dass man den Rückstand der letzten Generation bezüglich Flächen- und Energieeffizienz plötzlich in einen vergleichbar grossen Vorsprung umwandelt, klingt für mich aber nicht sonderlich realistisch. Nvidia sollte erstmal zeigen, dass sie mit dem GK104 die Performance des GF110 erreichen mit 30-40% weniger Silizium und Energie. Das halte ich schon für ein recht ambitioniertes Ziel, wenn auch sicherlich nicht unrealistisch.

AMD hat ja ähnliches auch schonmal fabriziert ;)
Ein R600 trotz kleinerer Fertigung zum G80 war größer, und deutlich ineffizienter. Mit dem RV670 bzw. RV770 Nachfolger hat man das Blatt umgedreht ;)

Ansonsten, das man GF110 schlagen kann, halte ich für minimum :fresse:
Es sieht in meinen Augen ja aktuell alles danach aus, das man GK104 höher platziert (platzieren muss) als ursprünglich angenommen...

Nun ja sonne, 2 Wochen vor G80 Release wurde in "Fachkreisen" heiß diskutiert, ob der Chip überhaupt Unified Shader Architecture hat.

Da hatte keiner infos.

Allein daran würde ich es jedenfalls nicht festmachen :wink:

Wie so oft ist es wohl einfach mal wieder nur die Tatsache, das sich Manche mehr wichtig machen als andere ;)
Die Infos liegen mit größter Warscheinlichkeit schon irgendwo im Netz... Nur von außen zu unterscheiden, was nun richtig ist und was nicht, ist ziemlich schwer.
Wie gesagt, man schaue ins 3DCenter... Dort als nahezu Fakten verkaufte Sachen stehen nun wieder auf der Kippe bzw. klingen unwarscheinlich.
 
Man muss nichtmal bis zum G80 zurückgehen. Vor der CES 2010 wusste niemand, wie nVidia die Anforderung von Tessellation durch DX11 umsetzen würde. Da spinnten selbst "gebildete" Leute rum und meinten, es würde durchgehend über die Shader realisiert werden.

Eine Woche nach der CES hat nVidia eine Revolution den Leuten gezeigt, die in diesem Business nur alle Jubeljahre anzutreffen ist. Von Kepler erwarte ich mir persönlich das selbe im Back-End Bereich.

Nun ja, dass man den Rückstand der letzten Generation bezüglich Flächen- und Energieeffizienz plötzlich in einen vergleichbar grossen Vorsprung umwandelt, klingt für mich aber nicht sonderlich realistisch. Nvidia sollte erstmal zeigen, dass sie mit dem GK104 die Performance des GF110 erreichen mit 30-40% weniger Silizium und Energie. Das halte ich schon für ein recht ambitioniertes Ziel, wenn auch sicherlich nicht unrealistisch.

Anscheinend vergisst man, dass man jetzt mit 28nm schonmal die halbe Niete hat, um dies zu erreichen. nVidia müsste nur GF114 shrinken, leicht modifzieren und 40% höher takten und erreicht dann mit 2 Mrd. Transistoren die Leistung der GTX580, die 3,2 Mrd. hat. Und wäre damit selbst auf Höhe der 7870, die für diese Leistung schon 2,8 Mrd. Transistoren benötigt...
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh