NVIDIA hält langsamere GeForce GTX 660 in der Hinterhand

Stegan

Redakteur
Hardwareluxx Team
Thread Starter
Mitglied seit
16.12.2005
Beiträge
16.274
Ort
Augsburg
<p><img src="images/stories/logos/nvidia.gif" width="100" height="100" alt="nvidia" style="margin: 10px; float: left;" />Am vergangenen Donnerstag <a href="index.php/artikel/hardware/grafikkarten/23375-test-nvidia-geforce-gtx-660-ti.html" target="_blank">ließ NVIDIA mit der GeForce GTX 660 Ti eine weitere „Kepler“-Grafikkarte hinter dem Vorhang hervorkommen</a>. Nun ist auch eine abgespeckte Version auf den Seiten der kalifornischen Grafikschmiede aufgetaucht, die auf das zusätzliche Kürzel „Ti“ verzichtet und vorerst nur für den OEM-Markt kommen soll. Im Vergleich zur Ti ist die GeForce GTX 660 (Non Ti) um einen SMX-Cluster beschnitten worden.</p>
<p>Damit stellt sie nicht mehr 1344 Shadereinheiten wie bei der GeForce GTX 660 Ti oder der GeForce GTX 670 bereit, sondern muss...<p><a href="/index.php?option=com_content&view=article&id=23477&catid=38&Itemid=101" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Naja, nicht wirklich. Die 660Ti sitzt an einer logischen und sogar erstaunlich guten Position entlang der Preis/Leistungskurve durch die Marktsegmente.

Lediglich dass eine Karte mit diesem Namen eine so "hohe" Position innehat, sind viele nicht gewohnt. Aber Namen sind Schall und Rauch, wie man so schön sagt.
 
Okay, ist halt Ansichtssache, dennoch sollte Nvidia aber schleunigst eine Karte mit einem Preis unter 250€ raushauen, also die GTX660 (ja ich weiß, wurde sicher schon oft gesagt).
 
Die Karte dürfte 20% langsamer werden, ergo ganz knapp vor der HD 7850 landen.
 
Kontinuierliche Resteverwertung wird hier betrieben.

Mehr als 200 Euro dürfte die Karte meiner Meinung nach nicht Kosten. Wird sich vermutlich am Release im Bereich 200-230 Euro einordnen. Leistungstechnisch irgendwo in die Region der HD7850 bzw. HD7870 wildern.
 
wäre auch ne sehr interessante graka! hätte eigentlich sogar besser für mich gepasst...
 
die frage ist nach sinn und unsinn noch einer 6XX...
 
192Bit und 1,5GB RAM, klingt nach einer sauberen Speicheranbindung, nicht dieser Murks wie bei der GTX660TI
 
Ich bin ein wenig Erstaunt, denn wo ist der GK106 nun hin? Zeugt das davon dass NV tatsächlich nur 128MB SI plant und somit eine GTS650 mal knapp vor ihrer 550Ti plazieren will und das dann zu 150€ ? Irgendwie muss ich sagen gefällt mir das Gebahren von NV von Modell zu Modell weniger. Aber es beweist leider auch, dass der GK106 Konkurenzlos schlecht gegen AMDs Pictrain ist.
 
Die sollen die nicht in der Hinterhand halten, sondern im Retail-Markt verkaufen.
Eine GTX660 nonTi im Bereich von €200 ist genau das, was ich derzeit suche um meine GTX460 zu ersetzen. Und nein, ich will keine AMD-Karte.

So geht es mir auch !

Langsam wird es aber schwach von Nvidia - die 660Ti ist zu teuer - und etwas weniger Leistung reicht mir Locker für Full-HD und 4x AA / 16xAF ....
um beim Gamen Spass zu haben. Und 1,5 GB Vram passen auch sehr gut für FULL HD und 4xAA / 16xAF.

Nicht weil ich das Geld nicht hätte - es langt mir halt.

Aber Hinterhand und OEM Markt - krieg ich langsam das Kotzen :hwluxx:
 
nV macht sich wirklich lächerlich. Die haben ganz offensichtlich nur einen Chip hinbekommen (für die 640 muss man sich ja auch schämen), dafür extrem lange gebraucht und versuchen den jetzt als letzte Notlösung so zu zerschnibbeln, dass alle Preissegmente bedient werden.
 
Oder diese 660 ist nur ne schnelle Notlösung aus "noch defekteren" Chips und wirklich nur für OEMs um die Wartezeit auf den echten GK106 zu verkürzen, der wohl erst im Obtober kommen soll, hab das mal bei OBR aufgeschnappt.
Kann mir gut vorstellen das Dell und Co Druck machen um in ihren PCs billigere Kepler anbieten zu können als ne 660TI für 300€...
 
nV macht sich wirklich lächerlich. Die haben ganz offensichtlich nur einen Chip hinbekommen (für die 640 muss man sich ja auch schämen), dafür extrem lange gebraucht und versuchen den jetzt als letzte Notlösung so zu zerschnibbeln, dass alle Preissegmente bedient werden.


Ganz im Gegenteil, die machen das sehr schlau. Nvidia ist ein Wirtschaftliches Unternehmen und wenn man mit einem Chip alles abdecken kann, spart man kosten.
 
Ganz im Gegenteil, die machen das sehr schlau. Nvidia ist ein Wirtschaftliches Unternehmen und wenn man mit einem Chip alles abdecken kann, spart man kosten.


Sehe ich genau so, so kann sich NVidia Geld für die Forschung sparen und das Produkt billiger an den Markt bringen. Die wollen auch nur Gewinn machen das ist der einenes Unternehmens.
 
Klar kann man das so machen. Wenn man allerdings andere Chips ankündigt und dann erst so handelt kann man wohl kaum noch von Absicht reden.

Gesendet von meinem GT-I9001 mit der Hardwareluxx App
 
Ganz im Gegenteil, die machen das sehr schlau. Nvidia ist ein Wirtschaftliches Unternehmen und wenn man mit einem Chip alles abdecken kann, spart man kosten.


Wenn man so lange Zeit braucht - von Zyklus zu Zyklus - kostet es noch mehr Geld. Da der nächste Zyklus sich mit verlängert usw.

Obsoleszenz nicht möglich - noch mehr Kosten.

Zumal der Markt nicht gedeckt ist im Mittleren Segment - und die Einstiegsklasse zu teuer ist und bleibt.

Und laut Berichten soll es ja mittlerweile gut laufen mit 28nm.

Und was man auf einer Linie produziert ist Wurscht - die muss nur ausgelastet sein (OEE) - wenig Ausschuss
und das macht Nvidia nun mal nicht selbst .....

Und einen grossen Chip beschneiden - kostet wohl auch Geld (660ti).

Und vom Ursprungsplan weicht man auch ab.


Ich sehe da mal keine Absicht. Na ja ......
 
Zuletzt bearbeitet:
Ich weiß nicht wer die Mär in die Welt gesetzt haben will das jeder Chip GK104,106 ec pp ein eigenständiges Design bekommt/bekommen muss?


Nvidia hat die Clusterpakete mit Kepler so angeordnet das man sie perfekt den Gegebenheiten der einzelnen Klassen zurecht biegen kann

Defakto kann man auch einen GK104 Die zum GK106 degradieren indem man defekte Gruppen deaktiviert

Das senkt den Ausschuß und erhöht den Gewinn
 
Zuletzt bearbeitet:
Nvidia hat die Clusterpakete mit Kepler so angeordnet das man sie perfekt den Gegebenheiten der einzelnen Klassen zurecht biegen kann

Defakto kann man auch einen GK104 Die zum GK106 degradieren indem man defekte Gruppen deaktiviert

Das senkt den Ausschuß und erhöht den Gewinn

Das ging aber auch schon weit vorher. Teildeaktiviert haben sie ja schon seit sonstwann... Sogar schon weit vor den Unified Shader Architekturen.
Ob es nun gewollt ist/war, wie es jetzt läuft, oder ob man das notgedrungen so gemacht hat, lässt sich von außen nicht beurteilen.
Ich denke aber, im Moment scheint es sich für NV einfach zu lohnen da Teile von GK104 zu deaktivieren um eben mehr Produkte rauszubringen. Ich sehe aber im Moment den Kunden im Nachteil, denn das hält den Preis irgendwie hoch. Da die Unterschiede sehr gering ausfallen. (siehe 660TI vs. 670) und man für die paar Prozent Unterschied nicht deutlich mit dem Preis runter kann, da man sich sonst eigene Konkurenz macht.
 
Das ging aber auch schon weit vorher. Teildeaktiviert haben sie ja schon seit sonstwann... Sogar schon weit vor den Unified Shader Architekturen.
Ob es nun gewollt ist/war, wie es jetzt läuft, oder ob man das notgedrungen so gemacht hat, lässt sich von außen nicht beurteilen.
.

Doch lässt es sich,indem man sich die SMX Pakete anschaut,und dazu die einzelnen Klassen 104,106,107. Jegliche Teilung/Beschneidung der SMX Pakete lässt sich seit bekanntwerden der Spezifikationen perfekt mit den Klassen kombinieren,also sollte da von Anfang an Absicht dahinter stecken und nicht nur Willkür
 
Zuletzt bearbeitet:
Ja aber was soll uns das beweisen?
Ein Teilen/Beschneiden der GPUs ist seit mindestens 10 Jahren möglich und wurde so auch getätigt. Was macht da Kepler nun grundlegend anders? Nichts... einzig die Möglichkeiten haben sich weiter verfeinert. Wo man früher größere Blöcke am Stück abgeschalten hat, kann man dies nun feiner steuern.

Aber das war ja nicht Thema, es ging eher darum, das niemand beurteilen kann, ob es geplant war oder eben nicht, das NV heute eine einzige GPU als GK104 für so viele Karten bringt, wo im Vorfeld damit gerechnet wurde, das die kleineren Karten eigentlich was anderes haben sollten. Sprich es ist von uns nicht belegbar, ob NV es plante, sowohl die 690er, 680er, 670er, 660TIer sowie wohl auch hier benannte 660nonTIer mit einem einzigen Chip zu bringen. Zumindest die beiden 660er Ableger fallen da im Vergleich zur Vergangenheit aus dem Rahmen. Ob man das nun explizit so geplant hat, alles mti deinem Chip abzudeckeln oder ob man es notgedrungen gemacht hat, lässt sich nicht beurteilen.
 
Es sollte doch auch eigentlich teurer für nV sein, einen 'großen, teuren Chip' zusätzlich noch beschneiden zu lassen, um ihn günstiger zu verkaufen, als einfach einen 'kleinen günstigen Chip' direkt günstiger zu vermarkten, oder etwa nicht?!
 
einen 'großen, teuren Chip'

schonmal den "großen" GK104 gesehen?

Wafermaterial wegzuwerfen aufgrund das es nicht mehr GK104 tauglich ist wegen Teildefekten,dürfte auch nicht gerade günstig sein

---------- Post added at 16:21 ---------- Previous post was at 16:17 ----------

Ob man das nun explizit so geplant hat, alles mti deinem Chip abzudeckeln oder ob man es notgedrungen gemacht hat, lässt sich nicht beurteilen.

Die Spezifikationen stehen wie lange schon im Raum nebst der Anordnung der SMX?

Sei es wie es will grundloß hat man diese Aufteilung nicht gewählt und ist sicher auch nicht erst heute zu der Taktik über gegangen

TSMC Feritgunsprobleme u Fermi Disatster werden da wohl schon gehörig mitgeredet haben
 
Zuletzt bearbeitet:
TSMC Feritgunsprobleme u Fermi Disatster werden da wohl schon gehörig mitgeredet haben

Damit bist du aber auch schon in einem Zeitraum, in welchem man 'von vornherein so geplant' nicht mehr sagen kann. Ich glaube kaum, dass nV so kurzfristig erst seine Produktpaletten gestaltet.
 
Okay, ist halt Ansichtssache, dennoch sollte Nvidia aber schleunigst eine Karte mit einem Preis unter 250€ raushauen, also die GTX660 (ja ich weiß, wurde sicher schon oft gesagt).
solange sich die teuren karten verkaufen werden sie das nicht machen

edit: das ist so wie bei porsche, die ihre teuren karren für je 16k € gewinn verkaufen. bwm kommt da irgendwo bei 4-6k €, opel -1k €
 
Zuletzt bearbeitet:
Die Spezifikationen stehen wie lange schon im Raum nebst der Anordnung der SMX?

Sei es wie es will grundloß hat man diese Aufteilung nicht gewählt und ist sicher auch nicht erst heute zu der Taktik über gegangen

TSMC Feritgunsprobleme u Fermi Disatster werden da wohl schon gehörig mitgeredet haben

Ja welche Aufteilung denn? Das man Teile der GPU Abschalten kann und somit eine teildeaktiverte GPU ermöglicht, ist sicher so geplant gewesen. Aber eben nicht erst seit Kepler. Und genau darauf wollte ich hinaus. Es gibt seit Jahren schon teildeaktivierte GPUs. Geht man mal weiter zurück. R300 damals von ATI. Radeon 9500 Pro war (teilweise) freischaltbar auf eine Radeon 9700 Pro. Das Verhalten ist exakt das gleiche, man hat einfach eine große GPU genommen und teildeaktivert. Nicht mehr, und nicht weniger. Kepler ändert an der Machbarkeit absolut nichts. Das einzige, was sich zu damals unterscheidet, es ist heute möglich, in kleineren Steps zu deaktivieren und ebenso sind die Teile zu einem Großteil voneinander unabhängig. Was damals so zu einem Großteil ggf. nicht so war.

Noch dazu, bei Fermi hat man mal gesagt, das sich die Entwicklung von Anfang bis Ende ca. 6 Jahre hinzog. Lass Kepler etwas besser dastehen, wegen weniger Probleme... So bist du bei 5 Jahren Entwicklung, wo sich die Leute hingesetzt haben und sich Gedanken über das Aussehen machten.
 
Ja welche Aufteilung denn? .

Die Aufteilung das man mit jeder SMX Abschaltung und Variationen des Boardlayouts eine andere Kepler Karte kreiert

Das ist nicht erst heute geboren,aber es ist zumindestens erstmalig in der GPU Herstellung

Und anscheinend kommt Nvidia damit auch ganz gut zurecht,um die Produkte zu positionieren,und Waferkosten zu reduzieren

Das es früher schon Teildeaktivierungen gab,bestreitet ja auch niemand,nur erst mit Kepler ist man so flexibel
 
scully1234 schrieb:
schonmal den "großen" GK104 gesehen?

Nvidia steht in der Mittelklasse vor den gleichen "höheren" Kosten pro GPU, wie AMD im High End Bereich.
Pitcairn ist nur 212mm² groß und Cape Verde nochmal deutlich kleiner, du musst schon auch einräumen, dass das Nvidia derzeit eher nicht in die Karten spielt, aber wie man es kennt,
sind dir neutrale Betrachtungsweisen eher fremd.

GK106 wurde scheinbar nochmals nach hinten verschoben.
Eine gute Quelle von Computerbase, hat dies Wochen vorher schon angekündigt.

Du glaubst doch nicht ernthaft, dass man geplant hat insgesamt 5 Karten mit dem gleichen Chip zu releasen. Man kastriert sich im Verglich zu früher ja fast übertrieben gesagt "zu Tode".

Üblich ist es das Topmodell, sowie einen Salvage Part zu bringen und nach einiger Zeit noch die defekten Chips nachzuschieben, siehe HD 5830, GTX 560 Ti 448.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh