NVIDIA hält langsamere GeForce GTX 660 in der Hinterhand

aber wie man es kennt,
sind dir neutrale Betrachtungsweisen eher fremd.

.

Suchst du gerade wieder Streit :hmm:

Nvidia steht in der Mittelklasse vor den gleichen "höheren" Kosten pro GPU, wie AMD im High End Bereich

Aha ein "Insider" der natürlich den Stuss belegen kann

Na dann mal raus mit den Beweißen über die "gleichhohen" Herstellungskosten von Keplerchips

Selbst mit dem Bratpfannencore der Fermis machte Nvidia noch mehr Gewinn wie AMDs Zwergencore der 5er und 6er Reihe:haha:

Allein die langjährigen Beziehungen zu TSMC,beschert dem Konzern schon einen Bonus,bei den Waferkosten

Man kastriert sich im Verglich zu früher ja fast übertrieben gesagt "zu Tode".

Und das mit Erfolg Quartalszahlen lügen nicht

Üblich ist es das Topmodell, sowie einen Salvage Part zu bringen

Was bei AMD üblich ist sollte Nvidia nicht scheren

Erfolg misst sich nicht indem was für "populäre" Entscheidungen der Mitbewerber trifft

Und wenn ich mir das mobile Portfolio auch noch ansehe,kommen mir da schon wieder die Tränen vor Lachen

Du glaubst doch nicht ernthaft, dass man geplant hat insgesamt 5 Karten mit dem gleichen Chip zu releasen

Wenn du dir mal die Spezifikationen (Anzahl der Shaderunits)der einzelnen Chips angeschaut hättest,und die Unterteilungen der SMX Cluster in kompatible Parts dazu,würde dir da vielleicht auch die Erleuchtung kommen,das eben genau das der Fall ist.

Daraus resultiert eine fast verlustfreie Nutzung der gelieferten TSMC Wafer für jegliche Art der Kepler Chips

Außer des "Big Boys" GK110 der aufgrund des optimierten GPGPU Designs aus der Rolle fällt

Nicht wie bei AMD die guten ins Töpfchen die schlechten ins Kröpfchen
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Aha ein "Insider" der natürlich den Stuss belegen kann

Na dann mal raus mit den Beweißen über die "gleichhohen" Herstellungskosten von Keplerchips

Selbst mit dem Bratpfannencore der Fermis machte Nvidia noch mehr Gewinn wie AMDs Zwergencore der 5er und 6er Reihe

Allein die langjährigen Beziehungen zu TSMC,beschert dem Konzern schon einen Bonus,bei den Waferkosten

Ja, dem glaube ich zum Beispiel mehr als dir. :d

Welche gleichhohen Hersstellungskosten? Ich wollte damit sagen, dass Kepler pro Chip wohl mehr kostet als Pitcairn, vor allem aufgrund der Chipgröße.
Hier sind die Differenzen ähnlich zu denen bei Tahiti vs. GK104.

scully1234 schrieb:
Selbst mit dem Bratpfannencore der Fermis machte Nvidia noch mehr Gewinn wie AMDs Zwergencore der 5er und 6er Reihe

Die 6er Reihe hatte eigentlich nichts mit "Zergencore" zu tun, denn AMD kam sogar über ein 400mm² Die hinaus. ;)
Und ob Nvidia bei diesen starken Verzögerungen mit Fermi und schlechteren Margen mehr Gewinn bei den Desktop Retail GPu´s gemacht hatte, glaube ich weniger.

Und das mit Erfolg Quartalszahlen lügen nicht

Ich habe ja auch nicht behauptet, dass jene lügen, allerdings sind die guten Quartalsergebnisse maßgeblich vom Notebookmarkt und von den Tegra 3 Chips beeinflusst, sowie den GPGPU und HPC Markt, ergo ist es etwas schwer hier einen Zusammenhang zu meiner Aussage zu finden, den einen konkreten Zusammenhang gibt es scheinbar nicht, wieso also diesesn Zitat?

Was bei AMD üblich ist sollte Nvidia nicht scheren

War doch auch bei Nvidia üblich ;) Ich hab doch ein Beispiel gebracht. Und ob sich jemand irgendetwas schert, ist mir schnurzpipegal, was sollen solche unsinnigen Aussagen?
Tatsache ist, dass Nvidia viele Beschneidungen am GK104 durchführt, was zu der Annahme führt, dass GK106 etwas später kommt, oder eben aufgrund von Problemen etc.. später kommt.

Erfolg misst sich nicht indem was für "populäre" Entscheidungen der Mitbewerber trifft

Was interessieren mich deine Themaverfehlungen?

Wenn du dir mal die Spezifikationen (Anzahl der Shaderunits)der einzelnen Chips angeschaut hättest,und die Unterteilungen der SMX Cluster in kompatible Parts dazu,würde dir da vielleicht auch die Erleuchtung kommen,das eben genau das der Fall ist.

Heißt also dieser neuer OEM Chip ist GK106 mit 1152 Shadern und kein kastrierter GK104?
Ich bin ja mal gespannt, am 6 September werden wir sehen, oder vielleicht sind auch für OEMS die GK104 nochmals kastriert um eher am MArkt zu sein?

Aha ein "Insider" der natürlich den Stuss belegen kann

Du irrst dich wie üblich im Kontext.
Dieser Insider soll nicht die gleichen Kosten belegen, sondern lediglich die Verspätung der kleineren Chips.
Sehr strange, wie du das überlesen kannst.

Das es früher schon Teildeaktivierungen gab,bestreitet ja auch niemand,nur erst mit Kepler ist man so flexibel

Ich sehe aktuell keine bessere Flexibilität von Kepler was Teildeaktivierungen anbelangt. GTX 480 --> GTX 470 ---> GTX 465 (gleiche Situation wie jetzt GF104 war damals nicht fertig und jetzt ist GK106 nicht fertig, ergo ein zweiter Salvage Part, und vielleicht sogar teilweise noch ein dritter Salvage Part)
An welchem Beispiel ist dies erkennbar? Oder ist dein Hinweis nur theoretischer Natur, wenn ja, dann erklärs mir bitte nochmal etwas genauer.
Wo liegt konkret der Vorteil gegenüber Fermi 1.0 zum Bleistift?

scully1234 schrieb:
Ich weiß nicht wer die Mär in die Welt gesetzt haben will das jeder Chip GK104,106 ec pp ein eigenständiges Design bekommt/bekommen muss?

Dann wäre es ja auch kein GK106 Chip mehr, wenn man den nicht extra designed.

fdsonne schrieb:
Aber das war ja nicht Thema, es ging eher darum, das niemand beurteilen kann, ob es geplant war oder eben nicht, das NV heute eine einzige GPU als GK104 für so viele Karten bringt, wo im Vorfeld damit gerechnet wurde, das die kleineren Karten eigentlich was anderes haben sollten. Sprich es ist von uns nicht belegbar, ob NV es plante, sowohl die 690er, 680er, 670er, 660TIer sowie wohl auch hier benannte 660nonTIer mit einem einzigen Chip zu bringen. Zumindest die beiden 660er Ableger fallen da im Vergleich zur Vergangenheit aus dem Rahmen. Ob man das nun explizit so geplant hat, alles mti deinem Chip abzudeckeln oder ob man es notgedrungen gemacht hat, lässt sich nicht beurteilen.

Eben, man kann sich nur das Produktfolio ansehen und mit ähnlichen Gegenbenheiten vergleichen beispielsweise mit Fermi 1.0, damals war auch die GTX 480 GTX 470 und GTX 465 vom gleichen Chip am Markt, also 3 Modelle die in sehr kurzen Zeitabständen released worden sind. GF 104 war noch etwas entfernt.

Ergo ist es für mich eher wahrscheinlicher, dass GK106 sich entweder verzögert, oder gar nicht mehr kommt.
Dass das von Nvidia alles so geplant war ( sehr lange keine Karte im wichtigen 100 bis 300 Euro Bereich anzubieten) ist eher unwahrscheinlich.
 
Zuletzt bearbeitet:
War doch auch bei Nvidia üblich ;) Ich hab doch ein Beispiel gebracht. Und ob sich jemand irgendetwas schert, ist mir schnurzpipegal, was sollen solche unsinnigen Aussagen?
Tatsache ist, dass Nvidia viele Beschneidungen am GK104 durchführt, was zu der Annahme führt, dass GK106 etwas später kommt, oder eben aufgrund von Problemen etc.. später kommt.

.
Beste Noob Aussage ever

GK104 ist hier der komplexe Chip nicht GK106

Was soll diese Behauptung/These über "Probleme" beim GK106 also hervor rufen außer Gelächter,wenn GK104 bereits real existiert und funktioniert:haha:

Zumal Apple ebenfalls schon für ihre Macbook Serie auf kleinere Ableger des selben Designs zurück greift

"Trollalarm"

Heißt also dieser neuer OEM Chip ist GK106 mit 1152 Shadern und kein kastrierter GK104?
Ich bin ja mal gespannt, am 6 September werden wir sehen, oder vielleicht sind auch für OEMS die GK104 nochmals kastriert um eher am MArkt zu sein?

Wie du es nun nennst,kastriert oder nicht ist mal völlig Bockwurst,wenn das System mit den flexibel abschaltbaren Clustern funktioniert,senkt das die Anzahl der nötigen Wafer für die Kepler Serie

Nur weil etwas "Üblich" ist,muss das nicht zwangsläufig für immer Bestand haben

Vor 20 Jahren wahren bei PKWs auch noch Trommelbremsen "üblich" trotzdem hat das den Siegeszug der Scheibenbremse nicht verhindert
 
Zuletzt bearbeitet:
Es ist wie es ist, viel zu spät.

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Beste Noob Aussage ever

GK104 ist hier der komplexe Chip nicht GK106

Was soll diese Behauptung/These über "Probleme" beim GK106 also hervor rufen außer Gelächter,wenn GK104 bereits real existiert und funktioniert

Ich suche erklärungen dafür, dass Nvidia diesen Chip immernoch nicht gebracht hat, was ist daran oknkret Noob?
Erkläre mal genauer. Nur aufgrund der Komplexität darauf zu schließen dass im unteren Preeisbereich alles einwandfrei über die Bühne gehen soll ist etwas sehr naiv.

Wie du es nun nennst,kastriert oder nicht ist mal völlig Bockwurst,wenn das System mit den flexibel abschaltbaren Clustern funktioniert,senkt das die Anzahl der nötigen Wafer für die Kepler Serie

Nein, denn darum gehts ja konkret gerade. Ich glaub du bist verwirrt, scully1234.
Seit meinem ersten Post geht es um die Frage ob die GTX660 nun ein GK104 ist oder ein GK106.

Denn das senkt nicht die Waferkosten, sondern steigert die Kosten, weil ein kleinerer Chip billiger zu produzieren wäre.
 
Denn das senkt nicht die Waferkosten, sondern steigert die Kosten, weil ein kleinerer Chip billiger zu produzieren wäre.

So ein Käse

Wenn ich nahezu alle Chips auf dem Wafer verwenden kann,weil es keinen Ausschuss mehr gibt aufgrund der strategischen SMX Clusteranordnung und deren Deaktivierung bei Teildefekten,steh ich am Ende mit mehr Kosten da:stupid:

Gerade am Anfang eines Shrinks wo die Yields ja so "dermaßen hoch" sind,das "100%" Wafer = 100% Chipausbeute entspricht
 
Zuletzt bearbeitet:
Du checkst nach wie vor wohl "absichtlich " nicht worum es hier geht und suchst dir zusammenhanglose Zitate raus, denn meine Aussage behandelt nicht den Sachverhalt den dumir jetzt andrehen willst.
Klar ist es billiger teildefekte Chips zu kastrieren und weiterhin als GTX 660 ti oder vll als GTX 660 zu verkaufen.
Trotzdem ist ist es im Endeffekt auf Dauer teurer einen großen Chip dafür zu verwenden, als einen deutlich kleineren, das war meine Intention.

Ansonsten würde Nvidia ja wohl überhaupt keine anderen Chips produzieren und bis ins 100 Euro Sgment gnadenlos runterkastrieren.
 
Zuletzt bearbeitet:
Trotzdem ist ist es im Endeffekt auf Dauer teurer einen großen Chip dafür zu verwenden, als einen deutlich kleineren, das war meine Intention.

.

Von welchen "großen" Chip redest du denn hier?

Sind wir hier immer noch beim GK104 ja,oder von was redest du?

Schonmal einen DIE davon gesehen?

Und wie oben schonmal gesagt schmeiß ich 60% des Wafers weg,weil die Chips darauf nicht mehr einen nativen GK104 bilden können,ist das im Endeffekt teurer wie ~90% des Materials in verwertbare Chips umzumünzen,und daraus ein Produkt zu formen
 
Zuletzt bearbeitet:
einigt euch doch einfach darauf, dass beide varianten nicht optimal sind!

natürlich ist es das kleinere übel, wenn man teil-defekte chips wenigstens noch
als GTX660 verkaufen kann, aber dennoch ist die produktion der GTX660 damit
viel zu teuer!

da muss man kein experte sein um das zu sehen!
 
, aber dennoch ist die produktion der GTX660 damit
viel zu teuer
!

da muss man kein experte sein um das zu sehen!

DIE Size GK104 294mm 680/670 @660 GTX

DIE Size GF104 460/560 GTX 367mm

Wirds jetzt klarer?

Hat man mit der 560er Verluste eingefahren obwohl der DIE noch größer ist wie GK104?

GK104 ist kein "Bratpfannencore" wie der Vorgänger GF100@GF110(529mm) sondern schon so "filigran"das man selbst bei Produktion kleinerer Kepler Ableger nicht in die Verlustzone rutscht,ganz im Gegenteil
 
Zuletzt bearbeitet:
DIE Size GK104 294mm 680/670 @660 GTX

DIE Size GF104 460/560 GTX 367mm

Wirds jetzt klarer?

Hat man mit der 560er Verluste eingefahren obwohl der DIE noch größer ist wie GK104?

GK104 ist kein "Bratpfannencore" wie der Vorgänger GF100@GF110(529mm) sondern schon so "filigran"das man selbst bei Produktion kleinerer Kepler Ableger nicht in die Verlustzone rutscht,ganz im Gegenteil

Wer zum Teufel hat denn behauptet man rutsche damit in die Verlustzone?
Ist es denn so schwer einzusehen dass ein kleinerer Chip auf Dauer kostemgünstiger wäre, um damit gegen Pitcairn von den Margen her besser dazustehen?

Fu willst also behaupten es sei besser einen grösseren chip zu beschneiden als einen kleineren für die gts 660 zu verwenden?
Welchen Krieh führst du hier? Du gehst ja sogar soweit jedwder einfachen Logik zu wiedersprechen nur um ein unfehlbares Bild von Nvidia hier in den Foren zu kolportieren, sowas kotzt mich an.
 
So und jetzt das ganze nochmal in Deutsch:lol:



Ist es denn so schwer einzusehen dass ein kleinerer Chip auf Dauer kostemgünstiger wäre, um damit gegen Pitcairn von den Margen her besser dazustehen


Wir sind im Hier und Jetzt und im Hier und Jetzt ist der Prozess bei TMSC noch weit davon entfernt Ideal zu sein.Defakto ist das Wegschmeißen der Wafer kostenintensiver wie für jeden Chip ein natives Design nebst eigener Fertigungsstrasse zu haben

Zumal sich der "große" GK104 so oder so schon vorzüglich gegen Pitcairn positionieren kann u könnte,allein wegen seiner "Größe",da kannst du heulen wie du willst
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh