Ich finds schon unseriös die Ultra in diesem Zusammenhang als nachgeschoben zu bezeichnen. Schließlich diskutieren wir über die C870 und die kam später. Außerdem ist es doch ebenfalls belanglos ob die Tesla in A02 oder A03 gefertigt wurde, wobei wir hier offensichtlich nicht den geringsten Beleg für A02 haben. Es geht hier um die Taktraten der Gamingkarten vs Taktraten der GPGPUs. Sollte der Grund für den niedrigeren Takt der C870 nun darin liegen, dass man bei den GPGPUs neue Revisionen nicht so schnell einführt wie bei Gamerkarten, so bleibt dieses Argument doch beim Fermi erhalten.
Vllt nicht nach der Tesla nachgeschoben, aber nach der GTX. Fakt ist, der G80 kam in Form einer 8800GTX und in Form einer 8800GTS.
Die Ultra bzw. das A03 Stepping wurde entwickelt um eine mögliche AMD Konkurenzkarte mit höherem Takt ausstechen zu können. NV entschloss sich nochmal alles aus dem G80 zu holen um möglichst gut gegen die AMD Konkurenz dazustehen.
Das der R600 am Ende nicht das wurde, wo ihn einige vllt gesehen hätten, bzw. wo NV ihn vermutet hat (sonst wäre keine Ultra gekommen) und das es von der 2900er Karte keine XTX Version gab tun dazu aber keinen Abbruch.
Wie oben schon erwähnt, erste Tesla Modelle am Markt waren A02 und hatten GTX Taktraten. Später nachdem man die Produktion gänzlich auf A03 umgestellt hat, folgen auch Teslas mit A03 Stepping.
Aber es wurde nicht wie bei der Ultra eine neue Karte nachgeschoben, sondern es wurde einfach gleich der 260er GTX die Taktrate mit dem neuen Stepping übernommen.
Jetzt daraus zu schließen das man die Tesla Karte konservativ Taktet nur weil irgendwann weit nach GTX Release und bekannt werden der Tesla Daten eine Ultra Karte extra für diese Karte mit neuem Stepping gekommen ist, ist ein Äpfel mit Birnen Vergleich.
Die Tesla vom G80 ist zeitgleich mit der 8800GTX entwickelt wurden, die Ultra ist durch das neue Stepping eine Weiterentwicklung.
Gut ob ich euch die 2,6GHz jetzt abnehme oder nicht, Fakt ist so gut wie jeder E6600 schafft die 2,8GHz. Klar gibt es Ausnahmen und es gibt ja auch E6600 die keine 2,4GHz schaffen. Die Frage ist immer wie groß ist diese Anzahl. Der Hersteller legt halt eine Frequenz fest und alle Chips die diese Frequenz nicht schaffen gelten dann als defekt. Beim E6600 hätte man hier 2,8GHz wählen können und trozdem kaum reklamierungen gehabt (vieleicht werden die dann auch ab Werk aussortiert kp). Fakt ist halt auch, dass es gegenwärtig aus wirtschaftlichen Gründen öfter vorkommt, dass ein Hersteller den finalen Takt absichtlich niedriger als den technisch bestmöglichsten Takt ansetzt.
Das klingt schon besser und hier würde ich auch vollkommen zustimmen. Ich bin nur kein Freund von Pauschalaussagen die sich mit wenigen Argumenten total untergraben lassen.
Im übrigen, der Hersteller gibt indirekt eine Zieltaktrate vor, die die Chips erreichen sollen. So ist diese Zieltaktrate bei den ersten C2D 6xxx Modellen 2,93GHz des X6800 gewesen.
Nachdem man die Funktion und Güte der Chips geprüft hat wird eingeordnet, welcher DIE als welche CPU verkauft wird.
Chips mit zu schlechter Güte wurden beispielsweise anfangs auch als E6400 verkauft oder gar E6300. Mit 2,13 bzw. 1,86GHz und halb deaktiertem Cache
Ums auf den Punkt zu bringen, der Hersteller strebt in der Produktion nicht für jedes Modell eine Taktfrequenz bzw. Güte des Chips an, sondern es wird idR immer das beste Modell versucht zu produzieren. Der Rest wird dann runterskaliert. Sofern es sich um den gleichen Chip handelt...
Genau da liegt der Punkt. Bei den 260gern hatten sie Verlust, da Ati dort noch konkurrenzfähig war. Bei den Highendkarten sieht die Sache sicher ganz anders aus.
Aber auch nur indirekt. Denn eine Karte, die vllt 20-30% schneller ist als das Top Konkurenzprodukt rechtfertigt keinen Preis jenseits von gut und Böse. Das kann man vllt bei einigen Prestige Modellen oder Limitierten Auflagen machen. Aber nicht im Massenmarkt. Es wird zwar immer ein paar blöde geben, die sowas kaufen, aber dennoch, idR geht alles übers P/L.
Der Größte Nachteil von NV ist, das sie den AMD Konkurenten seit dem G80 aus einem Teildeaktivierten Top Modell herstellen.
Und das wird beim Fermi nicht anders laufen...
Die Produktionskosten ansich bleiben aber so ziemlich identisch. Man spart etwas am PCB und etwas wegen weniger Speicherchips. Aber im großen und ganzen müsste die Karte ansich mehr kosten als man sie verkauft.
Nur das sie eben nicht mit der gleichen Revision kamen wenn wir fdsonne in diesem Punkt mal glauben. Ultra kam früher und hatte A03 und die 8800gtx wurden dann auch mit A03 produziert. Wie kommst du also darauf, dass die Tesla des Fermi es in die gleiche Revision wie die Gamer Karten schaffen, wenn ihr hier gleichzeitig so wehement versucht zu beweisen, dass dies bei der 8800er Serie nicht passiert ist?
Nochmal, vor dem A03 gab es den A02, der über 6 Monate das Maß der Dinge war. Und auf diesem Stepping setzt die Tesla auf...
Was NV da unter nem ganz anderen Deckmantel und unter ganz anderen Vorraussetzungen noch entwickelt hat (nämlich um mögliche AMD Konkurenz in Form der nie erschienenen 2900XTX zu kontern) spielt überhaupt keine Rolle.
Man hätte wenn man gewollt hätte auch einen A03 Tesla mit höherem (Ultra) Takt bringen können, nur warum?
Soll man gleichsam alle lange vorher produzierten Karten wegwerfen bzw. die Kundschaft einerseits mit einem Modell in schach halten um unmittelbar danach ein neues Modell zu bringen?
Es macht alles keinen Sinn...
Im übrigen, ich hab grad zufällig ne Meldung von heise.de gefunden, das Cuda seit dem 18.2.07 also gerade mal 4 Monate vor dem Release der ersten echten Tesla GPU zum freien Download für jedermann zur Verfügung stand.
Das ganze natürlich noch als Beta...
Zeigt also recht deutlich, warum die Tesla Karte ansich erst so spät kam, nicht weil man nicht gewollt hätte, sondern weil es einfach das Cuda Produkt als Software noch nicht zugelassen hat.
Zumahl man alles was die Tesla Karte kann auch schon mit ner Quadro FX 5600 machen konnte.