nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 2

Status
Für weitere Antworten geschlossen.
noch immer keine benches..... man wann wollen die die karten denn unters volk bringen ? wenn ati die nächste generation von Dx11 karten bringt ? finds echt sch... ne nvidia wäre auch ma wieder schön vorallem wo ati sonen schickes gegenstück hat das die gforce evtl bissal günstiger wird als die gtx280 bei release was ja echt ne lachnummer war mit über 500 euro^^
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hallo

Wenn der Fermi kommt ? / dann kommt ATI mit der 6 Serie.

Grüße
Rocci75

Das steht doch überhaupt nicht zur Debatte, dass ATi/AMD irgendwann mit einer neuen Serie rauskommt :stupid:

Fakt ist, dass wir noch nicht wirklich was handfestes zum G300 haben, geschweige denn wissen wann er nun in den Handel kommt.

Das bringt nichts. Es wird immer Spinner geben die in ATI oder NV Threads irgend nen Spam posten.


Motkachler schrieb:
Genau manche 5870 er kann man auf 1100 GPU und 1400 Speicher hochtakten mit reverenz Kühler.
Und der Fermi wird nicht so leicht zu kühlen sein nach dem was man bisher weis.
Wenn die Tesslas schon mit dem niedrigen takt auf 225 TDP kommen sollte das schwierig werden bei den Gamer Karten.

Nv wird versuchen auf einem ähnlichen Niveaus wie mit der 285er zu bleiben.





OT: Ich finds lustig wie Charlie im B3D Forum leiden muss, dort ist er persönlich vertreten und bekommt eigentlich nur auf die Mütze ;)
 
Zur 8800er Serie:
Erstmal ist zu sagen, dass die 8800Ultra nichts anderes als eine übertaktete 8800GTX ist (mit leicht verbessertem Kühler). Außerdem kam die 8800Ultra (2.5.2007) vor der Tesla C870 (20.6.2007) heraus. Tesla C870 und 8800Ultra basieren also auf dem selben Chip und obwohl die Tesla später kam ist sie niedriger getaktet. Hier schlägt einfach das Argument zu, bei GPGPU-Karten geht man mit dem Taktraten nicht bis an die Grenze, da Zuverlässigkeit den letzten paar % Leistung vorgezogen wird.
Die Tesla jetzt mit der 8800GTX zu vergleichen ist genau so, als wenn man die neuen Tesla mit der GTX360 und nicht GTX380 vergleicht, denn im Grunde ist die GTX380 die Ultra Version. Früher gab es halt eine GTX und eine Ultra, heute gibt es eine kleine GTX (mit der alten GTX gleichzusetzen) und eine große GTX (mit der Ultra gleichzusetzen).

falsch!!!! die gtx 360 ist die 8800gts, die 380 gtx ist die 8800gtx.

260gtx=8800gts (gt200 bzw. g80 leicht beschnitten)
280gtx=8800 GTX (GT200 und G80 voll ausgebaut und mit max. power)
285gtx= 8800 Ultra (gt200 und g80 überarbeitet für mehr takt)

Die telakarten basieren auf den High-End modell der desktop-serie mit identischem takt.

Tesla c870=8800GTX mit spezieller software und mehr service.

Zur GT200er Serie:
Nach meiner recherche musste ich tatsächlich feststellen, dass es hier keine Taktunterschiede zwischen Tesla und Gamerkarten gibt. Wenn man sich allerdings nun ansieht wie viele Hersteller von Haus aus übertaktete GT200(b) Karten anbieten (ich hab hier sogar Modelle mit 18% gefunden bei den Shadern), komme ich zu dem Schluß, dass Nv die Gamerkarten mit GT200 genauso konservativ wie die GPGPU-Karten getaktet hat, weil man Aufgrund der schwachen Leistung der Ati-Karten nicht unter Druck stand.

auch nicht richtig. Der GT200 hat sein taktziel um ca. 10% verfehlt, sollte also schon im standarttakt mit 10% mehr leistung kommen, wie man von frühen präsentationen des GT200 weiß. Man MUSSTE OC-Karten rausbringen um die ATI-Karten die NVdia STARK unter druck setzen zur wehr zu setzen.

Denn ah war der GT200 langsamer als geplant und ATI überraschend schnell und billig.

Erste Gerüchte besagen das auch beim GT300 Nvidia sein ziel nicht einhalten kann vom takt her. UNd da chips über einen langen zeitraum entwickelt werden könnte nvdia den weg den man seit dem g80 beschreitet weitergehen MÜSSEn, da man ertstmal keinen kurswechsel machen kann. Was bedeutetr:GROßES PROBLEM FÜR NVIDIA

ist aber nur ne vermutung.

Wenn ich dies nun auf den Fermi übertrage und wieder von den 1465MHz ausgehe, so komme ich zu dem Schluß, dass 1700MHz Shadertakt drin sein könnten, aber man die Karten von Haus aus wohl auch nur auf 1465MHz takten wird. Denn egal wo der Takt genau liegen wird, gehe ich davon aus, dass die Ati-Karten nur in Bezug auf Preis/Leistung eine Konkurrenz darstellen.

OC Karten werden meisst mit gesonderten TEUREREN Chips gemacht. Was bedeutet um das ziel zu erreichen werden die karten nochmals teurer. Ich glaube das tktziel wird verdammt schwer zu erreichen sein. was glaubst du warum sie jetzt schon bei reviswion A3 sind? Genau, weil sie bisher das taktziel nicht erreichen können.
 
auch nicht richtig. Der GT200 hat sein taktziel um ca. 10% verfehlt, sollte also schon im standarttakt mit 10% mehr leistung kommen, wie man von frühen präsentationen des GT200 weiß. Man MUSSTE OC-Karten rausbringen um die ATI-Karten die NVdia STARK unter druck setzen zur wehr zu setzen.

Denn ah war der GT200 langsamer als geplant und ATI überraschend schnell und billig.

Erste Gerüchte besagen das auch beim GT300 Nvidia sein ziel nicht einhalten kann vom takt her. UNd da chips über einen langen zeitraum entwickelt werden könnte nvdia den weg den man seit dem g80 beschreitet weitergehen MÜSSEn, da man ertstmal keinen kurswechsel machen kann. Was bedeutetr:GROßES PROBLEM FÜR NVIDIA

ist aber nur ne vermutung.

Das sollte sie auch bleiben. Es gibt zwischen ATI und NV keine falschen und einen besseren Weg.



OC Karten werden meisst mit gesonderten TEUREREN Chips gemacht. Was bedeutet um das ziel zu erreichen werden die karten nochmals teurer. Ich glaube das tktziel wird verdammt schwer zu erreichen sein.

Das ist wirklich völlig daneben. Es gibt keine teuren und günstigen Chips. Alle Chips die von einem Wafer kommen sind gleich teuer in der Herstellung. Selektieren können die Hersteller dann selber, da sie das aber eh mit allen Chips machen müssten und die Karten bis auf den Kühler (wenn überhaupt) normalerweise baugleich sind ergibt sich auch kein wirklicher Mehrpreis.

was glaubst du warum sie jetzt schon bei reviswion A3 sind? Genau, weil sie bisher das taktziel nicht erreichen können.

Es geht um Yields, nicht um Taktraten, aber das ist scheinbar schwer zu verstehen. Die neuen Revisionen wurden aufgelegt um die Yields zu verbessern. Das sich dadurch die Chips durch die hinzugewonnene Qualität auch besser Takten lassen ist ein positiver Nebeneffekt aber nicht das Hauptziel.
 
Zuletzt bearbeitet:
Nein, die yields werden mit steigenden taktraten schlechter, das heißt das hängt zusammen. entweder hohe yields und niedridige taktraten oder hohe taktraten und niedirge yields.

Nvidia braucht aber beides und genau das ist das problem. Man muss also hohe taktraten mit hohen yields verbinden.

---------- Beitrag hinzugefügt um 08:12 ---------- Vorheriger Beitrag war um 08:10 ----------

Das sollte sie auch bleiben. Es gibt zwischen ATI und NV keine falschen und einen besseren Weg.



Das ist wirklich völlig daneben. Es gibt keine teuren und günstigen Chips. Alle Chips die von einem Wafer kommen sind gleich teuer in der Herstellung. Selektieren können die Hersteller dann selber, da sie das aber eh mit allen Chips machen müssten und die Karten bis auf den Kühler (wenn überhaupt) normalerweise baugleich sind ergibt sich auch kein wirklicher Mehrpreis.

Das selektieren kostet aber EXTRA geld. nicht die produktion, aber das testen der chips und das selektieren, das kostet geld und erhöht damit die produktionskosten weiter um ein paar USD.
 
Nein, die yields werden mit steigenden taktraten schlechter, das heißt das hängt zusammen. entweder hohe yields und niedridige taktraten oder hohe taktraten und niedirge yields.

Nvidia braucht aber beides und genau das ist das problem. Man muss also hohe taktraten mit hohen yields verbinden.

Nein! Es geht erstmal darum genug fehlerfreie, bzw voll- oder teilfunktionsfähige Chips aus dem Waver zu bekommen. Die Taktraten für den Fermi stehen noch garnicht fest, die orientieren sich dann am maximal möglichen.




Das selektieren kostet aber EXTRA geld. nicht die produktion, aber das testen der chips und das selektieren, das kostet geld und erhöht damit die produktionskosten weiter um ein paar USD.

Ja, aber deswegen sind die Chips nicht teurer. Die Hersteller müssen diese selber selektieren, nicht NV.
 
Nein! Es geht erstmal darum genug fehlerfreie, bzw voll- oder teilfunktionsfähige Chips aus dem Waver zu bekommen. Die Taktraten für den Fermi stehen noch garnicht fest, die orientieren sich dann am maximal möglichen.

trotzdem hat Nvidia taktvorgaben und die kann man wohl nicht erreichen.


Ja, aber deswegen sind die Chips nicht teurer. Die Hersteller müssen diese selber selektieren, nicht NV.

Ja aber trotzdem steigen dadurch die püroduktionskosten. ich rede ja nicht von nvidia. aber wenn asus oder evga geld fürs selektieren und testen ausgeben muss steigt auch der verkaufspreis und der wird vermutlich schon nicht selektiert recht hoch.
 
Zur 8800er Serie:
Erstmal ist zu sagen, dass die 8800Ultra nichts anderes als eine übertaktete 8800GTX ist (mit leicht verbessertem Kühler). Außerdem kam die 8800Ultra (2.5.2007) vor der Tesla C870 (20.6.2007) heraus. Tesla C870 und 8800Ultra basieren also auf dem selben Chip und obwohl die Tesla später kam ist sie niedriger getaktet. Hier schlägt einfach das Argument zu, bei GPGPU-Karten geht man mit dem Taktraten nicht bis an die Grenze, da Zuverlässigkeit den letzten paar % Leistung vorgezogen wird.
Die Tesla jetzt mit der 8800GTX zu vergleichen ist genau so, als wenn man die neuen Tesla mit der GTX360 und nicht GTX380 vergleicht, denn im Grunde ist die GTX380 die Ultra Version. Früher gab es halt eine GTX und eine Ultra, heute gibt es eine kleine GTX (mit der alten GTX gleichzusetzen) und eine große GTX (mit der Ultra gleichzusetzen).

Für die Ultra hat NV aber das A03 Stepping gebracht. Was später dann auch für einige 8800GTS Modelle verwendet wurde.
Ändert aber nix an der Tatsache, das die Tesla GPU auf der GTX basiert und die Ultra erst später nachgeschoben wurde. Wobei man hier auch nicht wirklich von Sinn sprechen kann.
Das eine Tesla auf GTX Basis nicht gleich mit der GTX raus gekommen ist, wird wohl daran liegen, das die Karten bzw. die Software und alles drum rum noch nicht fertig war.
Cuda gabs ja auch noch nicht gleich ab Release, wenn ich mich recht entsinne, das wurde ja auch erst später eingeführt.

Ein gutes Beispiel gibts hier beim Core2Duo E6600. Der hat einen Standarttakt von 2400MHz und ich bin mir sicher, dass es kein einziges Modell dieser Cpu gibt, dass keine 2800MHz schafft.

Schlechtes Beispiel ich hatte bei nem Kumpel nen E6600 der nichtmal die 2,6GHz stabil gepackt hat...

Ja, aber deswegen sind die Chips nicht teurer. Die Hersteller müssen diese selber selektieren, nicht NV.

Das würde ich so nicht sagen... Denn wissen tut das keiner sorecht.
Vllt verkauft NV auch höherwertige Chips von der Mitte des Wafers teurer als die vom Rand ;)
 
falsch!!!! die gtx 360 ist die 8800gts, die 380 gtx ist die 8800gtx.

260gtx=8800gts (gt200 bzw. g80 leicht beschnitten)
280gtx=8800 GTX (GT200 und G80 voll ausgebaut und mit max. power)
285gtx= 8800 Ultra (gt200 und g80 überarbeitet für mehr takt)

Die telakarten basieren auf den High-End modell der desktop-serie mit identischem takt.

Tesla c870=8800GTX mit spezieller software und mehr service.

Die 285gtx mit der 8800Ultra zu vergleichen ist aber komplett falsch, da die 285gtx keine höhergetaktete 280gtx ist, sondern auf einem verbessertem Chip basiert. Dein Vergleich der 8800gts mit der gtx360 ist schon dadruch abwägig, dass gts-Karten nach Nv nicht zu den Highendkarten zählen, gtx-Karten hingegen schon.
Aber das ist auch alles egal. Einzig die Tatsache das es eine Gamer-Karte gibt, die auf genau dem gleichen Chip wie die Tesla C870 basiert, früher veröffentlicht wurde und über 11% höher getaktet ist, belegt hier meine These.

auch nicht richtig. Der GT200 hat sein taktziel um ca. 10% verfehlt, sollte also schon im standarttakt mit 10% mehr leistung kommen, wie man von frühen präsentationen des GT200 weiß. Man MUSSTE OC-Karten rausbringen um die ATI-Karten die NVdia STARK unter druck setzen zur wehr zu setzen.

Das bestätigt doch nur meine Aussage. Der Chip konnte locker 10% mehr siehe frühere Präsentationen ;). Später hat man die 10% herausgenommen, weil es keine Leistungsmäßige Konkurrenz gab. Dein Argument mit Preisdruck von Ati betrifft die Highendkarten von Nv doch gar nicht, sondern nur die Lowendkarten. Das sind vollkommen unterschiedliche Käufergruppen. Außerdem konnte man dann später die gtx285 noch besser verkaufen.

Das selektieren kostet aber EXTRA geld. nicht die produktion, aber das testen der chips und das selektieren, das kostet geld und erhöht damit die produktionskosten weiter um ein paar USD.

Das Selektieren kann man maschinell erledigen und kostet so gut wie gar nichts. Aber durch OC-Karten gibt der Hersteller eine Garantie aus, bei der er wiederum nicht durch Nv abgesichert ist. Dies lassen sich die Hersteller teuer bezahlen.

@fdsonne: Die Ultra kam 1 1/2 Monate vor der C870 und wenn du recht hast mit A03. Glaubst du, dass die den C870, der auf dem gleichen Chip basiert, dann in A02 gefertigt haben? :rolleyes:
Es gibt ja immer viele Gründe warum ein OC-Versuch scheitern kann, aber ganz sicher nicht an einem E6600 bei 2,6GHz. Ich nehme mal an es lag am MB. ;)
Nv verkauft höherwertige Chips sicher nicht teuerer, denn dann wären die schlechten Chips auch wieder billiger ... da kann man gleich den Durchschnittspreis anheben und den Herstellern das Selektieren überlassen.
 
Zuletzt bearbeitet:
@fdsonne: Die Ultra kam 1 1/2 Monate vor der C870 und wenn du recht hast mit A03. Glaubst du, dass die den C870, der auf dem gleichen Chip basiert, dann in A02 gefertigt haben? :rolleyes:
Es gibt ja immer viele Gründe warum ein OC-Versuch scheitern kann, aber ganz sicher nicht an einem E6600 bei 2,6GHz. Ich nehme mal an es lag am MB. ;)
Nv verkauft höherwertige Chips sicher nicht teuerer, denn dann wären die schlechten Chips auch wieder billiger ... da kann man gleich den Durchschnittspreis anheben und den Herstellern das Selektieren überlassen.

Also soweit ich weis waren die ersten Teslas nach wie vor A02 ;)
Schon das allein wiederlegt deine Aussage...

Aber gut lassen wir das. Fakt ist, Tesla kam später als die GTX wurde aber auf dem gleichen Chip entwickelt. Das man noch eine Ultra mit A03 nachgeschoben hat um mit höheren Taktraten im Gamingbereich zu glänzen und horrende Preise zu verlangen ändert nix an den Tesla Karten.

Da kannst du dich drehen und wenden wie du willst... A02 Teslas auf G80 Basis waren die ersten verfügbaren Karten soweit ich weis.

Zum anderen:
Mir ist durchaus bewusst, das beim CPU OC auch andere Komponenten reinspielen. Dennoch läuft auf dem selben Board mit dem selben RAM und dem selben Rest Komponenten beim Kumpel seit geraumer Zeit ein E6400 mit 3,2GHz. Und das Stabil.
Der E6600 ging nur bis 2,6GHz... Ob du willst oder nicht. Mit Spannungserhöhungen bis ins Sonstwo wäre vllt noch was drin, aber wie will man das bitte anständig kühl bekommen?!

Zum letzten, da dies bzgl. keine Konkreten Aussagen vorhanden sind, sind alles nur Spekulationen. Sprich ausschließen würde ich das dann nicht...
 
Zuletzt bearbeitet:
trotzdem hat Nvidia taktvorgaben und die kann man wohl nicht erreichen.

Wer soll NV denn den Takt vorgeben? A3 ist wohl gerade in der Testphase und mit A1 schwirren halt die 495/1100 Mhz herum, A2=? und A3=?.
Bisher weiß niemand ob sich die Chips gut oder schlecht takten lassen, nur das die Taktraten des Fermi/Tesla recht niedrig sind.


Ja aber trotzdem steigen dadurch die püroduktionskosten. ich rede ja nicht von nvidia. aber wenn asus oder evga geld fürs selektieren und testen ausgeben muss steigt auch der verkaufspreis und der wird vermutlich schon nicht selektiert recht hoch.

fdsonne schrieb:
Das würde ich so nicht sagen... Denn wissen tut das keiner sorecht.
Vllt verkauft NV auch höherwertige Chips von der Mitte des Wafers teurer als die vom Rand

NV wird jeden Chip eh testen müssen ob er die Vorgaben einhält. Wie das genau abläuft weiß niemand, da hat fdsonne recht, aber die Preise werden relativ sein. Die kosten pro DIE lagen bei 35 Dollar für den GT200b. NV hat selbige vielleicht für 50$ an die Hersteller verkauft. Selbst wenn man dann 10% mehr nimmt macht das die Karte nicht wirklich teurer.
 
Der Test eines Wafers auf Funktionsfähige Chips geht aber weitestgehend automatisch. Ein selektieren der DIEs nach Güte oder nach Takt hingegen wäre weit aufwändiger ;)

Und stimmt schon, auch 10% mehr machen da so viel nicht aus. Wenn man aber bedenkt, das die Boardpartner von NV mit der 260er sogar Verlust eingefahren haben, was sie ja öffentlich bestätigt haben. Zeigt das eigentlich wie hart am Limit NV hier gearbeitet hat...
NV ansich wirds dadurch nicht schlecht/schlechter gehen. Weil die verkaufen ihre GPUs ja zu nem geregelten Vertragspreis an den Boardpartner. Nur letzter muss dann bluten, wenn die Kiste nicht das schafft, was sie schaffen sollte und die Konkurenz doch günstiger und vllt auch schneller sit.
 
Also soweit ich weis waren die ersten Teslas nach wie vor A02 ;)
Schon das allein wiederlegt deine Aussage...

Aber gut lassen wir das. Fakt ist, Tesla kam später als die GTX wurde aber auf dem gleichen Chip entwickelt. Das man noch eine Ultra mit A03 nachgeschoben hat um mit höheren Taktraten im Gamingbereich zu glänzen und horrende Preise zu verlangen ändert nix an den Tesla Karten.

Da kannst du dich drehen und wenden wie du willst... A02 Teslas auf G80 Basis waren die ersten verfügbaren Karten soweit ich weis.

Ich finds schon unseriös die Ultra in diesem Zusammenhang als nachgeschoben zu bezeichnen. Schließlich diskutieren wir über die C870 und die kam später. Außerdem ist es doch ebenfalls belanglos ob die Tesla in A02 oder A03 gefertigt wurde, wobei wir hier offensichtlich nicht den geringsten Beleg für A02 haben. Es geht hier um die Taktraten der Gamingkarten vs Taktraten der GPGPUs. Sollte der Grund für den niedrigeren Takt der C870 nun darin liegen, dass man bei den GPGPUs neue Revisionen nicht so schnell einführt wie bei Gamerkarten, so bleibt dieses Argument doch beim Fermi erhalten.


Zum anderen:
Mir ist durchaus bewusst, das beim CPU OC auch andere Komponenten reinspielen. Dennoch läuft auf dem selben Board mit dem selben RAM und dem selben Rest Komponenten beim Kumpel seit geraumer Zeit ein E6400 mit 3,2GHz. Und das Stabil.
Der E6600 ging nur bis 2,6GHz... Ob du willst oder nicht. Mit Spannungserhöhungen bis ins Sonstwo wäre vllt noch was drin, aber wie will man das bitte anständig kühl bekommen?!

Gut ob ich euch die 2,6GHz jetzt abnehme oder nicht, Fakt ist so gut wie jeder E6600 schafft die 2,8GHz. Klar gibt es Ausnahmen und es gibt ja auch E6600 die keine 2,4GHz schaffen. Die Frage ist immer wie groß ist diese Anzahl. Der Hersteller legt halt eine Frequenz fest und alle Chips die diese Frequenz nicht schaffen gelten dann als defekt. Beim E6600 hätte man hier 2,8GHz wählen können und trozdem kaum reklamierungen gehabt (vieleicht werden die dann auch ab Werk aussortiert kp). Fakt ist halt auch, dass es gegenwärtig aus wirtschaftlichen Gründen öfter vorkommt, dass ein Hersteller den finalen Takt absichtlich niedriger als den technisch bestmöglichsten Takt ansetzt.


Zum letzten, da dies bzgl. keine Konkreten Aussagen vorhanden sind, sind alles nur Spekulationen. Sprich ausschließen würde ich das dann nicht...

Wir spekulieren alle nur. Allerdings gibt es für meinen Standpunkt ein handfestes Argument.


Und stimmt schon, auch 10% mehr machen da so viel nicht aus. Wenn man aber bedenkt, das die Boardpartner von NV mit der 260er sogar Verlust eingefahren haben, was sie ja öffentlich bestätigt haben. Zeigt das eigentlich wie hart am Limit NV hier gearbeitet hat...

Genau da liegt der Punkt. Bei den 260gern hatten sie Verlust, da Ati dort noch konkurrenzfähig war. Bei den Highendkarten sieht die Sache sicher ganz anders aus.
 
Die 285gtx mit der 8800Ultra zu vergleichen ist aber komplett falsch, da die 285gtx keine höhergetaktete 280gtx ist, sondern auf einem verbessertem Chip basiert. Dein Vergleich der 8800gts mit der gtx360 ist schon dadruch abwägig, dass gts-Karten nach Nv nicht zu den Highendkarten zählen, gtx-Karten hingegen schon.
Aber das ist auch alles egal. Einzig die Tatsache das es eine Gamer-Karte gibt, die auf genau dem gleichen Chip wie die Tesla C870 basiert, früher veröffentlicht wurde und über 11% höher getaktet ist, belegt hier meine These.

Nein, die 8800 ultra und die 285 gtx sind mehr oder weniger das selbe. ein etwas überarrbeiteter g80/G200 mit mehr takt. nicht mehr und nicht weniger. Beide wurden nachgeschoben und waren basierten auf den selbem chip wie die 280 gtx und 8800gtx mit höheren taktraten. gut der g200 war noch geshrinkt. wow!

Und eine 360gtx bedient genau den selben Kundenkreis wie damal die 8800gts!!!! nur weil nv das namensschema ändert ändert das nichts daran, das die 360 gtx und die 8800gts das selbe sind. eine karte mit leicht ausgebremsten high-end chip für etwas weniger geld.

Das bestätigt doch nur meine Aussage. Der Chip konnte locker 10% mehr siehe frühere Präsentationen ;). Später hat man die 10% herausgenommen, weil es keine Leistungsmäßige Konkurrenz gab. Dein Argument mit Preisdruck von Ati betrifft die Highendkarten von Nv doch gar nicht, sondern nur die Lowendkarten. Das sind vollkommen unterschiedliche Käufergruppen. Außerdem konnte man dann später die gtx285 noch besser verkaufen.

die 260 und 275 gtx sind low-end karten??? interessant. Das einziege was bedingt Konklurrenzlos war, war die 280 und 285 gtx. damit wird aber auch nicht wirklich viel umsatz gemacht. auch wenn dieses forum vllt. einen anderen eindruck macht, mehr als 2% der gesamtverkäufe, eher noch weniger, können diese beiden Karten nicht ausmachen. UNd fest steht, der g200 sollte erst noch 10% mehr takt bekommen, aber das ziel konnte man nicht einhalten. was natürlich die preise in bedregniss brachte. denn 10% mehr oder weniger machen shcon einieges aus. Und weil der preis der gtx 260 fallen MUSSTe, MUSSTE nvidia auch den preis der 280gtx drücken, da sich sonst alle 2 * 260gtx gekauft hätten, anstatt einer 280gtx, zumindest wenn sie die alten preise dafür beibehalten hätten. denn 200 euro für ne 260 gtx und 500 euro für duie 280 gtx, das funtktioniert nicht. selbst der enthusiast hätte da gesagt, 500 euro?? da nehm ich doch lieber 2 von den kleinen nd spar die 100 Euro noch. Denn 2 260gtx sind definitiv schneller wie eine 280 gtx. und das ist auch ein fluch von sli und crossfire. wolte man früher ne schnellere karte, musste man das größere modell kaufen. heute kann man auch 2 kleinere zusammenschließen. daher darf das größere modell nur weniger als das dopplete der kleineren karte kosten, damit das große ding überhaupt noch gekauft wird.

daher die preisanpassung von nvdiai bei der 280 gtx, obwohl es keine direkte konkurrenz gab. indirekt hat ATI den preis der 28ß0gtx aber trotzdem gedrückt.

Das Selektieren kann man maschinell erledigen und kostet so gut wie gar nichts. Aber durch OC-Karten gibt der Hersteller eine Garantie aus, bei der er wiederum nicht durch Nv abgesichert ist. Dies lassen sich die Hersteller teuer bezahlen.

oder der herrsteller prüft die chips, wieviel spannung sie vertragen und nehmen die besten 100 von 1000 für OC-Karten. das kostet dann extra geld. zumindest herrsteller wie evga oder so.

---------- Beitrag hinzugefügt um 13:47 ---------- Vorheriger Beitrag war um 13:40 ----------

Ich finds schon unseriös die Ultra in diesem Zusammenhang als nachgeschoben zu bezeichnen. Schließlich diskutieren wir über die C870 und die kam später. Außerdem ist es doch ebenfalls belanglos ob die Tesla in A02 oder A03 gefertigt wurde, wobei wir hier offensichtlich nicht den geringsten Beleg für A02 haben. Es geht hier um die Taktraten der Gamingkarten vs Taktraten der GPGPUs. Sollte der Grund für den niedrigeren Takt der C870 nun darin liegen, dass man bei den GPGPUs neue Revisionen nicht so schnell einführt wie bei Gamerkarten, so bleibt dieses Argument doch beim Fermi erhalten.

Genau das versucht er dir doch zu erklären!!:hmm:

wenn der c870 und der g80 beide bei gleicher revision mit gleichem takt kamen, dann ist die wahrsceinlichkeit groß das das auch beim fermi so läuft. also Teslatakt=geforcetakt.

---------- Beitrag hinzugefügt um 13:53 ---------- Vorheriger Beitrag war um 13:40 ----------

Wer soll NV denn den Takt vorgeben? A3 ist wohl gerade in der Testphase und mit A1 schwirren halt die 495/1100 Mhz herum, A2=? und A3=?.
Bisher weiß niemand ob sich die Chips gut oder schlecht takten lassen, nur das die Taktraten des Fermi/Tesla recht niedrig sind.

Der markt bzw. die Konkurrenz, also ATI legt indirekt fest wie schnell das ding werden muss und damit wieviel takt benötigt wird. Wenn der fermi in der entwicklung 800 Mio kostet und die produktionskosten 150 USD betragen, dann musss nvdia diese unkosten wieder reinholen, logisch. wenn sie wissen das in 1 1/2 jahren der nachfolger kommt mmüssen bis dahion alles kosten wieder drin sein, auch logisch. Also sagen sie wir müssen pro karte z.b. 300 usd bekommen.

Diese werden sie aber nur zu dem preis los wenn die leistung stimmt. Nvidia sagt also, ati wiurd dort liegen also müssen wir 20% drüber liegen mit unserem chip damit wir auch DEN preis von 300 USd und nicht nur von 200 USD bekommen.

das heißt nvidia gugxckt wie schnell is unser chip mit welchem takt, ah ok also um ca. 20% schneller als ati zu werden brauchen wir ca. takt XY.

Beim GT 200 hat man en takt den man brauchtwe um 10% verfelht was beudeutet das man die 260 GTX bereits verramschen musste und auch die 280 gtx massig im preis fallen MUSSTE um gegen ATI zu bestehen.


Mit diesem Hintergrundwissen sind 20% weniger takt beim Fermi für Nvidia, sollte das stimmen, der HORROR!!!

verstanden??
 
Zuletzt bearbeitet:
Hallo,

an einer anderen Stelle hatte scully1234 einen Link zu einer Tabelle mit zukünftigen Grakas gepostet. Hier mein Posting dazu:Klick
Davon abgesehen ist eine Kompatibilitätsliste für einen VGA-Kühler aufgetaucht, der diese Graka-Bezeichnungen ebenfalls enthält:
Nachricht bei PCGH

ciao Tom
 
Genau das versucht er dir doch zu erklären!!:hmm:

wenn der c870 und der g80 beide bei gleicher revision mit gleichem takt kamen, dann ist die wahrsceinlichkeit groß das das auch beim fermi so läuft. also Teslatakt=geforcetakt

Nur das sie eben nicht mit der gleichen Revision kamen wenn wir fdsonne in diesem Punkt mal glauben. Ultra kam früher und hatte A03 und die 8800gtx wurden dann auch mit A03 produziert. Wie kommst du also darauf, dass die Tesla des Fermi es in die gleiche Revision wie die Gamer Karten schaffen, wenn ihr hier gleichzeitig so wehement versucht zu beweisen, dass dies bei der 8800er Serie nicht passiert ist?

Mittlerweile ist mir die Sache aber auch egal. Ich überlass mal den Ati-Fans das Feld. Ich komm dann wieder, wenn die Benchmarks draußen sind. Dann kann ich mir anhören warum über 70% schneller ja eigentlich doch nicht so gut ist und Nv trozdem pleite geht. :xmas:
 
Ich finds schon unseriös die Ultra in diesem Zusammenhang als nachgeschoben zu bezeichnen. Schließlich diskutieren wir über die C870 und die kam später. Außerdem ist es doch ebenfalls belanglos ob die Tesla in A02 oder A03 gefertigt wurde, wobei wir hier offensichtlich nicht den geringsten Beleg für A02 haben. Es geht hier um die Taktraten der Gamingkarten vs Taktraten der GPGPUs. Sollte der Grund für den niedrigeren Takt der C870 nun darin liegen, dass man bei den GPGPUs neue Revisionen nicht so schnell einführt wie bei Gamerkarten, so bleibt dieses Argument doch beim Fermi erhalten.

Vllt nicht nach der Tesla nachgeschoben, aber nach der GTX. Fakt ist, der G80 kam in Form einer 8800GTX und in Form einer 8800GTS.
Die Ultra bzw. das A03 Stepping wurde entwickelt um eine mögliche AMD Konkurenzkarte mit höherem Takt ausstechen zu können. NV entschloss sich nochmal alles aus dem G80 zu holen um möglichst gut gegen die AMD Konkurenz dazustehen.
Das der R600 am Ende nicht das wurde, wo ihn einige vllt gesehen hätten, bzw. wo NV ihn vermutet hat (sonst wäre keine Ultra gekommen) und das es von der 2900er Karte keine XTX Version gab tun dazu aber keinen Abbruch.

Wie oben schon erwähnt, erste Tesla Modelle am Markt waren A02 und hatten GTX Taktraten. Später nachdem man die Produktion gänzlich auf A03 umgestellt hat, folgen auch Teslas mit A03 Stepping.
Aber es wurde nicht wie bei der Ultra eine neue Karte nachgeschoben, sondern es wurde einfach gleich der 260er GTX die Taktrate mit dem neuen Stepping übernommen.

Jetzt daraus zu schließen das man die Tesla Karte konservativ Taktet nur weil irgendwann weit nach GTX Release und bekannt werden der Tesla Daten eine Ultra Karte extra für diese Karte mit neuem Stepping gekommen ist, ist ein Äpfel mit Birnen Vergleich.

Die Tesla vom G80 ist zeitgleich mit der 8800GTX entwickelt wurden, die Ultra ist durch das neue Stepping eine Weiterentwicklung.




Gut ob ich euch die 2,6GHz jetzt abnehme oder nicht, Fakt ist so gut wie jeder E6600 schafft die 2,8GHz. Klar gibt es Ausnahmen und es gibt ja auch E6600 die keine 2,4GHz schaffen. Die Frage ist immer wie groß ist diese Anzahl. Der Hersteller legt halt eine Frequenz fest und alle Chips die diese Frequenz nicht schaffen gelten dann als defekt. Beim E6600 hätte man hier 2,8GHz wählen können und trozdem kaum reklamierungen gehabt (vieleicht werden die dann auch ab Werk aussortiert kp). Fakt ist halt auch, dass es gegenwärtig aus wirtschaftlichen Gründen öfter vorkommt, dass ein Hersteller den finalen Takt absichtlich niedriger als den technisch bestmöglichsten Takt ansetzt.

Das klingt schon besser und hier würde ich auch vollkommen zustimmen. Ich bin nur kein Freund von Pauschalaussagen die sich mit wenigen Argumenten total untergraben lassen.

Im übrigen, der Hersteller gibt indirekt eine Zieltaktrate vor, die die Chips erreichen sollen. So ist diese Zieltaktrate bei den ersten C2D 6xxx Modellen 2,93GHz des X6800 gewesen.
Nachdem man die Funktion und Güte der Chips geprüft hat wird eingeordnet, welcher DIE als welche CPU verkauft wird.
Chips mit zu schlechter Güte wurden beispielsweise anfangs auch als E6400 verkauft oder gar E6300. Mit 2,13 bzw. 1,86GHz und halb deaktiertem Cache ;)

Ums auf den Punkt zu bringen, der Hersteller strebt in der Produktion nicht für jedes Modell eine Taktfrequenz bzw. Güte des Chips an, sondern es wird idR immer das beste Modell versucht zu produzieren. Der Rest wird dann runterskaliert. Sofern es sich um den gleichen Chip handelt...

Genau da liegt der Punkt. Bei den 260gern hatten sie Verlust, da Ati dort noch konkurrenzfähig war. Bei den Highendkarten sieht die Sache sicher ganz anders aus.

Aber auch nur indirekt. Denn eine Karte, die vllt 20-30% schneller ist als das Top Konkurenzprodukt rechtfertigt keinen Preis jenseits von gut und Böse. Das kann man vllt bei einigen Prestige Modellen oder Limitierten Auflagen machen. Aber nicht im Massenmarkt. Es wird zwar immer ein paar blöde geben, die sowas kaufen, aber dennoch, idR geht alles übers P/L.

Der Größte Nachteil von NV ist, das sie den AMD Konkurenten seit dem G80 aus einem Teildeaktivierten Top Modell herstellen.
Und das wird beim Fermi nicht anders laufen...
Die Produktionskosten ansich bleiben aber so ziemlich identisch. Man spart etwas am PCB und etwas wegen weniger Speicherchips. Aber im großen und ganzen müsste die Karte ansich mehr kosten als man sie verkauft.

Nur das sie eben nicht mit der gleichen Revision kamen wenn wir fdsonne in diesem Punkt mal glauben. Ultra kam früher und hatte A03 und die 8800gtx wurden dann auch mit A03 produziert. Wie kommst du also darauf, dass die Tesla des Fermi es in die gleiche Revision wie die Gamer Karten schaffen, wenn ihr hier gleichzeitig so wehement versucht zu beweisen, dass dies bei der 8800er Serie nicht passiert ist?

Nochmal, vor dem A03 gab es den A02, der über 6 Monate das Maß der Dinge war. Und auf diesem Stepping setzt die Tesla auf...
Was NV da unter nem ganz anderen Deckmantel und unter ganz anderen Vorraussetzungen noch entwickelt hat (nämlich um mögliche AMD Konkurenz in Form der nie erschienenen 2900XTX zu kontern) spielt überhaupt keine Rolle.

Man hätte wenn man gewollt hätte auch einen A03 Tesla mit höherem (Ultra) Takt bringen können, nur warum?
Soll man gleichsam alle lange vorher produzierten Karten wegwerfen bzw. die Kundschaft einerseits mit einem Modell in schach halten um unmittelbar danach ein neues Modell zu bringen?
Es macht alles keinen Sinn...

Im übrigen, ich hab grad zufällig ne Meldung von heise.de gefunden, das Cuda seit dem 18.2.07 also gerade mal 4 Monate vor dem Release der ersten echten Tesla GPU zum freien Download für jedermann zur Verfügung stand.
Das ganze natürlich noch als Beta...
Zeigt also recht deutlich, warum die Tesla Karte ansich erst so spät kam, nicht weil man nicht gewollt hätte, sondern weil es einfach das Cuda Produkt als Software noch nicht zugelassen hat.

Zumahl man alles was die Tesla Karte kann auch schon mit ner Quadro FX 5600 machen konnte.
 
Zuletzt bearbeitet:
Und somit sicher wieder nur GPGPU infos und test, aber 0 zur renderleistung (wofür die tesla ja auch net gedacht sind)
 
Aber auch nur indirekt. Denn eine Karte, die vllt 20-30% schneller ist als das Top Konkurenzprodukt rechtfertigt keinen Preis jenseits von gut und Böse. Das kann man vllt bei einigen Prestige Modellen oder Limitierten Auflagen machen. Aber nicht im Massenmarkt. Es wird zwar immer ein paar blöde geben, die sowas kaufen, aber dennoch, idR geht alles übers P/L.

eben, die preise und leistungen der kleineren modell und der konkurrenz regeln, wie teuer die andren modell werden müssen, können. aber das hab ich ja auch shcon wieter oben erklärt.

Der Größte Nachteil von NV ist, das sie den AMD Konkurenten seit dem G80 aus einem Teildeaktivierten Top Modell herstellen.
Und das wird beim Fermi nicht anders laufen...
Die Produktionskosten ansich bleiben aber so ziemlich identisch. Man spart etwas am PCB und etwas wegen weniger Speicherchips. Aber im großen und ganzen müsste die Karte ansich mehr kosten als man sie verkauft.


Genau dieses problem wird der fermi wohl nicht merh haben. denn er ist ja sehr modular aufgebaut. was bedeutet das man ohne probleme die shader und TMUs(gibts die beim fermi noch?) reduzeiren kann, ohne auf probleme zu stoßen. also wird der chip der in der 360gtx steckt kein gf 100 mit 512 shgadern von denen 128 deaktiviert wurden, sondern einfach ein, nennnen wir ihn GF90 mit 384 shadereinheiten.

Das ist einer der großen vorteile dieses chips, die große modularität.
 
Genau dieses problem wird der fermi wohl nicht merh haben. denn er ist ja sehr modular aufgebaut. was bedeutet das man ohne probleme die shader und TMUs(gibts die beim fermi noch?) reduzeiren kann, ohne auf probleme zu stoßen. also wird der chip der in der 360gtx steckt kein gf 100 mit 512 shgadern von denen 128 deaktiviert wurden, sondern einfach ein, nennnen wir ihn GF90 mit 384 shadereinheiten.

Das ist einer der großen vorteile dieses chips, die große modularität.

Diese ROP Cluster genannten Einheiten gibt es seit dem G80. Es ändert aber nix an der Tatsache, das NV nicht für ein einziges Modell im HighEnd Bereich einen Chip extra und für das direkt drunter liegende Modell welches nur minimal (schätze 20-30%) darunter liegen wird ebenso ein eigenen Chip baut.
Das macht keinen Sinn...

Der nächste Chip der Hardwareseitig nur weniger Ausführungseinheiten bekommen wird, wird mindestens 50% wenn nicht gar deutlich mehr langsamer sein als die Top Fermi Karte.


Die Kleine wird nach wie vor den "Abfall" der Großen bekommen. Ebenso wird es wohl keine Quadro oder Tesla Karte basierend auf der ich nenn sie mal 360GTX geben. Zumindest ist darüber nix bekannt oder in Spekulation.

EDIT:
Zumahl es einen heiden Unterschied macht ob man einfach was deaktivert oder ob man Einheiten physisch entfernt um die Fläche zu verringern.
Denn in letzterem Fall wird erstens eine Neue Produtionsstraße nötig und zweitens ein neues Design nötig. Ebenso wie erhelbliche Anpassungen usw.
Teildeaktivieren von ganzen oder defekten Chips ist da der deutlich einfachere und kostengünstigere Weg...
 
Zuletzt bearbeitet:
Ja, das ist wieder der nachteil, wobei ich glaube wenn m an den gf100 hat wird es icht emhr so schwer sein den GF90 zu entwickeln. es ist ja lles da, man muss ja mehr oder weniger nur die ein oder andere einheit reduzieren. ich denke das sollte nicht soo aufwändig sein. wobei natürlich trotzdem noch entwicklungskosten anfallen.

aber nvidia wird sich ja ausgrechnet haben was sich lohnt und was nicht.
 
Ja, das ist wieder der nachteil, wobei ich glaube wenn m an den gf100 hat wird es icht emhr so schwer sein den GF90 zu entwickeln. es ist ja lles da, man muss ja mehr oder weniger nur die ein oder andere einheit reduzieren. ich denke das sollte nicht soo aufwändig sein. wobei natürlich trotzdem noch entwicklungskosten anfallen.

aber nvidia wird sich ja ausgrechnet haben was sich lohnt und was nicht.

Es lohnt eben nicht, sonst hätte man das viel früher schon gemacht!
Wie gesagt problemlos ab dem G80 machbar.

Bei der 260GTX hat NV ja die Felle wegschwimmen sehen und schnell mal einen Shadercluster freigeschossen um besser gegen AMD dazustehen.

Eine Umstellung der Produktion kostet einmalig, bei ner gleichzeitigen Produktion (so wie du grad gemeint hast) würde NV das aber doppelt kosten... Was einfach weg Sinn macht.

Viel mehr ist die Ausgangslage eine schlechtere bei NV, weil die GPU einfach ~50% mehr Transistoren im Bauch hat als AMD Karten.
Man könnte jetzt meinen, sie sollte dann auch mindestens 50% besser sein, das sehe ich aber aktuell noch nicht so richtig...
 
Wenns ein Prestigeobjekt wird wie alle High End-Modelle sei es bei AMD oder NV spielt die konsteneffiziente Produktion eh nur eine untergeordnete Rolle... Das meiste Geld wird in einer anderen Preisliga verdient. Und da verkaufen sich Produkte besser wenn der Kunde weiß etwas vom Hersteller der schnellsten GraKa zu kaufen.

@fdsonne
mal ganz nebenbei wenns sich garnicht loht warum machen sie es dann trotzdem ? Und vor allem warum immer wieder.
 
ja da gebe ich dir recht. ich hab auch mal gehört das nvidia geplant hatte einen chip basierend auf dem gt200 zu entwickeln mit 384 sahdereinheiten 40nm gddr5 und ich glaube auch dx11.

Ich denke mal man wusste vorher das der fermi länger brauch als atis rv870 und wollte da noch was zum überbrücken.

aber ich vermute es hat einfach nicht gereicht, denn der chip hätte:

a mehr änderungsbedarf für die dx11 zertifizierung gebraucht als ati, der tesselator war ja schon lange drauf seit dem r600 z.b./gddr5 controller hat man bei nvidia ja auch nciht und z.b. bei der gt240 hat der ja schon so viele probleme gemacht, das hätte sich beim gt200 nachfolger wohl wiederholt.

b man entwicklungsressourcen die für fermi gebraucht werden für diesen chip hätten bereitgestllt werden müssen

c der chip RIESIG geworden wäre, bei den gazen sachen die man da ncoh hätte raufklatschen müssen

d die leistung hätte wohl schlicht nicht ausgereicht. 384 shadereinheiten, das sind 50% gegen 100%, der chip wäre auch größer und teurer geworden und ich glaube nvidia hat ziemlich schnell gemerkt das dieser "einfache" weg für sie garnicht so einfach ist, da man zu viele fehler gemacht hat.


an hätte also einen großen zu lahmen chip gehabt der viel entwicklungsgeld gekostet hätte und gegen ati nicht konkurrenzfähig wäre, da hat man das projekt dann einfach gazn eingestellt.
 
Man könnte jetzt meinen, sie sollte dann auch mindestens 50% besser sein, das sehe ich aber aktuell noch nicht so richtig...


ist sie auch, nur wird der Chip nicht zu 100% für Gaming genutzt
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh