nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 3

Status
Für weitere Antworten geschlossen.
Wenn die Jungs von nvidia selbst schon mit abstürzen auf der live demo zu kämpfen haben gibt das schon sehr zu denken...

das kann, muss aber nichts heißen.
Bei der 8800 GTX musste ich einige Treiberversionen abwarten, bis die nVidia-Techdemos (Adrianne und Froggy) ohne Absturz liefen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
das kann, muss aber nichts heißen.
Bei der 8800 GTX musste ich einige Treiberversionen abwarten, bis die nVidia-Techdemos (Adrianne und Froggy) ohne Absturz liefen.

Das kam nicht von mir :xmas:

Naja, aber allgemein find ich es schade, dass es heutzutage eigtl. schon standart geworden ist, dass der Kunde gleichzeitig auch Produkttester ist. Dies wird überalle betrieben, wo man Softwarefehler einfach durch Updates beheben kann. Ich selbst arbeite in ner KFZ-Werkstatt in der Elektrikabteilung und bei den modernen Autos ist es exakt das gleiche. Die Fahrzeuge kommen auf den Markt und gleichzeitig tauchen im Intranet zig Beiträge zu bekannten Fehlern auf und die Meldung "wird mit Software XY behoben".
Ich finde es ist schon fast unverschämt was da betrieben wird. Die Teile werden mit ner fehlerhaften Software so schnell wie möglich auf den Markt geworfen und der Kunde muss dann ständig "nachpatchen". Dass dies bei Autos nat. noch weitaus nerviger ist, als bei Grafikkarten, versteht sich von selbst.

Trotzdem sollte eine Grafikkarte die noch nichteinmal eine hauseigene Techdemo fehlerfrei abspielen kann, nicht auf den Markt kommen.

Ich finde es allgemein gewagt so ein Spiel zu treiben. Man hat es in letzter Zeit immer wieder anhand von Computerspielen gesehn - Spielen die frühzeitig und unfertig auf den Markt gebracht wurden, hat genau das immer das Genick gebrochen. Speziell wenn die Titel im Vorraus gehypt wurden. Ich denke dabei an Hellgate: London, Age of Conan, Tabula Rasa usw.
 
Naja zu den Abstürzen kann man eigentlich nur soviel Sagen, das das Supersonic Sled Demo noch neu ist und die Treiber auch noch nicht Final sind.
Desweiterren haben sie Karten aus der ersten Produktion genommen.
Die Finalen Karten haben eine anderre Taktrate und der Treiber ist sicher dann auch besser.

NV hatt für die CES nur schnell ein laufähiges System zusammen gebaut was einigermaßen läuft so das man es Zeigen kann.
Die Finalen Karten sind dann sicher schon besser. Wenn sie noch Probleme hätten würden sie die Karten nicht in Produktion geben.

Mfg. Denny

Sorry, aber da frage ich mich schon wieder woher manche dieses Wissen nehmen.
Woher weisst du das die Karten aus der ersten Produktion sind?
Woher weisst du das die finalen Karten andere Taktraten haben?
Wie kommst du darauf das Nvidia auf der CES "nur mal eben" ein Fermisystem aufgebaut hat? Sollte man nicht meinen das bei so einer Präsentation auf keinen Fall peinliche Fehler passieren sollten? Man will sich ja nicht blamieren oder falsche Meinungen durch dumme Fehler hervorrufen...
 
Sorry, aber da frage ich mich schon wieder woher manche dieses Wissen nehmen.
Woher weisst du das die Karten aus der ersten Produktion sind?
Woher weisst du das die finalen Karten andere Taktraten haben?
Wie kommst du darauf das Nvidia auf der CES "nur mal eben" ein Fermisystem aufgebaut hat? Sollte man nicht meinen das bei so einer Präsentation auf keinen Fall peinliche Fehler passieren sollten? Man will sich ja nicht blamieren oder falsche Meinungen durch dumme Fehler hervorrufen...

Das sind ja wie der Tread Titel sagt nur Spekulationen.
Wenn man die ganze Sache verfolgt kann man daraus schließen.

Das Demo System mußte schnell aufgebaut werden damit man was zum Zeigen hatt. NV würde noch schlechter da stehen wenn sie nix zum Zeigen gehabt hätten und keiner hätte an der Existens der GF100 Karten gedacht.
Bislang wurden ja nur Dummis von Teslakarten vorgeführt.

Es hieß ja auch das die Karten in Produktion sind was aber noch lange nicht Heißt das sie schon Hergestellt werden. Sicher werden schon einige Test Samples die Werke verlassen aber sicher noch keine die auf den Markt kommen. Bis März/April sind noch circa 3 Monate Zeit.
In der Zeit können sie noch einen Monat lang feintuning an den Karten Machen und im Februar denke ich mal wird die Finale Produktion los gehen.

Dann haben die Vertreiber der Karten (MSI, ASUS u.s.w.) noch einen Monat Zeit die Karten mit Software, Zubehör, Verpackung und Kühler aus zu rüsten.
In der Zeit kann NV noch das BIOS sowie Taktraten anpassen sowie die Treiber optimieren). Somit kann dann der Hersteller die Taktrate an sein Kühlsystem anpassen.

Es gibt also noch viel Arbeit für NV und die Hersteller und von daher gehe ich aus das auf der CES noch keine Finale und angepasste Karte in Einsatz war.
Nächten Monat zur CBIT gibt es sicher schon ein Finales System welches angepasst ist und man davon ausgehen kann das die Karten so auf den Markt kommen. Dann kann NV auch die Daten und die ersten Richtigen Tests veröffentlichen.

Mfg. Denny
 
Entschuldigung, aber bitte erklär mir deine Rückschlüsse, das mit den Taktraten und das die vergeführten Karten aus der ersten Produktion sind kann ich nicht nachvollziehen.

Und warum meinst du das die da schnell was aufbauen mussten?
Die CES war doch keine spontane Veranstaltung, sondern schon monate verher bekannt.
Und die Fermi Chips sind auch schon längst soweit (längst in Produktion).

Es hieß ja auch das die Karten in Produktion sind was aber noch lange nicht Heißt das sie schon Hergestellt werden.

Was ist das denn für ein unsinniger Satz?

Die Karten werden noch NICHT hergestellt.
Nvidia lässt immoment lediglich die GPUs von TSMC produzieren.
Wenn eine bestimmte Stückzahl fertiggestellt wurde, werden sie an die Grafikkartenhersteller wie Asus, Gigabyte und Co ausgeliefert.

Sicher werden schon einige Test Samples die Werke verlassen aber sicher noch keine die auf den Markt kommen. Bis März/April sind noch circa 3 Monate Zeit.
In der Zeit können sie noch einen Monat lang feintuning an den Karten Machen und im Februar denke ich mal wird die Finale Produktion los gehen.

Wenn die GPUs bereits in Produktion sind kann man sicher kein Feintuning mehr machen,
höchstens an den Treibern, oder dem Referenzplatinenlayout.

Das Bios wird nicht von Nvidia sondern von den Kartenherstellern geschrieben und veröffentlicht ;)
 
Ja die mobilen NV-GPUs scheinen ziemlich oft kaputt zu gehen...die muss ich auf Arbeit nämlich sehr oft ein- und auslöten...die hohe Defektrate könnte aber auch an der unzureichenden Kühlung der Laptophardware liegen...
Nö, das liegt daran das nV Geiz ist Geil in Perfektion umsetzt, Ich sage nur das G8x und einige G9x Chips Desaster. (Mobile!)
 
Ich habe ja nix von der GPU Herstellung gesagt sondern es ging um die Komplette Karte.

NV Steht unter Streß und muß entlich was vernünftiges Zeigen.
Die können sich keine Fehler erlauben vorallen wenn sie ATI im Nacken sitzen haben.

An der GPU können sie bei der GF100 Serie nix mehr ändern da sie schon fertig ist. Aber an der Leistung und Takt können sie noch etwas machen sowie die Spannungsversorgung.

Sicher ist klar das die Hersteller das Bios schreiben aber der Bereich in dem sich der Takt bewegt wo die Karte optimal läuft kann NV vorgeben somit hatt der Hersteller einen Spielraum. Der eine Hersteller hatt ein schlechtes und nicht gut durchdachtes Kühlsystem was dann auf kosten des Taktes geht.
Beim nächsten Hersteller sieht es schon anders aus und kann den Takt etwas anheben. Sicher wird es auch Modelle geben mit Wasserkühlung wo dann der Takt etwas höher ist. Aber viel Spiel wird da nicht bleiben um bei den 300W zu bleiben.

Solange es noch nix ofizelles gibt kann man nur vermuten und was genau abläuft weis niemand.

Mfg. Denny
 
Ich habe ja nix von der GPU Herstellung gesagt sondern es ging um die Komplette Karte.

NV Steht unter Streß und muß entlich was vernünftiges Zeigen.
Die können sich keine Fehler erlauben vorallen wenn sie ATI im Nacken sitzen haben.

An der GPU können sie bei der GF100 Serie nix mehr ändern da sie schon fertig ist. Aber an der Leistung und Takt können sie noch etwas machen sowie die Spannungsversorgung.

Sicher ist klar das die Hersteller das Bios schreiben aber der Bereich in dem sich der Takt bewegt wo die Karte optimal läuft kann NV vorgeben somit hatt der Hersteller einen Spielraum. Der eine Hersteller hatt ein schlechtes und nicht gut durchdachtes Kühlsystem was dann auf kosten des Taktes geht.
Beim nächsten Hersteller sieht es schon anders aus und kann den Takt etwas anheben. Sicher wird es auch Modelle geben mit Wasserkühlung wo dann der Takt etwas höher ist. Aber viel Spiel wird da nicht bleiben um bei den 300W zu bleiben.

Solange es noch nix ofizelles gibt kann man nur vermuten und was genau abläuft weis niemand.

Mfg. Denny

Was willst du eigenltich immer mit den 300W?
Nochmal, es handelt sich hier nicht um den realen Verbrauch der Karte! Sondern um die TDP oder einfach schnöde das, was die Karte an Leistung max. zur verfügung gestellt bekommt.

Zu glauben das wäre der real Stromverbrauch ist äußerst naiv ;)
 
Was willst du eigenltich immer mit den 300W?
Nochmal, es handelt sich hier nicht um den realen Verbrauch der Karte! Sondern um die TDP oder einfach schnöde das, was die Karte an Leistung max. zur verfügung gestellt bekommt.

Zu glauben das wäre der real Stromverbrauch ist äußerst naiv ;)

Nichtmal umbedingt um die TDP, sondern vlt auch nur um eine grobe Angabe, was das Ding mit OC verbraten kann. Aber alles nur Vermutungen.
 
Nichtmal umbedingt um die TDP, sondern vlt auch nur um eine grobe Angabe, was das Ding mit OC verbraten kann. Aber alles nur Vermutungen.

Aber auch selbst das ist recht unwarscheinlich... Weil die Karten sind noch net draußen, es ist nichmal klar was dort verbraucht wird unter normalen Bedingungen. Da redet man doch nich schon über OC Verbräuche ;)
Würd ich zumindest meinen.
 
Aber auch selbst das ist recht unwarscheinlich... Weil die Karten sind noch net draußen, es ist nichmal klar was dort verbraucht wird unter normalen Bedingungen. Da redet man doch nich schon über OC Verbräuche ;)
Würd ich zumindest meinen.

Naja, stimmt schon was du sagst, aber die Zahl 300W stammt von einem Gehäusehersteller, der ein Gehäuse baut für OC und Tri SLI.

Da ist es nicht so abwägig zu sagen, was könnte die Karte mit OC verbrauchen, das ganze mal drei, also müssen wir ein Gehäuse bauen, welches ca. 900 - 1000W abführen kann?!

Ist sicher ne Denkweise die auch möglich ist.
 
Gehäuse die 1000w abführen nennt man Ofen :fresse:
 

Die Zahl 300W stammt von Thermaltake, welche ein extra Gehäuse bauen, das "Fermi spezifiziert" ist und für Tri SLI ausgelegt sein wird.

Also könnte diese hohe Wattzahl auch einfach daraus resultieren, dass Thermaltake mit einem maximalen OC Verbrauch von 300W rechnet, und demnach das Gehäuse entworden hat.

Ne Vermutung .... ;)
 
CES: Neues vom Fermi (hardware-infos)<--- Hinweis: so lautet der Titel. Aus sicht dessen, was hier gepostet wurde, sind es nur zum Teil neue Infos.
Hardware-Infos stellt in dem Raum, dass die 3 Wakü-Grakas eventuell nur GT200-Grakas waren. Allerdings waren sie nicht selbst vor Ort.

edit ich hab mir das Bild nochmal angeschaut. Die Grakas dort haben den 8pin-PCIe-Anschluss links und den 6pin-PCIe-Anschluss rechts.
Das stimmt dann auch mit den Bildern des PCs überein, auf dem der Heaven-Benchmark lief.
Bei meiner GTX 280 ists schon mal genau umgekehrt.

Ciao Tom
 
Zuletzt bearbeitet:
@OliverM84: Diese Gehäuse sind doch nur eine Art von Merchandising. Die Fermi-Karten werden sicher in jedem gut belüftetem Gehäuse funktionieren. Wenn ich dann als Hersteller wie NV meinen guten Namen dafür hergebe, werde ich doch auch nur echt überdimensionierte Gehäuse zulassen.
Mit der tatsächlichen Verlustleistung des Fermi wird die Sache wenig zu tun haben. Ich glaube zwar auch, dass die nicht gering sein wird aber wie hoch genau weiß NV noch nicht mal selber, da die finalen Taktraten bei denen sicher auch noch nicht fest stehen.
 
@ OliverM84

Die Zahl stammt von Cooler Master.
Hardware-Infos stellt in dem Raum, dass die 3 Wakü-Grakas eventuell nur GT200-Grakas waren. Allerdings waren sie nicht selbst vor Ort.
:hmm:
Hardware-Infos schrieb:
Nebenbei sei bemerkt, dass es aktuell Zweifel gibt, ob die „3D Vision Sorrund“-Demo tatsächlich auf Fermi-Karten ausgeführt wurde. Anscheinend wurden hierzu noch drei Karten der GT200-Generation verwendet. Dies wäre etwas negativ im Hinblick auf Fermi, positiv allerdings für alle GT200-Besitzer, die mit der Idee spielen, sich ein solches System zuzulegen.
Schön, wenn man zweifelt und dies in keinster Weise ausführt :rolleyes:
 
Zuletzt bearbeitet:
@y33H@
schau Dir meinen Edit oder den Kommentar bei hardware-infos an.

---------- Beitrag hinzugefügt um 18:03 ---------- Vorheriger Beitrag war um 17:58 ----------

Hardware-Infos stellt in dem Raum, dass die 3 Wakü-Grakas eventuell nur GT200-Grakas waren. Allerdings waren sie nicht selbst vor Ort.
da habe ich ein paar Sachen durcheinander geworfen.
Auf dem Wakü-PC lief ja die nVidia-DX11-PhysX-Techdemo und nicht 3d Vision Surround. Für letzteres sollen 3 GT200-Karten verwendet worden sein.
Entschuldigung, mein Fehler!
 
CES: Neues vom Fermi (hardware-infos)<--- Hinweis: so lautet der Titel. Aus sicht dessen, was hier gepostet wurde, sind es nur zum Teil neue Infos.
Hardware-Infos stellt in dem Raum, dass die 3 Wakü-Grakas eventuell nur GT200-Grakas waren. Allerdings waren sie nicht selbst vor Ort.

edit ich hab mir das Bild nochmal angeschaut. Die Grakas dort haben den 8pin-PCIe-Anschluss links und den 6pin-PCIe-Anschluss rechts.
Das stimmt dann auch mit den Bildern des PCs überein, auf dem der Heaven-Benchmark lief.
Bei meiner GTX 280 ists schon mal genau umgekehrt.

Ciao Tom

Das ist Quatsch.

@OliverM84: Diese Gehäuse sind doch nur eine Art von Merchandising. Die Fermi-Karten werden sicher in jedem gut belüftetem Gehäuse funktionieren. Wenn ich dann als Hersteller wie NV meinen guten Namen dafür hergebe, werde ich doch auch nur echt überdimensionierte Gehäuse zulassen.
Mit der tatsächlichen Verlustleistung des Fermi wird die Sache wenig zu tun haben. Ich glaube zwar auch, dass die nicht gering sein wird aber wie hoch genau weiß NV noch nicht mal selber, da die finalen Taktraten bei denen sicher auch noch nicht fest stehen.

Klar wird die Karte in jedem andern Gehäuse funktionieren, ...
War ja nur eine Vermutung, woher die hohen Verbrauchswerte herrühren könnten.

@ OliverM84

Die Zahl stammt von Cooler Master.

Stimmt, mein Fehler, .... war ja die gleiche News in der auch Thermaltake im Gespräch war.
 
Zuletzt bearbeitet:
Ich habe ja nix von der GPU Herstellung gesagt sondern es ging um die Komplette Karte.

NV Steht unter Streß und muß entlich was vernünftiges Zeigen.
Die können sich keine Fehler erlauben vorallen wenn sie ATI im Nacken sitzen haben.

An der GPU können sie bei der GF100 Serie nix mehr ändern da sie schon fertig ist. Aber an der Leistung und Takt können sie noch etwas machen sowie die Spannungsversorgung.

Sicher ist klar das die Hersteller das Bios schreiben aber der Bereich in dem sich der Takt bewegt wo die Karte optimal läuft kann NV vorgeben somit hatt der Hersteller einen Spielraum. Der eine Hersteller hatt ein schlechtes und nicht gut durchdachtes Kühlsystem was dann auf kosten des Taktes geht.
Beim nächsten Hersteller sieht es schon anders aus und kann den Takt etwas anheben. Sicher wird es auch Modelle geben mit Wasserkühlung wo dann der Takt etwas höher ist. Aber viel Spiel wird da nicht bleiben um bei den 300W zu bleiben.

Solange es noch nix ofizelles gibt kann man nur vermuten und was genau abläuft weis niemand.

Mfg. Denny

Ich versteh nicht so ganz was du mit deinen Posts immer sagen möchtest. Die Karten kommen Anfangs alle im Referenzdesign raus, da gibts kein besser oder schlechter durchdachtes Kühlsystem. Es kaufen im Grund alle die Karten bei Nvidia ein und kleben ihre Aufkleber drauf. Dann kommt halt noch n bissl Biosgebastel dazu wie "20Mhz mehr Takt" was dann als "OC-Edition", "Super" und "Overclocked" verkauft wird. Aber im Grund sind die Karten doch alle die gleichen.
Und wenn Nvidia kurz vor dem eigentlichen Launch noch kein fertiges System für die Spannungsversorgung hätte, dann wär das ganze wohl n riesen Schuss in den Ofen.
Ich denke das Boardlayout usw. wird alles schon fertig sein, lediglich die Software wird noch optimiert.
 
Der havok engine kommt nicht von intel :hmm: sondern von einer firma mit dem namen havok und es läuft auch auf linux usw. Seit 2008 hat die firma mit amd eine engere zusammenarbeit ausgemacht.
 
Ne noch net, werd ich mir aber bei gelegenheit mal reinziehen :-P
 
Der havok engine kommt nicht von intel :hmm: .

Uhrsprünglich nicht da hast du recht,aber seit geraumer Zeit gehören die Eigentumsrechte an Havok Intel,das selbe wie bei Ageia das von den Grünen geschluckt wurde:)

---------- Beitrag hinzugefügt um 22:55 ---------- Vorheriger Beitrag war um 22:43 ----------

Naja, stimmt schon was du sagst, aber die Zahl 300W stammt von einem Gehäusehersteller, der ein Gehäuse baut für OC und Tri SLI.

Da ist es nicht so abwägig zu sagen, was könnte die Karte mit OC verbrauchen, .

Ja genau u wenn Nvidia für diese Gehäuse den eigenen Namen hergibt u für SLI zertifiziert,werden sie peinlichst genau darauf achten das diese Gehäuse auch mit allen Eventualitäten (OC und T -SLI )fertig werden.

Deshalb müssen sie auch vom grösstmöglichen Wert (300Watt x 3) ausgehen selbst wenn dieser nur im Worst Case erreicht wird
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh