nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
@Lord...na mal nicht so voreilig...ich denke nicht das er es so meinte.

Ich denke er meint einfach nur, dass man aufgrund des bestehenden Grundgerüstes des Bios noch evtl. Feinheiten erwarten kann wenn sie schon länger an der Karte basteln. Die arbeiten ja nicht nur mit Simulationen^^
Was das Ausreifen von Software angeht...das ist sie nie. Das ist eine Konsumgesellschaft und wenn es zu lange dauert um Problematiken zu beheben werden sie nicht mehr behoben weil es sonst unwirtschaftlich ist. Erst in der nächsten Generation darf man meist auf ein neues Bios hoffen wo ältere Probleme behoben sind.....and so on and so on.

Das Problem ist viel eher, das mit jeder Zeile Programmcode im Treiber/der Firmware/im Bios der Karte potentiell Fehler sein könnten, sprich wenn du ein Bios für ein ES Modell bringst kannst du das zwar schön testen und gucken ob soweit erstmal alles erdenkliche geht, aber sobald du dort wieder ne minimale Anpassung vornimmst, kanns passieren, du musst alle Tests wiederholen, weil nicht gesichert ist, das immernoch alles funkt...

Wie sagt man so schön, das Fehlersuchen und Beheben ist das, was am meisten Zeit brauch beim Programmieren. Und auch hier, mit jedem Fix schleichen sich neue Fehler ein.

Hat man doch in den letzten paar Monaten sehr schön gesehen, da wurden Fehler im Treiber behoben und tauchten dann plötzlich und zum Unverständniss aller wieder nach x vielen Versionen "ordentlicher" Treiber wieder auf... Das ist keines wegs Inkompetenz der Entwickler, sondern einfach fehlendes Testen (oder fehlende Mittel um zu testen)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hat man doch in den letzten paar Monaten sehr schön gesehen, da wurden Fehler im Treiber behoben und tauchten dann plötzlich und zum Unverständniss aller wieder nach x vielen Versionen "ordentlicher" Treiber wieder auf... Das ist keines wegs Inkompetenz der Entwickler, sondern einfach fehlendes Testen (oder fehlende Mittel um zu testen)

ja, wie wahr :hwluxx:
aber welche "fehlenden Mittel" meinst du? Ich denke wie du schon schriebst Personalmangel und daraus resultierend Zeitmangel.
 
ATi/AMD und nVidia könnten ihren Ingenieuren und Leuten in der Treiberabteilung schon sagen, dass sie die Treiber ausgiebig testen sollten (so wie bei der Quadro Serie). Nur was soll dann die Entwicklung eines solchen Treibers kosten (der dann nicht zu 95 sondern 99% fehlerfrei ist)? Das kann der Kunde am Ende nicht mehr bezahlen...
 
...wobei das nvidia noch effizienter macht. Da haben die entweder bessere Leute, oder ne bessere Firmenpolitik.....aber ich denke das wird langsam zu OT :btt:
 
oder einfach nur jedes monat x beta treiber die jeder für ein anderes game optimal ist und für ein aanderes komplett zu vergessen ^^
 
ich bin wirklich gespannt wann die neuen karten kommen, bis dahin muss meine gtx 260 wohl noch aushalten :)
 
ja, wie wahr :hwluxx:
aber welche "fehlenden Mittel" meinst du? Ich denke wie du schon schriebst Personalmangel und daraus resultierend Zeitmangel.

Neja fehlende Mittel in dem Sinn, das das Treiberteam sich nie alle erdenklichen Konfigurationen hinstellen kann und alle Funktionen damit durchtesten kann...

Wobei man schon manchmal stutzig wird, ob Tests überhaupt gemacht werden, ich denke da an den CF Bug bei mehr als 4GB Speicher, wo halt ein Core des CF Gespanns nicht gestartet werden konnte... Bei 8.12er Treiber war das glaub von AMD...

ATi/AMD und nVidia könnten ihren Ingenieuren und Leuten in der Treiberabteilung schon sagen, dass sie die Treiber ausgiebig testen sollten (so wie bei der Quadro Serie). Nur was soll dann die Entwicklung eines solchen Treibers kosten (der dann nicht zu 95 sondern 99% fehlerfrei ist)? Das kann der Kunde am Ende nicht mehr bezahlen...

Jupp, das ist wohl war...
Bei den Quadros bezahlt man ja quasi nur für die Treiber und deren Umsetzung das heiden Geld... Die Hardware ansich ist ja zu 95% identisch der Desktopkarten...
 
ich bezweifle, dass man die logik ändert wird, weil TSMC nicht profitabel produzieren kann...
ist in erste Linie TSMCs Problem, die folglich den Prozess verbessern müssen.
 
Nö, ist noch gar nichts bekannt.

Aber mal ehrlich, gab es schonmal Referenzkühler bei Performance bis Highendkarten die silent waren ?

Nicht wirklich oder ?

Vondemher würde ich mal pauschal "nein" sagen.
 
Der G300 wird trotz 40nm auch nicht wirklich kühler werden, zumal nVidia sicherlich einen Nutzen aus dem kleineren Fertigungprozess ziehen will und die Taktraten entsprechend anpasst.
 
Wann sollen den die Karten ca. kommen da bei ATI der 10. September angekündigt wurde, aber ich eigendlich diesmal wieder Nvidia testen will :)
 
naja icch knn nur von meiner 9800 gt reden und der war höllen laut sogar der mieserable lüfter meiner jetzigen hd 4890 war leiser auf 100%
 

Uiuiui...

Mal schauen...

Kurzer Auszug:

"The problem is that as things currently go, the GT300 looks to about equal a Cypress in performance, but it is about 50% larger. If you assume Cypress is in the 350mm^2 range, a little less than 2x Juniper's 180mm^2, that means at a bare minimum, Nvidia will be at a pretty hefty cost/performance deficit when it finally gets silicon out of the door."
 
Und dies heist auf gut deutsch ?
Danke! Also doch richtig verstanden.
Wenn es so kommen sollte, wiederhole sollte,- konkurriert die HD5870 gar mit einem GT300,- und auch eine sehr schlecht umsetzbare GT300 Dual Karte wäre somit wohl einer HD5870 X² weit überlegen bei der Erfahrung bei ATI und die HD Serie X² Karten angeht.
 
Zuletzt bearbeitet:
doppeöt so groß wie ATIs chip aber nur gleiche leistung ;)

und somit stimmt der kosten/leistungs faktor net ^^
 
Die GT200 Thematik scheint sich zu wiederholen...

Wenn die Leistung bedeutend besser ist als bei den Ati Karten könnte ich das noch verstehen, aber mal schauen...
 
Und dies heist auf gut deutsch ?
Danke! Also doch richtig verstanden.
Wenn es so kommen sollte, wiederhole sollte,- konkurriert die HD5870 gar mit einem GT300,- und auch eine sehr schlecht umsetzbare GT300 Dual Karte wäre somit wohl einer HD5870 X² weit überlegen bei der Erfahrung bei ATI und die HD Serie X² Karten angeht.

stimmt ich hatte ja ganz vergessen, nv hatt ja quasi 0 erfahrung mit dualkarten


hörma auf pls mit dem dummgelaber, thx
 
Wobei ich mich frage woher Charlie wissen will wie schnelle beide Grakas sind... :hmm:

Gut bei der 5870 könnte es sein, da die ersten Redaktionen ihre Review-Karten bereits bekommen haben sollen, aber beim GT300 kann ichs mir beim besten Willen nicht vorstellen.

Grundsätzlich hat er aber recht, die GT300-Die wird bei der spekulierten größe wesentlich teurer sein, vor allem da mit steigender Größe die Yield-Rate sinkt und da bei den Ati-GPUs wesentlich bessere Ergebnisse zu erwarten sind.

Das muss man berücksichtigen wenn man Cahrlies Milchmädchen-Rechnung-Tabelle anschaut, denn die geht ja von ner 100% Yield Rate aus.
 
Es werden bestimmt schon Testsamples im Umlauf sein. Diese sind zwar noch nicht finale Versionen aber man kann ungefähr abschätzen wo es lang geht mit dem G300. Wenn nVidia nun mit dem G300 tatsächlich erfolgreich sein möchte, muss dieser über eine enorme Performance im Vergleich zum RV870 verfügen. Sonst ist der erhöhte Preis durch die Produktionskosten nicht gerechtfertigt.
 
hmpf, immer noch nix neues :(

---------- Beitrag hinzugefügt um 21:53 ---------- Vorheriger Beitrag war um 21:49 ----------

Nö, ist noch gar nichts bekannt.

Aber mal ehrlich, gab es schonmal Referenzkühler bei Performance bis Highendkarten die silent waren ?

Nicht wirklich oder ?

Vondemher würde ich mal pauschal "nein" sagen.

jagut, aber wenn man dran arbeitet, dann sollte man das doch mal hinbekommen die Kühler/Lüfter unter 3 sone zu bekommen....seit der 8er Reihe ist das echt eklig laut geworden.
 
naja die News ist so lala ich bezweifle halt mal sehr stark das es ne brauchbare Verfügbarkeit der normale g300 dieses Jahr noch geben wird

dual wäre dann wohl eher mitte 2010

und wenns schon jetzt ne dual geben soll ist sie entweder extrem abgespeckt oder der g300 wird bei weitem nit so gross wie bisher vermutet


Auch spricht das dafür das sich NV darum sorgt ohne dual hinten drann zu sein gegenüber ATI NV weiss durch Industryspionage sicher paar Sachen merh als die öffentlichkeit damit sie nicht nochmal sowas wie mit dem HD4xxx erleben
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh