nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] [Part 1.1]

Status
Für weitere Antworten geschlossen.
.... Man darf nicht vergessen, dass Deutschland immer noch eine Hochburg des PC-Gamings ist was aber in vielen anderen Teilen der Welt schon ganz anders aussieht.

Dann dürften wir ja nach deiner Aussage den größten Teil der Gamerkartenproduktion geliefert bekommen....sicher?
Woher nimmst du deine Aussage?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Es geht hier nicht um Spiele sondern um den G300.

Meiner Meinung nach sagt der Text in dem ersten Link von Neurosphere eine Menge darüber aus, was nVidia mit dem G300 und den nachfolgenden Produkten vor hat. Zum einen spielt GPGPU eine wichtige Rolle (auch bedingt durch die Tatsache, dass zZt eher professionelle Anwender mit Quadro davon eher profitieren werden als die Enduser/Gamer). Auf der anderen Seite entwicklet sich der Markt ständig weiter. Wer da nicht mithält, braucht sich über die Zukunft keine Gedanken mehr zu machen... (Rasterizierung/Raytracing usw.)
 
Aha. Und wie viele Kernfusions-/Klimamodelle laufen denn aktuell auf Deinem Rechner?

im meinem rechner läuft ein klimamodell: feucht, warm und stickig :fresse:

spaß bei seite, gibts mitlerweile nähere infos zum G300 release? hab hier 400€ liegen und es kribbelt von tag zu tag
mehr. konnte noch nie mit geld umgehen, lange halte ich das warten nicht mehr aus :heul:

überlege schon ne HD5850 zur überbrückung zu holen, aber bei der relativ geringen mehrleistung zu meiner aktuellen
GTX275 wäre das irgendwie sinnfrei...
 
spaß bei seite, gibts mitlerweile nähere infos zum G300 release? hab hier 400€ liegen und es kribbelt von tag zu tag
mehr. konnte noch nie mit geld umgehen, lange halte ich das warten nicht mehr aus :heul:
da könnt ich dir helfen, ich schick dir gern meine bankverbindung. :coolblue:
aber mal ehrlich vorfreude ist doch die schönste freude. :)
auch wenn ati mit den 5000ern nen super job gemacht hat, werd ich warten was nvidia so fabriziert. noch tiefer kann meine gtx260 ohnehin kaum im wert fallen. :fresse:
 
Zuletzt bearbeitet:
im meinem rechner läuft ein klimamodell: feucht, warm und stickig :fresse:

spaß bei seite, gibts mitlerweile nähere infos zum G300 release? hab hier 400€ liegen und es kribbelt von tag zu tag
mehr. konnte noch nie mit geld umgehen, lange halte ich das warten nicht mehr aus :heul:

überlege schon ne HD5850 zur überbrückung zu holen, aber bei der relativ geringen mehrleistung zu meiner aktuellen
GTX275 wäre das irgendwie sinnfrei...

wenn er so schnell wird wie ich denk, leg ma noch 100 dabei ;)
 
Nach den Gerüchten, liegt die schlechte Verfügbarkeit der ATI daran, daß NVidia die 40er Wafer für Ihre Mobile Chips gebucht hat und ATI es schlicht versäumt hat, mehr vorzubestellen (wahrscheinlich haben Sie mit einer früheren Verfügbarkeit des G300 gerechnet).

Was ich mich frage, wo will NVidia den die ganzen Wafer herbringen, wenn die Produktion schon bis aufs äußerste ausgelastet ist?
Sie könnten natürlich die Mobile Produktion zurückfahren, aber angeblich ist dieser Chip äußerst lukrativ für NVidia.

Ich spekuliere immer noch, wohlgemerkt SPEKULIERE, daß G300 Karten erst im 1Q 2010 richtig verfügbar sind.
 
Damit rechne ich auch...
 
watt ? :eek: ein ganzer Tag ohne Post ... es wird Zeit, dass mal wieder Diskusionsstoff kommt^^
 
schon den post von Neurosphere gelesen? die aussage von Jen Hsun Huang, jeder könne Chips bauen - auf die software komme es an, geht mal voll gegen AMD :fresse:

der GT300 wird in der wissenschaft eine große rolle spielen, krebsforschung usw..
 
schon den post von Neurosphere gelesen? die aussage von Jen Hsun Huang, jeder könne Chips bauen - auf die software komme es an, geht mal voll gegen AMD :fresse:

der GT300 wird in der wissenschaft eine große rolle spielen, krebsforschung usw..


So ganz stimmt die Aussage auch nicht, denn sonst wären jetzige AMD CPUs fast genuso schnell in vielen Anwendungen wie die der Konkurrenz (ja, ich weiß, das Beispiel hinkt etwas). Sicherlich hat er damit nicht ganz unrecht, denn wenn man einen super Chip hat aber die Leistung verpufft weil der Chip nicht richtig angesprochen wird, bringt das einen auch nicht weiter.

In der heutigen Zeit ist es aber nicht mehr wirklich wirtschaftlich auch 100% statt 95% der Leistung aus dem Chip herauszuholen indem man die Software und Treiber noch weiter optimiert. Am Ende kostet die Karte paar tausend €s nur weil die Softwareabteilung Monate lang am testen und programmieren ist.
 
schon den post von Neurosphere gelesen? die aussage von Jen Hsun Huang, jeder könne Chips bauen - auf die software komme es an, geht mal voll gegen AMD :fresse:

Ich finds ja auch total überraschend, dass der als CEO von nV gegen AMD wettert. :d
 
Da kann man nur hoffen, dass die nicht zuviel an Forschung denken. Eigendlich müsste der erste Treiber ja schon richtig fluppen. Nicht das wir dann "rumkrebsen" müssen und auf jedweige Optimierungen warten müssen wie bei ATI.
 
Ich finds ja auch total überraschend, dass der als CEO von nV gegen AMD wettert. :d
es steht nur zwischen den zeilen, das finde ich gerade so witzig. erwähnt werden die firmen TI, Qualcomm, Freescale.. von denen ich noch nie etwas gehört habe.

@PCZeus
stimme dir zu, high-tech-chips kann man nicht so leicht nachmachen.
 
es steht nur zwischen den zeilen, das finde ich gerade so witzig. erwähnt werden die firmen TI, Qualcomm, Freescale.. von denen ich noch nie etwas gehört habe.

@PCZeus
stimme dir zu, high-tech-chips kann man nicht so leicht nachmachen.

Du hast von Texas Instruments noch nie gehört?
 
Doch habe ich ;)
TI stellt auch Chips für spezielle Zwecke her und kann sich so auf die Bedürfnisse der Kunden besser einstellen. Wie teuer glaubst du würde ein G300 werden, wenn nVidia damit min. ein halbes Jahr verbringt die Treiber so zu optimieren, damit die GPU auch in jeder Lage die maximale Leistung bringt?
 
Qualcomm und Freescale haben viele Chips in Mobiltelefonen (auch Handys genannt). Eigentlich auch keine kleinen Firmen, allerdings stellen die nicht wirklich High-End Grafikchips her.

Ich hoffe mal, die beeilen sich mit der Karte. Wollte mir demnächst eine ATI oder nV holen, kann aber nicht mehr lange warten. ;)
 
schon den post von Neurosphere gelesen? die aussage von Jen Hsun Huang, jeder könne Chips bauen - auf die software komme es an, geht mal voll gegen AMD :fresse:

der GT300 wird in der wissenschaft eine große rolle spielen, krebsforschung usw..
Gerade der der mit gefakten Dummi Karten rumfuchtelt muss wettern ist schon wiztzig.:d
 
:fresse:

Wie teuer glaubst du würde ein G300 werden, wenn nVidia damit min. ein halbes Jahr verbringt die Treiber so zu optimieren, damit die GPU auch in jeder Lage die maximale Leistung bringt?
sehr, sehr teuer. die gothic 3 entwickler meinten vor 1-2 jahren einen patch zu bringen würde sie ~300.000 € kosten, bei nvidia arbeiten aber mehr und besser bezahlte leute.
 
Auf diese beiden Architekturen werden nähmlich die nächsten 3-4 Graka Generationen der beiden Hersteller aufbauen.

Nicht ganz, die neuen NVs werden nach wie vor auf dem G80 Aufbauen, erst die Folgegeneration wird (laut Gerüchten) eine neue Architektur bekommen...
Der GT300 ist nach wie vor ein aufgeborter G80 + Features um möglichst viel DP Leistung zu erziehlen.

sehr, sehr teuer. die gothic 3 entwickler meinten vor 1-2 jahren einen patch zu bringen würde sie ~300.000 € kosten, bei nvidia arbeiten aber mehr und besser bezahlte leute.

Ne, das ist sicher nicht vergleichbar, PB wollte einen ~1GB großen Patch für ein Game rausbringen, was in Summe ca. 3,5GB groß ist (inkl. aller Sounds, Videos, Texturen usw.)
Das lässt schon viel eher vermuten, das die hätten sogut wie alles an Programmcode bei Gothic 3 irgendwie überarbeitet oder neu erstellt...
Inkl. der Zeit fürs Debuging usw. kommt das in Summe sicher hin.

Das PB aber durchaus auch anders konnte, sieht man ja an Risen, scheinbar sind die Leute doch nicht "unfähig" brauchbare Software zu erstellen, sondern es lag mehr oder weniger komplett am Zeitdruck.

Zumahl Softwareentwicklung immer etwas ist, wo sich vorraussichtliche Fertigstellungstermine sehr schlecht vorraussagen lassen.

Ebenso bleibt bei dem Vergleich zu sagen, das PB damals von Gothic 3 gelebt hat, sprich wenn es sich nicht verkauft, gibts keine Kohle für die Jungs... Bei NV läuft das anders, die Arbeiter dort bekommen auch ihr Geld, wenn NVs next Gen. Karte nix brauchbares im Gamingbereich wird, da eben das Geld eher vom Profibereich und von der Einstiegsklasse/Mittelklasse kommt. Auch bekommen die Jungs nicht mehr Geld, wenn die Karte einschlägt wie ne Bombe...
Ebenso spielt die Treiberentwicklung im privat Einstiegs und Mittelklasse Bereich eher eine untergeordnete Rolle, weil die meisten User sowieso nie Treiberupdates fahren...
 
Zuletzt bearbeitet:
Spannung!

Also hallo erstmal in diesem schicken Forum!!! :wink:

Bin aktuell auch schon verdammt gespannt wie das so wird mit dem g300!
Würde mir nämlich auch einen zulegen, ich Frage mich nur,
warum dauert das solange bis die vernünftige/verlässliche Infos rausbringen!!!
Ich will endlich wissenwie schnell das Ding genau sein wird (von den Daten)
und ob es sich lohnt darauf zu warten...

das Ding soll bei mir nämlich 2 Monitore befeuern 2x 1680x1050, und ich hoffe, das das Ding dafür gescheit Leistungsstark genug wird!!!
Die HD5870 sollte das ja gerade noch abkönnen.
 
hallo im Luxx.

also gewisse Eckdaten kann man sicherlich schon abrufen und die Karte wird alles andere als langsahm. Und für zwei kleine 22" TFTs reichen auch schon ältere Modelle locker. Die 5870 reicht für bis zu 24 Bildschirmen und sollte auch für dich vollkommen ausreichen.
Greetz Grinse
 
das Ding soll bei mir nämlich 2 Monitore befeuern 2x 1680x1050, und ich hoffe, das das Ding dafür gescheit Leistungsstark genug wird!!!
Die HD5870 sollte das ja gerade noch abkönnen.

Da zum zocken immer nur ein Monitor befeuert wird, wirst du wohl nur die Power für einen deiner beiden Monitore nutzen können.
Es sei denn NV bringt ein ähnliches Feature wie Eyefinity oder aber es tauchen von heute auf morgen sehr viele Games auf, die auf einem Dual Monitoring Support bieten...
 
@XEON-Power
Nunja, das die Technik auch viele andere Bereiche unterstützt und hilft ist klar.
Gerade im Bereich der Forschung.
Nur kann man das sicher nicht alles auf Nvidia münzen.
 
@XEON-Power
Nunja, das die Technik auch viele andere Bereiche unterstützt und hilft ist klar.
Gerade im Bereich der Forschung.
Nur kann man das sicher nicht alles auf Nvidia münzen.
wenn AMD entsprechende software entwickelt können sie auch gern mitmachen.
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh