nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] [Part 1.1]

Status
Für weitere Antworten geschlossen.
könnt ihr mal bitte damit aufhören NV totzuschreiben !?!!
Das macht ja garkeinen Spaß mehr hier mitzulesen^^
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wie überraschend, die Aussagen von nVidia. Ist wohl genauso glaubwürdig bzw unglaubwürdig wie Charlie.

Wohl eher genauso unglaubwürdig. Wie gesagt, von Charlie halte ich im Bezug auf Infos über NV nicht viel, alledings hat er in anderen Themen auch nicht wirklich was zu bieten.

NV hat übrigens seine ganze Gerüchteküche von wegen EOL usw dementiert, die Hersteller auch. Mehr kann man dazu nicht sagen sondern kann nur zugucken was denn nun passiert.

Motkachler schrieb:
Ich hoffe nur nicht das tatsächlich der Fermi nur im professionellen Bereich taugen wird. Alles wa NV bisher rausgelassen hat sieht aber danach aus. Denn bei dem geringen Anteil der Kunden die sowas kaufen würden könnte das Licht sehr schnell ausgehen bei NV.

Glaubst du das NV einen großen Markt, den sie mit groß gemacht haben, links liegen lässt um sich auf einen kleinen zu konzentrieren?
 
@Nerosphere
Ich hoff es nicht aber warum macht NV keine aussagen über die Game leistung wenn sie wirklich gut ist beim G300. Sondern nur das geblubber über die Leistung bei professionellen Anwendungen. Gibt für mich keinen ersichlichen Grund dafür da die 5 er serie von AMD ja schon da ist. Ausser das Ding bringt nicht in Games das was viele glauben.
 
Zuletzt bearbeitet:
auch mit finalen Treiber wird sich daran nichts ändern.

---------- Beitrag hinzugefügt um 09:32 ---------- Vorheriger Beitrag war um 09:13 ----------



wer zum Henker nutzt bitteschön eyefinity? Die 5870 ist doch eigendlich eine Midrangekarte und eyefinity gehört da eigendlich garnicht rein. Auf High-End Karten ok. Auch wenn sie schon die Power hat, aber wer leistet sich mindestens 3 Monitore, der sich ne Midrangekarte kauft???

Die restlichen Sachen finde ich alle gut und schön was ATI da von sich gegeben hat und bin gespannt wie der GT300 gegen die x2 wittern kann. Dieses weitaus ruhigere Spieleverhalten wie es alle hier berichten macht einem auch keine Lust auf ein CF mehr. Dementsprechend wartet alles auf den GT300 weil EINE 5870 irgendwie noch etwas zu wenig ist und man höchstwahrscheinlich mit der neuen x2 wieder vom Regen in die Traufe kommt was MR und dementsprechend das unruhige Spieleverhalten angeht.

Wenn wir dann alle mit bester Hardware gespeist sind, sollte erstmal wieder der Spielemarkt wieder in die Füße kommen. Da scheint ja auch irgendwie tote Hose zu sein. Zumindest sind solche Spiele nicht in Sicht, die die GTX380 in die Knie zwingt. Was aktuell auf dem Markt ist kann man alles @ max in HD zocken. Lediglich für shift fehlt noch der Treiber. Dirt2 und CoD:MW2 werden auch mehr als flüssig laufen...und die sind noch nicht draußen^^Die Cryengine3 lasse ich bewusst erstmal aussen vor.

Das immer geil wenn leute sagen , die schnellste single GPU karte sei eine mid range karte, was ist dann der 280? lowend zum teuren preis :d
 
@Nerosphere
Ich hoff es nicht aber warum macht NV keine aussagen über die Game leistung wenn sie wirklich gut ist beim G300. Sondern nur das geblubber über die Leistung bei professionellen Anwendungen. Gibt für mich keinen ersichlichen Grund dafür da die 5 er serie von AMD ja schon da ist. Ausser das Ding bringt nicht in Games das was viele glauben.

1. Keine Ahnung wann der "Neue" nun wirklich erscheint.
2. Keine Ahnung welche Marketing Strategie nV verfolgt aber:
3. hätte man wohl beides gleich vorgestellt wäre seine Leistung im Professionellen Sektor wohl schnell nichtbeachtet von den Medien unter den Tisch gefallen.

Von daher, am besten nicht immer gleich Mutmaßungen über den Untergang von Firmen mit 5000 Arbeitnehmern machen die auf Gerüchten basieren die ziemlich wahghalsig sind und nicht davon ausgehen das NV nicht genug Kapital hätte um auch mal ne Schlappe durchzustehen, sie FX.
 
wer zum Henker nutzt bitteschön eyefinity? Die 5870 ist doch eigendlich eine Midrangekarte und eyefinity gehört da eigendlich garnicht rein. Auf High-End Karten ok. Auch wenn sie schon die Power hat, aber wer leistet sich mindestens 3 Monitore, der sich ne Midrangekarte kauft???

Stell dir vor, es gibt auch Menschen, die 3 Monitore nicht nur zum daddeln nutzen. Und wenn doch, evtl. nicht mit allen Einstellungen.;)
 
@Tankman
Ja ich Mechanical desktop und Inventor
Auf einem Menü auf einen Zeichnung auf einem 3D das macht laune und funzt top :love:.
Hoffe mal das das mit dem G300 auch funzt.
 
Zuletzt bearbeitet:
gut das Du es ansprichst. Die wurde um 27 % erhöht. Wäre hier das Limit, dann dürfte die Karte nirgends um diesen Prozentsatz schneller sein als ihre Vorgängerkarte.

Zum Thema Speicherbandbreite gibts schon einiges im Technikthread, fakt ist, das man hier keine Pauschalaussgen treffen kann...

Ich kann dir ne Anwendung schreiben, die sogut wie gar keine Last auf den Shadern erzeugt, dafür aber extrem Speicherbandbreiten limitiert ist, ebenso wie ich dir ne Anwendung schreiben kann, die massiv an den Shadern hängt, dafür aber mit ganz ganz wenig Speicherbandbreite auskommt...

Ergo, das ganze (also, was limitiert wo) hängt massiv von der Anwendung ab und lässt sich nicht pauschalisieren...

@GPU erstezt CPU: meiner Meinung nach wird die GPU zwar nicht die CPU ersetzen aber dafür Hilfestellungen leisten (wie z.B. KI, Wegfindung in Spielen usw.) Bis dahin wird noch ein bisschen Zeit vergehen - d.h. die Spieleentwickler müssen schauen, dass sie die Software entsprechend der geg. Hardware anpassen und das vorhandene effizient nutzen. Die Grundvoraussetzungen sind schon vorhanden.

Die Frage ist doch, macht es Sinn der GPU noch weitere Aufgaben zu überreichen? Gerade wenn man mal vom HighEnd Markt weggeht, der ja weit kleiner ist, als die Mittel- und Unterklasse, dann stellt man fest, das quasi alle Performance der Karte für die Games verbraten wird...

Weitere Aufgaben auf die GPU zu übertragen, würde die Games noch schlechter (optisch und Leistungstechnisch) aussehen lassen...

wer zum Henker nutzt bitteschön eyefinity? Die 5870 ist doch eigendlich eine Midrangekarte und eyefinity gehört da eigendlich garnicht rein. Auf High-End Karten ok. Auch wenn sie schon die Power hat, aber wer leistet sich mindestens 3 Monitore, der sich ne Midrangekarte kauft???

Ne, gerade im Einstiegsklasse und Mittelklassebereich macht es viel mehr Sinn für günstig Geld support für mehr als 2 Monitore zu bieten...
Speziell wenn man auf das Firmenumfeld abzielt.

Wenn ich da bei mir auf Arbeit schaue, da haben quasi alle Festrechner mindestens 2 Monitore, das Arbeiten geht einfach entspannter von der Hand, wenn man die Fenster nicht immer hin und her klicken muss...

Und alle Rechner mit Onboard GPU werden da durch ein kleinst Modell von NV oder AMD zum Dual Monitoring Support überredet, würde die Karte 3 Ausgänge bieten, hätten einige Leute auch 3 TFTs dran...

Die restlichen Sachen finde ich alle gut und schön was ATI da von sich gegeben hat und bin gespannt wie der GT300 gegen die x2 wittern kann. Dieses weitaus ruhigere Spieleverhalten wie es alle hier berichten macht einem auch keine Lust auf ein CF mehr. Dementsprechend wartet alles auf den GT300 weil EINE 5870 irgendwie noch etwas zu wenig ist und man höchstwahrscheinlich mit der neuen x2 wieder vom Regen in die Traufe kommt was MR und dementsprechend das unruhige Spieleverhalten angeht.

Die ganze MR Problematik ist doch auch viel zu heiß gekocht... Ganz ehrlich, es gibt tausende User von Dual GPU Karten oder SLI/CF Systemen, die davon überhaupt nix mitbekommen.
Ebenso gibts die "Probleme" schon seit den PCIe Anfängen, wo erste Karten das beherschten... Da hat keiner Gemeckert oder fand es schlecht...

Erst als irgendjemand die Frametimes untersucht hat, fingen alle an zu schreien und zu meckern... Und viel schlimmer noch, selbst die Leute, die nie derartige Systeme besessen haben, meckern mit (unbegründet)

Von daher, am besten nicht immer gleich Mutmaßungen über den Untergang von Firmen mit 5000 Arbeitnehmern machen die auf Gerüchten basieren die ziemlich wahghalsig sind und nicht davon ausgehen das NV nicht genug Kapital hätte um auch mal ne Schlappe durchzustehen, sie FX.

Neja, bei der FX war NV ja in DX8 Games immernoch ganz oben dabei, einzig in DX9 Games (welche damals noch recht selten waren) konnte ATI deutlich vorbei ziehen...
Und sooo schlecht waren die FXen nun auch nicht... ;)
 
Dementi: Nvidia zieht sich nicht aus dem High-End-Markt zurück

Nvidia hat erwartungsgemäß Berichte zurückgewiesen, wonach sich die Firma aus dem High-End-Markt für Grafikkarten zurück ziehe. Entsprechende Meldungen gingen gestern durchs Internet. (Thilo Bayer, 08.10.2009)

Dementi: Nvidia zieht sich nicht aus dem High-End-Markt zurück

Dementi: Nvidia zieht sich nicht aus dem High-End-Markt zurück [Quelle: siehe Bildergalerie]
Nvidia hat auf die Welle von Falschmeldungen reagiert, die gestern von der Webseite Semiaccurate ausgingen und auf diversen anderen Webseiten ohne kritisches Nachfragen weitergetragen wurden. "Der Bericht von SemiAccurate ist falsch. NVIDIA wird auch weiterhin High-End Grafikkarten der GTX Serie produzieren und vertreiben", lautet das Statement, das wir direkt von Nvidia bekommen haben.

Quelle : http://www.pcgameshardware.de/aid,6...-dem-High-End-Markt-zurueck/Grafikkarte/News/
 
Noch besser:
http://www.gamestar.de/hardware/news/grafikkarten/1959497/twitter.html
;)

fdsonne schrieb:
Neja, bei der FX war NV ja in DX8 Games immernoch ganz oben dabei, einzig in DX9 Games (welche damals noch recht selten waren) konnte ATI deutlich vorbei ziehen...
Und sooo schlecht waren die FXen nun auch nicht...

Trotzdem wurde sie nicht in dem Maße verkauft wie gewünscht, weil sie die hohen Erwartungen nicht erfüllte und ATI mit der 9xxxer Reihe und vor allem der 9800XT gut aufgestellt war.
 
Wer zum Henker kommt auf die ernsthafte Idee, dass sich nVidia aus dem High-End Markt zurückzieht...
 
selbst wenns wr geweden wäre hätt ich mcih schon aus prinzip 2 GTX 295 besorgt statt ne HD 58xx ....:asthanos:
 
Es kommt daran, dass manche nicht richtig verstehen was hinter dem Gelesenen steht.

Ich denke sie haben es von hier. http://winfuture.de/news,50429.html

Es steht, dass Nvidia aus jetzigem HighEnd Markt verschwindet, da die jetzigen HighEnd Grafikkarten zu teuer zu produzieren sind, weil RV870 wenn sie mehr verfügbar werden, den Preis mehr nach unten drücken werden. Und bevor man weiter die GTX285 und GTX260 Grafikkarten proziert, stoppt man jetzt die Produktion, um nicht in ein paar Wochen für weit weniger verkaufen zu müssen. Für Nvidia ist jetzt schon wenig profitabel GTX285 und GTX260 zu produzieren, später nur noch mit deckem Minus.

Manche spekulieren mit dem Untergang von NV:fresse: Aber keinem finanziellen, eher der Ego wird stark verletzt werden.
 
Es kommt daran, dass manche nicht richtig verstehen was hinter dem Gelesenen steht.

Ich denke sie haben es von hier. http://winfuture.de/news,50429.html

Es steht, dass Nvidia aus jetzigem HighEnd Markt verschwindet, da die jetzigen HighEnd Grafikkarten zu teuer zu produzieren sind, weil RV870 wenn sie mehr verfügbar werden, den Preis mehr nach unten drücken werden. Und bevor man weiter die GTX285 und GTX260 Grafikkarten proziert, stoppt man jetzt die Produktion, um nicht in ein paar Wochen für weit weniger verkaufen zu müssen. Für Nvidia ist jetzt schon wenig profitabel GTX285 und GTX260 zu produzieren, später nur noch mit deckem Minus.

Manche spekulieren mit dem Untergang von NV:fresse: Aber keinem finanziellen, eher der Ego wird stark verletzt werden.

Alt und falsche Quelle:coolblue:, aber sie steht in dem Artikel.

Hier mal was neues zum lesen:
http://forums.hexus.net/hexus-net/172654-opinions-look-back-nvidias-gtc-3.html#post1791507
 
oh man, dafür das das nen nvidia mitarbeiter ist, spricht der aber viel über den gary von AMD. sowas lustiges hab ich schon lange nicht mehr gesehen
 
Ihc glaube, der G300 wuird etwa so schnell wie der rv870. Grundsätzlich ist der fermi ein G80, mit GPGPU erweiterungen. Aber die sind für spiele nicht wichtig. Somit ist das was für spiele entwickelt wurde noch ein G80, sowie der rv870 noch ein r600 ist. Somit glaube ich an eine ähnliche leistungssteigerung beim fermi wie beim rv 870, so ca. 60%. Alöso wird die 380 gtx die charts wieder anführen, aber das zu einem hohen preis. die 360 gtx wird sich wohl ein duell mit der 5870 leisten, 5850 und drunter haben erstmal keine konkurrenz.

Bei ähnlkicher Transistorenzahl, wenn man den l2 cache und andere GPGPU features entfernt düfte man in etwas gleich auf sein.

SOmit kann der g300 gegen den rv870 wieder ne P/L schlacht anzetteln, mal sehen wer gewinnt.

Die neue Generation ist also schon ne revolution, aber eher für den gpgpgu berreich, die gamersparte wird wohl den üblichen performanceboost haben, nicht mehr undnicht weniger.

ATI hat ja auch noch ein paar kugeln im lauf, die 5890 und die 5870 x2, sowie wahrschienlich preissenkungen bei der 5870 und 5850. dann noch finale treiber, mal gucken was man da noch an leistung rausholen kann, sowie ein duell für das, wofür sie gemacht sind: DX11. da ist die auswahl ja noch sher bescheiden, wir werden sehen wer da beser ist.

An alle die glauben das der g300 DAS leistungsmonster wird, denkt doch mal nach, der g300 wird nicht mehr als 2 millionen transistoren haben, wenn man das GPGPU gedöns weglässt, das ist nicht mehr als ATI, aber ATI war bei gleichem transistoren verhältnis in den letzten generationen schneller, somit muss nvidia sogar erstmal wieder aufholen. auch bei der packdichte sind sie hinterher.

SOmit bezweifle ich, das nvdia neben einem sher guten gpgpu chip, der einführung von 40nm und gddr5 auch noch einen chip entwickelt hat, der den rv870 so einfach in die tasche steckt. Nvidia ist gut, keine frage, aber sind sie wirklich soooooo gut?

ach und ich hab ne 8800gt drin, also kein fanboy-gelaber, bitte.
 
Zuletzt bearbeitet:
Sorry Zocker, aber lies mal bitte was du da für nen Müll geschrieben hast. Deine Schätzungen die unabhängig von der Leistung sind, sind an den Haaren herbei gezogen und teilweise grob falsch. Und du wirst genauso wie jeder andere warten müssen wie gut oder schlecht sich der "Neue" von NV gegen die Konkurenz von ATI schlagen wird.
 
Ich wollt ma ein bissel raten, so unwahrscheinlich find ich das net, ich bezweifle das NVida in einer generation die große GPGPU und Gamer-GPU generation erfindet und das auch noch zu einem bezahlbaren preis, selbst nvdia ist halt nicht soo gut, jedenfalls nicht wenn sie auch noch andere dinge mit einbeziehen mussten wie dx11 40 nm und gddr5.

wenn man da P/L technisch net zu schelcht dastehen will aber kostendeckend arbeiten will, kann man keine UNSUMMEN in die forschung stecken, irgendwo ist halt schluss wenn das ganze auch gewinn abwerfen soll. Und GPGPU dürfte genug gekostet haben, von daher glaube ich das man bei der gameperformance net zuu sher übertreiben sollte was schätzugen angeht.
 
Genau der G300 muss schneller weden. Denn teurer wird er mit sicherheit schon wegen der grösse. Sonst wärs bitter für NV.
 
GPGPU ist im Prinzip ja kein Problem bei der heutigen Architektur, dort muss man also nur optimieren und nicht komplett neu Entwickeln, die Einheiten waren ja schon da. Zum anderen frisst der Cache bei der größe kaum Transistoren, zusätzlich zum DX11 Aufgebot sind eh nur 16kb L1 je SIMD und 48kb L2 je SIMD zusätzlich auf dem Die.

Außerdem solltest du dich mit eigenen Schätzungen doch mehr zurück halten wenn du die von anderen nicht gerne hörst.
 
Naja, sowas von wegen 3-mal so schnell wie rv870, da muss ich mir schon ddie augen reiben, onst find ich es eigentlich net so schlimm, is vllt. ein bissel falsch rüber gekommen.

Nein, es sind auf noch 768 kibyte cache auf dem fermi-chip. der kostet schon ordentlich transistoren, aber der g300 wird den ja nicht haben und andere dinge auch nicht, somit denke ich shon, das man beim g300 deutlich unter 3 miliarden transistoren bleiben wird.


Ja, aber mehr als 20% über 5870 kann es fasst net werden, ich denke der g300 ist ein ähnlicher fortschritt wie der rv 870, gpgpu jetzt außen vor. im gamingbereich dx11 integration und halt normale verdoppelung (512 zu 240 shadern ist etwas mehr als verdoppelung, ich weiß) und verbessrung von rops shadern usw. ich denke es wird so aussehen wie bei der jetzigen generation, zumindest leistungstechnisch.
 
Zuletzt bearbeitet:
Der GT200 hatte noch einige Altlasten vom G80 Design, alleine schon aus der Sicht ist eine Leistungsbemessung vom "Neuen" von der bisherigen Situation garnicht wirklich möglich.
 
Hardware Tesselation soll der G300 aucht haben wie sich das bei DX11 auswirkt weis man
auch noch nicht muss mann halt abwarten.
 
Der GT200 hatte noch einige Altlasten vom G80 Design, alleine schon aus der Sicht ist eine Leistungsbemessung vom "Neuen" von der bisherigen Situation garnicht wirklich möglich.

Und auch der g300 basiert noch auf dem g80, somite werden gewisse architekturebedingte altlasten auhc so in etwa bestehen bleiben, denke ich.
 
Nein, es sind auf noch 768 kibyte cache auf dem fermi-chip. der kostet schon ordentlich transistoren, aber der g300 wird den ja nicht haben und andere dinge auch nicht, somit denke ich shon, das man beim g300 deutlich unter 3 miliarden transistoren bleiben wird.

1. 768 /16 =?
2. 768kbit Cache kosten von den Transistoren her so gut wie garnichts.
 
"ermi-Fütterung: Cache und RAM
Ein eher cleverer Trick ist die Aufteilung des Caches der einzelnen SIMDs. Physikalisch vorhanden sind 64 kiByte pro SIMD/Streaming Multiprocessor. 16 kiByte davon sind fest als Shared-Memory (wie schon bei G80 und GT200) und 16 kiByte als Level1-Cache konfiguriert - die restlichen 32 kiByte können (vermutlich in Blöcken von 16 kiByte) frei einer der beiden Nutzungsmöglichkeiten zugeordnet werden: Möglich sind also 16k L1 und 48k Shared-Memory oder umgekehrt. DirectX 11 erfordert beispielsweise 32 kiByte Shader-Memory.

Der G300 mit Fermi-Architektur bekommt außerdem einen voll-kohärenten Level-2-Cache mit 768 kiByte Kapazität - das entspricht 48 weiteren kiByte pro SIMD-Einheit."

Quelle: http://www.pcgameshardware.de/aid,6...re-Bilder-und-Informationen/Grafikkarte/News/

er hat also sehrwohl noch mal extra l2 cache. und genau der bringt in games MAl garnix und wenn man sich den dieshot bzw. die zeichungen anguckt, dann ist in der mitte genau dieser l2 cache und der belgt recht viel die-fläche.
 
Zuletzt bearbeitet:
Den L1 und L2 Cache hab ich doch erwähnt, von fest zugewiesenen Cache hab ich nicht gesprochen.

Trotzdem macht selbst 8MB Cache den Kohl nicht Fett, schau doch mal wieviel Cache deine CPU hat und wieviel Transisoren.
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh