nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] [Part 1.1]

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hab da mal aus dem HD6K Speku Thread was aufgeschnappt - obs aber 100% der Wahrheit entspricht, kA !
Mit Sicherheit nicht. User AlexQUAD23 scheint sehr nVidia affin zu sein, um es mal vorsichtig auszudrücken. Und dann noch so einen offtopic Käse im RV970 Thread posten. 89% Yields sind jedenfalls völlig illusorisch. Die wird vermutlich nicht mal Intel nach fast 2 Jahren 45 nm Fertigung erreichen. Und dann noch PCIe 3.0. Alles klar. :rolleyes:
Man sollte beim GT300 also weiterhin mit dem schlimmsten rechnen. Niedrige Yields und Verfügbarkeit frühestens irgendwann 2010. Wenn es anders kommen sollte, umso besser für nVidia.
 
Wir müssen abwarten. Wenn NV es geschickt gemacht hat und nicht einfach nur alle Einheiten verdoppelt wie ATI es tat werden sie einen verdammt guten Chip im Vergleich bringen. Hoffentlich ist die Leistung für GPGPU auch im normalen Grafikalltag nutzbar.
 
Stimmt. Auch die Geforce 3 war von der Performance her nicht die beste, aber bot halt völlig neue Technik (sie war nicht immer schneller als die Geforce 2 Ultra).

Ich bezweifel aber das NV einen solchen Fehler wiederholt. Für die FX wurde damals ja auch im vorfeld unheimlich die Werbetrommel gerührt.
 
ja aber NV konnt sich oft , wie ATI auch , erst mit der 2ten ganz neuen generation absetzen

GF2 --> GF3 ( da kamm der richtige sprung erst mit der GF4)
GF4 --> FX5800 ( die 6800 war dann wieder hammer im vergleich zur alten technik)
 
Es gibt weiter berechtigte Zweifel, dass der Nvidia-Chip rein leistungsmäßig mit AMDs Dual-Lösung wird mithalten können. Sicher scheint jedoch, dass der Abstand kleiner ausfallen wird als noch zwischen HD 4870 X2 und GTX 285 und dass der GT300 im direkten Vergleich deutlich weniger Energie benötigen wird.

hö? erst sagen die der GT300 wird nicht mithalten und bei Satzende wird schonwieder gegenteiliges behauptet !? oder habe ich hier was missverstanden?
Für mich heisst das der GT300 erreicht annähernd die Leistung der x2 bei deutlich weniger Verbrauch.
Die x2 mit nem geschätzten Verbrauch von 386W und dann GT300 knapp über 300. Wenn noch das Kühlsystem stimmt könnte man auf eine ebenfalls leisere Karte hoffen :P
 
Geforce 4 war aber auch keine neue Architektur und die 6800 hat auch nichts mehr mit der Geforce FX gemein.
 
hab nur gesagt das oft bei einer neuen DX einführung und technik , sich die erste Generation sich nicht so von der leistungsstärksten karte der letzten generation absetzen konnt ;)


was in dem fall die 295 ist!
 
Zuletzt bearbeitet:
was aber auch viel mit Treiberoptimierung zusammenhängt ;)
 
Was ich mich frage, wer braucht die Leistung, welche Cpu wird benötigt, damit der Teufel nicht unterfordert ist ^^
Im Prinzip reicht ja eine 5870er dicke
 
hö? erst sagen die der GT300 wird nicht mithalten und bei Satzende wird schonwieder gegenteiliges behauptet !? oder habe ich hier was missverstanden?
Für mich heisst das der GT300 erreicht annähernd die Leistung der x2 bei deutlich weniger Verbrauch.
Die x2 mit nem geschätzten Verbrauch von 386W und dann GT300 knapp über 300. Wenn noch das Kühlsystem stimmt könnte man auf eine ebenfalls leisere Karte hoffen :P

Das soll heißen, dass der G300 wohl langsamer ist, aber nur ein wenig als Hemlock. ;)

Das wär echt prima, aber dann müsst NV zusätzlich zu der Rohpower auch die Taktraten ganz schon hoch reißen.

Die X2 ist sicherlich auch locker 20% flotter. Hm, andererseits - die 4870er X2 ohne oder mit max. 4xAA auch nur 25 - 30% schneller als eine GTX 285, aber halt mit 8xAA bis zu 60% in FullHD.

Auf jeden Fall sollte der G300 bei 8xAA nicht so stark einbrechen, wie der G200.


Es könnte ja auch sein, dass der G300 nur 225 Watt braucht - aber die genauen Werte kennen nur die Grünen selbst.



Was ich mich frage, wer braucht die Leistung, welche Cpu wird benötigt, damit der Teufel nicht unterfordert ist ^^
Im Prinzip reicht ja eine 5870er dicke

Also da wir ja gesehen haben, dass beim RV870 selbst ein i7 @ 4 GHz bis FullHD + 8xAA limitiert, braucht der G300 sicher noch mehr CPU Power, um seine volle Kraft auszuspielen.

Ein i9 @ 5 GHz wär sicher nicht schlecht ! :fresse:
Wobei natürlich optimal Sandy Bridge (Core i11 oder wieder neues Namensschema) mit vielleicht nativem Octacore und neuer Architektur sein wird. ;)
Aha, dann wird man auch den SSE Nachfolger AVX vorstellen, der ähnlich einschlagen soll, wie SSE damals beim Pentium - aber das nur am Rande.


Wieder zurück zum G300. ;)
 
Zuletzt bearbeitet:
hab mit meiner X2 trotzdem nicht mit 8x gespielt..bei full HD auflösung reicht mir 4x zudem sind es dann doch noch ein paar fps gewesen die auf der strecke geblieben sind.
 
Das wär echt prima, aber dann müsst NV zusätzlich zu der Rohpower auch die Taktraten ganz schon hoch reißen.

Nicht unbedingt. Bei einer neuen Architektur ist dies nicht unbedingt ein muss für viel Rohpower. Allerdings wissen wir ja nicht wies um jene gestellt ist, also ob sie wirklich im großen und ganzen neu ist.



Also da wir ja gesehen haben, dass beim RV870 selbst ein i7 @ 4 GHz bis FullHD + 8xAA limitiert, braucht der G300 sicher noch mehr CPU Power, um seine volle Kraft auszuspielen.

Mit der Rohleistung kann man dann aber auch schon wieder die Bildqualität hoch reißen und ist dann bald wieder am GPU-Limit. Frameraten im dreistelligen Bereich bringen niemanden etwas.

Ein i9 @ 5 GHz wär sicher nicht schlecht ! :fresse:
Wobei natürlich optimal Sandy Bridge (Core i11 oder wieder neues Namensschema) mit vielleicht nativem Octacore und neuer Architektur sein wird. ;)
Aha, dann wird man auch den SSE Nachfolger AVX vorstellen, der ähnlich einschlagen soll, wie SSE damals beim Pentium - aber das nur am Rande.

Nachdem bei Sandy das "on-die" Ram offenbar weggefallen ist und er scheinbar nur ne Evo mit AVX wird bezweifel ich das er so nen bringer wird, er wird wohl mehr ein ähnliches Schicksal wie Bloomfield teilen müssen.
Bei Haswell siehts da schon wieder anders aus, aber das wär alles was für nen eigenen Thread, kannst ja ma einen auf machen ;)
 
Klar - das mit dem CPU limit ist net sooo krass - unterschied sind in 1920x1200 teils halt nur ein paar fps von Yorkfield auf Bloomfield / Lynnfield , aber zur Not kann man ja 16xAA oder SSAA reinhauen - zumindest bei DX9 Games.

Stimmt schon, dass man bei ner guten Architektur nur bedingt hohe Taktraten braucht - aber, wenn man in etwa mit der HD 5870 X2 gleichziehen will, mit ner Single GPU, wäre dies sicher trotz weitgehend neuer bzw. stark überarbeiteten Architektur von Nöten - schätze ich.


Nun ja, lassen wir uns über die Leistung der G300 dann in finalen Tests - hoffentlich schon Ende November - überraschen. :)



Ach so, Intel hebt sich die Sahnestückchen für später auf - nun ja, der Geldbeutel muss ja gestopft werden - am besten halt gleich wieder mit nem neuen "Super-Sockel" ! :fresse:

Ach nee...hab derzeit keine Lust nen (großen) Speku Thread zu eröffnen und später im Studium wohl auch net soviel Zeit diesen ordentlich zu führen. ;)

---------- Beitrag hinzugefügt um 09:19 ---------- Vorheriger Beitrag war um 09:15 ----------

Mit der Rohleistung kann man dann aber auch schon wieder die Bildqualität hoch reißen und ist dann bald wieder am GPU-Limit. Frameraten im dreistelligen Bereich bringen niemanden etwas.


Für unsereins nicht, aber für "Pro" - Gamer schon. Die "merken" ja in CS:S und so, wenn die fps unter 120 gehen ! :d :fresse:

Wobei es dann sicherlich kein CS:S braucht (ist eh CPU limitiert die Source Engine - wobei L4D schon mehr Power verlangt, dank einiger neuer Effekte),
um nen G300 und i7 auszulasten - eher z.B. Flashpoint 2 oder ArmA II @ Max. oder so.


Gut - soviel dazu, zurück zum guten "alten" G300 ! :d
 
Zuletzt bearbeitet:
Edgecrusher86 schrieb:
Ach nee...hab derzeit keine Lust nen (großen) Speku Thread zu eröffnen und später im Studium wohl auch net soviel Zeit diesen ordentlich zu führen.

Deswegen mache ich keinen auf ;)

Gut - soviel dazu, zurück zum guten "alten" G300 !

Das mit dem Release ist ne verzwickte Sache. Auf so mancher Seite wird der G300 schon als Papiertiger abgetan, zumindest vor Anfang nächsten Jahres.

Lustig finde ich allerdings die Gerüchte von wegen RV970 in 32 oder 28nm Anfang 2010 :rolleyes::lol::lol:
 
Es könnte ja auch sein, dass der G300 nur 225 Watt braucht - aber die genauen Werte kennen nur die Grünen selbst.

habe wohl irgendwo in ner Verlinkung hier gelesen, dass der GT300 die 300W Grenze im Load wahrscheinlich nicht einhalten könne. Das wäre denkbar wenn sie die Taktraten hochsetzen müssen was wiederum nichts gutes in Sachen Lautstärke verheißen würde.


...noch am Rande ne Frage....wasn das fürn Gefasel von full HD zockerei? Full HD kenne ich nur vom TV. Seit wann kann man ein Game in SD oder HD zocken :confused:
 
@Grinsemann
FullHD bezieht sich wohl meist darauf, dass man in der FullHD-Auflösung (1920x1080) flüssig zocken kann
 
habe wohl irgendwo in ner Verlinkung hier gelesen, dass der GT300 die 300W Grenze im Load wahrscheinlich nicht einhalten könne. Das wäre denkbar wenn sie die Taktraten hochsetzen müssen was wiederum nichts gutes in Sachen Lautstärke verheißen würde.


...noch am Rande ne Frage....wasn das fürn Gefasel von full HD zockerei? Full HD kenne ich nur vom TV. Seit wann kann man ein Game in SD oder HD zocken :confused:

pc an nen full hd lcd tv oder monitor, full hd heisst doch nur 1920x1080 auflösung, mehr nicht
 
meine Fresse, immer eure dramatischen Umschreibungen...alle furznase lang erfindet hier irgendjemand was neues^^ :fresse:

danke für die Info

€dit: gibts überhaupt noch Röhrenmonitore???
€dit2: das erinnert mich so an die Zeit wo Buntfernsehen schon normal geworden ist und einer umschreibt es als was unglaublich tolles^^
 
Zuletzt bearbeitet:
Da gibts auch schon wieder was Neues, Interessantes zum Topic auf fudzilla.
Sie gehen davon aus, dass heute neue offizielle Informationen zum neuen Chip (wie auch immer er nun heissen mag) von Nvidia veröffentlicht werden.

Verdammt, mich hats wohl jetzt echt erwischt. :fresse:
 
Zuletzt bearbeitet:
We expect that Nvidia CEO Jensen Huang will demonstrate the card at the GTC keynote that should start at 1.00 PM Pacific time or roughly 10 PM Central European time.

...

We will know more after todays keynote but we can confirm that the card is real and that Nvidia will talk about it today. This is the reaction that we all expected, something that might shadow the sales of Radeon HD 5870 series.

Das wär echt prima - also bei uns wär das dann die genauen Inofs ab 22:00 Uhr. ;)
 
Zuletzt bearbeitet:
Das wär echt prima - also bei uns wär das dann die genauen Inofs ab 22:00 Uhr. ;)

Bright Side of News behauptet jetzt schon:

# 3.0 billion transistors
# 40nm TSMC
# 384-bit memory interface
# 512 shader cores [renamed into CUDA Cores]
# 32 CUDA cores per Shader Cluster
# 1MB L1 cache memory [divided into 16KB Cache - Shared Memory]
# 768KB L2 unified cache memory
# Up to 6GB GDDR5 memory
# Half Speed IEEE 754 Double Precision

http://www.brightsideofnews.com/news/2009/9/30/nvidia-gt300s-fermi-architecture-unveiled-512-cores2c-up-to-6gb-gddr5.aspx

heute abend gibts aber wohl genaueres
 
Sollte wohl in etwa hinkommen (also 384 Bit SI und 512 Shader Units) - ich hab was von etwas über 3 Mrd. Transistoren gelesen.

Kommt der Karte sicher zu Gute, wenn sie soviel Cache hat.

Aber maximal 6 GB GDDR5 - das ist ja ....:fresse:
Wenn das stimmt, wären ja 3 GB VRAM Standard beim Flagschiff - siehe aktuelle Generation - vorgestellt in 1 GB - später auch mit 2 !!!

Gut, die kleinst mögliche Bestückung, die Sinn macht, ist dann 1536 MB VRAM :d


Da bin ich mal gespannt; ich hoffe man lehnt sich an die ATi Vorstellung an (von der Masse an Infos), da würden ja auch Taktraten gepostet ! ;)


E: Ok, das macht Sinn . in der News steht, dass die GTX 380 mit 1,5 GB VRAM (also Consumer Variante) kommt und später dann QuadroFX und Tesla Karten , also für den professionellen Einsatz, mit maximal 6 GB VRAM.

Was auch sehr geil ist - der native C++ Support ! ;)
 
Zuletzt bearbeitet:
ich würde gern mal wissen was der vorteil der ja scheinbar stark veränderten architektur ist!?

wozu eine mischung aus cpu und gpu? im spielebereich sind doch die shader die wesentlich bessere art der auslastung, oder nicht?
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh