nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] [Part 1.1]

Status
Für weitere Antworten geschlossen.
Entweder ist die GPU identisch zur GTX 380 oder es ist zum beispiel die GTX 360.
Was unter Umständen das "kurze" PCB erklären könnte.

Sollte NV es allerdings geschafft haben die TDP mit GPU Vollausstattung auf 225 Watt gesenkt zu haben, wär das schön. ;)


Auf jeden Fall finde ich es gut, dass NV nun nicht auch noch Karten mit 28 cm und länger bringt - zumindest bisher.
Die Dual-GPU Version wird denk ich mal gleich lang wie die noch aktuelle G200 Gen, also etwa 27 cm.

---------- Beitrag hinzugefügt um 08:29 ---------- Vorheriger Beitrag war um 08:23 ----------

Die Aussage ist doch mal nicht schlecht:

FUD:

The entire range

Jensen didn't want to comment on when the Fermi GT300 will launch, but we anticipate that it should happen within a few months. We don't know if this particularly means late Q4 or early Q1 2010 though. However, one thing that he has confirmed is that Fermi architecture is very scalable and that it will end up in many GPUs.

Nvidia will implement a top-to-bottom release strategy from high end to entry level. While he didn't talk about it during the keynote presentation, this release strategy also includes a high end dual-GPU configuration that should ship around the same time as the high end single-GPU model.

It is important to note that a chip with 64 clusters can easily be divided in 32, 16 or any similar configuration of clusters.


---------- Beitrag hinzugefügt um 08:37 ---------- Vorheriger Beitrag war um 08:23 ----------

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7568027&postcount=3064

Ist immer mal ganz interessant zu lesen was der Herr so von sich gibt...


Also sind wohl 128 TMUs und TAUs gesetzt.
Fragt sich jetzt nur noch, in welchen Verhältnis diese zu den ROPs stehen,
es wird wohl ein anderes als beim GT200 sein (Faktor 2,5 von ROPs zu TMUS/TAUs),
denn dann käm mit 51,2 ROPs Krampf raus.

Also vielleicht 48 ROPs (wär 1,5x soviel wie beim voll ausgebauten GT200(b)) - schaun' wir mal.

---------- Beitrag hinzugefügt um 08:50 ---------- Vorheriger Beitrag war um 08:23 ----------

Hier mal ein Video von NV zum Fermi:

http://www.youtube.com/watch?v=qStm5xoDHFU
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
naja ich laß mich mal überraschen, aus meiner Sicht baut NV schon mit dem G200 keinen "3D-Beschleuniger mehr" Nv hat keine CPUs und jetzt muß da auf Teufel komm raus ein Zwitter her, tolle GPGPU-Features, aber was nützt mir das?
Nur meine Meinung.
 
Ist ja nicht so, als wären G200 und G300 nur für GPGPU ausgelegt.

Ansonsten hätten nun nicht soviele Zocker NV GPUs. ;)

Ich empfinde die GPGPU Features eher als nette Ergänzung zur 3D Beschleunigung.

Meine Meinung ! ;)


GPGPU ist auch für den Heimanwender praktisch - zumindest Badaboom, wenn man mal ein Vid schnell umwandeln will.
 
Zuletzt bearbeitet:
Das Bild ist von der GPU Conference. Das ist die Hand von Huang der die Graka hochhält.

Die Live Webcasts wird es auch als Videos zum herunterladen geben.

@mayer: Guck dir die Beiträge der GPU Tech Con an, dann weißt du es.
 
Zuletzt bearbeitet von einem Moderator:
da sind aber auch die höhergetakteten corei7 nicht mehr wirklich langsam.
kommt sicher wie ich schon sagte auf das gesamt packet an. entscheiden wird auch der verbrauch... ich hänge mir keine karte ins sys die permanent ein x-faches mehr an strom verbraucht um mal ein vid zu wandeln...wenn da die gaming perf. stimmt ist das nat. was anderes;)
vento der cast ging bei mir nicht vielleicht kein slot mehr frei!?
..mußte gestern schlafen dann aber auch eh spofen gehen:)
 
Zuletzt bearbeitet:
"Offenbar will man sich leistungsmäßig deutlich von AMD absetzen. Dafür sollen mehr als drei Milliarden Transistoren sowie bis zu sechs Gigabyte GDDR5-Speicher sorgen. Dies ist dank der 40-Nanometer-Fertigung von TSMC möglich. Im alten Verfahren hätte dies zu einem riesigen Grafikchip mit einem sehr großen Energiehunger geführt. "

Naja wer es glaubt.

http://winfuture.de/news,50284.html
 
Ist ja nicht so, als wären G200 und G300 nur für GPGPU ausgelegt.

Ansonsten hätten nun nicht soviele Zocker NV GPUs. ;)

Ich empfinde die GPGPU Features eher als nette Ergänzung zur 3D Beschleunigung.

Meine Meinung ! ;)


GPGPU ist auch für den Heimanwender praktisch - zumindest Badaboom, wenn man mal ein Vid schnell umwandeln will.

Das habe ich ja auch nicht gesagt...schnell wird sie trotzdem werden, nur liegt die hälfte brach und wird nicht für 3D Beschleunigung genutzt und wie gesagt wers brauch, mir ist Badaboom und co. völlig humpe :d um mal ein video zu wandeln, das macht der i7 auch ganz gut alleine.

Ich schrieb es sieht für mich so aus als brauchen sie einen Zwitter....mit dem g200 dachten die doch auch sie könnten Intel ärgern.....ihr müßt mal ein bischen weiter denken, was NV da gerade versucht und nicht nur an Balken in Crysis denken :d


Ich empfinde die GPGPU Features eher als nette Ergänzung zur 3D Beschleunigung.>>>>>>>>>>>> Das sieht NV wohl leider genau andersrum...
 
Zuletzt bearbeitet:
Nun ja, mal sehen, wieviele Transistoren für GPGPU und DX11 drauf gegangen sind.
Ich schätz mal, dass man beim G200 für GPGPU und DX10 vielleicht so 400 Millionen Transistoren verbraucht hat.

Beim G300 werden es wohl ein paar mehr sein - aber ich denk mal, dass der reine 3D Beschleuniger trotzdem noch 2 Mrd. Transistoren auf die Waage bringt.


Gut, ein i7 kann auch so ganz gut umwandeln, aber die älteren CPUs halt net so.

Hast schon Recht, dass es ein Zwitter ist.

Nun ja, für den prof. Bereich können sie das anders sehen. sofern man den Massenmarkt nicht vernachlässigt.
 
Zuletzt bearbeitet:
Der vergrößerte Cache schluckt nicht viel, ansonsten kann man das für DX11 und Cude im vergleich zu den Vorgängern nur schlecht bemessen.


Was der werte Herr von NV da hochhält ist vermutlich ne Tesla-Karte mit nur einem 8er Stromanschluss.

Die Normalen GTX werden alleine schon wegen den DVI/HDMI-Anschlüssen ne Ecke länger werden.
 
Da haste wohl Recht, das hab ich jetzt nich einbezogen.

Schätzen wir mal grob, dass die normalen Karten etwa so lange wie die aktuellen werden.
 
Das könnte die kleine Version sein, sieht von der länge wie eine 9800GTX aus...

300596r.jpg
 
Zuletzt bearbeitet:
Die Retail Karten also für die Zockerfraktion werden die Anschlüsse sicher beide auf der Oberseite haben - nebeneinander. ;)

Wenn man noch etwa 2 cm Länge addiert für zusätzliche Anschlüsse sollt das kein Problem sein.
 
Bei der größe will ich mal sehen wie die das kühlen, wenn der takt min auf G200 niveau bleubt.

Bei ATI wird die 50 auch schon wärmer als die 70 , weil der kühler kleiner ausfällt.
 
Sind diese Teslakarten nicht solche Karten die für professionelle CAD Arbeiten etc. eingesetzt werden ?

Sprich solche Karten die >1000€ kosten ?

Weiß nicht ob man deshalb von dem Design her unbedingt auf die normalen Karten schließen sollte...

Aber eines ist gesagt, geil ausschauen tun se :d
 
Sind diese Teslakarten nicht solche Karten die für professionelle CAD Arbeiten etc. eingesetzt werden ?

Sprich solche Karten die >1000€ kosten ?

Weiß nicht ob man deshalb von dem Design her unbedingt auf die normalen Karten schließen sollte...

Aber eines ist gesagt, geil ausschauen tun se :d

Meist sehen die GF karten genauso wie die Quadro und Tesla karten aus , also gleiches Design der karte , nur anderer aufkleber und 10000. besseren support :d
 
Tesla ist nur GPGPU, ohne Anschlüsse für den Monitor etc.

Was du meinst sind die Quadro Modelle.
 
Aus GT300 wird GF100, statt 512 wird erstmal 384 SI verbaut
Später könnte als Nachschub ein 512 Bit SI kommen
evtl. 2010 32/28nm Refresh der noch breiter ist & gegen den RV970 kontern soll.


nvidia_fermi_1t9op.jpg

nvidia_fermi_2dyg0.jpg

nvidia_fermi_40x1m.jpg

nvidia_fermi_5t96c.jpg
 
Zuletzt bearbeitet:
Die Backplate spricht ja dafür, dass bei der Tesla Karte mehr als 1,5 GB VRAM zum Einsatz kamen, wohl 3 GB.


Ich denke schon, dass die gezeigte Karte lauffähig gewesen wäre - wieso sollte man etwas unfertiges (PCB) zeigen ?
Auch wenn es natürlich komisch aussieht, dass vom 8 pol. Anschluss nur 2 Kontakte auf der Rückseite des PCBs zu sehen sind.

Auf jeden Fall sind auf dem PCB 2 x DVI Out vorbereitet, aber nur einer verbaut, da Tesla Karte
(wobei die afaik ja gar keinen Anshcluss brauchen, wenn sie nur zum berechnen dienen).
 
Zuletzt bearbeitet:
Das Ding sieht einfach nur fett aus. *g*

Bin sehr gespannt auf die Karte.

Was wird wohl das größte Problem der Karte werden ?

Temperaturen / Stromverbrauch ?

Ist ja schon ein ordentliches Monster von Karte :)

-> bezogen auf den Chip natürlich...
 
Das Ding sieht einfach nur fett aus. *g*

Bin sehr gespannt auf die Karte.

Was wird wohl das größte Problem der Karte werden ?

Temperaturen / Stromverbrauch ?

Ist ja schon ein ordentliches Monster von Karte :)

-> bezogen auf den Chip natürlich...

Temperaturen bezweifel ich mal, die Taktraten und die Spannung werden wohl auf einem Niveau liegen bei dem es zumindest auf Standardtakt keine Probleme gibt. Der Stromverbrauch wird sich eh an PCIe 2.0 halten müssen, wobei Idle bestimmt nicht über den Werten des GT200b liegt.
 
Ich halte die Strategie von Nvidia gelinde gesagt für gewagt, da sie sich in einem typischen Henne - Ei Dilemma bewegen. Sprich ohne die entprechende Software ist der Mehrwert der Karte durch GPGPU quasi wertlos.

Das sich die GT300 Spielperfomancetechnisch sehr weit von der 5870 absetzt bezwfeifle ich, dennoch wird sie sicherlich schneller sein. Es wird wohl darauf ankommen wieviel die zusätzlichne Features dem geneigten Käufer wert sind. Eins ist für mich zumindest sicher, wenn diese GPU Raytracing Rendering in der entsprechenden Software signikfikant beschleunigen kann ( dabei spreche ich nicht von realtime) ist die Karte so gut wie gekauft.

Eins noch zum Schluss, ohne jetzt zynisch werden zu wollen aber irgendwie erinnert mich das ganze ein bißchen an die Zeit vor dem Launch der FX5900.
 
Denke das auf dem bild auch die Größe der GTX 380 wiederspiegelt, weil warum sollten sie eine GTX 360 zeigen das wäre ja sinn frei. NV und CO zeigen zuerst immer die Spitzen karten. Denke die GTX 380 wird unter 27 cm liegen!
Denke ich mal.
 
Ich halte die Strategie von Nvidia gelinde gesagt für gewagt, da sie sich in einem typischen Henne - Ei Dilemma bewegen. Sprich ohne die entprechende Software ist der Mehrwert der Karte durch GPGPU quasi wertlos.

Das sich die GT300 Spielperfomancetechnisch sehr weit von der 5870 absetzt bezwfeifle ich, dennoch wird sie sicherlich schneller sein. Es wird wohl darauf ankommen wieviel die zusätzlichne Features dem geneigten Käufer wert sind. Eins ist für mich zumindest sicher, wenn diese GPU Raytracing Rendering in der entsprechenden Software signikfikant beschleunigen kann ( dabei spreche ich nicht von realtime) ist die Karte so gut wie gekauft.

Eins noch zum Schluss, ohne jetzt zynisch werden zu wollen aber irgendwie erinnert mich das ganze ein bißchen an die Zeit vor dem Launch der FX5900.

Was bringt dem heimanwender es dann , wenn Raytracing beschleunigt wird aber nicht in realtime läuft?

Ich sitz bei normalen OGL CAD zwar auch mal bissel länger dran bis isch was tut :d

aber Raytracing ist für die masse erst wichtig wenn spiele damit laufen und bis das passiert ist der GT300 veraltet , und von der shader leistung war der RV770 auch net schlechter als der GT200 und der RV870 hat wieder mehr leistung , wodrüber auch hier Raytracing laufen könnte
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh