nVidia GF100/Geforce 4xx [Speku-, News- & Diskussionsthread] Part 2

Status
Für weitere Antworten geschlossen.

Neurosphere

Enthusiast
Thread Starter
Mitglied seit
06.11.2008
Beiträge
4.324
nVidia GF100/Geforce 4xx [Speku-, News- & Diskussionsthread]​

gf100_header_7qqf.jpg



Dies ist der Neustart des nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 4



Was ist bisher bekannt:​


Beim Start verfügbare Karten: 480 GTX/470 GTX (News zu der Namensgebung)
Vorstellung der Karten am 26. März (News dazu)
Chip: GF100
Takt: Unbekannt
Aktivierte Shadereinheiten: 480/512 (480er) / 448 (470er)
Speicherinterface: 384bit(480er) / 320bit(470er)
Speicher: vermutlich erstmal bis zu 1,5GB(480er)/ 1,28GB(470er)
Speicherart: GDDR5
Stromversorgung: 6+8 Pin (max. 300 Watt bei 480er), 6+6 Pin (max. 225 Watt bei 470er)
TDP: unbekannt
Länge der Karten: 267mm

Release: Soll mit der Vorstellung am 26. März erfolgen.


Der GF100 (aka Fermi)​


gf100xh2g.jpg

Innerer Aufbau:​


gf100.3upo0.jpg

Die GPCs:

Der GF100 besteht aus Graphics Processing Clusters (kurz GPCs). Jeder GPC besteht aus 4 Streaming-Multiprocessors (SM),
in denen jeweils 4 Texture Mapping Units (TMUs) und 32 Arithmetic Logic Units (ALUs) untergebracht sind.

Nach derzeitigen Informationen kann der GF100 maximal 4 GPCs verwalten, womit er auf die besagten 512 "Cuda-Cores" (ALUs) und 64 TMUs kommt.

Besonders beim GF100 ist, das jeder GPC auf eine eigene Raster-Engine zurückgreifen kann. Alle bisherigen Designs und Architekturen hatten nur eine Raster-Engine die vor den Shaderclustern lag. Dadurch erhöht sich die Pixelleistung auf 32 Pixel pro Takt (4 GPCs x 8 Pixel) wodurch ein Flaschenhals aller bisherigen Architekturen beseitigt wurde und die Geometrieleistung überdurchschnittlich steigt. Deutlich zu sehen bekommt man dies an der Tesselationsleistung des GF100, nach NV-eigenen Folien ist diese zwischen 2 bis mehr als 6 mal so hoch wie die der 5870 von ATI.


Nun weiter zu den SM:

Zu jeder ALU gesellt sich eine Floating Point Unit (FPU). Der GF100 ist IEEE 754-2008-Standard kompatibel was ihn für GPGPU Aufgaben interessant macht.
Anders als der GT200 führt der GF100 pro Takt keine MADD+MUL Berechnung mehr aus sondern eine FMA. Das schmälert zwar auf den ersten Blick etwas die Rechenleistung pro ALU, allerdings erreicht FMA eine höhere Genauigkeit bei den Nachkommastellen, was ebenfalls wieder wichtig für GPGPU ist.


Die TMUs:

Auf den ersten Blick hat NV hier weniger verbaut als beim GT200. Allerdings soll die Taktrate nicht über den Chiptakt laufen sondern evtl in Richtung des Shadertaktes gehen, des weiteren soll die Effizienz aufgrund des größeren L1 (12 Kb Texture Cache + 64 Kb L1/Shared-Cache) und L2 Caches (768 Kb) weiter gesteigert worden sein. NV gibt für die TMUs bis zu 1,6 mal soviel Leistung wie beim GT200 an.


Die ROPs:

Die Raster Operation Processors (ROPs) wurden beim GF100 dahingehend überarbeitet, das es nun sechs ROP-Partitions gibt in denen jeweils 8 ROPs enthalten sind. Eine ROP kann nach einem Takt ein 32-Bit-Integer-Pixel, ein 16-Bit-Floating-Point-Pixel nach zwei Takten oder ein 32-Bit-FP-Pixel nach vier Takten ausgeben.
An Jeder ROP-Partition ist ein 64 Bit Speicherinterface angeschlossen womit der GF100 auf ein insgesammt 384bit breites Interface kommt.


Speicher und Interface:

NV gönnt dem GF100 ein 384 bit breites Speicherinterface (siehe oben) mit dem er maximal 6 GB Videospeicher ansprechen könnte. Die Speicherbandbreite wird dadurch gewährleistet das schneller GDDR5 verwendung findet. Die Taktrate des Speichers ist noch nicht bekannt, allerdings dürfte die Bandbreite bei über 200 GB/s liegen.






Features:​

3D Vision Surround:

Der GF100 wird NVs neusten streich, 3D Vision Surround unterstützen. Damit ermöglicht der GF100 Stereoscopic 3D auf bis zu 3 Monitoren, allerdings nur wenn man zwei Karten sein eigen nennen kann.


32x CSAA:

Fermi bietet mit 32x CSAA einen neuen Antialiasing-Modus der auf 8x MSAA beruht. Jener soll laut NV eine bessere Bildqualität bieten als bisherige Modi. Ob NV in Zukunft SSAA anbieten wird ist unbekannt.


Blu-ray 3D:

Laut NV wird der GF100 die Dekodierung eines Blu-ray-3D-Films zu 100% übernehmen können.


Optimus:

Optimus ist der Nachfolger von Hybrid-Power und wird mit allen Intel Notebook-Chipsätzen lauffähig sein. Dadurch ist es möglich die dedizierte Grafikkarte abzuschalten sobald diese nicht gebraucht wird und auf die Chipsatzgrafik zurückzugreifen. Dadurch erreicht man einen geringeren Stromverbrauch und längere Akkulaufzeiten.


Linkliste:
Neu:

Artikel:

Artikel auf CB zum GF100
Artikel auf PCGH
Techreport über den GF100 (englisch)

News:

TSMC hat Fertigungsprobleme behoben
Lauffähiges Fermisystem gesichtet
Sammelnews auf PCGH
Fermi debüt auf der Cebit
Die meisten Fermi-Karten im Q2 2010
News zu NVs kleineren ablegern auf 3DCenter (ursprung xbit Labs)
Geklaute 480er von Heise (Cebit)
Supermicro "Supercomputer" mit 4x Fermi (Cebit)
CB zum Fermi (Cebit)
Benchmarks der 470 auf der Cebit von Heise(Cebit)
HT4U über die GF100 auf der Cebit (Cebit)
Benchmarksammlung (Achtung, Fakealarm)
NVIDIA GeForce GTX 480 Final Specs & Pricing Revealed

Offizielles:

Deutsche Infoseite von NV zum GF100
NVs Facebook Seite
Zum Optimus Feature



Alte Links aus dem nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread]:
Nvidia GT300 mit DirectX 11 ab Q4/2009 - News - Hardware-Infos
Fudzilla - GT300 is Nvidia's DirectX 11 emid=65
TSMCs 40nm-GP: RV870 und GT300 fast viermal so schnell wie heute? - TSMC, 40nm, 40G, Performance, GPU, 32nm, RV870, GT300
Infos zur DX11-Karte von Nvidia - News Hartware.net
Erste Direct3D-11-Karte von Nvidia in Q4/09? - 06.04.2009 - ComputerBase
Fudzilla - Nvidia´s DirectX 11 to come in Q4 emid=65
Nvidia GT300-Tape-Out im Juni? - News - Hardware-Infos
Kommen RV870 und GT300 früher als gedacht? - News - Hardware-Infos
Nvidia: GT300 im Oktober? - News Hartware.net
nVidia's GT300 specifications revealed - it's a cGPU! - Bright Side Of News*
GT300 wirft 512 Shadereinheiten in die Waagschale - Forum de Luxx
GT300 kommt mit 512 SPs noch dieses Jahr - News - Hardware-Infos
Kommt Nvidias GT300 mit 512 Shadereinheiten? - 23.04.2009 - ComputerBase
GT300 setzt auf 512 Bit-GDDR5-Interface - News - Hardware-Infos
Nvidia GT300 mit 512 Bit und GDDR5? - 07.05.2009 - ComputerBase
GT300 mit rund 2,4 Millarden Transistoren - News - Hardware-Infos
Nvidia G300 hat Tape-Out gemeistert - News - Hardware-Infos
Nvidia G300-Samples mit 700/1600/1100 MHz - News - Hardware-Infos
Nvidia G300 mit unter 225 Watt TDP - News - Hardware-Infos
Nvidia: GT300 erscheint 2009 - News Hartware.net
GT300 und RV870: Wann kommen die Chips? - 25.06.2009 - ComputerBase
Nvidia G300 mit finalem Tape-Out - News - Hardware-Infos
Nvidia plant Karte mit zwei GT300 - News Hartware.net
Nvidia GF100: 512 SPs, aber nur 384 Bit - News - Hardware-Infos
Nvidia kündigt GF100 (Fermi) an - News - Hardware-Infos
Nvidia und der Griff nach den Sternen - News - Hardware-Infos
Nvidia GF100: 128 TMUs und 48 ROPs - News - Hardware-Infos
Neuigkeiten zu GT300 / Fermi? - News Hartware.net
Offiziell:


Demovideos:​

Nochmal Hinweise zu den Regeln gerade in diesem Thread:

Da es hier immer wieder zu Entgleisungen in jeder nur denkbaren Form gekommen ist, werden ab sofort die Regeln für diesen Thread verschärft. Jeder User ist natürlich in diesem Thread willkommen, wenn er aber an den Diskussionen teilnehmen möchte ist eine gewisse Netiquette Pflicht! Es geht hier nicht um die Produkte von ATI oder von NV aus vergangenen Zeiten. Natürlich können sie gerne herangezogen werden für Vergleiche, fehlt aber der Kontext zum eigentlichen Thema, werden die Posts gelöscht! Jeder hat selbst zu entscheiden ob ein Produkt empfehlenswert ist oder nicht, Kaufberatungen gehören also ebenfalls nicht in diesen Thread. Überlegt ob ihr jeden Post kommentieren müsst und steht darüber wenn ihr euch über Aussagen zu eurer Lieblingsmarke provoziert fühlt. Bleibt Sachlich, OT lesen ist für viele die sich für das Thema interessieren oft nicht so Lustig wie der Schreiberling es fand.

Weiterhin ist eure Mithilfe, diesen Thread "sauber" und informativ zu halten ausdrücklich erwünscht!
Wenn ihr auf Postings stoßt die absolut OT sind, provozieren oder was auch immer, geht bitte nicht darauf ein, sondern benutzt den "Beitrag melden-Button" (
report.gif
) und überlasst alles weitere der Moderation.
Auch das sorgt dafür, hier eine für Jedermann angenehme Diskussion vorzufinden.

Sollte es zu mehrmaligem Verstoß gegen die Regeln kommen erhalten auffällige User eine Auszeit von diesem Thread.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
"ildraten meist klar hinter der Radeon HD 5870, doch in Crysis Warhead bei 1.920 x 1.200 Pixeln und 8x Kantenglättung liegt sie gleichauf, während die minimale Bildrate sogar 3x höher ist als bei der ATI-Karte"

muhhhaaaa was ein Quark 3x höhere min FPS......max ist dann gleich mit min.....oder ne 6 Kerner im Rechner :d siehe Zocker......da wird ein Scheiß geschrieben.
 
Re: nVidia GF100/Geforce 4xx [Speku-, News- & Diskussionsthread]

der china bench passt vorn und hinten nicht bei crysis wer sich davon was erhofft gehört gesteinigt :d
 
Wenn die 470 zw. 5850 und 5870 liegt, wird die dann preislich auch da liegen? Wohl eher nicht....mir ist das Schnurz ob ne Ati oder nVidia, ich will nur endlich eine für guten Preis / Leistung für günstiges Geld^^


Haha...ok...schlechter Scherz im Moment....
 
Ist euch eigentlich aufgefallen, dass auf der Platine vonder 480er Lötstellen für einen weiteren 8-Pin Stromanschluss sind. :confused:

Ich denke ja nicht das es all zu schlimm mit dem Stromverbrauch wird. Und wenn, dann wird wahrscheinlich auch die Leistung dazu ansprechend sein.
 
vielleicht wird das der refresh sein. statt 6+8pin dann 2x8pin und zack kann man die karte höher takten.^^
 
konnte gestern auf der cebit bei nvidia mal diese Raketenfahrzeug demo "anspielen" und angeblich werkelte eine gtx470 im rechner, an manchen stellen gabs dann doch eine ungewollte slowmotion. Leider konnte der Kerl am Stand mir überhaupt keine Fragen beantworten.....schade auch ;)
 
Kann ich mir auch nicht anders vorstellen.
"Huuuu sie hat Löcher also ist's eine 295!" :fresse:

offizielle Benches kommen ende des Monats, genau danch ist schluss mit spekus über Papiertiger
Oh nein! Dann wird hier zu gemacht! :eek: :heul:

...endet bestimmt für einige hier im kollektiven Selbstmord... :fresse:
 
Ist euch eigentlich aufgefallen, dass auf der Platine vonder 480er Lötstellen für einen weiteren 8-Pin Stromanschluss sind. :confused:

Ich denke ja nicht das es all zu schlimm mit dem Stromverbrauch wird. Und wenn, dann wird wahrscheinlich auch die Leistung dazu ansprechend sein.

nee, das sind kleinere Lochabstände und kleinere Bohrungen, die haben nichts mit einem Stromanschluss zutun, das muss irgendwas anderes sein.
 
Die Stromdiskussion können wir schon mal abschließen, denn die GTX470 hat ja nur zwei 6Pin-Anschlüsse. Außerdem ist NV bei der Stromversorgung immer großzügig und wird dies beim GF100 ganz besonders sein, wegen des angekündigten OC-Features. Der maximale Stromverbrauch der GTX470 liegt somit höchstens bei 175 bis 190W. Die GTX480 wird davon ausgehend höchstens 215 bis 240W verbrauchen.
Vergleiche ich diese Werte mit der vermuteten Geschwindigkeit der Karten, so gehe ich davon aus, dass die GTX470 und GTX480 bezüglich fps/W in etwa auf dem Niveau liegen wie die HD5870.
 
Wichtig wirds sein was im Idle verbraucht wird bei full power wirds wohl ziemlich gleich sein bei der 470.
Die 480 hat 6 und 8pin da wären 300W möglich das wär schon heftig nämlich auf 5970 Niveau und das ist ne Dualkarte.
 
Zuletzt bearbeitet:
Die Stromdiskussion können wir schon mal abschließen, denn die GTX470 hat ja nur zwei 6Pin-Anschlüsse. Außerdem ist NV bei der Stromversorgung immer großzügig und wird dies beim GF100 ganz besonders sein, wegen des angekündigten OC-Features. Der maximale Stromverbrauch der GTX470 liegt somit höchstens bei 175 bis 190W. Die GTX480 wird davon ausgehend höchstens 215 bis 240W verbrauchen.
Vergleiche ich diese Werte mit der vermuteten Geschwindigkeit der Karten, so gehe ich davon aus, dass die GTX470 und GTX480 bezüglich fps/W in etwa auf dem Niveau liegen wie die HD5870.
Das passt aber nicht zu den bisherigen Spekulationen und Fakten. Eine HD 5870 braucht unter Last real etwa 150 W. Wenn die nun aber schneller sein soll als eine GTX 470, die entsprechend deiner Einschätzung "175 bis 190 W" brauchen soll, dann sind wir von "fps/W in etwa auf dem Niveau" weit entfernt.
 
daher finde ich es garnicht so abwägig, dass die 480 mit weniger kommt und später der refresh (ich hoffe mit neuem namen) mit mehr shadern.
 
Interessant ist auch, das Nvidia die 512 Shader-Rechenkerne der 480 nicht bestätigt hat.
Finde ich auch. Vor allem, weil einige Hardliner 512 Shader immer wieder als unumstösslichen Fakt hingestellt hatten und ich damals schon sagte, offiziell ist noch gar nichts. :rolleyes:
 
Ich denk mal das bis dahin sowieso alles ans Licht kommt, irgendwer wird nicht dichthalten können ;)
 
OMG wenn das wahr ist was heise berichtet, dann sehe ich schwarz für die 470
das wäre echt ne riesen enttäuschung.
dann kann die 480 höchstens 20 % schneller sein als 5870. Von wegen mit der 5970 konkurrieren :(
herje viel lärm um nix
 
war doch klar oder? finde die gtx470 dennoch interessant. Kommt dann nur noch auf den Preis an ;)
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh