nVidia GF10x/Geforce 4xx [Speku-, News- & Diskussionsthread] Part 4 (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.

Neurosphere

Enthusiast
Thread Starter
Mitglied seit
06.11.2008
Beiträge
4.324
nVidia GF10x/Geforce 4xx [Speku-, News- & Diskussionsthread] Part 4 (1. Seite lesen!)

nVidia GF10x/Geforce 4xx [Speku-, News- & Diskussionsthread]​

gf100_header_7qqf.jpg



Dies ist der Neustart des nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 4



Erhältliche Karten​



480 GTX/470 GTX/465 GTX/460 GTX​

Die drei Karten wurden offiziel Vorgestellt! Diskussionen über die Produkte bitte hier weiterführen:
Geforce 480 GTX Sammelthread (by PCZeus), 470 GTX Sammelthread (by Edgecrusher86) & 460 GTX Sammelthread (by Edgecrusher86),

Posts in diesem Thread die sich auf diese beiden Karten beziehen gelten als OT und werde konsequent gelöscht.




Die kleineren Ableger des GF100

gf10x03ae6yku.jpg


Alle Angaben unter vorbehalt, Erscheinungstermine noch nicht bekannt.​



Newssammlung zur 460 by Endgecrusher86, vielen dank dafür:

Ich fasse mal kurz die neusten News um die GTX 460 zusammen:

Bilder:

nvidia_gtx460_2pzq5.jpg
nvidia_gtx460_4uzsa.jpg

nvidia_gtx460_1uzqi.jpg
nvidia_gtx460_3p99u.jpg

nvidia_gtx4606ax8.jpg
nvidia_gtx460_specsabq6.png

nvidia_gf104wbck.jpg



Technische Daten - GeForce GTX 460:

Coreclock: 675 MHz ( GTX 465 -> 607 MHz ! )
Shaderclock: 1350 MHz ( GTX 465 -> 1215 MHz ! )
GDDR5-Clock: 1800 MHz ( GTX 465 -> 1607 MHz ! )
CUDA Cores: 336 ( GTX 465 -> 352 )
TMUs: 56 ( GTX 465 -> 44 ! )
ROPs: 32 (1GB Variante) bzw. 24 (768 MB Variante) ( GTX 465 -> 32)
GTexel/s: 37.8 ( GTX 465 -> 26.7 ! )
Speicherbandbreite -> 256 Bit SI + 1GB GDDR5 (UVP -> 250$): 115.2 GB/s ( GTX 465 -> 102.848 GB/s ! )
Speicherbandbreite -> 192 Bit SI + 768MB GDDR5 (UVP -> 230$): 86.4 GB/s
Stromversorgung: 2 x 6 Pin PCI-E Konnektoren (längs)
PCB Länge: (von mir ;)) geschätzte 21cm (Sollte wohl zwischen 8" (20.32 cm), 8.5" (21.59 cm) und 9" (22.86 cm) liegen)
SLI Konnektoren: 1
Anschlüsse: 2 x DVI, 1 x miniHDMI
Lüfter: 1 x 80mm (geschätzt), axial

Launch der beiden Karten -> Mitte Juli



Noch etwas zur Performance:

Zitat von Heise online:

Sowohl auf der GeForce GTX 460 mit 1 GByte als auch auf der Variante mit 768 MByte laufen die 56 Textureinheiten sowie die Rasterendstufen mit 675 MHz und die Shader-Rechenkerne mit 1350 MHz. Der Speicher arbeitet mit 1800 MHz Taktfrequenz (Read/Write-Clock). Der GF104-Chip beim 1-GByte-Modell kommuniziert über 256 Datenleitungen mit dem Speicher und erreicht so eine theoretische Datentransferrate von 115,2 GByte/s.

Bei der 768-MByte-Variante sind es durch das 192-Bit-Speicherinterface maximal 86,4 GByte/s. Ihre 3D-Leistung soll in etwa auf dem Niveau einer GeForce GTX 465 liegen, im 3D Mark Vantage sind in der Extreme-Voreinstellung ungefähr 6000 Punkte drin. Wie Übertaktungsexperimente in Ostasien bereits zeigten, lief der Grafikchip einer GTX-460-Testkarte (768 MByte, 192 Bit) ohne Erhöhung der Kernspannung mit 830 MHz noch stabil, bei einer leichten Spannungsanhebung waren sogar 900 MHz möglich. Damit erreichte die Karte rund 8000 Punkte (3DMark Vantage Extreme) und überflügelte sogar eine über 300 Euro teure GeForce GTX 470. Letztere schafft rund 7650 Punkte.

Bei purzelnden Preisen sicher eine verdammt interessante Karte -> die GTX 465 verliert damit ihre Daseinsberechtigung, zumindest wenn sich die Karte nicht freischalten lassen sollte
(also auf 448 SPs und 1GB oder im Optimalfall wie bei PoV als komplette 470er (ich hab am Montag zugegriffen :fresse:)).

mfg
Edge




Allgemeines zum Chip: Der GF100 (aka Fermi)​


gf100xh2g.jpg

Innerer Aufbau:​


gf100.3upo0.jpg

Die GPCs:

Der GF100 besteht aus Graphics Processing Clusters (kurz GPCs). Jeder GPC besteht aus 4 Streaming-Multiprocessors (SM),
in denen jeweils 4 Texture Mapping Units (TMUs) und 32 Arithmetic Logic Units (ALUs) untergebracht sind.

Nach derzeitigen Informationen kann der GF100 maximal 4 GPCs verwalten, womit er auf die besagten 512 "Cuda-Cores" (ALUs) und 64 TMUs kommt.

Besonders beim GF100 ist, das jeder GPC auf eine eigene Raster-Engine zurückgreifen kann. Alle bisherigen Designs und Architekturen hatten nur eine Raster-Engine die vor den Shaderclustern lag. Dadurch erhöht sich die Pixelleistung auf 32 Pixel pro Takt (4 GPCs x 8 Pixel) wodurch ein Flaschenhals aller bisherigen Architekturen beseitigt wurde und die Geometrieleistung überdurchschnittlich steigt. Deutlich zu sehen bekommt man dies an der Tesselationsleistung des GF100, nach NV-eigenen Folien ist diese zwischen 2 bis mehr als 6 mal so hoch wie die der 5870 von ATI.


Nun weiter zu den SM:

Zu jeder ALU gesellt sich eine Floating Point Unit (FPU). Der GF100 ist IEEE 754-2008-Standard kompatibel was ihn für GPGPU Aufgaben interessant macht.
Anders als der GT200 führt der GF100 pro Takt keine MADD+MUL Berechnung mehr aus sondern eine FMA. Das schmälert zwar auf den ersten Blick etwas die Rechenleistung pro ALU, allerdings erreicht FMA eine höhere Genauigkeit bei den Nachkommastellen, was ebenfalls wieder wichtig für GPGPU ist.


Die TMUs:

Auf den ersten Blick hat NV hier weniger verbaut als beim GT200. Allerdings soll die Taktrate nicht über den Chiptakt laufen sondern evtl in Richtung des Shadertaktes gehen, des weiteren soll die Effizienz aufgrund des größeren L1 (12 Kb Texture Cache + 64 Kb L1/Shared-Cache) und L2 Caches (768 Kb) weiter gesteigert worden sein. NV gibt für die TMUs bis zu 1,6 mal soviel Leistung wie beim GT200 an.


Die ROPs:

Die Raster Operation Processors (ROPs) wurden beim GF100 dahingehend überarbeitet, das es nun sechs ROP-Partitions gibt in denen jeweils 8 ROPs enthalten sind. Eine ROP kann nach einem Takt ein 32-Bit-Integer-Pixel, ein 16-Bit-Floating-Point-Pixel nach zwei Takten oder ein 32-Bit-FP-Pixel nach vier Takten ausgeben.
An Jeder ROP-Partition ist ein 64 Bit Speicherinterface angeschlossen womit der GF100 auf ein insgesammt 384bit breites Interface kommt.


Speicher und Interface:

NV gönnt dem GF100 ein 384 bit breites Speicherinterface (siehe oben) mit dem er maximal 6 GB Videospeicher ansprechen könnte. Die Speicherbandbreite wird dadurch gewährleistet das schneller GDDR5 verwendung findet. Die Taktrate des Speichers ist noch nicht bekannt, allerdings dürfte die Bandbreite bei über 200 GB/s liegen.






Features:​

3D Vision Surround:

Der GF100 wird NVs neusten streich, 3D Vision Surround unterstützen. Damit ermöglicht der GF100 Stereoscopic 3D auf bis zu 3 Monitoren, allerdings nur wenn man zwei Karten sein eigen nennen kann.


32x CSAA:

Fermi bietet mit 32x CSAA einen neuen Antialiasing-Modus der auf 8x MSAA beruht. Jener soll laut NV eine bessere Bildqualität bieten als bisherige Modi. Ob NV in Zukunft SSAA anbieten wird ist unbekannt.


Blu-ray 3D:

Laut NV wird der GF100 die Dekodierung eines Blu-ray-3D-Films zu 100% übernehmen können.


Optimus:

Optimus ist der Nachfolger von Hybrid-Power und wird mit allen Intel Notebook-Chipsätzen lauffähig sein. Dadurch ist es möglich die dedizierte Grafikkarte abzuschalten sobald diese nicht gebraucht wird und auf die Chipsatzgrafik zurückzugreifen. Dadurch erreicht man einen geringeren Stromverbrauch und längere Akkulaufzeiten.


Linkliste:
Neu:

Artikel:

Artikel auf CB zum GF100
Artikel auf PCGH
Techreport über den GF100 (englisch)

News:

TSMC hat Fertigungsprobleme behoben
Lauffähiges Fermisystem gesichtet
Sammelnews auf PCGH
Fermi debüt auf der Cebit
Die meisten Fermi-Karten im Q2 2010
News zu NVs kleineren ablegern auf 3DCenter (ursprung xbit Labs)
Geklaute 480er von Heise (Cebit)
Supermicro "Supercomputer" mit 4x Fermi (Cebit)
CB zum Fermi (Cebit)
Benchmarks der 470 auf der Cebit von Heise(Cebit)
HT4U über die GF100 auf der Cebit (Cebit)
Benchmarksammlung (Achtung, Fakealarm)
NVIDIA GeForce GTX 480 Final Specs & Pricing Revealed

Zu den kleinen Ablegern:
PCGH-Sammelnews, GF104 Tapeout erfolgt?

Offizielles:

Deutsche Infoseite von NV zum GF100
NVs Facebook Seite
Zum Optimus Feature



Alte Links aus dem nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread]:
Nvidia GT300 mit DirectX 11 ab Q4/2009 - News - Hardware-Infos
Fudzilla - GT300 is Nvidia's DirectX 11 emid=65
TSMCs 40nm-GP: RV870 und GT300 fast viermal so schnell wie heute? - TSMC, 40nm, 40G, Performance, GPU, 32nm, RV870, GT300
Infos zur DX11-Karte von Nvidia - News Hartware.net
Erste Direct3D-11-Karte von Nvidia in Q4/09? - 06.04.2009 - ComputerBase
Fudzilla - Nvidia´s DirectX 11 to come in Q4 emid=65
Nvidia GT300-Tape-Out im Juni? - News - Hardware-Infos
Kommen RV870 und GT300 früher als gedacht? - News - Hardware-Infos
Nvidia: GT300 im Oktober? - News Hartware.net
nVidia's GT300 specifications revealed - it's a cGPU! - Bright Side Of News*
GT300 wirft 512 Shadereinheiten in die Waagschale - Forum de Luxx
GT300 kommt mit 512 SPs noch dieses Jahr - News - Hardware-Infos
Kommt Nvidias GT300 mit 512 Shadereinheiten? - 23.04.2009 - ComputerBase
GT300 setzt auf 512 Bit-GDDR5-Interface - News - Hardware-Infos
Nvidia GT300 mit 512 Bit und GDDR5? - 07.05.2009 - ComputerBase
GT300 mit rund 2,4 Millarden Transistoren - News - Hardware-Infos
Nvidia G300 hat Tape-Out gemeistert - News - Hardware-Infos
Nvidia G300-Samples mit 700/1600/1100 MHz - News - Hardware-Infos
Nvidia G300 mit unter 225 Watt TDP - News - Hardware-Infos
Nvidia: GT300 erscheint 2009 - News Hartware.net
GT300 und RV870: Wann kommen die Chips? - 25.06.2009 - ComputerBase
Nvidia G300 mit finalem Tape-Out - News - Hardware-Infos
Nvidia plant Karte mit zwei GT300 - News Hartware.net
Nvidia GF100: 512 SPs, aber nur 384 Bit - News - Hardware-Infos
Nvidia kündigt GF100 (Fermi) an - News - Hardware-Infos
Nvidia und der Griff nach den Sternen - News - Hardware-Infos
Nvidia GF100: 128 TMUs und 48 ROPs - News - Hardware-Infos
Neuigkeiten zu GT300 / Fermi? - News Hartware.net
Offiziell:


Demovideos:​

Nochmal Hinweise zu den Regeln gerade in diesem Thread:

Da es hier immer wieder zu Entgleisungen in jeder nur denkbaren Form gekommen ist, werden ab sofort die Regeln für diesen Thread verschärft. Jeder User ist natürlich in diesem Thread willkommen, wenn er aber an den Diskussionen teilnehmen möchte ist eine gewisse Netiquette Pflicht! Es geht hier nicht um die Produkte von ATI oder von NV aus vergangenen Zeiten. Natürlich können sie gerne herangezogen werden für Vergleiche, fehlt aber der Kontext zum eigentlichen Thema, werden die Posts gelöscht! Jeder hat selbst zu entscheiden ob ein Produkt empfehlenswert ist oder nicht, Kaufberatungen gehören also ebenfalls nicht in diesen Thread. Überlegt ob ihr jeden Post kommentieren müsst und steht darüber wenn ihr euch über Aussagen zu eurer Lieblingsmarke provoziert fühlt. Bleibt Sachlich, OT lesen ist für viele die sich für das Thema interessieren oft nicht so Lustig wie der Schreiberling es fand.

Weiterhin ist eure Mithilfe, diesen Thread "sauber" und informativ zu halten ausdrücklich erwünscht!
Wenn ihr auf Postings stoßt die absolut OT sind, provozieren oder was auch immer, geht bitte nicht darauf ein, sondern benutzt den "Beitrag melden-Button" (
report.gif
) und überlasst alles weitere der Moderation.
Auch das sorgt dafür, hier eine für Jedermann angenehme Diskussion vorzufinden.

Sollte es zu mehrmaligem Verstoß gegen die Regeln kommen erhalten auffällige User eine Auszeit von diesem Thread.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Shader sind nicht soo extrem wichtig, Takt macht deutlich mehr aus.
jo wie bekannt (280) aber nur bei guten temps....und jetzt noch ne WAKÜ für das halbe DIng....nene datt machste nett...

idle ist viel zuviel, völliger Quark was die da verkaufen...
 
Zuletzt bearbeitet:
Das ganz dicke Ding kommt noch !
Wenn der Verkaufstermin der 12.April ist und dieser angeblich wegen BIOS-Änderungen und Kühlermodifikation dahin verschoben wurde, was ist denn mit den ganzen Karten, die jetzt schon seit Wochen um die halbe Welt verschifft werden. Ich sag nur 50K...., sind die alle B-Ware ? Sicher nicht.
Ich weiß, wie das ist, wenn man heiss ist auf eine neue Karte, aber diese Mauschelei stinkt zum Himmel. Da wär ich ganz vorsichtig.
 
@bawde
und das ist für dich jetzt ganz was neues das einer von den beiden einen treiber raushaut der abgeht wie Schmitz Katze....schreib doch einfach nix.. muß sich auch keiner aufregen.
 
lol wovon träumst du nachts
du glaubst ja wohl noch an den weihnachtsmann

Nein, ich kann nur rechnen. Aber nehmen wir mal eine ganz leicht nachvollziehbare Schätzung die jeder überprüfen kann. NV hat insgesammt ca. 2,5Monate Zeit gehabt den GF100 zu produzieren. Wie wir wissen fertigt TSMC 80k Wafer in 3 Monaten, in 2,5 Monaten also etwa 66666Wafer. Wenn wir nun extrem pessimistisch sind, nehmen wir an NV hat 10k dieser Wafer für den GF100 bekommen. Experten nehmen an, dass die Yieldrate der GF100 irgendwo in den 40gern liegt, wir sind mal so pessimistisch und nehmen 30% an (man bedenke hier, bei so einer Rate würde NV schon bei jeder verkauften Karte drauf zahlen). Dann sind wir aber bereits bei 300.000 Karten.
 
Zuletzt bearbeitet:
Da haste recht, 100€ Voll Wasserkühler kommt nicht in Frage, wenn dann nur für die GPU, das sollte ja super klappen.

Ich weiß nett...ob das reicht...die Ram auf den ATIs ab 1200....da kannste Eier drauf backen...von den SPAWA mal abgesehen...du weist ja noch ab 60 Grad bei den 280ern war Schicht im Schacht mit OC....
 
Ich weiß nett...ob das reicht...die Ram auf den ATIs ab 1200....da kannste Eier drauf backen...von den SPAWA mal abgesehen...du weist ja noch ab 60 Grad bei den 280ern war Schicht im Schacht mit OC....

Du kannst ja alles auf der Karte drauflassen, also auch der original Luftkühler, nur halt den Block auf der GPU durch einen Wasserkühler austauschen.
 
ich werd mir eure Baschteleien ansehen :d freu mich jetzt schon drauf was da so geht.
 
Das dürfte jedem klar sein der ein bisschen ahnung vom GPU OC hat. Bei ner TDP von 250W. Im regelfall ziehen die Karten einiges mehr als die TDP bei full load. Und das schon ohne OC.

Ich dachte bis jetzt, dass die TDP eigentlich nur von einer Anwendung überschritten wird -> Furmark ! :shot:

Dann folgt, meine ich in Erinnerung zu haben Vantage.

Etwas dahinter dann Games wie Crysis WH, Clear Sky (das die HW mehr als CoP fordert) oder nun vielleicht Metro.


Leider hat man halt hier nur GRiD getestet und nicht noch zusätzlich eines der eben erwähnten Games sowie Vantage.

1no2u.png


Also - ich denke, dass auch die 480er bei gesetzter TDP von 250 Watt unter Load (kein Furmark), unter der TDP bleiben dürfte - mehr als 230 Watt dürften es unter Load nicht sein.
 
Zuletzt bearbeitet:
Ich dachte bis jetzt, dass die TDP eigentlich nur von einer Anwendung überschritten wird -> Furmark ! :shot:

Dann folgt, meine ich in Erinnerung zu haben Vantage.
Etwas dahinter dann Games wie Crysis WH, Clear Sky (das die HW mehr als CoP fordert) oder nun vielleicht Metro.
Leider hat man halt hier nur GRiD getestet und nicht noch zusätzlich eines der eben erwähnten Games sowie Vantage.
Also - ich denke, dass auch die 480er bei gesetzter TDP von 250 Watt unter Load (kein Furmark), unter der TDP bleiben dürfte - mehr als 230 Watt dürften es unter Load nicht sein.
ZB Filme rändern mit Cuda oder dem Avivoconverter und schon hast Du deine Furmarkwerte mit den karten. Einige Games schaffen das auch bei hohen Settings und Auflösungen. Grid ist da kein indikator. Um stabiles OC zu haben braucht man auch reserven ud die sind bei Highendkarten knapp bemessen.
 
Zuletzt bearbeitet:
Motkachler schrieb:
Im regelfall ziehen die Karten einiges mehr als die TDP bei full load. Und das schon ohne OC. [...] Einige Games schaffen das auch bei hohen Settings und Auflösungen.
Das ist Bullshit³. Es gibt kein (vermessenes) Spiel, welches bei aktuellen Karten die TDP sprengt - selbst Bioshock nicht :rolleyes:

Belege mal, dass "einige" Games die TDP sprengen. Viel Spaß beim Links suchen.
Motkachler schrieb:
ZB Filme rändern mit Cuda oder dem Avivoconverter und schon hast Du deine Furmarkwerte mit den karten.
Link? :rolleyes:
 
Zuletzt bearbeitet:
Das ist Verbrauch den ich selbst herbeiführe wenn ich das will.....aber die Karte an sich hat einen anständigen Wert im idlen zu haben in der heutigen Zeit, Basta.

Und das ist schlichweg zumindest für mich ein nogo beim Furby.

Dann wiederlege du das mal zb crysis mit ner OCden 280 >hoher shader....dann schaust aber blöde :d

und mit Cuda.....wenn das umgesetzt wird, wie warm die Karte wird....isses auf jedenfall nicht wenig.... :d
 
Zuletzt bearbeitet:
dann wird ati gehörig feuer unterm arsch gemacht. Die preise der 5er reihe sind echt jenseits von gut und böse

ich bleibe dabei, Ati bzw. die Händler werden keinen Grund haben die Preise zu senken..
Selbst wenn Fermi eine gute Verfügbarkeit haben sollte, die Karten
werden wie von nvidia gewohnt schweineteuer sein und das wird viele abschrecken.

Höchstens auf lange Sicht gesehen kann man hoffen, dass irgendwann einmal...
 
@Y33H
Ich kann selber messen brauche keine links besonders keine von seiten denen ich eh nicht traue. Metro schafft genauso wie avivo die 188 W TDP der 5870 locker soviel zu deinem gewafe.
 
Zuletzt bearbeitet:
na hoffentlich hast du recht!!!
dann wird ati gehörig feuer unterm arsch gemacht. Die preise der 5er reihe sind echt jenseits von gut und böse

Ich bin mir da schon sehr sicher nur mit dem Feuer unterm Arsch von Ati wird es wohl trozdem nichts, denn auch 200 bis 500k ist verdammt wenig, man bedenke, dass im letzten Quartal ca. 150mio. Grafikkarten verkauft wurden und auch wenn davon nur 1% auf das Konto der Highendgamer gehn, sind diese paar Karten ganz schnell weg.
 
Und AMD hat sicher auch noch Wafer von TSMC abbekommen. Die darfst du von den NV Wafern auch noch abziehen! ;)
 
Also hier hab ich eine Liste gefunden:

http://mark.zoomcities.com/images/gfx/GFXpowerchartbyidle.png

Beispiel GTX 295 - Typical 3D (207 Watt), Peak (Furmark) - 313 Watt.
Ich meine, irgendwo mal gelesen zu haben, dass der Verbrauch in Vantage etwas höher als in wirklich fordernden Games liegt (meine hier wären es 215 - 225 Watt bei der 295er). Da wär also noch etwas Luft zur TDP (289 Watt).

Ich denke, dass bei der 480er in Sachen Verbrauch @ Load die Distanz zur TDP nicht so groß ist, aber schon dass sie ohne Probleme um die 15 Watt darunter liegen sollte.
 
Und AMD hat sicher auch noch Wafer von TSMC abbekommen. Die darfst du von den NV Wafern auch noch abziehen! ;)

Das habe ich doch mehr als großzügig getan. Ich hab geschätzt, dass NV 10k von 66,6K Wafern bekommen hat, da bleiben dann noch 56,6K für die anderen Kunden. Man bedenke auch, dass NV der mit Abstand größte Abnehmer für 40nm Wafer bei TSMC ist.
 
@Y33H
Ich kann selber messen brauche keine links besonders keine von seiten denen ich eh nicht traue. Metro schafft genauso wie avivo die 188 W TDP der 5870 locker soviel zu deinem gewafe.

Hm...und die HD 5870 läuft dann @ Stock ?

Mit OC sollte man halt schon schnell drüber kommen, das ist klar (kommt dann noch Voltage Tweaking für max. OC hinzu, dann braucht die Karte @ Load ohne Probleme 100 Watt mehr als @ Stock).

Mal ganz interessant: Aus dem HD 5850 Thread, jeweils komplettes System:

Crysis
2048*1152 8*aa , very high

idle 157/300
122w

725/1000 1,088v
29fps 270w

775/1125 1,088(ccc max)
31-32fps 280w

820/1200 1,088
33-34fps 285w

850/1220 1,1
34fps 294w

900/1220 1,2v
35fps 325w

950/1220 1,2v
36fps 330w

1000/1220 1,3v
37fps 370w

Klar dürfte sein, dass die TDP bei beiden GF100ern mit OC schneller durchstoßen wird - und wenn man an der Volt-Schraube dreht, knackt man bei der 480er auch mal schnell die 300 Watt Grenze - bei 1.1 GHz @ 1.5V waren es ja um die 600Watt. :fresse:
 
Zuletzt bearbeitet:
Also hier hab ich eine Liste gefunden:

http://mark.zoomcities.com/images/gfx/GFXpowerchartbyidle.png

Beispiel GTX 295 - Typical 3D (207 Watt), Peak (Furmark) - 313 Watt.
Ich meine, irgendwo mal gelesen zu haben, dass der Verbrauch in Vantage etwas höher als in wirklich fordernden Games liegt (meine hier wären es 215 - 225 Watt bei der 295er). Da wär also noch etwas Luft zur TDP (289 Watt).

Ich denke, dass bei der 480er in Sachen Verbrauch @ Load die Distanz zur TDP nicht so groß ist, aber schon dass sie ohne Probleme um die 15 Watt darunter liegen sollte.
In Metro DX 11 Physx on Tessslation on alles high 1900y1200.
hab ich beim zocken spitzen von 202 Watt bei der 5870 gemessen. Wobei bei Metro die CPU last durch Phyx die messung verfälschen kann.
Beim Codieren von Filmen mit nem 64bit converter messe ich bis 207W bei ner TDP von 188W.
die 5870 läuft mit defautl Spannung auf 930 Mhz übervoltet aber etwas nach GPUz.
Also mit etwas spannungserhöhung knackt man die TDP locker flockig wenn sie richtig gefordert wird bei den 5870 ern.
Wird beim Fermi nicht anders sein.
 
Zuletzt bearbeitet:
In Metro DX 11 Physx on Tessslation on alles high 1900y1200.
hab ich beim zocken spitzen von 202 Watt bei der 5870 gemessen wobei bei Metro die CPU last durch Phyx die messung verfälschen kann.
Beim Codieren von Filmen mit nem 64bit converter messe ich bis 207W bei ner TDP von 188W.
die 5870 läuft mit defautl Spannung auf 930 Mhz übervoltet aber etwas nach GPUz.
Also mit etwas spannungserhöhung knackt man die TDP locker flockig bei den 5870 ern.
Wird beim Fermi nicht anders sein.


Mit welchem Gerät hast du das vermessen?
 
@ Motkachler: Interessant. Hab leider keine Vergleichswerte. Metro 2033 @ 1920x1200, DX11 und max. ist da sicherlich ein Stückchen fordernder, was den Stromverbrauch angeht als Crysis @ 2048*1152 8*aa , very high. Könnt ich mir jedenfalls vorstellen.

Bei der HD 5850 waren es von 725/1000 MHz auf 820/1200 @ 1.088V (stock) ein Anstieg um 15 Watt. Wie weit das jetzt von den 170 Watt TDP entfernt war, kann man aber leider nicht genau sagen.

Ich meine eine HD 5870 @ stock braucht in Games ja im Schnitt zwischen 140 - 150 Watt. Wär schon krass, wenn sich Metro hier deutlich über 30 Watt mehr genehmigt (abzüglich dem Mehrverbrauch durch das OC). Wobei bei der HD 5850 das GDDR5 OC um 200 MHz sicher den Löwenanteil an den 15 Watt mehr @ Crysis gehabt haben sollte.

Ok, ich denke, solange man hier keine genauen Userangaben zum Verhalten von GF100 diesbezüglich kennt,sollte man diese Diskussion lieber später weiterführen. Wir wissen halt nur, dass im Verhältnis zu RV870 die TDP schneller geknackt sein dürfte.

:btt:
 
Zuletzt bearbeitet:
Mit welchem Gerät hast du das vermessen?
Ich messe mit nem Voltcraft 3000 das kann aufzeichnen über nen längeren abschnitt. Sinnvoll bei rändern schwankt gewaltig.
Auch je nach konverter software. Fakt ist das man auch schon mit geringer spannungsehöhung beim OC die DTP locker knacken kann bei solchen karten.
Egal ob ATI oder NV. genug OT.
 
Zuletzt bearbeitet:
Naja so wie das ausieht mit dem Fermi bleib ich doch bei meiner gtx260 mit756/1512/1215
und versuch in verbindung mit dem MK-13 noch etwas höher zu kommen.
Aber sollte die GTX 470 oder die HD5870 für 250 e geben dann ist es eine überlegung wert zu wechseln.

und zum thema TDP und games Crysis ist zwar schon anspruchsvoll aber GRID lastet die shader viel regelmässiger aus und bringt dadurch letztendlich über längeren zeitraum den grösseren verbrauch.
 
Zuletzt bearbeitet:
Ich messe mit nem Voltcraft 3000 das kann aufzeichnen über nen längeren abschnitt. Sinnvoll bei rändern schwankt gewaltig.
Auch je nach konverter software.

Der ist aber auch nicht so genau:

voltcraftpqfd.jpg


Der No-Energy wäre da schon besser gewesen.
 
Naja so wie das ausieht mit dem Fermi bleib ich doch bei meiner gtx260 mit756/1512/1215
und versuch in verbindung mit dem MK-13 noch etwas höher zu kommen.
Aber sollte die GTX 470 oder die HD5870 für 250 e geben dann ist es eine überlegung wert zu wechseln.

Interessant. Gut, dass du das hier geschrieben hast.

@AtiForumScreen: Lustig die sind. :bigok:
 
Ich messe mit nem Voltcraft 3000 das kann aufzeichnen über nen längeren abschnitt. Sinnvoll bei rändern schwankt gewaltig.
Auch je nach konverter software. Fakt ist das man auch schon mit geringer spannungsehöhung beim OC die DTP locker knacken kann bei solchen karten.
Egal ob ATI oder NV. genug OT.


Das misst aber nur das gesamte System. Du wirst wohl die Differenz messen, aber die Rechnung geht nicht auf.
 
Motkachler schrieb:
Beim Codieren von Filmen mit nem 64bit converter messe ich bis 207W bei ner TDP von 188W.
Du hast einen Extender samt Ampere-Zange und Multimeter? :rolleyes: Ansonsten - Finger still halten und keinen BS posten. Danke.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh