***** G80 Sammelthread 1.2 *****

Status
Für weitere Antworten geschlossen.
so es wird zeit für den Sammel thread !

neuste news zeigen uns

GF 8800 GTX:
Preis 599,- US-$
Takrate Kern (MHz) 575
Taktrate Speicher (MHz) 900
Taktrate Shader (MHz) 1350
Speicher 768 MByte
Fertigung 90nm
Transistoren 681 Mio.
Shader-Version 4.0
Shader-Alus (VS/PS) 128
Textureinheiten (TA/TMU) 32/64
Speichertyp DDR3
Rechenleistung (GFLOP/s) 345.6
Texturfüllrate (MTex/s) 18.400
Speicherbandbreite (MByte/s) 86.400
Multi-Sampling max. 16x
Anti-Aliasing max. 16xQ
MSSA + HDR-Rendring FP16, FP32
Länge: 26,7 cm

GF 8800 GTS:
Preis 449,- US-$
Takrate Kern (MHz) 500
Taktrate Speicher (MHz) 800
Taktrate Shader (MHz) 1200
Speicher 640 MByte
Fertigung 90nm
Transistoren 681 Mio. (wie die GTX)
Shader-Version 4.0
Shader-Alus (VS/PS) 96
Textureinheiten (TA/TMU) 24/48
Speichertyp DDR3
Rechenleistung (GFLOP/s) 230.4
Texturfüllrate (MTex/s) 12.000
Speicherbandbreite (MByte/s) 64.000
Multi-Sampling max. 16x
Anti-Aliasing max. 16xQ
MSSA + HDR-Rendring FP16, FP32
Länge: 22cm

thx an PitGST

Generelle Features:

* Gigathread-Architektur
* 16x FSAA (programmierbares AA-Muster
* 128 Bit Floating Point HDR
* OpenGL 2.0
* Direct3D 10[/B]


weitere Ausstattungen:
Der Geforce 8 unterstützt Direct X 10 sowie Open GL 2.0 und ist zudem SLI-fähig. Die Karten verfügen über zwei Dual-Link-DVI-I-Anschlüsse und eine Video-In/Out-Buchse. Der Grafikchip unterstützt HDCP (High-bandwidth Digital Content Protection) und kann damit auch hoch aufgelöste Filme wiedergeben, die auf Blu-ray- und HD-DVD-Medien gespeichert sind.


erste Informationen
http://www.gamestar.de/news/hardware/geforce_8800_gtx_und_gts/1465523/geforce_8800_gtx_und_gts.html




PCB Länge 260mm (26cm)
Gewicht 800 gramm



Strom Versorgung:
empfohlen wird ein 450W Netzteil mit 30A auf der 12V Schiene.
Die Karte wird unter volllast etwa 200W ziehen und soll dabei aber dennoch Kühl und leise sein Laufen !
(alle angaben beziehen sich auf den Referenz Luft Kühler der mit Heat pipes ausgestattet ist !)
(Geforce 8800 GTS: 400 Watt/26 Ampere)


Zusatz Informationen:
Bereits an Bord der Geforce-8-Grafikchips befindet sich eine Physik-Recheneinheit namens Quantum Effects Physics Processor. Sie soll die Physikberechnung übernehmen. Detaillierte Informationen zum Quantum Effects Physics Processor Folgen.

Fest steht aber, dass der Geforce 8 jetzt - ebenso wie ATI - das High Dynamic Range Rendering (HDRR) mit 128-Bit-Genauigkeit durchführen kann, ohne das Sie dabei auf Kantenglättung bis hinauf zum 16x-Full-Screen-Modus verzichten müssen.

8800gtxjq3.png

Quelle


sizegf1.jpg


8800GTX
8800GTX_2_h1UMLAQvfIWk.jpg


8800GTS
8800GTS_2_KxAZw5kFM7Pm.jpg


Ersters Review & mehr
http://www.hardwareluxx.de/cms/artikel.php?action=show&id=487


http://www.computerbase.de/news/har...a/2006/november/weitere_geforce_8800_gtx_gts/

http://www.chip.de/artikel/c1_artikel_22630651.html
 
15" Röhre;) Nein im Ernst, habe einen 20" Samsung TFT mit 1600*1200. Gamebenches etc. kommen, aber erst in einem anderen Forum.
Und das Board kommt auch erst nen Tag später als die Grakas. Könnte höchstens eine in den LAN-Rechner einbauen. Da hat sie aber nur einen X2 mit 3Ghz zur Verfügung.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das wäre dann mal für Leute wie mich interessant zu sehen wie sie so mit nem X2 3800+ zurecht kommt. wäre also supi nett von dir das mal zu machn.
 
... Achja?Dann sag das bitte Soldier und schnitzel das es hier um denn G80 geht und nicht um denn R600.Hier haben ganz andere geflammt.Ich habe hier denn R600 nie ins Wort genommen ...

Deine Posts zum Ruckruf der 8800 und 7900 GTX defekte hat den Stein ins rollen gebracht, damit hättest Du im G80 Thread rechnen müssen, wegen Deiner Schadenfreude. Im übrigen hat es ein Thread der Dir bestimmt mehr zusagen dürfte als hier im NIVIDA G80 zu spammen. ;)

Schaust Du :http://www.forumdeluxx.de/forum/showthread.php?t=202727 da wird Dir geholfen. ;)

:btt: to 8800 GTX end-geil-power-Graka-turbo-physx-beschleuniger :angel:

mfg
 
Die 8800 GTX ist ja auch ne wucht Soldier da stimm ich dir zu 100$ zu.:drool:

Das ding ist einfach nur Hardcore----
 

Wurde jetzt schon 100 mal gepostet, .. vlt könntet ihr erst mal die letzten Posts lesen?

€dit:

Für den Enduser aber wohl nicht weiter schlimm!

"Uns gegenüber teilte nVidia jedoch mit, dass es sich lediglich um die von den Board-Partnern an die Presse ausgelieferten Testexemplare handelt. Karten, die in den Handel kommen, oder direkt von nVidia gestellt wurden, sind nicht betroffen."
 
Zuletzt bearbeitet:
Wurde jetzt schon 100 mal gepostet, .. vlt könntet ihr erst mal die letzten Posts lesen?

€dit:

Für den Enduser aber wohl nicht weiter schlimm!

"Uns gegenüber teilte nVidia jedoch mit, dass es sich lediglich um die von den Board-Partnern an die Presse ausgelieferten Testexemplare handelt. Karten, die in den Handel kommen, oder direkt von nVidia gestellt wurden, sind nicht betroffen."

Lies du mal genau !!! Ist ne andere News !!!
 
@ Dominator18

Kauft Dir doch auch mal eine, wenn sie nicht mehr haben möchtest verkaufst sie halt wieder und holst ne ATI. Ich hatte mehrere ATIs vorher und bleib bei NIVIDA aus verschiedenen Gründen, will da nichts absichtlich schlecht machen, wenn sich was ändert bei ATI vielleicht mal wieder, aber ich warte. :hmm:

Die nächste Karte die ich noch haben will ist sowiso noch ne 7950 GX2, brauch diese noch für den Büro PC oder als reserve, die es jetzt günstig gibt. ;)

Vista ist sowiso noch nicht so auf Games getrimmt wie die Kollegen heute von 3dcenter schreiben, also bleib ich noch ne weile bei Shader 3. :d http://www.3dcenter.org/

@ King Bill

Es heist doch genau gesagt Havok FX Physx Engine oder etwa nicht ? :hmm:

mfg
 
Zuletzt bearbeitet:
Die werte dürfen eigentlich nicht stimmen.Die 7950 GX2 kann garnicht schneller als die GTs sein.preislich liegen die beiden karten gleich auf.

Natürlich kann die 7950GX² schneller als die GTS sein.
 
@Soldier
Wobei das ja nicht an Vista, sondern wohl eher an den Kopierschutzmechanismen der Spielehersteller liegt, wie 3DCenter schreibt. ;)
 
die gx2 hat ja auch 2 gpus und die gts nur eine. Von daher kann es ja durchaus sein das die gx2 eben in dx9 schneller ist, als die gts. Ihr fehlt aber das winkelunabhängige rendern.
 
@ Aven

Hast alles durch gelesen ? Warum das die Graka Hersteller jetzt zu Vista auf einmal sollche Monster von Karten bauen hat bestimmt seinen Grund. Ich glaub Vista wird mehr an den Hardware Resurcen Reserven kratzen als wir uns heute vorstellen können, Grund zur annahme wurde schon viel dazu geschrieben, sei es Ram, der ausgelagerte Kernel, 3 x PCIe x16, der PCIe 2.0 Standart, 1000 W NT, kommende Quad Cores und und es bezieht sich jo nicht alleine nur auf Grafik und Spiele, man sollte es im Ganzen anschauen im Packet. :hmm:

mfg
 
Ja und wo ist da das Problem? Genau das was du schreibst, wurde zu Zeiten des Umstieges von Win98/ME auf WinXP auch gesagt und hat dort genauso stattgefunden, wie es jetzt beim umstieg von XP auf Vista zu sein scheint.

Das ist doch eine ganz normale Entwicklung. Alles wird stärker und dementsprechend auch intensiver ausgenutz. Das hat doch nun nichts damit zu tun, das Vista nicht so auf Spiele getrimmt ist, wie du in deinem vorherigen Post schreibst und 3DCenter hat das auch nicht so geschrieben. Im Gegenteil. Die schieben den schwarzen Peter nichtmal Vista zu, sondern den Kopierchutzmechanismen.

Ich find das ganze gar nicht weiter schlimm und auch nicht tragisch.
 
Zuletzt bearbeitet:
@SOLDIER: Das denke ich nicht. Meiner Meinung nach wird Vista bei Spielen - auch unter DX9 - schneller als XP sein. Ich habe jetzt 2x Vista getestet. Das 1. Mal mit dem RC1 5600 und den ATi RC1-Treibern, das 2. Mal mit dem preRTM 5840 und den ATi RTM-treibern. Schon der RC1 lief sauber, ich konnte aber noch ein paar Bugs im IE und im Explorer finden. Auch war die (Spiele-)Performance noch etwa 30% unter XP. Mit dem neuem preRTM und den neuen treibern hat sich die Spieleleistung fast verdoppelt! Und bedenke daß es schon die RTM 6000er gibt und die Treiber von ATi noch lange nicht final sind.
 
Schauen wir es uns an wenn es soweit und Vista zu haben ist wenn die ersten hier im Forum darüber berichten werden.

Jo hab auch den RC2 auf dem anderen PC schon angeschaut.

mfg
 
Zuletzt bearbeitet:
Nochmal auf Deutsch und OHNE Link, nicht das wieder einer nen Anfall bekommt:

Update: Wie wir soeben von NVIDIA erfahren haben, betrifft der Fehler nur frühe Testmuster der GeForce 8800 GTX. Karten für den Handel sollen davon nicht betroffen sein.
 
Also, ist doch alles wieder in Butter.
Selbst wenn ich eine defekte bekommen würde - dann wird die halt getauscht.

Aber deswegen kaufe ich mir (erstmal) trotzdem keine. Warte wohl auf den Refresh. SM4 brauche ich jetzt noch nicht. Hatte sowieso noch nicht vor, auf Vista umzusteigen - na ja, mal sehen ...
Außerdem befürchte ich, dass das mit SM4 von der Leistung her nicht das Gelbe vom Ei ist, jetzt schon zu wechseln. Bin da immer noch skeptisch.
Aber wir werden ja sehen.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh