***** G80 Sammelthread 1.4 *****

Status
Für weitere Antworten geschlossen.
so es wird zeit für den Sammel thread !

neuste news zeigen uns

GF 8800 GTX:
Preis 599,- US-$
Takrate Kern (MHz) 575
Taktrate Speicher (MHz) 900
Taktrate Shader (MHz) 1350
Speicher 768 MByte
Fertigung 90nm
Transistoren 681 Mio.
Shader-Version 4.0
Shader-Alus (VS/PS) 128
Textureinheiten (TA/TMU) 32/64
Speichertyp DDR3
Rechenleistung (GFLOP/s) 345.6
Texturfüllrate (MTex/s) 18.400
Speicherbandbreite (MByte/s) 86.400
Multi-Sampling max. 16x
Anti-Aliasing max. 16xQ
MSSA + HDR-Rendring FP16, FP32
Länge: 26,7 cm

GF 8800 GTS:
Preis 449,- US-$
Takrate Kern (MHz) 500
Taktrate Speicher (MHz) 800
Taktrate Shader (MHz) 1200
Speicher 640 MByte
Fertigung 90nm
Transistoren 681 Mio. (wie die GTX)
Shader-Version 4.0
Shader-Alus (VS/PS) 96
Textureinheiten (TA/TMU) 24/48
Speichertyp DDR3
Rechenleistung (GFLOP/s) 230.4
Texturfüllrate (MTex/s) 12.000
Speicherbandbreite (MByte/s) 64.000
Multi-Sampling max. 16x
Anti-Aliasing max. 16xQ
MSSA + HDR-Rendring FP16, FP32
Länge: 22cm

thx an PitGST

Generelle Features:

* Gigathread-Architektur
* 16x FSAA (programmierbares AA-Muster
* 128 Bit Floating Point HDR
* OpenGL 2.0
* Direct3D 10[/B]


weitere Ausstattungen:
Der Geforce 8 unterstützt Direct X 10 sowie Open GL 2.0 und ist zudem SLI-fähig. Die Karten verfügen über zwei Dual-Link-DVI-I-Anschlüsse und eine Video-In/Out-Buchse. Der Grafikchip unterstützt HDCP (High-bandwidth Digital Content Protection) und kann damit auch hoch aufgelöste Filme wiedergeben, die auf Blu-ray- und HD-DVD-Medien gespeichert sind.


erste Informationen
http://www.gamestar.de/news/hardware/geforce_8800_gtx_und_gts/1465523/geforce_8800_gtx_und_gts.html




PCB Länge 260mm (26cm)
Gewicht 800 gramm



Strom Versorgung:
empfohlen wird ein 450W Netzteil mit 30A auf der 12V Schiene.
Die Karte wird unter volllast etwa 200W ziehen und soll dabei aber dennoch Kühl und leise sein Laufen !
(alle angaben beziehen sich auf den Referenz Luft Kühler der mit Heat pipes ausgestattet ist !)
(Geforce 8800 GTS: 400 Watt/26 Ampere)


Zusatz Informationen:
Bereits an Bord der Geforce-8-Grafikchips befindet sich eine Physik-Recheneinheit namens Quantum Effects Physics Processor. Sie soll die Physikberechnung übernehmen. Detaillierte Informationen zum Quantum Effects Physics Processor Folgen.

Fest steht aber, dass der Geforce 8 jetzt - ebenso wie ATI - das High Dynamic Range Rendering (HDRR) mit 128-Bit-Genauigkeit durchführen kann, ohne das Sie dabei auf Kantenglättung bis hinauf zum 16x-Full-Screen-Modus verzichten müssen.

8800gtxjq3.png

Quelle


sizegf1.jpg


8800GTX
8800GTX_2_h1UMLAQvfIWk.jpg


8800GTS
8800GTS_2_KxAZw5kFM7Pm.jpg


Ersters Review & mehr
http://www.hardwareluxx.de/cms/artikel.php?action=show&id=487


http://www.computerbase.de/news/har...a/2006/november/weitere_geforce_8800_gtx_gts/

http://www.chip.de/artikel/c1_artikel_22630651.html
 
Hat schon jemand mal nachgemessen(Wattmeter) was es bringt auf Minimaltakt runterzugehen @ idle Power.

Ein Grund der mich bei der Karte abschreckt = der nicht mehr zeitgemässe,wahnsinnige idle-Verbrauch.

Und ich dachte schon bei der Ati 1900-Serie das die schlucken @idle,
Unverschämtheit @ Geforce 8.

Ob das andere Treiber hinbekommen bezweifel ich mal.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hat schon jemand mal nachgemessen(Wattmeter) was es bringt auf Minimaltakt runterzugehen @ idle Power.

Ein Grund der mich bei der Karte abschreckt = der nicht mehr zeitgemässe,wahnsinnige idle-Verbrauch.

Und ich dachte schon bei der Ati 1900-Serie das die schlucken @idle,
Unverschämtheit @ Geforce 8.

Ob das andere Treiber hinbekommen bezweifel ich mal.

Hi BikerKS,

gerade heute hatte ich einen genauen Vergleich des Stromverbrauchs einer X1900XTX und einer 8800GTX vorgenommen. Das entsprechende System basierte auf dem Sockel 939. Im Idle habe ich einen Unterschied von ca. 40Watt und im Load von gut 20Watt ermittelt, natürlich zugunsten der ATI Karte. Dennoch war ich über den eher geringen Unterschied im Load sehr angenehm überrascht, besonders im Hinblick auf die Leistungsfähigkeit der neuen NVidia Karte. Ich gehe fest davon aus, dass in Kürze der Verbrauch im Idle deutlich reduziert werden wird.
 
Hi

Ja wir werden damit leben müssen und Wakü wird Pflicht besonders für die Sommermonate.

Gruß Hugo.

definitv. Aber bis dahin haben wir wieder was anderes :shot:

Wir suchen immernoch Member die Sammelthreads zur 8800 GTX und 8800 GTS Leiten möchten. Bewerben sollten am besten eine der entsprechenden Karten haben und auch die Zeit sich um den Thread zu kümmern - bisherige Meldungen :


8800 GTX
  • ciRo
  • Blackpitty
  • hollomen
  • webwilli ?



8800 GTS
  • keiner :fresse:
.


ok. ich bin dabei und versuche so gut ich kann zu helfen. ;)
 
Hat hier wer 800GTX SLI ? In dem Forum hab ich bis jetzt keinen gesehn. Ihr Loser :fresse:
 
Moin stehe kurz davor ne Großbestellung rauszuschicken ;) unter anderem auch die 8800gtx....aber ich wollte nochmal kurz wissen:

was für kinderkrankheiten haben die g80 nochmal ?

ich hab von einigen karten gehört bei denen etwas nachträglich gelötet wurde oder sowas ?

Kinderkrankheiten sind derzeit wohl eher Treiberprobleme und zu langsame CPUs, bzw. zu kleine Auflösungen :shot:

Alle Karten die im Handel sind, sind fehlerfrei und man sie getrost kaufen.
 
Die Theorie über den Sprung beim OC der GTX kann ich bestätigen. Mit 634MHz läuft der 06er 3DMark sauber durch, mit der Einstellung von 635MHz friert der Benchmark schnell ein.

Wie weit kommt Ihr mit dem Speicher der Karte? Ich komme bisher mit Hilfe von PowerStrip auf die Werte 632MHz Core/1060MHz Speicher. Wieviel das OC des Speichers bringt, kann vermutlich erst mit sehr hohen Auflösungen ermittelt werden. Ich richte meinen Blick aktuell auf den neuen 4,1MP 30 Zoll von Dell, nicht zuletzt deswegen, weil ich an Dell günstig herankommen kann. Dann kann meine GTX endlich richtig gefordert werden.;)

Hier mein Ergebnis mit diesen Werten (Conroe@3,6GHz):

 
Ich teste grade mit dem 16xQ AA rum. Die Grafikqualität ist phantastisch. Sowas hab ich noch nie gesehen, nicht auf 1920x1200! :love:

Titan Quest:


Ingame alles auf HQ und im Treiber alles was geht rein: Supersamling 16xQ AA usw. :love: Ich sehe zum ersten Mal keine Treppchen mehr.

Ich habe auch mal 1024x768 auf dem 24" getestet und im Treiber alles volle Pulle. Selbst da schafft es die Karte, weiche Bilder zu zeichen. Es sieht dann halt alles leicht verschwommen aus. :fresse:

Ich weiß, Ihr interessiert Euch mehr für Megahertz und Schwanzmark. Mich begeistert die Grafik mehr. Wenn ich mir die Screenshots ansehe, weiß ich warum ich eine 8800GTX habe, unabhängig von schnöden Benchpunkten. :love:

Mir tun Leute leid, die so eine Karte mit 17" und 19" auf 1280x1024 verschwenden.

Bencht ihr nur, ich gehe und spiele HD! :d :p
 
Zuletzt bearbeitet:
Hat hier wer 800GTX SLI ? In dem Forum hab ich bis jetzt keinen gesehn. Ihr Loser :fresse:

K7 hat ein 8800GTX SLI.

Mich halten derzeit drei Dinge davon ab:

• Mein Netzteil
• Mein Mainboard
• Mein Geldbeutel
Hinzugefügter Post:
Die Theorie über den Sprung beim OC der GTX kann ich bestätigen. Mit 634MHz läuft der 06er 3DMark sauber durch, mit der Einstellung von 635MHz friert der Benchmark schnell ein.

Wie weit kommt Ihr mit dem Speicher der Karte? Ich komme bisher mit Hilfe von PowerStrip auf die Werte 632MHz Core/1060MHz Speicher. Wieviel das OC des Speichers bringt, kann vermutlich erst mit sehr hohen Auflösungen ermittelt werden. Ich richte meinen Blick aktuell auf den neuen 4,1MP 30 Zoll von Dell, nicht zuletzt deswegen, weil ich an Dell günstig herankommen kann. Dann kann meine GTX endlich richtig gefordert werden.;)

Hier mein Ergebnis mit diesen Werten (Conroe@3,6GHz):



Genau wie bei mir:

634 (621) läuft durch
635 (648) nicht mehr.

Ich wünsche mir echte 640 oder so...

Speicher habe ich aufgehört bei 1080. Das ist fehlerfrei. Bringt aber leider nicht viel.

Kannst Du das Bild nicht etwas bearbeiten? Den weißen überflüssigen Rand abschneiden.

8800gtx6321060mhzmitcorzl5.jpg
 
Zuletzt bearbeitet:
K7 hat ein 8800GTX SLI.

Mich halten derzeit drei Dinge davon ab:

• Mein Netzteil
• Mein Mainboard
• Mein Geldbeutel

Ich hatte gerade SLI gestestet und deswegen möchte ich noch etwas ergänzen:

Welches Netzteil ist bei bis zu 530Watt noch erträglich in der Lautstärke?:mad:
 
so hier meine, ich weis echt net wie ihr an 12000 rankommt.

gebenscht mit default takt


bin mal dabei
 
Zuletzt bearbeitet:
Ich hab ein Problem mit Oblivion und der GTS. Schatten flimmern und sind nicht vollständig. Normal?

Treiber: 96.89
 
Zuletzt bearbeitet:
Gibts denn einen großen Unterschied zwischen 16xAA und 16QxAA? Die Performance ist bei 16xAA besser ja, aber rechtfertigt das Q den Einbruch?

Hab das was von 16xAA 120fps und 16QxAA 80fps in Erinnerung.

Gibts da Vergleichsscreens?
 
Ähm, Du jammerst über Stromverbrauch, bringst aber nen Core 2 auf 4 GHz? :fresse:

Idle-Werte sind nicht Lastwerte!

Wenn ich mein Benutzerprofil ansehe sind 30-40W unnötig verbratene Grafikkartenpower im idle schon nicht schön.

Wenn ich dann mal zocke ist das was anderes:shot: @Last...

PS: Mein C2D läuft mit 2,7 @1,08V (idle) 3,6 mit 1,39V(Multi 8) - mit zuschaltbarer 3,9Ghz Verbraterei @1,51V die dann natürlich egal ist:-)
 
Zuletzt bearbeitet:
@Strider
Das haengt auch von den anderen Komponenten ab.
Wenn du nicht uebertaktest, dann mag es sein.
Ich wuerde aber lieber zum M12-700 greifen ;)
 
Hmm, ich hab jetzt mal Gothic 3 installiert und neuen nvidia Treiber.
Irgendwie flimmert das ganze Spiel. Z.B die Bäume flimmern weißlich und der Boden flimmert auch beim Laufen.

Hoffentlich ist die Graka nicht defekt.
 
@PredatorGER
Das liegt an Gothic.
Installiere mal den aktuellsten patch ...
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh