***** G80 Sammelthread 1.3 *****

Status
Für weitere Antworten geschlossen.
so es wird zeit für den Sammel thread !

neuste news zeigen uns

GF 8800 GTX:
Preis 599,- US-$
Takrate Kern (MHz) 575
Taktrate Speicher (MHz) 900
Taktrate Shader (MHz) 1350
Speicher 768 MByte
Fertigung 90nm
Transistoren 681 Mio.
Shader-Version 4.0
Shader-Alus (VS/PS) 128
Textureinheiten (TA/TMU) 32/64
Speichertyp DDR3
Rechenleistung (GFLOP/s) 345.6
Texturfüllrate (MTex/s) 18.400
Speicherbandbreite (MByte/s) 86.400
Multi-Sampling max. 16x
Anti-Aliasing max. 16xQ
MSSA + HDR-Rendring FP16, FP32
Länge: 26,7 cm

GF 8800 GTS:
Preis 449,- US-$
Takrate Kern (MHz) 500
Taktrate Speicher (MHz) 800
Taktrate Shader (MHz) 1200
Speicher 640 MByte
Fertigung 90nm
Transistoren 681 Mio. (wie die GTX)
Shader-Version 4.0
Shader-Alus (VS/PS) 96
Textureinheiten (TA/TMU) 24/48
Speichertyp DDR3
Rechenleistung (GFLOP/s) 230.4
Texturfüllrate (MTex/s) 12.000
Speicherbandbreite (MByte/s) 64.000
Multi-Sampling max. 16x
Anti-Aliasing max. 16xQ
MSSA + HDR-Rendring FP16, FP32
Länge: 22cm

thx an PitGST

Generelle Features:

* Gigathread-Architektur
* 16x FSAA (programmierbares AA-Muster
* 128 Bit Floating Point HDR
* OpenGL 2.0
* Direct3D 10[/B]


weitere Ausstattungen:
Der Geforce 8 unterstützt Direct X 10 sowie Open GL 2.0 und ist zudem SLI-fähig. Die Karten verfügen über zwei Dual-Link-DVI-I-Anschlüsse und eine Video-In/Out-Buchse. Der Grafikchip unterstützt HDCP (High-bandwidth Digital Content Protection) und kann damit auch hoch aufgelöste Filme wiedergeben, die auf Blu-ray- und HD-DVD-Medien gespeichert sind.


erste Informationen
http://www.gamestar.de/news/hardware/geforce_8800_gtx_und_gts/1465523/geforce_8800_gtx_und_gts.html




PCB Länge 260mm (26cm)
Gewicht 800 gramm



Strom Versorgung:
empfohlen wird ein 450W Netzteil mit 30A auf der 12V Schiene.
Die Karte wird unter volllast etwa 200W ziehen und soll dabei aber dennoch Kühl und leise sein Laufen !
(alle angaben beziehen sich auf den Referenz Luft Kühler der mit Heat pipes ausgestattet ist !)
(Geforce 8800 GTS: 400 Watt/26 Ampere)


Zusatz Informationen:
Bereits an Bord der Geforce-8-Grafikchips befindet sich eine Physik-Recheneinheit namens Quantum Effects Physics Processor. Sie soll die Physikberechnung übernehmen. Detaillierte Informationen zum Quantum Effects Physics Processor Folgen.

Fest steht aber, dass der Geforce 8 jetzt - ebenso wie ATI - das High Dynamic Range Rendering (HDRR) mit 128-Bit-Genauigkeit durchführen kann, ohne das Sie dabei auf Kantenglättung bis hinauf zum 16x-Full-Screen-Modus verzichten müssen.

8800gtxjq3.png

Quelle


sizegf1.jpg


8800GTX
8800GTX_2_h1UMLAQvfIWk.jpg


8800GTS
8800GTS_2_KxAZw5kFM7Pm.jpg


Ersters Review & mehr
http://www.hardwareluxx.de/cms/artikel.php?action=show&id=487


http://www.computerbase.de/news/har...a/2006/november/weitere_geforce_8800_gtx_gts/

http://www.chip.de/artikel/c1_artikel_22630651.html
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Was ist mit der Verlustleistung?

wen interessiert die denn wirklich ?

Mein Sys hat eine Leistung unter Vollsat von ca 350 Watt dies entspricht bei 6 Stunden Betrieb 2,1 Kilowatt . Eine Kilowattstunde kostet derzeit mom ich kuck mal nach 14,45 cent das sind plus steuer und allem kram ungefähr 34 cent für 2,1 kilowatt. nun rechne das aufs jahr hoch und frag nochmal nach der Verlustleistung :d
 
leute schaut mal hier!
http://tweakpc.de/hardware/tests/graka/xfx_geforce_8800_gtx_gts/s10.php

dort ist bei den Benchamarks bzw. in den Spielen ein 7900er GTX System vor einer 8800GTX. dachte, dass eine 8800 GTX doch ein g71 SLI Verband in hohen Auflösungen ala 1600x1200 mit AA und AF schlagen müsste! Habe jetzt schon eine meiner beiden GTO's @GTX in Ebay laufen, da kann doch was nicht stimmen in dem test oder?

mach dir mal keine sorgen, keine ahnung, was die da gebencht haben!

ich habe mittlerweile mein 7900GTO-SLI-system um 500 punkte im 06er mit der 8800GTX überholt!
also ich habe es nicht bereut, die beiden GTO´s gegen die 8800GTX zu tauschen! :d

gruss
t.
 
ich finde es krass wie schnell nach dem erscheinen der karte reagiert wird und die angebote dem kunden angepasst werden
http://cgi.ebay.de/EVGA-GeForce-880...oryZ9393QQrdZ1QQssPageNameZWD4VQQcmdZViewItem

karte für 1,- + zusatzvertrag mit mobilcom

gruß klasse

EDIT:
sehe ich das richtig:
wenn man student ist dann zahlt man für einen vertrag 7,50Euro und nimmt noch den zweiten für 14,95 dazu
sind also 22,45Euro im monat
mal die 24Monate sind dann 538,80Euro für die GTX und 100Freiminuten

so gesehen gar nicht schlecht ;)

gruß klasse

Klar ist das schlecht ... Du zahlst zwei Jahre die Karte ab, da zahlst Du noch, wenn die Karte weniger als ein Drittel wert ist und hängst in diesem blöden Vertrag drin.
 
@ tatanos, danke für die Antwort

das beruhigt mich jetzt schon ein bisschen. Denke aber auch wenn die Leistung eines G80 gleich eines G71 SLi Systems gewesen wäre, ist alleine die bessere BildQuali ein Kaufargument bzw. Tauschargument!

Gruß
 
Klar ist das schlecht ... Du zahlst zwei Jahre die Karte ab, da zahlst Du noch, wenn die Karte weniger als ein Drittel wert ist und hängst in diesem blöden Vertrag drin.

ja gut, aber dafür zahlst du am anfang ja auch nur 1euro für die karte
die kosten entstehen so oder so, ob nun gleich oder über 2 jahre

von den gesamtkosten ist es aber interessant, obwohl ich von solchen verträgen nichts halte

gruß klasse
 
wen interessiert die denn wirklich ?

Mein Sys hat eine Leistung unter Vollsat von ca 350 Watt dies entspricht bei 6 Stunden Betrieb 2,1 Kilowatt . Eine Kilowattstunde kostet derzeit mom ich kuck mal nach 14,45 cent das sind plus steuer und allem kram ungefähr 34 cent für 2,1 kilowatt. nun rechne das aufs jahr hoch und frag nochmal nach der Verlustleistung :d



den wirkungsgrad braucht man dann kann man die abgegebenen leistung berechnen die die karte verbraucht P= U * I ist nur ein überschlagswert mehr nicht...
 
Ihr seht das vllt. auch von der falschen Seite ... die 20-30A zieht die Karte ja nicht direkt aus den 12V ... das wären ja 240-360W :fresse:

Durch die Schaltregler bedingt hat man halt im Peak so viel, aber die eigentliche Leistung fällt ja über den 1,x Volt über die Core ab ... und da fließen dann auch mehr als 30A ...
 
den wirkungsgrad braucht man dann kann man die abgegebenen leistung berechnen die die karte verbraucht P= U * I ist nur ein überschlagswert mehr nicht...

mir reicht da ein handelsübliches messgerät an das ich meinen pc anschließe :d ausserdem gehts hier ums prinzip. wieviel mehrkosten habe ich als normaluser denn wenn meine graka 50 oder 100 watt mehr braucht.
 
Zuletzt bearbeitet:
Bei ntune zeigt er mir keine GPU Taktraten an. Wie kann man das umstellen, dass das funzt? Oder geht das erst ab dem 97.02? Kann jemand verraten wie man die Lüfterdrehzahl regelt. Finde da nix. :hmm:
 
mir reicht da ein handelsübliches messgerät an das ich meinen pc anschließe :d ausserdem gehts hier ums prinzip. wieviel mehrkosten habe ich als normaluser denn wenn meine graka 50 oder 100 watt mehr braucht.

das is natürlich die einfachste möglichkeit mit nem wattmeter.... aber die genaue berechnung ist nunmal nicht ganz so einfach...


Das Leben ist ein scheiss Spiel aber die Grafik iss Geil


geniale sig.... :shot: :haha:
 
den wirkungsgrad braucht man dann kann man die abgegebenen leistung berechnen die die karte verbraucht P= U * I ist nur ein überschlagswert mehr nicht...


Jap. So meinte ich das.
Der P-Wert ist ja der Maximalwert.
Ein Netzteil hat aber keine 100% Effizenz. Ich glaube, da müsste man dann noch den entsprechenden "Wirkungsgrad" abziehen. Bin aber kein Techniker, nur Laie. :d
 
Melde gehorsamst: Von meinen beiden am Montag eingetrudelten Karten, die ich gestern abend erstmals aufgebaut habe, ist Nr.1 schon kaputt.

Leadtek GeForce 8800 GTX - gestern aufgebaut, heute Windows installiert. Das war zu viel für die Karte. Von einer Sekunde auf die andere Mosaikmuster gezeigt, dann war der Bildschirm schwarz, jetzt bootet das Board nur noch ohne Bild. Die zweite Karte ist in Ordnung, damit läuft das System einwandfrei. Super Sache würde ich sagen :grr:
 

Anhänge

  • IMG_7442.jpg
    IMG_7442.jpg
    136,5 KB · Aufrufe: 160
Melde gehorsamst: Von meinen beiden am Montag eingetrudelten Karten, die ich gestern abend erstmals aufgebaut habe, ist Nr.1 schon kaputt.

Leadtek GeForce 8800 GTX - gestern aufgebaut, heute Windows installiert. Das war zu viel für die Karte. Von einer Sekunde auf die andere Mosaikmuster gezeigt, dann war der Bildschirm schwarz, jetzt bootet das Board nur noch ohne Bild. Die zweite Karte ist in Ordnung, damit läuft das System einwandfrei. Super Sache würde ich sagen :grr:

krass, wenn sich da nicht ein desaster aller 7900gt anbahnt seitens nv.
bei mir ist ja dieses summen von den spannungswandlern zu vernehmen:hmm:
wenn der karte was passiert....kotze ich!

summen deine karten auch bzw. deine eine karte!?
 
....krass, wenn sich da nicht ein desaster aller 7900gt anbahnt seitens nv.........


ich finde dass Desaster ist schon da...
wenn man überlegt wie wenige Leute diese Karte bereits haben, dann ist es doch echt erschreckend wie viele Probleme es schon gibt...

naja, manche brauchen die Karte ja anscheindend unbedingt :haha:
 
Ne, summen tut nix.

Sind denn schon mehrere "Defekte" bekannt oder nur das Pre-Launch-Problem mit den 2D/3D-Clocks, über das berichtet wurde?
 
Ne, summen tut nix.

Sind denn schon mehrere "Defekte" bekannt oder nur das Pre-Launch-Problem mit den 2D/3D-Clocks, über das berichtet wurde?

Nicht das ich wüsste. Was mich nur wundert ist was es mit diesem 2D/3D Takt auf sich hat meine Karte is immer auf 575/900 laut ATI Tool egal ob 2D oder 3D wo muss denn da was umgeschaltet werden?
 
Ne, summen tut nix.

Sind denn schon mehrere "Defekte" bekannt oder nur das Pre-Launch-Problem mit den 2D/3D-Clocks, über das berichtet wurde?
Da gibt es wo ne Page die zeigt welcches bauteil es ist und was richtig / falsch ist ... find gerad den Link nemmer :(
 
Hauptsächlich momentan das "PLP", die Treiber wurden wahrscheinlich in ner Nacht und Nebel aktion hinterhergeschossen als alle Entwickler mit Ihren schicken 4XL Shirts vor der Karte saßen und Beschwörungsformeln gemurmelt haben als einer meinte:

Samma...wer von Euch hat eigentlich nen Treiber programmiert?

Und das is jetzt offensichtlich das Resultat...
 
Hauptsächlich momentan das "PLP", die Treiber wurden wahrscheinlich in ner Nacht und Nebel aktion hinterhergeschossen als alle Entwickler mit Ihren schicken 4XL Shirts vor der Karte saßen und Beschwörungsformeln gemurmelt haben als einer meinte:

Samma...wer von Euch hat eigentlich nen Treiber programmiert?

Und das is jetzt offensichtlich das Resultat...

glaube ich kaum, dann würden wohl nicht derart gut benchmark werte herrauskommen.und mir sind bis jetzt bei 4games null grafik fehler aufgefallen.
das einige funktionen nachgeschiben werden ist doch völlig normal.
vielmehr sorgen macht mir die hardware seite.


bei mir war ne bfg von km schrott(kondensator nicht angelötet)
einer hat eine beim oc geschrottet (eher selber schuld!?)
einer hatte starker summen so wie ich (eingeschickt.)
und nun die tote leadtek


mann weiss nat. nicht ob das generell noch an den fehlerboards liegt die ja ev noch im umlauf sind und wegen der habgier der händler einfach doch verkauft worden sind!?
 
Ne, das was ich meine hatte bessere Pics und man konnte die Aufdrucke der Bauteile lesen ...C39 / C40 ist OK, C60 ist das falsche (glaub ich) ...
 
Ich denke das liegt eher am ATI Tool als an der Karte, dass die falschen Takte angezeigt werden.
 
klar kommen gute werte heraus, kannst Du jedoch erahnen was mit ausgereiften treibern rauskommen wird?
Wird auch genug von absoluten Einbrüchen was fps und BM Ergebnissen angeht berichtet, einfach mal google bemühen und staunen, klar gibts auch HW Probleme, wegen nem verbuggten Treiber greift keiner zum Lötkölben!

Wird sich zeigen was die nächsten Wochen noch bringen, is ja grad mal draussen.
 
ich finde dass Desaster ist schon da...

Ach ja? :hmm: Ich kenne 3. mit Problemen:
1. Shadow86, der hatte eine aus der 1. Serie die nicht gefix wurde.
2. Irgendwer, dem war ein Kondensator abgefallen (kommt leider hin und wieder vor)
3. dbode, hat tatsächlich ne Defekte erwischt, aber wenigstes noch eine in Reserve ;)

wenn man überlegt wie wenige Leute diese Karte bereits haben, dann ist es doch echt erschreckend wie viele Probleme es schon gibt...

Wenige? Nur weil hier nicht jeder postet heißt das nicht es sind wenige. Für gerade mal 1 Woche Verfügbarkeit sind schon zusammengenommen etliche hunderte über den Ladentisch, das kann dir jeder Shop bestätigen. Ist doch klar, das vorerst nur die posten, die ein Problem haben - die anderen sind am benchen oder spielen. :d

naja, manche brauchen die Karte ja anscheindend unbedingt :haha:

Hätteste mal auf einer gezockt wüsstest Du warum. ;)

Ich frage mich, wie ich FEAR vorher eigentlich spielen konnte? - Mal ganz erhlich, ich habe nicht mehr so viel Spaß beim zocken gehabt, seit ich mir damals extra wegen Unreal eine zweite 3DFX Monster mit 12 MB (ja, man glaubt es kaum, das war mal viel :haha:) in den Rechner als SLI Konfig geschoben hatte. Und nur um in 1024 x 768 zu spielen - ganz ohne AA und ohne AF.
 
wobei shadow aus irgendeinem grund eine karte schon VOR dem launchtermin bekommen hat!
kein wunder dass die techniker die nicht vorher fixen konnten
 
Hat schon jemand die MSI 8800 GTX ?
Fiept die ? Wie ist die übertaktbarkeit ?
ich habe mal gelesen die soll besser gehen als andere. das halt ich für ein gerücht, oder kann das wirklich sein ?
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh