8800Ultra ***Sammelthread*** (Part 1)

Status
Für weitere Antworten geschlossen.
Hi,

hier dürft ihr alles über die 8800Ultra schreiben :)

8800Ultra News & Infos:













8800Ultra Testberichte:

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_ultra/ (Deutsch)

http://www.theinquirer.net/default.aspx?article=39342 (Englisch)

http://www.tweaktown.com/reviews/1093/1 (Englisch)

http://www.anandtech.com/video/showdoc.aspx?i=2979&p=1 (Englisch)

http://www.gamestar.de/hardware/specials/radeon_hd_2900_xt_vs_geforce_8800/1470135/radeon_hd_2900_xt_vs_geforce_8800_p5.html (Deutsch)

http://www.pcwelt.de/start/computer/grafikkarte/tests/83135/ (Deutsch)

http://www.netzwelt.de/news/75639-geforce-8800-ultra-im-test.html (Deutsch)

http://www.channelpartner.de/knowledgecenter/assemblieren/242084/ (Deutsch)



Preise 8800Ultra:

http://geizhals.at/deutschland/?fs=8800+Ultra&x=0&y=0&in=

Techn. Daten:
Chip: G80
Transistoren: ca.681 Mio.
Fertigung: 90nm
Chiptakt: 612 Mhz
Shadertakt: 1512 Mhz
Shader Einheiten (MADD): 128 (1D)
FLOPs (MADD/ADD/MUL): 581 GFLOPs*
ROPs: 24
Pixelfüllrate: 14688 MPix/s
TMUs: 64
TAUs: 32
Texelfüllrate: 39168 MTex/s
Unified-Shader in Hardware: Ja
Pixelshader: SM4
Vertexshader: SM4
Geometryshader: Ja
Speichermenge: 768 MB GDDR3
Speichertakt: 1080Mhz
Speicherinterface: 384 Bit
Speicherbandbreite: 103680 MB/s


Fillrate Tester:


Shadermark 2.1:
[URL=http://imageshack.us][/URL]

3DMark06:

Dual-Core CPU (zwei Kerne des Quad-Core deaktiviert) GeForce 8800Ultra (Kein SLI)


Quad-Core CPU; GeForce 8800Ultra (Kein SLI)


Quad-Core CPU; GeForce 8800Ultra im SLI-Modus


8800Ultra Tech Demo (Human Head):

http://youtube.com/watch?v=LIGWAYS5uRw
 
Zuletzt bearbeitet:
Ach du sche.ße gleich zwei mal??
Das geht natürlich :)

Edit: zock mal FEAR mit allem an und der auflösung!!
Hatte die ultra nen Headspreader drauf??
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Könnten Besitzer einer (oder zwei) 8800Ultra Bilder einer im Case verbauten 8800Ultra machen, würde dies zu gern sehen.
 
Ja - vll noch schön nachbearbeitet, ich brauch ein neues prolliges Wallpaper. :)
 
nicht schlecht die neue Ultra aber brauch man im Moment schon so eine Karte?

Klar wenn man einen monitor hat der 1600x1200 und mehr packt lohnt das sicher aber ich würde auch lieber ne GTX kaufen
 
Könnten Besitzer einer (oder zwei) 8800Ultra Bilder einer im Case verbauten 8800Ultra machen, würde dies zu gern sehen.

Klaro, hab aber gerade nur ein etwas weit entferntes. Kann auch nähere auf Wunsch machen.

g70_5.jpg



Ach du sche.ße gleich zwei mal??
Das geht natürlich :)

Edit: zock mal FEAR mit allem an und der auflösung!!
Hatte die ultra nen Headspreader drauf??
nicht schlecht die neue Ultra aber brauch man im Moment schon so eine Karte?
Klar wenn man einen monitor hat der 1600x1200 und mehr packt lohnt das sicher aber ich würde auch lieber ne GTX kaufen

Fear hatte ich mit den beiden GTX @660/1000 gespielt (1920x1200 alles max bis auf Soft-Shadows) und ehrlich gesagt war/bin ich von der Performance ziemlich enttäuscht. Das Game hatte noch diverse Slow-Downs und stellenweise noch arges Geruckel. Ich denke das sieht bei den Ultras kaum anders aus.





Nunja, werde wenn ich Zeit und Lust habe die Karten noch höher ziehen und dann auch direkt flashen. Mal schauen wo Ende ist, aber im SLI geht ja bekanntlich immer etwas weniger. Mehr als 700/1200 wollte ich aber ohnehin nicht, bin damit schon vollstens zufrieden. ;)
 
Zuletzt bearbeitet:
Meine erste Ultra läuft unter WaKü einiges schlechter als die zweite, die macht keine 730MHz :(
Vieleicht hab ich auch ein Software Problem, kann im SLI nicht mit ATItool/Powerstrip/rivatuner Übertakten, geht nur mit ntune!

Komme so leider nur auf 19600Punkte im 06er...
 
Wie sieht das eigentlich mit den Vmods aus in Bezug auf ddie Spannung beim 2D - 3D Wechsel?! Hat die Karte dann immer die Vmod eingestellte Spannung?
 

danke, kannst du mir den orginal link per pn schicken oder hier posten!?
die bilder werden ja so nicht angezeigt....
hast du es selbst mal getestet?
Hinzugefügter Post:
So hab mal die Spannung auf 1.4 V erhöht und so läuft meine Karte. :)

http://img402.imageshack.us/my.php?image=47851990pl1.jpg

Ach jo das Bios hab ich auch noch einwenig angepasst. :)

mfg

mit luft!?
ich nehme an du hast den mod gemacht!?
oder gibbet was neues!?
 
Zuletzt bearbeitet:
Als erstes dieser Ruffnax oder wie auch immer scheint wohl nicht der hellste zu sein, von Nibitor gibts ne neue Version extra für die Ultra 3.4a und nvflash 5.50 nehmen sollte klar sein. Was der zusammen wurstelt möchte ich mal sehen, das muss ja frezzen ... :hmm:

Mit dem neuen Nibitor Tool lassen sich die Volts bequem nach oben schrauben soviel wie man möchte, sehr praktisch so muss man nicht mehr gross Hardware Mods an der Karte anlegen. :)

Es ist möglich die Volts bis zu 1.8 V zu schrauben, das reicht wohl um die Karte zu grillen, und das in Schritten von 0.1 V, das sieht so aus und wird mit dem Bios geflasht. :cool:

http://img520.imageshack.us/my.php?image=voltsjp4.jpg ;)

Meine Ultra geht mit WK die Temparaturen sind jo jenseits von gut und böse vor allem wenn man noch am Saft der Karte schraubt. An der Diode hab ich im Idle so um die 42 C mit OC, klar steigt noch etwas an beim zoggen, hab aber kein Absturtz und frezze oder ähnliches bis jetzt mit meiner Karte. :coolblue:

mfg
 
Wird 100%ig übernommen? Wäre ja sehr geil.
Wieviel Volt kann man dem RAM zumuten?
 
Habe gerade mal in mein GTX Bios geschaut. Da gehts auch bis auf 1.8V. Das wäre ja geil.
 
@ Link

Ich sehe es so, das sie die Volts selber verteilen wie es braucht, Du siehst jo die Nibitor Volt Tabele oben die Zahlenreien diese verändern sich automatisch bei einer veränderung der Spannung nach oben und schreibt es ins Karten Bios, ich nehme mal stark an das es so ist anders kann ich mir es nicht Vorstellen und wäre auch zu kompliziert es zu machen für Laien. :hmm:

Ohne die Volt erhöhung und Oc hatte ich auch die geruckel in FEAR mit mehr Saft waren sie endgültig weg.

mfg
 
Einfach gesagt man muss nicht speziel separatder GPU oder dem Ram Saft geben, nur im Nibitor die gewünschte Spannung eingeben übernehmen und fertig, etwas anderes hab ich nicht gemacht. So muss jetzt essen gehen, später mehr.

mfg
 
Mit nibitor kommte man schon immer die Spannung erhöhen und auf die karte flashen, nur wurde die Spannung nie übernommen!!

Biste sicher dass das jetz anderes sein soll!

und mit 1,4v müssten deutlich mehr als 675MHz drin sein!
 
Also ich habe gerade mal etwas gefummelt und mit ATI-Tool getestet.
Bei 1.3V gab es bei 636MHz nen Freeze
Bei 1.35V gab es bei 665MHz nen Freeze

Funktioniert das etwa doch oder sind das normale Toleranzen?
 
hallo, werden die 8800er GTX/Ultras inrgendwann ma billiger in naher zukunft, weil doch endlich die atirs DX10Karten raus sind?

und...

Passt ne 8800Ultra in ein Chieftech GIGA GX-01B Gehäuse?
Wie lang sind eure Ultras denn??
thx
 
Zuletzt bearbeitet:
Also ich habe gerade mal etwas gefummelt und mit ATI-Tool getestet.
Bei 1.3V gab es bei 636MHz nen Freeze
Bei 1.35V gab es bei 665MHz nen Freeze

Funktioniert das etwa doch oder sind das normale Toleranzen?

1.3v und 1.35v gehn ja, das is klar, die Ultra hat ja auch 1.35v ... nur höher ging bisher nicht!
 
Als erstes dieser Ruffnax oder wie auch immer scheint wohl nicht der hellste zu sein, von Nibitor gibts ne neue Version extra für die Ultra 3.4a und nvflash 5.50 nehmen sollte klar sein. Was der zusammen wurstelt möchte ich mal sehen, das muss ja frezzen ... :hmm:

Mit dem neuen Nibitor Tool lassen sich die Volts bequem nach oben schrauben soviel wie man möchte, sehr praktisch so muss man nicht mehr gross Hardware Mods an der Karte anlegen. :)

Es ist möglich die Volts bis zu 1.8 V zu schrauben, das reicht wohl um die Karte zu grillen, und das in Schritten von 0.1 V, das sieht so aus und wird mit dem Bios geflasht. :cool:

http://img520.imageshack.us/my.php?image=voltsjp4.jpg ;)
Das konnte man doch schon immer dort einstellen, jedoch wurde es bis jetzt nicht übernommen nach nem flash. Die Version 3.4a unterstützt natürlich auch alle anderen bisherigen karten.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh