8800Ultra ***Sammelthread*** (Part 1)

Status
Für weitere Antworten geschlossen.
Hi,

hier dürft ihr alles über die 8800Ultra schreiben :)

8800Ultra News & Infos:













8800Ultra Testberichte:

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_ultra/ (Deutsch)

http://www.theinquirer.net/default.aspx?article=39342 (Englisch)

http://www.tweaktown.com/reviews/1093/1 (Englisch)

http://www.anandtech.com/video/showdoc.aspx?i=2979&p=1 (Englisch)

http://www.gamestar.de/hardware/specials/radeon_hd_2900_xt_vs_geforce_8800/1470135/radeon_hd_2900_xt_vs_geforce_8800_p5.html (Deutsch)

http://www.pcwelt.de/start/computer/grafikkarte/tests/83135/ (Deutsch)

http://www.netzwelt.de/news/75639-geforce-8800-ultra-im-test.html (Deutsch)

http://www.channelpartner.de/knowledgecenter/assemblieren/242084/ (Deutsch)



Preise 8800Ultra:

http://geizhals.at/deutschland/?fs=8800+Ultra&x=0&y=0&in=

Techn. Daten:
Chip: G80
Transistoren: ca.681 Mio.
Fertigung: 90nm
Chiptakt: 612 Mhz
Shadertakt: 1512 Mhz
Shader Einheiten (MADD): 128 (1D)
FLOPs (MADD/ADD/MUL): 581 GFLOPs*
ROPs: 24
Pixelfüllrate: 14688 MPix/s
TMUs: 64
TAUs: 32
Texelfüllrate: 39168 MTex/s
Unified-Shader in Hardware: Ja
Pixelshader: SM4
Vertexshader: SM4
Geometryshader: Ja
Speichermenge: 768 MB GDDR3
Speichertakt: 1080Mhz
Speicherinterface: 384 Bit
Speicherbandbreite: 103680 MB/s


Fillrate Tester:


Shadermark 2.1:
[URL=http://imageshack.us][/URL]

3DMark06:

Dual-Core CPU (zwei Kerne des Quad-Core deaktiviert) GeForce 8800Ultra (Kein SLI)


Quad-Core CPU; GeForce 8800Ultra (Kein SLI)


Quad-Core CPU; GeForce 8800Ultra im SLI-Modus


8800Ultra Tech Demo (Human Head):

http://youtube.com/watch?v=LIGWAYS5uRw
 
Zuletzt bearbeitet:
Hatte bis jetzt fünf 8800GTX, die haben alle 2,20Volt, egal ob jetzt Samsung oder Hynix drauf wahren. Sind aber alles EVGA Karten, ist gut möglich das die mehr Spannung geben.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Moment 2,2 bei den Samsung? Die sind doch nur bis 2,0 max spezifiziert - zumindest die BJ1A. Gut es gibt da noch die BJ11 die haben auch 900MHz aber bei 2,0 +- 0,1v also 2,1v max. 2,2v wäre also in jedem Fall über der Spezifikation von Samsung - kann das sein?
 
Ist halt EVGA, die kosten ja auch mehr als andere Karten ;)
Die GPU haben aber immer 1,28-1,30Volt, die werte sind also OK.
 
Ich glaube immer noch nicgt dass die Ultras 1.0er Speicher haben, .. dann würder der Samsung Speicher ständig üner den Spezifikationen laufen!

Bei Alternate steht z.B. bei allen Karten 1.0, obwohl alle Karten die ich bis jetzt so gesehen habe, 0.8er hatten!
 
Sobald TurricanM3 seinen beiden Ultras das Kleid ausgezogen hat wissen wir's. :)
 
hat einer von euch einen brauchbaren link für nen volt mod bei der gtx!?
ich wurde im gtx thread daraufhin angesprochen.
die v-gpu und v-ram änderungen werden ja beim flashen nicht übernommen oder wie war das!?
 
dsc01152nh0.jpg


dsc01154op2.jpg


dsc01155sg9.jpg


:banana:
 
@Dural:
Boah,6 oder mehr ULTRAS auf einmal:eek: :love: :hail: :drool: :-)stupid: )
 
Ich habe noch was interessantes herausgefunden:

Bei den gestrigen Taktversuchen hat der Shader-Takt limitiert. :stupid:

Ich habe mir heute morgen mal eine Karte geschnappt und auf 650 Chip aber Standardwert von 1512MHz für den Shader geflasht.

Ich kann den Chiptakt jetzt im ATI Tool auf 720 setzen und es läuft eine Zeit lang, hängt sich aber irgendwann trotzdem auf (vorher sofort ein Freez auf 710). Der 3DMark läuft mit 710 durch. Das ist jetzt nicht unbedingt viel, zeigt aber, dass der Shader eher an seine Grenze kommt als die GPU. Möglicherweise ist aber auch nur die komplette Karte nicht so gestresst und läuft deshalb ein deut besser.

Die Erklärung, warum 682/1200 läuft, 692/1200 aber nicht liegt wohl am Taktsprung vom Shader bei 689 um zusätzliche 54MHz laut dieser Tabelle:

g80ocenzl1.jpg


Inwieweit man das jetzt auf die Ultra übertragen kann weiß ich jedoch nicht.

Ich muss das noch ausgiebiger testen.

Kühler nehme ich später ab, extra für euch. ;)

EDIT:
Kühler abmontieren hat sich wohl erledigt.
 
Zuletzt bearbeitet:
Achso, das hatte sich nur so angehört als wäre jetzt irgend was nicht Ok :) .
Na dann is ja gut.
 
das sind doch 2x gtxèn und 2xultras bei dural oder nicht!?
könnt ihr auch mal das bios auslesen?
bin gespannt wie die bei dural gehen:)
schade das die höhere v-core beim flashen nicht übernommen wird:(
da ist bestimmt irgendwo nur ein wins wiederstand der das fixed!?
das fette rumgelöte ist mir glaube ich zu heftig.
 
Hi!
Ich habe eine XFX 8800GTX XXX EDITION und habe einige fragen:
1. Ich habe ja 630MHz Core Takt @ stock. Ist der Shader-Takt nicht auch erhöht?
2. Kann man nicht die Shader irgendwie seperat ohne Flash ocen? Ist ja sonst ziemlich riskant, wenn die Karte das nicht mitmacht.
3. Bei mir kann ich das BIOS gar nicht auslesen. Liegt das evtl. an Windows Vista?
 
@dural
Das was da auf dem Bild von dir so schräg aufgelötet wurde, sind doch die Spannungswandler?
zeugt ja nicht gerade von Qualität.

Mag ja alles funktionieren aber bei so teuren Karten darf das eigentlich nicht vorkommen.
jetzt bin ich aber auch auf deine Ergebnisse Gespannt, hau rein.

Hi!
Ich habe eine XFX 8800GTX XXX EDITION und habe einige fragen:
1. Ich habe ja 630MHz Core Takt @ stock. Ist der Shader-Takt nicht auch erhöht?
2. Kann man nicht die Shader irgendwie seperat ohne Flash ocen? Ist ja sonst ziemlich riskant, wenn die Karte das nicht mitmacht.
3. Bei mir kann ich das BIOS gar nicht auslesen. Liegt das evtl. an Windows Vista?

1. Der Shadertakt nimmt beim Erhöhen des Coretakts asynchron zu
ja, ich denke bei dir ist er auch erhöht. Nimm Everest da siehst du es genau.
2. nein, so weit ich weß ist das noch nicht möglich
3. Mit dem Riva Tuner geht das normalerweise unter XP wie es bei Vista+ diesen Tools ist ist weiß ich nicht
 
Zuletzt bearbeitet:
1. es ist anzunehmen das deine oc edition einen geringeren teiler für die shaderdomain hat, sodass diese auf dem selben takt läuft wie bei einer standard gtx oder nur geringfügig erhöt wurde.
2. nein,... inwiefern riskant? du setzt für 2d einfach sichere werte und für 3d low power und 3d full deine oc werte.
3. im dos, per nvflash lässt sich eine kopie der auf deiner karte befindlichen bios version machen. wüsste nicht das vista probleme hätte mit nibitor

mfg
 
Zuletzt bearbeitet:
ohne Mod ? Glückwunsch :bigok:
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh