8800Ultra ***Sammelthread*** (Part 1)

Status
Für weitere Antworten geschlossen.
Hi,

hier dürft ihr alles über die 8800Ultra schreiben :)

8800Ultra News & Infos:













8800Ultra Testberichte:

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_ultra/ (Deutsch)

http://www.theinquirer.net/default.aspx?article=39342 (Englisch)

http://www.tweaktown.com/reviews/1093/1 (Englisch)

http://www.anandtech.com/video/showdoc.aspx?i=2979&p=1 (Englisch)

http://www.gamestar.de/hardware/specials/radeon_hd_2900_xt_vs_geforce_8800/1470135/radeon_hd_2900_xt_vs_geforce_8800_p5.html (Deutsch)

http://www.pcwelt.de/start/computer/grafikkarte/tests/83135/ (Deutsch)

http://www.netzwelt.de/news/75639-geforce-8800-ultra-im-test.html (Deutsch)

http://www.channelpartner.de/knowledgecenter/assemblieren/242084/ (Deutsch)



Preise 8800Ultra:

http://geizhals.at/deutschland/?fs=8800+Ultra&x=0&y=0&in=

Techn. Daten:
Chip: G80
Transistoren: ca.681 Mio.
Fertigung: 90nm
Chiptakt: 612 Mhz
Shadertakt: 1512 Mhz
Shader Einheiten (MADD): 128 (1D)
FLOPs (MADD/ADD/MUL): 581 GFLOPs*
ROPs: 24
Pixelfüllrate: 14688 MPix/s
TMUs: 64
TAUs: 32
Texelfüllrate: 39168 MTex/s
Unified-Shader in Hardware: Ja
Pixelshader: SM4
Vertexshader: SM4
Geometryshader: Ja
Speichermenge: 768 MB GDDR3
Speichertakt: 1080Mhz
Speicherinterface: 384 Bit
Speicherbandbreite: 103680 MB/s


Fillrate Tester:


Shadermark 2.1:
[URL=http://imageshack.us][/URL]

3DMark06:

Dual-Core CPU (zwei Kerne des Quad-Core deaktiviert) GeForce 8800Ultra (Kein SLI)


Quad-Core CPU; GeForce 8800Ultra (Kein SLI)


Quad-Core CPU; GeForce 8800Ultra im SLI-Modus


8800Ultra Tech Demo (Human Head):

http://youtube.com/watch?v=LIGWAYS5uRw
 
Zuletzt bearbeitet:
wo kann ich eigendlich ablesen die volt

Rivatuner_Schritt_1.JPG


Rivatuner_Schritt_2.JPG


Rivatuner_VGA_Bios_Information_Performanceel_.JPG
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
greetings,

also mal als erstes sehr guter technical sheet!

wenn ich nicht mir eine GTS gekauft hätte sie wäre mein baby!
 
also im rivatuner steht es das ich 1,35 habe also ist es übernommen worden
 
das ist ja die frage, ist die karte hardware seitig bis max 1,3 verdratet kann im bios ja einiges stehen...
 
Theoretisch müsste meine Karte durch das Ultra Bios jetzt auch eine Gpu Spannung von 1,35V haben. Glaube allerdings nicht das die Werte wirklich übernommen werden (auh wenns im Bios steht). Besser zu takten geht meine Karte mit dem Ultra Bios leider kein Stück. Mit 648Mhz freezt die Karte beim Ati Würfel immer nach ~ 5min. :(
 
Die G80 GPU hat 2 VIDs und die sind fest verdrahtet. Einmal 2D Standard und einmal 3D Performance. Vieviel VID0 ind VID1 entsprechen wird ausschließlich über die hardwareseitige Schaltung geregelt. Die Angaben im BIOS sind ausschließlich zu Informationszwecken vorhanden. Sprich da kann praktisch drin stehen was will. Meinetwegen auch 2,0v - da ändert sich überhaupt nichts. Auch andere/weitere VIDs werden einfach ignoriert.

Sprich: Ohne Hardware-Mod keine Spannungserhöhung - Punkt.

Habe das selber schon durchexerziert. Schade, aber es ist nunmal so.
 
Die G80 GPU hat 2 VIDs und die sind fest verdrahtet. Einmal 2D Standard und einmal 3D Performance. Vieviel VID0 ind VID1 entsprechen wird ausschließlich über die hardwareseitige Schaltung geregelt. Die Angaben im BIOS sind ausschließlich zu Informationszwecken vorhanden. Sprich da kann praktisch drin stehen was will. Meinetwegen auch 2,0v - da ändert sich überhaupt nichts. Auch andere/weitere VIDs werden einfach ignoriert.

Sprich: Ohne Hardware-Mod keine Spannungserhöhung - Punkt.

Habe das selber schon durchexerziert. Schade, aber es ist nunmal so.

So ist es wohl, ... bei der GTX wars ja bekannt un klar dass es nicht ohne vMod geht!

Hätte ja können sin dass es sich bei der Ultra geändert hat! aber so isses wohl nicht! :(
 
Viellen Dank für den Tip mit Riva und dem Spannungs auslesen hab natürlich sofort gemacht, ich will euch ja nicht enttäuschen und euch auch davon Berichten ob es stimmt oder nicht. Ich nehme mal an das Riva das richtig ausliest und man es glauben kann was da steht. :)

http://img404.imageshack.us/my.php?image=testrivatw1.jpg

Was sagst Du jetzt Oliver hat die Karte 1.4 V oder etwa nicht ??? :hmm:

Etwas anderes ist mir auch aufgefallen als ich Gestern noch etwas mit dem ATI Tool probierte konnte ich tatsächlich 702 / 1728 / 1260 einstellen was mir über 2500 Mhz anzeigte, geflasht habe ich es aber noch nicht, meine da müsste schon 1.43 V oder 1. 45 V an der Karte anliegen. Mit Orginal 1.35 V konnte ich die GPU nur bis 690 clocken jetzt komme ich noch höher im total als ich dachte. :cool:

Werde mir auch mal ein Multimeter besorgen zur Sicherheit.

mfg
 
Zuletzt bearbeitet:
Viellen Dank für den Tip mit Riva und dem Spannungs auslesen hab natürlich sofort gemacht, ich will euch ja nicht enttäuschen und euch auch davon Berichten ob es stimmt oder nicht. Ich nehme mal an das Riva das richtig ausliest und man es glauben kann was da steht. :)

http://img404.imageshack.us/my.php?image=testrivatw1.jpg

Was sagst Du jetzt Oliver hat die Karte 1.4 V oder etwa nicht ??? :hmm:

Etwas anderes ist mir auch aufgefallen als ich Gestern noch etwas mit dem ATI Tool probierte konnte ich tatsächlich 702 / 1728 / 1260 einstellen was mir über 2500 Mhz anzeigte, geflasht habe ich es aber noch nicht, meine da müsste schon 1.43 V oder 1. 45 V an der Karte anliegen. Mit Orginal 1.35 V konnte ich die GPU nur bis 690 clocken jetzt komme ich noch höher im total als ich dachte. :cool:

Werde mir auch mal ein Multimeter besorgen zur Sicherheit.

mfg


das ist doch dein ausgelesenes bios!?
 
hallo, werden die 8800er GTX/Ultras inrgendwann ma billiger in naher zukunft, weil doch endlich die atirs DX10Karten raus sind?

und...

Passt ne 8800Ultra in ein Chieftech GIGA GX-01B Gehäuse?
Wie lang sind eure Ultras denn??
thx
 
Die Ultra is soweit ich weiss genau so lang wie die GTX. Spricht halt 28cm.

Und irgendwann billiger werden die aufjedenfall :d
 
So grade war mein Kollege da der Elektroniker, Multimeter angesetzt und ... ist wirklich ne Facke was auch der Riva anzeigt, jetzt wissen wir es das es 1.35 V sind. :(

Angeblich was man so liest im I-Net ist der Ultra V-Mod der gleiche wie bei der GTX und GTS mal schauen was wir heute Abend noch finden. :)

mfg
 
Ist doch klar das es peer bios nicht geht die Volt an zu heben war schon immer so bei NV!!
 
So grade war mein Kollege da der Elektroniker, Multimeter angesetzt und ... ist wirklich ne Facke was auch der Riva anzeigt, jetzt wissen wir es das es 1.35 V sind. :(

Wie ich oben schon geschrieben (und selber probiert und gemessen) habe...aber mir glaubt man ja wieder nix... ;)
 
Viellen Dank für den Tip mit Riva und dem Spannungs auslesen hab natürlich sofort gemacht, ich will euch ja nicht enttäuschen und euch auch davon Berichten ob es stimmt oder nicht. Ich nehme mal an das Riva das richtig ausliest und man es glauben kann was da steht. :)

http://img404.imageshack.us/my.php?image=testrivatw1.jpg

Was sagst Du jetzt Oliver hat die Karte 1.4 V oder etwa nicht ??? :hmm:

Etwas anderes ist mir auch aufgefallen als ich Gestern noch etwas mit dem ATI Tool probierte konnte ich tatsächlich 702 / 1728 / 1260 einstellen was mir über 2500 Mhz anzeigte, geflasht habe ich es aber noch nicht, meine da müsste schon 1.43 V oder 1. 45 V an der Karte anliegen. Mit Orginal 1.35 V konnte ich die GPU nur bis 690 clocken jetzt komme ich noch höher im total als ich dachte. :cool:

Werde mir auch mal ein Multimeter besorgen zur Sicherheit.

mfg

Nein, .. da kannste auch 2.0v draufflashen und Rivatuner ziegt dann auch 2.0v an, ... trotzdem liegen wohl nur 1,35v an, vlt ehr minimal weniger!

€dit:

Bei Alternate gibts die Sparkle lieferbar für 619€

http://www.alternate.de//html/product/details.html?artno=JBXKI1&artno=JBXKI1&
 
hallo leuts wann kommt den die ultra? will mir nen sli verbund
gleich kaufen das muss der burner werden

mfg
 
aber wird die gx2 jetzt ende des monats kommen???
Hinzugefügter Post:
@schakal: ergänzt die dann das sys aus der sig???^^ :fresse:
dafür sind die grakas doch unwürdig...^^
 
Zuletzt bearbeitet:
ich schätze 800core und 2450Ram @Wakü und mods
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh