8800 GTS / GTX OC Thread (Part 5)

Status
Für weitere Antworten geschlossen.
btw. wer es schafft eine sehr gute A3 GTS zu bekommen, das würde so aussehen (habe so ne Karte mit Stock schon gesehen)

GTS A3 OC:
Core: 756 * 48 TMUs = 36288
Shader: 1728 * 96 = 165888

die kommt verdammt nah ran an die GTX auf dem Papier. Dürfte aber in Games wegen den höheren Taktraten sogar minimal schneller sein.

ich habe gestern ja ne Ultra gekauft, die 702/1728/1230 @ Stock macht und da kommt, da bin ich schon sehr gespannt drauf :drool:.

Core: 702 * 64 TMUs = 44928
Shader: 1728 * 128SPs = 221184

rein auf dem Papier ist die 80-90% schneller als ne Default GTS :eek: (real vermute ich eher 60-70%). Schade, dass ich keine Wakü habe, da würde sicher mehr gehen :(. Naja vorerst ein Zalman VF1000+RHS88 drauf und eventl. Tausch gegen HR-03+ mit RHS88.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
wenn man die Leistung einer GF8 Karte als abh. von SPs und Takt vergleicht, dann sehe ich folgendes:

GTS:
Core: 513 * 48 TMUs = 24624
Shader: 1200 * 96 SPs = 115200

GTS OC:
Core: 675 * 48 TMUs = 32400
Shader: 1620 * 96SPs = 155520

GT:
Core: 600 * 56 TMUs = 33600
Shader: 1512 * 112SPs = 169344

also imo auf dem Papier kann ne OCed GTS ne GT ned überholen. Das wird real zwar noch viel knapper, weil für gewöhnlich Takt mehr bringt als SPs (im Vergleich), aber trotzdem bleibt die GT vorn.

Zum Vergleich die GTX:
Core: 575 * 64 TMUs = 36800
Shader: 1350 * 128 SPs = 172800

das zeigt auch wieso die GT so nah an der GTX ist bzw. manchmal vorbei kommt. Das liegt eben daran, dass Takt mehr bringt als SPs in manchen Spielen. Die o.g. Werte würden aber bei 100% Effizienz des G80/G92 stimmen.

Ich denke mit ner GTS OC kommt man an ne GT ran, aber nicht vorbei. Einzig natürlich in höheren Auflösungen, weil bei der Speicherbandbreite zieht ne GTS OC die GT problemlos ab ;).

Du beziehst weder die ROPs (GT:16 vs GTS:20) noch das größere Speicherinterface und das mehr an RAM mit in deine Rechnung ein.

Des weiteren würde ich sagen, dass grade im Penismark die GT zu hoch bewertet wird aber es in Games anders aussieht.
Ich habe selber schon mit nem GT Besitzer verglichen in Crysis und ich war auf jeden Fall schneller....
 
Und wieso zieht die GTS dann in den meisten Crysis-Benchmarks den Kürzeren?
 
die ROPs scheinen abh. von der Speicheranbindung zu sein und zählen erst so richtig, wenn die Speicherbandbreite auch notwenig wird, dh. bei höheren Auflösungen und AA/AF. Soweit mir bisher bekannt, sind ROPs vor allem für AA/AF wichtig. Das habe ich oben aber auch erwähnt. Rein von der GPU-Power kann eine GTS OC an eine GT ohne OC ned ran kommen.

Außerdem ist eh schwachsinnig, eine OCed GTS mit ner UnOCed GT zu vergleichen, wenn dann bitte gleich vergleichen. Und die GTs schaffen 700-750Mhz Core und 1700-1800 Shader. Da sieht die GTS bei der GPU absolut kein Land. Bei Speicherbandbreite bleibt sie zwar vorn, aber wie gesagt, situationsbedingt von den Einstellungen im Spiel (Auflösung+AA/AF) ist sie dann schneller oder nicht.

Wie gesagt, imo wenn eine GT schneller als eine GTS ist, dann ist das halt so. Ich kann auch sagen, dass ne GTX@OC schneller als ne Ultra ist, aber ne Ultra lässt sich meist noch höher takten und damit ist sie wieder schneller. @Default ist ne Ultra immer schneller als eine GTX ;).

EDIT:
@35712
ganz einfach, weil Crysis ein sehr shaderlastiges Game ist und die GT einfach deutlich mehr Shaderpower hat als die GTS (s.o.).

Klar, wenn man 1680x1050 AA/AF oder gar 1920er Auflösungen vergleicht, mag die GTS schneller sein. Aber da sind die Frames eh im Keller und unspielbar ;).
 
Zuletzt bearbeitet:
Naja dass ne übertaktete GT schneller ist als eine übertaktete GTS liegt ja auf der Hand!

Ich fand die Rechnung schon interessant mit übertakteter GTS gegen Stock GT.

Gibt ja auch einige User (vllt nicht gerade hier im Forum), die die Finger von OC lassen, weil sie Angst haben die Hardware zu schrotten!:fresse:
 
So >hier< Crysis Bench anschauen. Da ist die GT minimal schneller als die GTS. Des weiteren hat die GTS mehr OC potential, vor allem gibt der Kühler das auch her und raucht nicht nach paar Tagen unter Last ab. Hab schon von vielen GT gelesen die gerade so die 700 Mhz Core schafften, da die OC Versionen dafür mehr Spannung bekommen...also ist das OC Potential nicht direkt mit dem einer GTS vergleichbar. Außerdem sind ROPs wie du schon sagtest bei AF wichtig, was man ja bei einer Karte der Leistungsklasse auch nutzen sollte, von daher....naja ich würd jedenfalls meine in meinen Augen "hochwertigere, ausgereiftere und bewährtere" 8800 GTS gegen keine GT tauschen wollen!
 
Zuletzt bearbeitet:
Des weiteren würde ich sagen, dass grade im Penismark die GT zu hoch bewertet wird aber es in Games anders aussieht.
Ich habe selber schon mit nem GT Besitzer verglichen in Crysis und ich war auf jeden Fall schneller....
Bei Computerbase liegt die GT sogar vor der GTX beim Penismark!:fresse:
Dass sie langsamer ist, sollte uns hier im OC Forum klar sein.

Hattest du und dein Kollege in etwa gleiche CPU usw.?

Wenn ja dann müsste ich schon ne GT in Crysis nassmachen!:cool:
 
die User würden dann aber weder ne GTS noch ne GT OCen ;)

wenn dem so ist, wäre auf dem Papier die GPU-Leistung der GT gegenüber der GTS deutlich höher. Die GTS rettet sich einzig über ROPs und höhere Speicherbandbreite.

Im Grunde genommen ist die GT nahezu eine GTX mit runter getaktem Speicher.
 
@ Fekl: Das muss dann aber schon eine A3 sein. Wobei selbst ich bei meiner A2 mit 648 überlege, ob ich nicht doch noch warten soll. Denn die Preise der GTS werden wohl kaum noch weiter fallen und an einer GT habe ich eigentlich gar kein Interesse. Ich dachte nur über ne 3870er oder dann die nächste Generation nach...

Und was die Angst vorm OC anbelangt, das kann ich gut nachvollziehen. Das sind ein paar Euro, die mal eben abrauchen können. Unwahrscheinlich, aber nicht unmöglich.
 
Zuletzt bearbeitet:
die User würden dann aber weder ne GTS noch ne GT OCen ;)

wenn dem so ist, wäre auf dem Papier die GPU-Leistung der GT gegenüber der GTS deutlich höher. Die GTS rettet sich einzig über ROPs und höhere Speicherbandbreite.

Das sollte jedem klar sein. Aber wenn man das Potential seiner A3 GTS nutzt, dann liegt sie vorn! Und ne GT mit ner GTX zu vergleichen find ich lächerlich, bei hohen Auflösungen und AA/AF zeigt sich wie die GT einknickt und die GTX davonzieht.... Mal ganz zu schweigen davon was passiert wenn der RAM der GT unter normalen Umständen bei meinetwegen 1280*1024 schon voll sein sollte,weil eben nen Spiel den RAM voll auslastet (siehe damals als ne 7800GTX 256 MB in COD2 lahmer war als ne X800XL mit 512 MB...und das deutlichst!!)
 
Würde auch sagen die GT ist von der Architektur her näher an der GTX wie an der GTS. Nur das SI ist bei der GTX384bit breit, bei der GT nur 256.

Und klar, wenn ich ne GT hätte würde ich da auch erst mal schauen wie weit die geht!:coolblue:
Ich meinte nur, dass meine geocte GTS evtl schneller ist als die standard GT eines andern Users der nicht übertaktet.;)
 
wem sagst du das, einerseits will ich aus der Ultra, die ich bald habe das Max. rausholen, andererseits wenn die flöten geht, sinds 480€ :fresse:

EDIT:
@fekl

ich schrieb, dass ne GT eigentlich ne GTX mit 1200Mhz Speichertakt ist. Teste mal das und schau mal, was dann ne GTX macht, die wird 100% nicht besser abschneiden mit AA/AF in hohen Auflösungen. Die hat dann zwar 33% mehr ROPs, aber eben mit 33% weniger Takt und wenn ich noch rechnen kann, gleicht sich das aus. Die GPU-Rohpower ist nahezu identisch (s.o.).

Bei Elektronik ist es immer so, dass Takt + Logik zusammen die Musik machen. 1024SPs wären hammergeil, aber witzlos wenn die nur mit 10Mhz laufen würden ;).

Btw. werde ich genau das bald etwas austesten, da ich nen größeren Benchvergleich plane.

256Bit Speicheranbindung der GT ist natürlich schlechter als zb. 320Bit der GTS, aber wenn ich mir anschaue, dass ATI bald 2,4Ghz mit 256Bit haben wird, dann sind das 76,8GB/s vs. 64GB/s der GTS. Dh. trotz weniger Bits ne höhere Bandbreite ;).
 
Zuletzt bearbeitet:
wem sagst du das, einerseits will ich aus der Ultra, die ich bald habe das Max. rausholen, andererseits wenn die flöten geht, sinds 480€ :fresse:
Das wäre schon hart!:-[

Nur wenn du dich beim Übertakten in kleinen Schritten nach Oben bewegst und auf Bildfehler achtest kann "normalerweise" nicht viel passieren.;)
 
ne ich mache mir keine Sorgen, ich OCe eh nur aus Neugier, dh. ich OCe benche ein wenig und dann läuft die Graka zu 99% in idle @ 250/250 :fresse:

mir ist bisher nur eine X1800XT abgeraucht, aber auch nur weil ich auf nen Accelero wechselte und die Spawas in meinem Gehäuse damals zu heiß wurden, aber hatte keine Wahl wegen der Lautstärke :kotz:.
 
256Bit Speicheranbindung der GT ist natürlich schlechter als zb. 320Bit der GTS, aber wenn ich mir anschaue, dass ATI bald 2,4Ghz mit 256Bit haben wird, dann sind das 76,8GB/s vs. 64GB/s der GTS. Dh. trotz weniger Bits ne höhere Bandbreite ;).

Wie gesagt ohne OC stinkt die GTS auch, aber mit nicht mehr! Hab z.B. über 80 GB/s Speicherbandbreite und das erreichst du auf ner 256 Bit SI Karte nur mit extrem krassem RAM-OC :) Aber lassen wir das jetzt und warten was die Zukunft und die Crysis Full bringen. Dann gibts neue Benches!
 
servus beinand
mal ne frage.
wie lang muss ich das ati tool laufen lassen um mir sicher zu sein, dass keine artefakte kommen?
 
Wenn die Artefakte kommen, kommen sie sehr schnell. Dann gehst Du eine oder zwei Taktstufen runter (siehe Tabelle). Dann Ram testen. Hier verfährst Du gleich. Und am Ende den Shader. Wenn Du dann alles hast, kannst Du den ganzen Park machen:

- ATI Tool
- 3DMark06
- Prime95
- Spiele
 
10 Min ATi Tool reichen in der Regel, dann wirds nimmer wärmer und danach kommt eigentlich nix mehr
 
@ snoopy
das is ja fast ein auto..OMG
Hinzugefügter Post:
@ fekl
hatte mein gts grad bei 650/950
dann ging mein monitor aus...aber musik lief noch!???!
an was liegt das?
dann neu gestartet auf reset..!! dann liefs wieder ....also jetz läufts mit 630/930 ...
 
Zuletzt bearbeitet:
Passiert wenn der Core zu hoch gezogen wird. Bleib bei den 621 Mhz Core (die ligen bei 630 real an, also stell die auch ein^^) und versuch die Shader einzeln noch bissel höher zu kriegen auf 1566 oder gar 1620 MHz z.B. RAm kannste denke dann auch noch hochziehen, der macht Fehler wenns dem zu viel wird..
 
also bitte was? hää????
ich lass die 630 stehn ok..gebongt..aber den rest??? hää?
ich hab nur noch die 930 zum einstellen...also höher?
in welchen schritten?
10er? 5er?
hab ich dich richtig verstanden?
 
Rivatuner 2.06. Da kann man auch die Shader Domain separat takten. Du sollst den Coretakt auf 621 Mhz stellen. Die Shader dann einzeln noch hochziehen auf 1566 oder 1620 MHz, Wenn du das ausgelotet hast noch den RAM hochziehen..
 
Jo, jetzt kommen 1566 und 1620 danach, geht nur in 54 MHz Schritten, wieso versteht ihr das alle nicht?! Bei deinen 1500 Mhz liegen 1512 Mhz an, also stell doch glei die Werte ein die eh rauskommen..
 
Wenn ATI Tool 5min fehlerfrei rennt, dann klar, wieso nicht, Shadertakt is pure Power!
 
naja also dan kommen dann artefakte die nicht mehr normal sind haha
dürfen überhaupt artefakte auftreten?
wenn ja: wie viel?
bei 1566 treten welche auf..aber nicht viele...
jezt tbei 1512 treten keine auf
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh