7950GT/7900GS (G71) *Sammelthread*

Die ersten 7950GTs/7900GSs sind gelistet, ein Sammelthread wird also nötig :d
Die 7900GT war schon eine tolle Karte die vorallem durch ihr super OC-Potential bestach - leider geriet sie durch ihre hohe "Sterberate" auf Grund des G71-Bugs schnell in Verruf. nVidia will mit der 7950GT nun alles besser machen (die 7900GT wird komplett vom Markt genommen!). nVidia wird auch eine billigere 7900GS bringen. Da sie nur 4PP & 1VS weniger als die 7950GT hat könnte sie durch OC sehr interessant werden.


Wichtig: ***GeForce 7950GT/7900GS/GTO OC Thread***
Wichtig: nV GeForce 7900GTO *Sammelthread*



7950GT - G71 - 24PP - 8VS - Core@550MHz - 512MB GDDR3@700MHz (1,4GHz)
Vergleich: 7900GT - G71 - 24PP - 8VS - Core@450MHz - 256MB GDDR3@660MHz (1,32GHz)
7950gt.jpg


Die 7950GT hat standardmäßig 512MB, es wird aber auch billigere 256MB-Versionen geben. Die 7950GT ist also eine 7900GT mit 512MB, einem höheren Core- (450 vs. 550) und Ramtakt (660 vs. 700) und (hoffentlich) ohne G71-Bug. Und die lang ersehnt Lüftersteuerung funktioniert endlich, was die 7950GT sehr leise macht. Beim OC ist sie nicht so gut wie ihr Vorgänger.
Billigster Preis: http://www.geizhals.at/eu/?fs=7950+gt+-gx2

Leistungsvergleich ATi: X1800 XT 256 < X1900 GT < 7950GT < X1800 XT 512 < X1900 XT 256 < X1900 XT 512 < X1900 XTX < X1950 XTX

--

7900GS - G71 - 20PP - 7VS - Core@450MHz - 256MB GDDR3@660MHz (1,32GHz)
Vergleich: 7900GT - G71 - 24PP - 8VS - Core@450MHz - 256MB GDDR3@660MHz (1,32GHz)
7900gs.jpg


Die 7900GS hat standardmäßig 256MB, es wird aber auch teurere 512MB-Versionen geben. Die neue 7900GS ist bis auf die 4PP & 1VS weniger gleich wie die alte 7900GT. Außerdem soll sie keinen G71-Bug haben. Mit guten OC-Ergebnissen kann sie der neue P/L-Hammer werden.
Billigster Preis: http://www.geizhals.at/deutschland/?fs=7900GS

Leistungsvergleich ATi: X1800 GTO < 7900GS < X1800 XT 256 < X1900 GT < X1800 XT 512 < X1900 XT 256 < X1900 XT 512 < X1900 XTX < X1950 XTX



NEWS:
http://www.computerbase.de/news/har...06/september/geforce_7950_gt_geforce_7900_gt/
http://www.hartware.de/news_40727.html
http://www.computerbase.de/news/har...06/september/dreimal_geforce_7900_gs_7950_gt/
http://www.computerbase.de/news/har.../2006/september/zwei_7900er-grafikkarten_bfg/

REVIEWS:
7900GS:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_xfx_geforce_7900_gs_480m_extreme/
7950GT:
http://www.tweaktown.com/reviews/949/1/page_1_introduction/index.html
http://www.hothardware.com/viewarticle.aspx?articleid=870&cid=2
http://www.firingsquad.com/hardware/nvidia_geforce_7950_gt_preview/default.asp
http://anandtech.com/video/showdoc.aspx?i=2833
http://xtreview.com/translate/de/?/review136.htm
http://www.hartware.de/review_630_1.html

MORE TO COME :cool:
 
Zuletzt bearbeitet:
hi,
ähm die frage passt zwar jetz nicht ganz in diesen thread aber ich hab von einem freund, der in einem pcladen arbeitet, erfahren, dass die 7900gtx nächste woche einen ziemlichen preisfall haben wird. weis davon jemand was???
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wie weit wird der Preis den sinken?
Die 7900GTX hat doch den "G71 Todesbug"
oder was???
 
hmm bei mir hab ich mit atitool wenn ich den core takte so gelbe pixel, aber er gibt keine fehler aus????
BILD
 
das sieht nicht gut aus :-)
aber vlt sollten irgendwelche freaks maln tool entwickeln was für nv karten angepasst ist. Schaumer ma
 
Solange du in Games etc. keine Grafikfehler hast kannst du doch auf das ati-tool verzichten.
 
Was haltet ihr von der Gainward BLISS 7900 GS?
Hat jemand Erfahrung mit dem Hersteller, insb. bezüglich der Lautstärke.
Überlege sehr stark, die zu ordern.

LeonPower


Die 512er Version scheint laut Inquirer auf jeden Fall ganz gut zu gehen --> KLICK
 
Zuletzt bearbeitet:
Das sieht ja mal sehr interessant aus. :)
Man müsste erstmal 1. Test abwarten um das beurteilen zu können da das eine neue Eigenkonstruktion ist. Bleibt nur zu hoffen das Gainward aus den alten Misserfolgen gelernt hat.
 
Zuletzt bearbeitet:
Jede Karte kann man mit oder ohne VoltMod übertakten. Mal mehr und mal weniger, das hängt ganz von der Karte ab und nicht von dem Hersteller oder vom Lüfter auch wenn die Kühlung dabei natürlich eine wichtige Rolle spielt.
 
exciter schrieb:
hmm bei mir hab ich mit atitool wenn ich den core takte so gelbe pixel, aber er gibt keine fehler aus????
BILD

das hab ich bei meiner 7600GT wenn ich den RAM hochziehe, zuerst sinds nur kliene gelbe Punkte, die sich mit jedem MHz häufen, später sinds dann gelbe Fächen
einfach irgendwann abbrechen wenns dir zu bunt... sorry zu gelb wird
 
gibt es bei der 7950GT (512mb) eigentlich texturflimmern?
 
Zuletzt bearbeitet:
Ich hab seit Samstag meine 7950GT von Leadtek als Austausch drin, hatte vorher ne x1800xl 256MB, die ich leider scheinbar bei einem Umbau beschädigt habe. Bin soweit sehr zufrieden mit der Karte, morgen installier ich noch die Wakü, im Moment läuft sie mit dem Standartkühler @ 60°C unter Last, was schon ein erheblicher unterschied zu der x1800xl ist. Allerdings muss ich auch wirklich sagen, dass das Texturflimmer immer noch vorhanden ist, hatte vor der xl ne 7800gt und bei der war das Bild genauso. Auch wenn es vielleicht viele immer noch nicht wahrhaben wollen, meiner Meinung nach ist schon ein großer Unterschied in der BQ zu erkennen, fällt mir vor allen Dingen immer wieder bei WoW auf, wenn man über Wälder fliegt ... .
Achja, der Lüfter ist - auch unter Vollast - wirklich angenehm leise und sticht aus meinem Silentsystem sogut wie gar nicht hervor. Auch nach der gestrigen 24h Lan nicht.
3DMark06 mit automatischer Taktratenermittlung 5500 Punkte mit dem System aus meiner Signatur. 578/765 hat der Treiber erstmal ermittelt, geht sicher aber noch mehr unter Wakü und eventuell mit VMod.

MfG TheX
 
Sagt mal ist euch mal aufgefallen das die 7900GS nur noch 161€ kostet ??? wenn das mal nicht nen Preis Knüller ist ;)

/edit

Cool habe 1000 beiträge hehe :fresse:
 
Beschleunigen schrieb:
das gibt es bei jeder NV karte seit gefrosch FX.
je aktueller das modell, desto ausgeprägter ist es.
na super
warum werden die karten dann überhaupt noch gekauft? bzw besser gefragt: warum akzeptieren so viele leute diesen fehler?
 
weil es genügend user gibt, die nichtmal wissen was ein anisotroper filter ist. dann gibt's noch die user, die keine vergleichsmöglichkeiten haben (sei es, weil sie sich schon vor dem kauf für einen IHV entscheiden und darauf festlegen; sei es weil sie nicht wissen, wie man es einstellt; sei es, weil sie auf marketing-geblubber abfahren; who knows?).

ich kenne eigentlich keinen versierten user, der sich die G70/G71 antun würde. ich selbst bin vielleicht eine ausnahme.. ich hatte den G71 drin, weil ich mir beweisen wollte, dass ich den nicht haben will ;)


(..)

mfg
tobi
 
Drizzit schrieb:
na super
warum werden die karten dann überhaupt noch gekauft? bzw besser gefragt: warum akzeptieren so viele leute diesen fehler?

Es wird ja auch von vielen kritisiert aber...


HQ im Treiber einstellen und es ist weg. Macht sich ja auch sonst nur bei wenigen Spielen bemerkbar und ATI hat ja auch einige Macken.

Bei Benchvergleichen hier:
http://www.computerbase.de/artikel/..._480m_extreme/20/#abschnitt_performancerating

wird einmal folgendes gemacht:
wobei wir auf ATi-Grafikkarten zusätzlich das sogenannte Adaptive Anti-Aliasing (AAA) und auf nVidia-GPUs das Transparency Super-Sampling-Anti-Aliasing (TSSAA) hinzuschalten, damit flimmernde Alpha-Test-Texturen geglättet werden

und zum anderen bei NV-Karten:
Nach sorgfältiger Überlegung und mehrfacher Analyse selbst aufgenommener Spielesequenzen sind wir zu dem Schluss gekommen, im ForceWare-Treiber für nVidia-Karten die Qualitätseinstellungen auf High Quality anzuheben, da man nur mit diesem Setting das Texturflimmern effektiv bekämpfen kann. Zudem ist dieser Modus vergleichbar mit der Einstellung „Catalyst A.I. Standard“ auf den ATi-Pendants, wodurch bei der Bildqualität größtenteils ein Gleichstand erreicht wird.

Damit wären NV-Karten sogar etwas benachteiligt beim diesem Vergleich, da beim Catalyst-Treiber nur A.I. Standard eingestellt wird.

Aber dazu gibts genug Diskussionen auch in anderen Foren.

@trice1001

Komisch, dass immer mal wieder dieser Preis genannt wird, obwohl sie nirgends zu diesem Preis ausgeliefert wird.
Der niedrigste lieferbare ist eine Palit für 175,-- plus Versand, aber nicht jeder möchte eine Palit wegen der Kühlung und den wenigen Beigaben...

@beschleunigen
Ich kenne einige versierte User, die NV-Karten haben. Die nehmen dich auseinander in Diskussionen über die Vor- bzw. Nachteile beider Hersteller...:d

h.
 
Zuletzt bearbeitet:
Zu Geforce 6 oder gar FX Zeiten ist es aber keinem wirklich aufgefallen. Da hiess es noch, Nvidia hat die bessere Bildquali, vor allem wg. SM 3.0.

@Drizzit: Weil ATI Karten extrem mehr Strom fressen und in bestimmten Kategorien das bessere P/L-Verhältnis bieten? Und dann ist da immernoch der geniale GTX-Kühler oder auch der geniale Hühler der 7800er.
 
hartcore schrieb:
@beschleunigen
Ich kenne einige versierte User, die NV-Karten haben. Die nehmen dich auseinander in Diskussionen über die Vor- bzw. Nachteile beider Hersteller...

is klar - und vor allem: völlig unwahrscheinlich ;)


(..)

mfg
tobi
 
Zuletzt bearbeitet:
HQ im Treiber einstellen und es ist weg.
Ja....aber gibt es durch HQ keine Performanceverluste? Was ist, wenn nächstes oder übernächstes Jahr ein Spiel rauskommt das bei HQ ruckelt, mit Standardeinstellung aber flüssig läuft? Dann kann ich nix mehr gegen das Flimmern tun, oder?
 
gug doch ma bei geizhals.at off den Link wo die beschreiben wie rumgefiltert werden muß
die Bildquali bei ner ATI mag besser sein, aber Probleme mit Texturflimmer hab ich nicht
 
man nimmt es stärker wahr, wenn man besseres gewohnt ist.. wenn ich heute spiel xy auf meinem zweitrechner zocke, möchte ich brechen - so fällt das grieseln und texturflimmern ins auge.. in TES4@HDR kommt dann noch shaderaliasing hinzu, was man leider nicht (ohne FSAA) eleminieren kann.. würg.


(..)

mfg
tobi
 
Zum Texturflimmern:

1. Es macht sich nur bei eingschaltetem AF (anisotropischem Filtern) bemerkbar. Hier optimiert NV derart, dass man es in einigen Spielen (WoW) mehr oder weniger stark bemerkt.

2. Es ist tatsächlich von User zu User unterschiedlich. Einigen fällt es gar nicht auf, anderen etwas und manche, wie Beschleunigen :d, bekommen das würgen (naja, man sich auch so einiges einbilden ;))

3. Durch einstellen von High Qualität im Treiber kann man es praktisch auf fast null reduzieren. Wer dann noch was sieht, will was sehen :d

Dagegen steht aber die Optimierung von brilinearem Filter bei ATI mit A.I. Standard. Bei NV kann man diese Optimierung leicht finden und abstellen.
HQ stellt sogar sämtliche Optimierungen ab und liefert bei NV die beste Bildqualität. Bei ATI müßte man A.I. vollständig abstellen, was aber dann auch andere sinnvolle Optimierungen und Bugfixes abstellt.

Also, nicht nur NV schummelt, auch ATI.

Bei Leistungsvergleichen bei Computerbase hier z. B. ist z. B. HQ bei NV eingestellt, aber nicht die Optimierung A.I. bei ATI abgestellt, was dann konsequenterweise eigentlich sein müßte.
http://www.computerbase.de/artikel/..._480m_extreme/20/#abschnitt_performancerating

Wer sich näher damit beschäftigen möchte, unbedingt empfehlenswert:
http://www.hardtecs4u.com/reviews/2006/x1900_7900/index7.php

Hier kann man dann auch sehen, wie sich die div. Einstellungen auf die Performance auswirken.

@Drizzit

Die Performanceverluste durch HQ betragen im Schnitt 5%. Max. 10% bei SeSam2.
Macht sich in der Praxis im Spiel kaum bemerkbar.

h.

h.
 
Zuletzt bearbeitet:
hartcore schrieb:
Es wird ja auch von vielen kritisiert aber...


HQ im Treiber einstellen und es ist weg. Macht sich ja auch sonst nur bei wenigen Spielen bemerkbar und ATI hat ja auch einige Macken.

Schon gewusst das High Quality in vielen Spielen abartig Leistung kostet.

Just Cause Demo Benchmark
1280*1024 4AA 16AF alles an


Frames, Time (ms), Min, Max, Avg------Qualität
2187----43000 -----36--82--50.860

Frames, Time (ms), Min, Max, Avg------Hohe Qualität
2187----43000 -----26--79--39,2

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4705683&postcount=12
 
Hmm..., das wären 20% und allerdings sehr viel.

Aber ein Spiel bzw. Demo sagt ja noch nicht allzuviel aus....

Mich würde dann auch mal interessieren, wie hoch der Performanceverlsut bei ATI ist, wenn alle Optimierungen aus sind...

h.
 
Zuletzt bearbeitet:
hartcore schrieb:
Hmm..., das wären 20% und allerdings sehr viel.

Aber ein Spiel bzw. Demo sagt ja noch nicht allzuviel aus....

Mich würde dann auch mal interessieren, wie hoch der Performanceverlsut bei ATI ist, wenn alle Optimierungen aus sind...

h.


Bestimmt auch so hoch,bei Ati reicht Ai Low aber und das ist das problem.Wenn man bei Nvidia gute Qualität haben will muss man High Quality einstellen und der HQ Modus frisst halt viel Leistung.Bei D3 Engine Spiele ist der unterschied genau so gross,aus ein konkurenz fähigen profukt wird wenn man mit gleicher Bildqualität Bencht eine krücke.
 
ja - leider. auf nem NV40 kann man @HQ niichts aktuelles mehr zocken. es fehlt auch auf anderen NV karten an leistung, wenn man 8xS FSAA verwendet. da ist ati mit dem 6xAA (HQAA) ebenfalls einen schritt weiter. das funzt bekanntlich sogar mit HDRr.


(..)

mfg
tobi
 
Eine Frage mal, gibt es einen Leistungsunterschied ziwschen der Gainward Bliss 7900gt und der 7950gt? Beide 24 Px-Pipelines, gleiche Taktung etc....
 
Dominator18 schrieb:
Bestimmt auch so hoch,bei Ati reicht Ai Low aber und das ist das problem.Wenn man bei Nvidia gute Qualität haben will muss man High Quality einstellen und der HQ Modus frisst halt viel Leistung.Bei D3 Engine Spiele ist der unterschied genau so gross,aus ein konkurenz fähigen profukt wird wenn man mit gleicher Bildqualität Bencht eine krücke.

Das stimmt doch nicht. Wie oft soll ich noch schreiben, dass die Benchvergleiche hier bei NV im HQ-Modus ausgeführt werden:


http://www.computerbase.de/artikel/...eme/20/#abschnitt_performancerating_qualitaet

Nach sorgfältiger Überlegung und mehrfacher Analyse selbst aufgenommener Spielesequenzen sind wir zu dem Schluss gekommen, im ForceWare-Treiber für nVidia-Karten die Qualitätseinstellungen auf High Quality anzuheben, da man nur mit diesem Setting das Texturflimmern effektiv bekämpfen kann. Zudem ist dieser Modus vergleichbar mit der Einstellung „Catalyst A.I. Standard“ auf den ATi-Pendants, wodurch bei der Bildqualität größtenteils ein Gleichstand erreicht wird.

Und A.I. Standard aus ist eben doch nicht ganz vergleichbar mit NV-HQ an, also eigentlich wird NV sohgar etwas benachteiligt.

Ich hab das mehrfach in diesem Thread aufgezeigt. Aber das ist typisch für
NV-Gegner bzw. ATI-Fanboys, einfach überlesen. Deshalb antworte ich jetzt auch nicht mehr darauf.



h.

Beschleunigen schrieb:
ja - leider. auf nem NV40 kann man @HQ niichts aktuelles mehr zocken. es fehlt auch auf anderen NV karten an leistung, wenn man 8xS FSAA verwendet. da ist ati mit dem 6xAA (HQAA) ebenfalls einen schritt weiter. das funzt bekanntlich sogar mit HDRr.

tsts...:lol:
68xxer mit X1900 vergelichen, toll. Die vergleichbaren x800-Karten sind Steinzeittechnik. Kein SM 3.0 und HDR.

Und nicht zocken mit HQ? ( 4x AA, 16x AF)
http://www.computerbase.de/artikel/..._gs/18/#abschnitt_performancerating_qualitaet

Ahja, mit meiner 6800 GS konnte ich Oblivion sogar mit HDR zocken, wenns auch stellenweise etwas rucklig war.
AA+HDR+gute BQ in Oblivion? Welche ATI schafft das?

Gib doch mal Beispiele, welches Spiel in welcher Auflösung mit Einstellung HQ
nicht zu zocken war mit einer 6800GT?

h.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh