4000+ @default und 7800gtx??

Timewarp82 schrieb:
Es war keine Beleidiung :hmm: Bloß sollte man etwas selbst erleben bevor man was hinschreibt....

Fakt ist das die 7800GTX momentan jeder Graka überlegen ist und das in jedem Punkt halt so

fakt ist das keiner, der eine 7800gtx besitzt, einen fehler seiner schönen neuen karte zugeben will ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
beQuiet schrieb:
Und wie kommst du drauf dass der Unglaube was mit den Postzahlen zu tun haben soll ? :hmm: :stupid:



Kann man Blödsinn reden eigentlich studieren ?

1. Die x800xt ist der 6800gt und Ultra nicht überlegen, im gegenteil eher unterlegen.
2. Die 6800gt/ultra ist für SM3.0 und HDR nicht im geringsten zu schwach, oder "unterpowert" (soll wohl eher "underpowered" heißen), wie du es formuliert hast. Selbst mit meinem 2500+, der meine 6800gt stark limitiert hat meine Karte keine Probleme mit SM3.0. Nur mit HDR hätte sie evtl. welche, was allerdings durch einen Prozessor, der in der Lage ist sie auszureizen, ebenfalls behoben werden kann.


die x800xt ist schneller als eine 6800gt und im schnitt auch leicht schneller als eine 6800ultra

für künftige spiele, die ps3 in mengen einsetzen wird alles unter einer 7800gtx auf max. det ins stocken kommen - also bei einer 6800 kein kaufargument
 
Undertaker 1 schrieb:
fakt ist das keiner, der eine 7800gtx besitzt, einen fehler seiner schönen neuen karte zugeben will ;)

Naja wenn Du so denkst :fresse:

Das einzige ist was mir aufgefallen ist,war der gute Leistungszuwachs. Und mir musst Du nicht sagen was gut oder schlecht ist... Das kann ich sehr gut unterscheiden. :rolleyes:
 
die 7800 gtx ist momentan nur in spielen mit hohen auflösungen schneller - bis zu 45% zu einer 6800 ultra. spiele sind z.b. battlefield 2 bei 1.280*1.024 - 4x AA / 8:1 AF

in spielen wie gta sa merkst keinen unterschied zur 6800 ultra od. x850xt pe.

aber in zukunft wird es stets mehr spiele wie battlefield 2 geben, wenn du also das geld hast und erstmal ruhe haben willst, kauf dir ne 7800 gtx. sonst eine der o.g.!

wobei ich bei einer 7800 gtx einen 19 zoll lcd nehmen würde.

oder seh ich das falsch?
 
Zitat PCGames-Hardware:
"...beim Geforce6 gab es noch drei Optimierungen, die größtenteils abschaltbar waren. Eine dieser Optimierungen ist nun beim Geforce 7800GTX zwar weiterhin abschaltbar, zeigt jedoch einen geringeren Effekt, was den erreichten Leistungsvorteil betrifft. Zugleich ist eine erhöhte Neigung des G70 zu beobachten bei feinen Texturen und hohen Graden des anisotropen Texturfilters das Bild flimmernd darzustellen. Diese Einsparung bei der Bildqualität lässt sich derzeit nicht per Treiber umgehen und es besteht Grund zur Annahme, das auch keine Besserung durch Treiber in Sicht ist- zu viel hängt offenbar vom längsten Benchmark-Balken ab"........."leider schießt Nvidia dabei über das Ziel hinaus und so ist die Texturqualität alles in allem mittlerweile unter die der Radeon-Reihe von ATI gesunken. Viel eher liegt der Verdacht nahe, dass Nvidia zum Start ihres neuen Flaggschiffs mit möglichst hohen Abständen zur Konkurrenz punkten wollte."

Gruss Hr.Rossi
 
Timewarp82 schrieb:
@ Hr.Rossi

Das Problem wurde mit Forceware 77.76 behoben....

...dazu finde ich keinen Test. Aber umso besser....
Wollte nur mal darstellen, das man die Karte nicht unbedingt besitzen muss, um sich kundig zu machen ;)
Gruss Hr.Rossi
 
Timewarp82 schrieb:
Da braucht man keine Tests. Nichts ist besser als die Aussagen der User :bigok:

uuuuuha,....die sind ja selbst in diesem Forum sehr gemischt. :haha:
Aber was soll`s. Ich bin weder ein ATI noch ein Nvidia-Fanatiker.
Ich kann mit der 6800 Ultra Battlefield 2 mit Graka-Einstellungen auf Endstand und 60-100 Fps völlig ruckelfrei spielen........ich kaufe mir die 7800 GTX ULTRA für 299,-€ im Mai 2006 :lol:
Gruss Hr.Rossi
 
Elrond McBong schrieb:
Erstens erwarte ich bei einer 500€ teuren GRafikkarte ein flimmerfreies und bestmögliches Bild, zweitens würde ich mir allein aus Protest diese stetige Bildverschlechterung seitens Nvidia nicht gefallen lassen. :motz:
Und beim näheren Hinsehen marginale Qualitätsunterschiede? Also wenn man das nicht sofort sieht hat man wirklich Tomaten auf den Augen


Hattest du schon Eine?? Ich hatte jetzt die letzten 3 Wochen 3 Karten zum testen gehabt.

Mir ist es gar nicht aufgefallen, dass die GTX flimmert. Wenn du allerding direkt mit ner ATI verlgeichst dann kennt man schon nen kleinen Unterschied.

Jetzt habe ich ne GT mit dem neuen 77.76 und kann keinen Unterschied zur X800 feststellen. Die 7800GTX mag ein wenig flimmern, aber es ist ne super Karte.

Zugreifen !!!!
 
Zuletzt bearbeitet:
Megamember schrieb:
Das Problem mit dem Flimmern der 7800GTX kann man dadurch beseitigen das man im Treiber alles auf HQ stellt, ausserdem soll der neue 77.76 Treiber da deutliche Verbesserungen bringen.

Damit stellst du viele User als dumm hin. Also ob die nicht selber auf die Idee gekommen wären. Aber das ist nicht die Lösung. Das AF flimmert immer noch. Die ganzen Benchmarks der G70 oder NV40 sind nur mit Quality gebencht. Auf das will NVIDIA hinaus. Immer runter mit der Qualität und ein paar fps gewinnen.
 
Elrond McBong schrieb:
Danke für die Beleidigung, sehr freundlich :fire:
Wenn hier in diesem das Wissen nur an der Anzahl der Posts gemessen wird, fänd ich dat echt schade, aber macht was ihr wollt. Wenn ihr mir nicht glauben wollt, warum glaubt ihr dann nicht den Leuten von 3d-center? Aber macht was ihr wollt, ist mir doch scheiss egal :wall:

edit : und dafür das du tomaten auf den augen hast ( oder haben willst) kann ich auch nix :heuldoch:

"Das Wissen an der Anzahl der Posts gemessen wird."

Aha gut, dann wissen wir ja warum du Blödsinn sabbelst, Fanboy! :d


Ah was, Quatsch. Bistn netter Kerl!
 
Megamember schrieb:
Falsch, besonders in hohen Auflösungen und mit viel AA/AF ist die X800XT teilweise deutlich schneller. Ausnahme ist Doom3. Ich hatte eine 6800GT die jetzt einer X850XT weichen musste und der Unterschied ist wie Tag und Nacht. Ich kann z.B Farcry in Einstellungen flüssig spiele in nder mir die Gt ne Diashow geboten hätte.
Öhm ... du weißt schon, dass die 6800gt/Ultra bei ungefähr gleicher Leistung noch SM3.0 und HDR Effekte darstellt, HDR zwar eher weniger, vor allem derzeit, aber eben SM3.0. Und trotzdem hält sie mit der x800xt mit, also ist sie insgesamt schneller.

Eine x850xt mit einer Gf6 zu vergleichen hat auch keinen Sinn, da die x850xt nach diesen kam :rolleyes:

Zu FarCry. Ich sagte ja schon, die ATI hat keine SM3.0 Effekte zu berechnen ...
 
Zuletzt bearbeitet:
Also ich bin sehr überrascht was hier so angesprochen wurde. Da ich nun die neue Ausgabe der PC Games Hardware gelesen habe besonders den test über die neuen GTX Grakas bei dem mir ein wenig mulmig geworden ist. Als beispiel hier nur genannt wie auch schon hier im Forum angesprochen sei die Problematik mit dem Flimmern das weder durch neue Treiber noch bios updates abgestellt werden kann. Es ist die feste Architektur auf der Karte. Nvidia wollte mit einer etwas schlechteren Bildqualität enorme benchmark ergenbisse erreichen laut aussage des Entwicklers bei Nvidia. Für mich wird es nicht die 7800GTX werden da ich absolut nicht mehr von der merhleistung begeistert bin. Was bringt eine 500€ Karte wenn die Bildqualität angeblich so schlecht ist. Soweit ist das ja schwierig zu beurteilen da ich live keine karte in aktion gesehen habe und ich mich nur auf berichte und erfahrungen stützen kann. Ich werde wohl doch zur Leadtek 6800 Serie greifen. Eine Ati Karte ist bei vielen Games mit einer sehr guten optik gesegnet aber unterstüzt nich die neuen Formate wie Shader 3 oder HDR. Natürlich sehen die Spiele bei den Karten auch gut aus aber wenn ich vor einer Neuanschaffung stehe suche ich mir das beste angebot aus Leistung und den damit verbundenen Eigenschaften wie nun mal das Shader Modell 3 und HDR. Da meine CPU ein 4000+ @ standard ist dürfte das mit dem HDR auch ganz gut laufen.

Eine kleine Frage noch was lohnt eher die ultra standard zu kaufen oder die GT version auf ultra zu übertakten??? Der Preisunterschied der karten beträgt nur 20 €

Vielen Dank für die vielen Informationen
 
milliardo schrieb:
"Das Wissen an der Anzahl der Posts gemessen wird."

Aha gut, dann wissen wir ja warum du Blödsinn sabbelst, Fanboy! :d


Ah was, Quatsch. Bistn netter Kerl!


Als ich erst die ersten beiden Zeilen gelesen habe, dachte ich schon ach du kacke^^
Aber danke :)
Und PS : ich hab sekber ne 6800LE @ GT, also Fanboy bin ich nicht (auch wenns nich ernst gemeint war von dir), ich bin nur ein Freun des guten Bildes :bigok:
 
BlackHawks12 schrieb:
Eine kleine Frage noch was lohnt eher die ultra standard zu kaufen oder die GT version auf ultra zu übertakten??? Der Preisunterschied der karten beträgt nur 20 €

Vielen Dank für die vielen Informationen

Wenn die GT 1,6ns Speicher hat, kannste die auch nehmen, nur 6800ULTRA hört sich natürlich besser an :d
 
Also es wird die Leadtek 6800 Ultra werden. Kennt jemand ne andere Ultra Karte die eine leisere Kühlung hat ohne den ZalmanVf700 zu kaufen?

Thansk im voraus! :)
 
BlackHawks12 schrieb:
Also es wird die Leadtek 6800 Ultra werden. Kennt jemand ne andere Ultra Karte die eine leisere Kühlung hat ohne den ZalmanVf700 zu kaufen?

Thansk im voraus! :)

Nö,....die haben alle den selben Standartkühler drauf. Da hilft nur Silencer5 Rev.2 oder der Zalman.
Bei 20,-€ Unterschied würde ich auch gleich die Ultra nehmen, da lohnt sich das hochtakten nicht. Und eine Ultra kann man ja auch noch hochtakten ;) .
Gruss Hr.Rossi
 
Zuletzt bearbeitet:
So ich hab mittlerweile meinen neuen Rechner bekommen und in dem steckt auch eine Geforce 7 GTX Karte, ich hab einige Spiele getestet, darunter z.B. FEAR MP Beta und ich hab da nirgendwo ein Flimmern gesehen, ich seh da keinen Unterschied zwischen meiner alten Radeon 9800 Pro und der jetzigen GF Karte.....................

Außer das sie natürlich um einiges schneller ist und das ich alles auf High stellen kann, weis nicht was ihr alle für Probleme habt, das hat auch nichts damit zu tun das ich irgendwas nicht zugeben will, wenn da wirklich was geflimmert hätte, dann hät ich das Scheißding sofort an den Absender zurückgeschickt und eine neue Karte gefordert.................. ;)
 
beQuiet schrieb:
Öhm ... du weißt schon, dass die 6800gt/Ultra bei ungefähr gleicher Leistung noch SM3.0 und HDR Effekte darstellt, HDR zwar eher weniger, vor allem derzeit, aber eben SM3.0. Und trotzdem hält sie mit der x800xt mit, also ist sie insgesamt schneller.

Eine x850xt mit einer Gf6 zu vergleichen hat auch keinen Sinn, da die x850xt nach diesen kam :rolleyes:

Zu FarCry. Ich sagte ja schon, die ATI hat keine SM3.0 Effekte zu berechnen ...

Was sind denn bei SM3.0 für zusätzliche Effekte zu berechnen? In Far Cry macht dieses schneller und nicht langsamer.
 
Hm bessere Texturen vielleicht? Und dieser komische Blendeffekt wenn man von einem Dunklen Raum raus in die Sonne geht........

Bei Splinter Cell sieht die Spielwelt mit HDR etwas plastischer, lebensechter aus! :)

Aber so ein riesen Unterschied ist das ehrlich gesagt nicht!
 
Mr. Schneepflug schrieb:
Hm bessere Texturen vielleicht? Und dieser komische Blendeffekt wenn man von einem Dunklen Raum raus in die Sonne geht........

Bei Splinter Cell sieht die Spielwelt mit HDR etwas plastischer, lebensechter aus! :)

Aber so ein riesen Unterschied ist das ehrlich gesagt nicht!

In Far Cry macht SM3 schneller und nicht langsamer! Das mit den Texturen ist mir neu. Und was hat HDR mit SM3 zu tun? Ausserdem kann man Splinter Cell nicht als Beispiel nehmen, da die SM2 nicht implementiert haben.
 
LOL was weis ich, ich hab jedenfalls mal in einer Zeitschrift, warscheinlich Gamestar einen Screenshot-Vergleich gesehen, dort wurde ein Bild mit Shader 1.0 und 3.0 gezeigt, die Texturen auf dem zweiten Bild wahren wesentlich schärfer und lebensechter, also hat es wohl schon irgendwie damit zu tun...........

Und was HDR mit S 3.0 zu tun hat? HDR ist ein Feature von S 3.0...........

Wieso kann man Splinter Cell nicht als Vergleich nehmen? Blos weil ATI Karten das momentan nicht unterstützen? Was ist das denn bitteschön für ein Argument.

Ich kann diese ständigen was ist besser ATI/Nvidia kindereein nicht mehr hören.......... ich hatte Nvidia und ATI Karten, ich hol mir immer die Karte die vom Preis und von der Leistung am besten ist, da die ATI Karten noch keine Shader 3.0 Technik beherrschen hab ich mich halt für eine Nvidia Karte entschieden, vorher hatte ich eine ATI Karte!

Ist mir doch schnuppe ob da ati oder nvidia drauf steht, hauptsache die Karte ist schnell.
 
Mr. Schneepflug schrieb:
LOL was weis ich, ich hab jedenfalls mal in einer Zeitschrift, warscheinlich Gamestar einen Screenshot-Vergleich gesehen, dort wurde ein Bild mit Shader 1.0 und 3.0 gezeigt, die Texturen auf dem zweiten Bild wahren wesentlich schärfer und lebensechter, also hat es wohl schon irgendwie damit zu tun...........

Und was HDR mit S 3.0 zu tun hat? HDR ist ein Feature von S 3.0...........

Wieso kann man Splinter Cell nicht als Vergleich nehmen? Blos weil ATI Karten das momentan nicht unterstützen? Was ist das denn bitteschön für ein Argument.

Ich kann diese ständigen was ist besser ATI/Nvidia kindereein nicht mehr hören.......... ich hatte Nvidia und ATI Karten, ich hol mir immer die Karte die vom Preis und von der Leistung am besten ist, da die ATI Karten noch keine Shader 3.0 Technik beherrschen hab ich mich halt für eine Nvidia Karte entschieden, vorher hatte ich eine ATI Karte!

Ist mir doch schnuppe ob da ati oder nvidia drauf steht, hauptsache die Karte ist schnell.

1. hat HDR nichts mit SM3 zu tun
2. Weil die Entwickler für Ati Karten nur SM1 implementiert haben. Den Unterschied den du da siehst, kommt nicht durch SM3. Kann man auch alles schön mit SM2 machen. und wenn mehr Effekte dargestellt werden, na logisch muss dann mehr berechnet werden und man hat weniger fps.
 
mirko10 schrieb:
und wenn mehr Effekte dargestellt werden, na logisch muss dann mehr berechnet werden und man hat weniger fps.
Darum geht es ja :wall:
Die ATI muss diese Effekte nicht berechnen und ist trotzdem (nur) gleichauf mit den NVidias.

mirko10 schrieb:
In Far Cry macht SM3 schneller und nicht langsamer!
Wasn das überhaupt für nen deutsch :hmm:
Davon abgesehen hat man dadurch keine höhere Performance. Durch SM3.0 ist es für die Entwickler nur leichter schönere Effekte zu erreichen.

mirko10 schrieb:
Ausserdem kann man Splinter Cell nicht als Beispiel nehmen, da die SM2 nicht implementiert haben.
Das ist natürlich ein Grund !! :wall: :rolleyes:
SM2 wird eben nicht mehr genutzt, da es zu aufwändig (<- blöde neue Rechtschreibung-.-) zum Programmieren ist. Also bietet SM3 dementsprechend bessere Effekte, die aber natürlich mehr Rechenleistung erfordern.

Außerdem möchte ich anmerken, dass ich kein NVidia Fan bin. Ich fasse das genauso auf, wie Mr. Schneepflug es beschrieben hat.

Jetzt aber :btt:

#Edit: @BlackHawks12: Dann mal viel Spaß mit deiner Graka ;)
 
Zuletzt bearbeitet:
bequiet:
Wasn das überhaupt für nen deutsch
Kann man Blödsinn reden eigentlich studieren ?

sag mal kannst du nur beleidigen ??

1. Die x800xt ist der 6800gt und Ultra nicht überlegen, im gegenteil eher unterlegen.

ja dann sieh dir mal die benschs an im großen und ganzen ist die x800xt schneller das ist nun mal so fakt!:
http://www.de.tomshardware.com/graphic/20040504/ati-x800-40.html
2. Die 6800gt/ultra ist für SM3.0 und HDR nicht im geringsten zu schwach, oder "unterpowert" (soll wohl eher "underpowered" heißen), wie du es formuliert hast. Selbst mit meinem 2500+, der meine 6800gt stark limitiert hat meine Karte keine Probleme mit SM3.0. Nur mit HDR hätte sie evtl. welche, was allerdings durch einen Prozessor, der in der Lage ist sie auszureizen, ebenfalls behoben werden kann.

ja sicher ist die zu lam zumindest für hdr, mach doch hier noch hdr rein bei 1280x1024 wo die karte sowieso schon mit 35fps for sich hin kriecht:

http://www.firingsquad.com/hardware/athlon_64_geforce_7800_gtx_scaling/page11.asp

Wie schon oben mehr mals gesagt wurde wird die karte bei far cry nur schneller und nicht langsamer durch sm3! lese es doch nach!

so klar ist es besser sm3 zu haben als nicht aber wir werden ja sehen wieviel deine karte davon in einem jahr hat oder nicht den zur zeit hat sie nichts davon!
 
Oh man, jetzt hab ich 2 Mal etwas gereizt reagiert und schon "kann ich nur beleidigen" :rolleyes:

ja sicher ist die zu lam zumindest für hdr, mach doch hier noch hdr rein bei 1280x1024 wo die karte sowieso schon mit 35fps for sich hin kriecht:
Hab ich irgendwas von 1280*1024 gesagt ? Nein! Es ging rein um HDR an sich, von höheren Auflösungen war nie die Rede !
 
Hab ich irgendwas von 1280*1024 gesagt ? Nein! Es ging rein um HDR an sich, von höheren Auflösungen war nie die Rede !

ja genau das meine ich es fehlt an leistung

wo willst du denn hdr einsetzen bei 800x600?

wie ich sagte macht wohl bei einer 6800 keinen sin
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh