Nvidia der BADBOY der Branche?

Status
Für weitere Antworten geschlossen.
Beschleunigen schrieb:
jedes. das in meinem regal vorrätigste war am kauftag farcry. brachte je nach level bis zu 30% mehr frames. ansonsten interessiert es mich nicht sonderlich, was sich für andere lohnt. ich hab' anfang 2005 diesen weg eingeschlagen und zwischenzeitlich hab' ich etliche SM3 taugliche spiele. "lohnen" liegt ja wohl sehr im sinne des betrachters. für mich lohnt es sich sogar, konsolenspiele zu kaufen.


(..)

mfg
tobi

Man man bist du ein Scherzkeks, wann kam denn damals der Patch für SM3.0 raus für Farcry ? Oder versuchst du mir jetzt hier zu sagen das Far Cry von Anfang an SM3.0 hatte ? :lol: Zur Zeit der NV40 gab es überhaupt gar keine SPiele mit SM3.0 und erst Monate später kamen Spiele raus die per Patch auf SM3.0 gehoben wurden. Eine Ausnahme gab es, soweit ich weiß war das Splinter Cell.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Beschleunigen schrieb:
ähm.. SM3 ist ein schritt der entwicklung zum unified shader - kein marketing-gag oder eine kaufmotivation. unified shader ist das gesetzte ziel - das sehen wir unter vista. directx10 unter XP wird es nie geben. die hardware dazu auch nicht. und SM3 ist mit zwei karten schon immer sehr schnell gewesen. an einzelkartentests kann ich mich nicht mehr erinnern. das liegt 18 monate zurück.

warum hier SM3, NV40 und schlechte performance immer in einem satz genannt werden, entzieht sich meiner kenntnis. immerhin können NV40 user seit 2004/anfang2005 ihre leistung per SLi bündeln und versägen damit dann alles, was zeitgleich verfügbar war. egal mit welchem code und mit welchem eyecandy (8xS AA p.e.). im schwan_mark von 05 hatte ich schon anfang letzten jahres über 10 kilopunkte ;) - klar, ne 1900xt schafft das auch. heute, fast 2 jahre später.


(..)

mfg
tobi


Noch so ein geiler Kommentar, du vergleichst 2 Grafikkarten im SLI mit einer einzelnen ? :lol: ATI hat es eben erst nötig gehalten CRossfire vor nem halben Jahr rauszubringen weil die Performance SPrünge erst jetzt dadurch einigermaßen sind. Als SLI am Anfang rauskam war doch mehr Performance nur in in Schwanzmark 03 05 zu merken, Spiele hatten maximal paar fps mehr.
Und außerdem lasst uns mal von der Diskussion wegkommen SLI vs Crossfire das ist ein anderes Kapitel. Wir reden jetzt mal nur von Einzekarten
 
Mome schrieb:
ja das weis ich wohl auch... ich hatte auch mal ne Voodoo1, sogar eine mit 6MB :d

aber zu der Zeit gabs doch auch noch keinen NV4 oder?
Der erste überhaupt irgendwie brauchbare NV Chip war doch eig. der Riva128 oder? wobei eig. erst der TNT...

Völlig richtig ! Und zu der Zeit hab ich mir lieber nen Matrox G200 gekauft weil der auch recht flott war zu der Zeit und eine Bildqualität geboten hat die warscheinlich bis heute noch ihresgleichen sucht. Matrox halt :d

Naja manche wollen es einfach nicht warhaben das ihr heißgeliebtes NVIDIA eigentlich immer irgendwelche Treiber Cheats braucht oder dan in der Qualität abstriche macht.
 
annixp schrieb:
ATI hat es eben erst nötig gehalten CRossfire vor nem halben Jahr rauszubringen weil die Performance SPrünge erst jetzt dadurch einigermaßen sind. Als SLI am Anfang rauskam war doch mehr Performance nur in in Schwanzmark 03 05 zu merken
Sorry, aber mit SLI hatte NVidia genau das richtige getan und deswegen ist SLI heut schon so gut ausgereift, im Gegensatz zu CF ;)
Zu PS3.0 kann ich auch nur sagen, das es eher eine Lockmethode sein sollte. Ne X850XT PE ist schneller wie eine 6800Ultra. Hat auch das bessere Bild, ich würde die X850XT eher kaufen als die 6800 Ultra.(ich hatte beide). Von PS3.0 sehe ich heut noch nix....wie auch, soll ja nur die Games beschleunigen. Optische Vorteile gibt es kaum(so laut ATI selbst). Und massiv Werbung machen mit PS3.0 aber noch nicht mal richtig beherrschen, naja auch net richtig ;)
 
Man man bist du ein Scherzkeks, wann kam denn damals der Patch für SM3.0 raus für Farcry ? Oder versuchst du mir jetzt hier zu sagen das Far Cry von Anfang an SM3.0 hatte ? Zur Zeit der NV40 gab es überhaupt gar keine SPiele mit SM3.0 und erst Monate später kamen Spiele raus die per Patch auf SM3.0 gehoben wurden. Eine Ausnahme gab es, soweit ich weiß war das Splinter Cell.

hab' ich von SLi oder von SM3 gesprochen? versuchst du nur zu provozieren oder kannst du echt nicht lesen? FC hab' ich schon auf dem vorvorgänger meines jetztigen PCs durchgezockt, die NV40 kamen hier auf PCIe erst im februar/märz 05 in die kiste.

Noch so ein geiler Kommentar, du vergleichst 2 Grafikkarten im SLI mit einer einzelnen ?

nö. 32 pixelpipelines und 12 vertex-shader kann man mit ne singlekarte gar nicht vergleichen. ich treffe auch selten porschefahrer, die sich mit polo und golf-proleten vergleichen. das ist meist andersrum. den vergleich sucht meist der unterlegene.

ATI hat es eben erst nötig gehalten CRossfire vor nem halben Jahr rauszubringen weil die Performance SPrünge erst jetzt dadurch einigermaßen sind. Als SLI am Anfang rauskam war doch mehr Performance nur in in Schwanzmark 03 05 zu merken, Spiele hatten maximal paar fps mehr.
Und außerdem lasst uns mal von der Diskussion wegkommen SLI vs Crossfire das ist ein anderes Kapitel. Wir reden jetzt mal nur von Einzekarten

ich glaub' du weisst nicht so wirklich, wovon du redest. mit höherer framerate hat SLi in meinem system, sehr wenig zu tun. SSAA und hybride modi sind seit anfang an verfügbar. völlig abseits von frameraten und special-features á la hdr oder SM3. ansonsten ist eine stabile min-frame rate sehrviel sinniger, als die doppelten maxframes.

Zitat:
Zitat von Mome
ja das weis ich wohl auch... ich hatte auch mal ne Voodoo1, sogar eine mit 6MB

aber zu der Zeit gabs doch auch noch keinen NV4 oder?
Der erste überhaupt irgendwie brauchbare NV Chip war doch eig. der Riva128 oder? wobei eig. erst der TNT...

Völlig richtig ! Und zu der Zeit hab ich mir lieber nen Matrox G200 gekauft weil der auch recht flott war zu der Zeit und eine Bildqualität geboten hat die warscheinlich bis heute noch ihresgleichen sucht. Matrox halt

der NV4 war der TNT1. den hatte ich parallel zu voodoo1 und später zu voodoo2 SLi. davor war eine mystique von matrox die 2D karte. ist das so schwer zu verstehen? bildqualität betrifft mich nicht, da ich seit 5 jahren TFTs verwende. davor sind mir diskrepanzen nie wirklich aufgefallen (hatte immer gute CRTs). bildqualität betrifft doch nur die user, die analoge signale an ihre veralteten röhrengeräte schicken - wer macht sowas denn 2006 noch?

Sorry, aber mit SLI hatte NVidia genau das richtige getan und deswegen ist SLI heut schon so gut ausgereift, im Gegensatz zu CF
ati hatte einfach nichts entgegen-zu-setzen. und SLi ist seit forceware 81.85 (november 05) erwachsen.

Zu PS3.0 kann ich auch nur sagen, das es eher eine Lockmethode sein sollte.
klar! und der unified shader des G80 ist auch nur eine lockmethode. alles klar, echt!
Ne X850XT PE ist schneller wie eine 6800Ultra. Hat auch das bessere Bild, ich würde die X850XT eher kaufen als die 6800 Ultra.(ich hatte beide).
who cares? die sind doch überhaupt nicht vergleichbar. wie GF4 und GF5.
Von PS3.0 sehe ich heut noch nix....wie auch, soll ja nur die Games beschleunigen. Optische Vorteile gibt es kaum(so laut ATI selbst). Und massiv Werbung machen mit PS3.0 aber noch nicht mal richtig beherrschen, naja auch net richtig
einfach mal den nächsten media-markt anfliegen und 44euro in AOE3 investieren. wer den unterschied nicht sieht, braucht ne brille.


(..)

mfg
tobi
 
Beschleunigen schrieb:
hab' ich von SLi oder von SM3 gesprochen? versuchst du nur zu provozieren oder kannst du echt nicht lesen? FC hab' ich schon auf dem vorvorgänger meines jetztigen PCs durchgezockt, die NV40 kamen hier auf PCIe erst im februar/märz 05 in die kiste.



nö. 32 pixelpipelines und 12 vertex-shader kann man mit ne singlekarte gar nicht vergleichen. ich treffe auch selten porschefahrer, die sich mit polo und golf-proleten vergleichen. das ist meist andersrum. den vergleich sucht meist der unterlegene.



ich glaub' du weisst nicht so wirklich, wovon du redest. mit höherer framerate hat SLi in meinem system, sehr wenig zu tun. SSAA und hybride modi sind seit anfang an verfügbar. völlig abseits von frameraten und special-features á la hdr oder SM3. ansonsten ist eine stabile min-frame rate sehrviel sinniger, als die doppelten maxframes.



der NV4 war der TNT1. den hatte ich parallel zu voodoo1 und später zu voodoo2 SLi. davor war eine mystique von matrox die 2D karte. ist das so schwer zu verstehen? bildqualität betrifft mich nicht, da ich seit 5 jahren TFTs verwende. davor sind mir diskrepanzen nie wirklich aufgefallen (hatte immer gute CRTs). bildqualität betrifft doch nur die user, die analoge signale an ihre veralteten röhrengeräte schicken - wer macht sowas denn 2006 noch?


ati hatte einfach nichts entgegen-zu-setzen. und SLi ist seit forceware 81.85 (november 05) erwachsen.


klar! und der unified shader des G80 ist auch nur eine lockmethode. alles klar, echt!

who cares? die sind doch überhaupt nicht vergleichbar. wie GF4 und GF5.

einfach mal den nächsten media-markt anfliegen und 44euro in AOE3 investieren. wer den unterschied nicht sieht, braucht ne brille.


(..)

mfg
tobi


Öhm also ich hab da was klingeln gehört das der G80 nicht mit unified Shadern kommt :fresse:
 
genau. er kommt vielleicht einfach mit dem fahrrad.. LOL

vielleicht baut man auch wieder SM2.0 ein, weil das bei den ATI fans so gut angekommen ist.


(..)

mfg
tobi
 
Beschleunigen schrieb:
bildqualität betrifft mich nicht, da ich seit 5 jahren TFTs verwende. davor sind mir diskrepanzen nie wirklich aufgefallen.
lol, und unten(wegen PS3.0) willst Du mir einen von Blind erzählen:lol:
Habe selbst nen TFT und sehe das selbst...




Beschleunigen schrieb:
klar! und der unified shader des G80 ist auch nur eine lockmethode. alles klar, echt!.
Wir jeden von jetzt...wie genau der G80 funktionieren wird weiß noch keiner, das haben wir ja jetzt alle bei dem G71 gesehen der ja 32 Pipes haben sollte! Und wo hat die 6800er Serie vom PS 3.0 profitiert? Eine Sache die sie nicht mal beherschen. Für etwas Werbung machen was nicht 100% funktioniert...

Beschleunigen schrieb:
who cares? die sind doch überhaupt nicht vergleichbar. wie GF4 und GF5.
Dann nimm einfach die X800XT als Vergleich, die hatte ich auch und selbst die ist schneller wie ne 6800Ultra....

Beschleunigen schrieb:
einfach mal den nächsten media-markt anfliegen und 44euro in AOE3 investieren. wer den unterschied nicht sieht, braucht ne brille.
Sorry, flimmern willst Du nicht sehen, aber den lächerlichen Unterschied schon? Naja, als NVidia Fan scheint man vieles nicht sehen zu wollen, ich halt mich hier jetzt raus, denn mit Leuten die nur die Vorteile einer Fima sehen, hat es keinen Sinn zu diskutieren!
 
Zuletzt bearbeitet:
lol, und unten(wegen PS3.0) willst Du mir einen von Blind erzählen
Habe selbst nen TFT und sehe das selbst...
darf ich fragen wo du ausgebrochen bist? der content-unterschied (etwa in AOE3 mit SM3 und SSAA) hat ja mal rein gar nichts mit der signalqualität über analoge graka-ausgänge zu tun, von denen hier bezgl. des TFT betriebs gesprochen wurde. das war zu zeiten analoger übertragung nämlich ein mekka der matrox-karten (im 2D betrieb klarer zu sein, als die konkurenz).

flimmern: du hast aber schon kapiert, dass ich zwei karten habe, oder?

ich hab' ganz andere möglichkeiten texturflimmern zu beseitigen, als eine single-ultra oder ne x8xx.

Und wo hat die 6800er Serie vom PS 3.0 profitiert? Eine Sache die sie nicht mal beherschen. Für etwas Werbung machen was nicht 100% funktioniert...

ich hab' überall wo shader3 draufsteht auch ordenlich content / und leistung. dass SM3 nicht funktioniert ist ne glatte lüge deinerseits. 3DM lief astrein mit sm3, fc lief schneller und B&W2/AOE3 sehen mit SM3 sehr viel besser aus. tipp: macht euch mal schlau, wie supersampling auf die schärfe von texturen wirkt und ergründet mal, was ein hybrider modus zu reissen vermag. by-the-way wäre es sicher nicht uninteressant nachzuforschen, was die verschiedenen griesel- und flimmer-effekte hervorruft. es gibt nicht nur flimmern wg. eines winkelabhängigen AF filters. es gibt auch shaderaliasing p.e.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
3DM lief astrein mit sm3, fc lief schneller und B&W2/AOE3 sehen mit SM3 sehr viel besser aus.

Jaja, du glaubst im Ernst, dass sich seit dem NV40 bezüglich SM3 und den Texturoperationen etwas geändert hat: Es gibt seit dem Shader Model 3 neue Texturoperationen, die auf dem NV40 teilweise ziemlich viele Takte zur Berechnung brauchen. Daran scheint sich im G70 nichts geändert zu haben, eine Beschleunigung hat man hier nur über das Mehr an Pipelines. Also kannst du in zukünftigen Games mit allen Details und hoher Auflösung bei SM3 deine GF6 Serie auch im SLI mode in die Tonne kloppen.
und mit Supersampling, das ist soch nicht dein ernst das ich dir erklären soll was Down- und supersampling sind(nur weil "jemand" das hier nicht weiss)?
 
Jaja, du glaubst im Ernst, dass sich seit dem NV40 bezüglich SM3 und den Texturoperationen etwas geändert hat: Es gibt seit dem Shader Model 3 neue Texturoperationen, die auf dem NV40 teilweise ziemlich viele Takte zur Berechnung brauchen. Daran scheint sich im G70 nichts geändert zu haben, eine Beschleunigung hat man hier nur über das Mehr an Pipelines. Also kannst du in zukünftigen Games mit allen Details und hoher Auflösung bei SM3 deine GF6 Serie auch im SLI mode in die Tonne kloppen.
und mit Supersampling, das ist soch nicht dein ernst das ich dir erklären soll was Down- und supersampling sind(nur weil "jemand" das hier nicht weiss)?

drück' das mal so aus, dass ich verstehe, was du mir zu sagen versuchst. vielleicht baust du in den kontext noch ein, dass mein beamer auf 1024 pixel und meine TFTs auf 1280pixel limitieren. wäre neugierig auf deine rechnung, die mir verdeutlicht, wie rein über shader (selbst wenn sie mehrere passes benötigen) ein code derartig ausgebremst werden soll, dass die 14MT füllrate (32PPx425MHz) oder 2x 35GB bandbreite nichts mehr kompensieren können.
wenn man dann zwei karten @sli schon "in-die-tonne-kloppen" kann - was machen dann leute, die nur ne 78GS auf AGP oder ne 78GT auf PCIe haben. oder halt die ATI derivate? die erschiessen sich dann, richtig?

p.s.
zum supersampling brauchst du mir nichts erklären. das thema texturschärfung bei zuschalten von supersampling hatten wir schon vor zwei jahren im 3DC. das ist ein alter hut und bekannt ist dieser effekt seit es SSAA gibt.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
wäre neugierig auf deine rechnung, die mir verdeutlicht, wie rein über shader (selbst wenn sie mehrere passes benötigen) ein code derartig ausgebremst werden soll, dass die 14MT füllrate (32PPx425MHz) oder 2x 35GB bandbreite nichts mehr kompensieren können.
: also, ich meinte jetzt nur den SM3, das der bei der GF6 Serie, und nur ausschließlich da, das ganze ausbremst, weil er viele Takte braucht um die gewissen Texturoperationen zu berechnen: Und in der GF7 Serie wäre das genauso, weil nVidia daran prinzipiell nichts geändert hat, ausser, das sie die Pipelines erhöht haben um das zu umgehen, was wieder ein plus an geschwindigkeit bedeutet.



wenn man dann zwei karten @sli schon "in-die-tonne-kloppen" kann - was machen dann leute, die nur ne 78GS auf AGP oder ne 78GT auf PCIe haben. oder halt die ATI derivate? die erschiessen sich dann, richtig?
: ja, ein GF6 SLI gespann kann in 1600x1200 und max Details sowie vollem AA und AF Serious Sam 2 mit HDRR und allem was dazu gehört flüssig über 45 FPS darstellen, das möchte ich mal sehen! Selbst die 7900GTX von meinem Kumpel wird da in die Knie gezwungen. Und von erschiessen war nicht die rede, ich meinte nur bei max. Details, da kann man die vergessen(die GF6 Serie, auch bei SM3, wo die ja angeblich so schnell sind).

zum supersampling brauchst du mir nichts erklären. das thema texturschärfung bei zuschalten von supersampling hatten wir schon vor zwei jahren im 3DC. das ist ein alter hut und bekannt ist dieser effekt seit es SSAA gibt.
: freut mich, brauch ich nicht so viel schreiben


Daran scheint sich im G70 nichts geändert zu haben, eine Beschleunigung hat man hier nur über das Mehr an Pipelines
: mit beschleunigen meinte ich nicht dich, nur damit das klar ist
 
Beschleunigen schrieb:
genau. er kommt vielleicht einfach mit dem fahrrad.. LOL

vielleicht baut man auch wieder SM2.0 ein, weil das bei den ATI fans so gut angekommen ist.


(..)

mfg
tobi

Jojo das ist ne echt objektive Meinung. Musst halt mal die News verfolgen, da kamen schon erste Gerüchte auf ds Unified Shader erst nach der g80 eingebaut werden sollen. Aber du bist ja der NvidiaMan der Retter der Gerechten und weißt ja alles ;)
 
anfang/mitte 2006 ist auch noch nicht relevant, was uns ende 2006/ anfang 2007 erwartet. selbst jemand der schon heute die kompletten fakten respektive eckdaten kennt, ist atm noch zur verschwiegenheit verdonnert und darf im i-net nicht drüber reden (NDA).


(..)

mfg
tobi
 
Beschleunigen schrieb:
anfang/mitte 2006 ist auch noch nicht relevant, was uns ende 2006/ anfang 2007 erwartet. selbst jemand der schon heute die kompletten fakten respektive eckdaten kennt, ist atm noch zur verschwiegenheit verdonnert und darf im i-net nicht drüber reden (NDA).


(..)

mfg
tobi

War ja auch nur ein Gerücht was aber quer durch die Presse ging sonst auch nix.
 
Beschleunigen schrieb:
darf ich fragen wo du ausgebrochen bist?.
Hast Du irgendwelche Komplexe oder bist Du erst 3?
Beschleunigen schrieb:
der content-unterschied (etwa in AOE3 mit SM3 und SSAA) hat ja mal rein gar nichts mit der signalqualität über analoge graka-ausgänge zu tun.
Hat das wer behauptet?



Beschleunigen schrieb:
ich hab' ganz andere möglichkeiten texturflimmern zu beseitigen, als eine single-ultra oder ne x8xx.
Mein Kumpel hat zwei 7800GTX und da ist trotzdem ein Flimmern, also erzähl Du mir nicht, das es mit Deinen zwei 6800er nicht flimmert....Riesen Unterschied willste von PS 2.0 zu 3.0 sehen, aber sowas nicht....

Beschleunigen schrieb:
dass SM3 nicht funktioniert ist ne glatte lüge deinerseits.
http://www.the-inquirer.net/?article=27084


So, und jetzt ist mir auch egal was Du schreibst, nach Deinem ersten Satz nehme ich Dich eh schon nicht mehr für voll......bin ab jetzt hier raus...
 
Zuletzt bearbeitet:
Leute, wir werden hier ab sofort die persönlichen Angriffe unterlassen und ein sachliches Thema fortführen, andernfalls muss ich das Thema schließen.
 
Fakt ist, die Nvidia haben i.d.R. eine bessere Preisleistung. Fakt ist, Nvidia hat lange vor ATI z.B. das SM3.0 eingeführt, was mir deutlich besser gefällt als die Vorgänger. Fakt ist, Nvidia ist bei den meisten Games von der Leistung vor ATI und wie schon gesagt, der Preis ;)
Aber ATI Karten sind auch ganz gut. Hatte vor langer Zeit ja selber mal ne 9200 :)
 
auweiah!!!!
Fang nich wieder sowas an!
Fast alle deine Argumente wurden bereits (auch hier im Thread wiederlegt) und Fakt ist da garnix außer, dass NV vor ATI SM 3.0 eingeführt hat...
 
annixp schrieb:
Ne also wer weiß das denn nicht das Nvidia nicht immer ganz fair spielt ? Ich kaufe aus Prinzip seit der Geforce4 keine Nvidia Karten mehr, und wenn sie noch so viel schneller sind als ATI Karten. Ich unterstütze kein Unternehmen das durch Aufkaufen von Mitbewerbern sich preisliche und Markt technische Vorteile verschafft.


tjaja keine ahnung vo marktwirtschaft. nur solche unternehmen werden überleben. und das macht jedes unternehmen wenn es irgendwie kann.. läuft im bakensenktor genauso. man könnte auch sagen du bist der fan von unternehmen die auf lange sich untergehen. hätte ati 3dfx aufgekauft würdest du wahrscheinlich jetz über ati lästern. aber egal. ich find es nur so lustig, dass insbesondere du andere leute als dumm, ignorant etc bezeichnest. gut aber ich hab mitlerweile das gefühl das trifft insbesondere auf die ati-fanboys zu. und zu denen zählst du sehr wohl (ati-user = god himself??) nur weil du behauptest du bist es nicht belegen deine posts genau das gegenteil (ich hab keine lust die zitate zu suchen...)

mir war es vor kurzem egal welche karte ich kaufen sollte. hatte pcie und stand dann vor der frage welche. hab dann auch bei ati reingeschaut. aber die überdimensionierten karten, die absolut billigen lüfter da drauf etc ham mich davon abgehalten. ebenso meine gemachten erfahrungen bezüglich linux und co.

mittlerweile würde ich als weiteren grund nennen: ich kauf mir keine ati, da ich keine lust hab die gleiche karte wie gewisse leute hier im rechner haben und so die gleichen argumente aufführen zu müssen.

aber war es nicht klar das dieser thread so verlaufen würde?
 
Genial! ATI und NV kriegen sich in die Haare.:drool:

Zu Topic:
NV ist eine Firma und kauft halt andere Firmen auf.
Na und? So ist das Leben.
Das mit den versteckten Optimierungen und den sogenannte netten Features die die Karten haben sollten ist auch schon längst bekannt.
Ati baut auch Optimierungen rein, halt nur besser versteckt.
Wenn man das so sagen kann Pfuscht NV seit der Nv30 rum, hauptsächlich von der BQ und den Optimierungen.
Von PS 3.0 in der 6er-Serie kann ich nur sagen, dass es nichts bringt, vorallem weil DX 9.x immernoch PS 2.x fähig ist.
Langsam kann man einen Unterschied feststellen.

ATI hat noch den R300 im Nacken, ihre NV-Plätter-Karte.
Deshalb erwartet man immer so viel von ATI.

http://www.techpowerup.com/reviews/NVIDIA/X1900LaunchAnalysis

hahaha....lach

mfg Nakai
 
PowerBasti schrieb:
Fakt ist, die Nvidia haben i.d.R. eine bessere Preisleistung. Fakt ist, Nvidia hat lange vor ATI z.B. das SM3.0 eingeführt, was mir deutlich besser gefällt als die Vorgänger. Fakt ist, Nvidia ist bei den meisten Games von der Leistung vor ATI und wie schon gesagt, der Preis ;)
Aber ATI Karten sind auch ganz gut. Hatte vor langer Zeit ja selber mal ne 9200 :)

Fakt ist, Du hast überhaupt keine Ahnung.
 
also ich kann diese andauerenden wortgefecht langsam nicht mehr hören:hwluxx:
ich hatte vor ewigen zeiten ne TNT2 und war damit zufrieden (aquanox konnte man damit problemlos zocken)
dannach hatte ich die Radeon9800Pro und war bis vor kurzen vollkommen zufrieden mit der karte ;)
und da ich vor kurzem n gutes angebot hatte bin ich jetzt besitzer einer 7800GT und auch vollkommen zufrieden damit....

entschuldigt mal ich kauf doch keine grafikkarte von der firma A nur weil die firma B mal IRGENDWANN mist gebaut hat oder sonst was...(oder andersrum)

Preis/Leistung muss stimmen und vielleicht noch n nettes game in der verpackung... :bigok:

so das war meine meinung und jetzt könnt ihr euch weiter bekriegen :)

mfg
dragon160

EDIT: bruder hat ne 9700Pro kumpel X850XT und TI 4600...hab von keiner seite klagen gehört...
 
Zuletzt bearbeitet:
Dragon160 schrieb:
Preis/Leistung muss stimmen und vielleicht noch n nettes game in der verpackung... :bigok:
So sieht es aus....wenn man heute sieht wie günstig man eine 7800GT/X1800XL bekommen kann....(die Karten hatte ich auch) und auch das OC Potenzial der Karten ist sehr gut....vor und nachteile gibt es bei beiden Firmen...ich kann es zb nur nicht leiden wenn einige nur die gutes Sachen der Karte aufzählen....ich kann ohne Bedenken sagen, das ATI zb bei den neuen Kühlern einfach Mist gebaut hat....ich frag mich nur wo das Problem ist sowas einzugestehen....das ist nur Hardware!
Ich hatte 4200Ti/9800SE/9800Pro@XT/6800GT 128MB/X800Pro/6800Ultra/X850XT/X850XT PE/7800GT/X1800XL usw...
 
Zuletzt bearbeitet:
thade2001 schrieb:
Fakt ist, Du hast überhaupt keine Ahnung.
Sauber,wir sind einer Meinung! :xmas:

Aber ein dritter ernstzunehmender Grafikkarten hersteller (für Games) wär nett,auch was Preise angeht.Wo ist Matrox?
 
wieso, es werden doch dauernd alle in diesem Thread genannt, nämlich ATI, ATI und ATI, oder war's doch alles nVidia?:fresse:
(hab nochmal alle hersteller aufgelistet, so dass alle im Thread befindlichen Fanboys zufrieden sind)
 
Zuletzt bearbeitet:
Schlingel_INV schrieb:
aber egal. ich find es nur so lustig, dass insbesondere du andere leute als dumm, ignorant etc bezeichnest. gut aber ich hab mitlerweile das gefühl das trifft insbesondere auf die ati-fanboys zu. und zu denen zählst du sehr wohl (ati-user = god himself??)

das trifft aber wohl auch auf so manchen NV Liebhaber zu...
und ich würde tatsächlich sagen, dass es bei NV mehr Leute gibt die die Produkte kaufen nur weil NV drauf steht und sie irgendwann von irgendwem mal was gutes über die Firma gehört haben...

Schlingel_INV schrieb:
aber war es nicht klar das dieser thread so verlaufen würde?

eigentlich schon...
 
Nakai schrieb:
G
NV ist eine Firma und kauft halt andere Firmen auf.
Na und? So ist das Leben.
Das mit den versteckten Optimierungen und den sogenannte netten Features die die Karten haben sollten ist auch schon längst bekannt.
Ati baut auch Optimierungen rein, halt nur besser versteckt.
Wenn man das so sagen kann Pfuscht NV seit der Nv30 rum, hauptsächlich von der BQ und den Optimierungen.

Das Aufkaufen könnte ich ja noch alzeptieren, wenn sie die aufgekaufte Firma integrieren und weiterführen wüerden. Aber so wie sie es bei 3dfx gemacht haben zeigt, wie sehr Nvidia das wohl Ihrer Kunden am Herzen liegt: Firma gekauft, Produktion eingestellt und auch keinen Support mehr geleistet. So gibt es bis heute keine vernünftigen Treiber für Voodoo 3/5 für WXP.

Auch die Treiberoptimierungen sind kein Schlag gegen den Konkurrenten Ati, sondern ein Schlag ins Gesicht der Kunden. Genauso wie der Versuch, künstlich den Wettbewerb zu reduzieren, indem man Spielehersteller bezahlt, damit die Spiele auf den eigenen Karten etwas besser laufen..

Schade, dass es hier keine objektive Diskussion gibt, denn Informatoin der Kunden ist in diesem Fall wirklich angebracht.

Achtung: Ich will damit nicht sagen, dass ATI besser ist! Auch ATI ist nicht unschuldig..

Und vielleicht sollte man noch klarstellen: Hier wird keiner Ausgeschlossen, nur weil er die falche GrKa gekauft hat :xmas: . Also ganz ruhig..:angel: .
 
ob NV oder ATI, mir wurscht. Derjenige Hersteller, der die bessere Performance zum günstigeren Preis anbietet, wird gekauft! Mein alter Rechner hat ne GF3TI500 drin, mein jetziger ne 9800PRO :)
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh