ATI<< wiederholt sich das Desaster ?

Hardwarekenner

Legende
Thread Starter
Mitglied seit
06.01.2005
Beiträge
21.785
Ort
in der schönsten Stadt der welt.
Hi,

schein so, als wenn sich das desaster welches sich ATI damals bei der viel zu späten einführung von PS3.0 karten erlaubt hatte wiederholt.

wenn ich sehe, das NV jetzt sein DX10 karten startet, und schon im januar mit Budget karten wie der 8300/8600 kommen will, wird ATI wohl keine DX9 karten mehr an den mann bringen können !

Ich denke mal das sich selbst der größte ATI Fan nicht lange mit einer DX9 karte zufrieden geben wird, wenn erstmal Crysis da ist oder ander DX10 games!

Oder glaubt ihr, das ATI ( AMD ) jetzt nochmal richtig gas geben werden, um schnellstmöglich ihre DX10 karten zu Lounchen ?

BITTE SACHLICH DISKUTIEREN !!!!!!!!! KEIN FANBOY GESPAME !!!!!!!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
nunja ATI wird ihre karten veröffentlichen wenn auch DX10 genutz werden kann ! Man kann sich jetzt eine DX10 karte von NV kaufen aber ebend außer von der "großen" rohleistung hat man bis vista und DX10 spiele kommen keine vorteile gegenüber einer DX 9 karte.
 
dx10 bringt ja jetzt mal noch gar nichts.
Abgesehen davon weiss man ja nicht mal ob die neuen NV-Karten dx10 überhaupt richtig umsetzen werden.Ich denke da ja mal an die ersten dx9 Karten von NV, da war auch einiges noch nicht korrekt...
ATI zog nach, und dann vorbei ;)
(mit der 9500, 9700 , ... )

mal abwarten
 
HI

na ich hoffe mal nicht das das passiert .......
wäre schade wenn sich raustellt das amd sich da etwas überschätzt hat


aber besser die bringens später raus . dan läufts wenigstens richtig
und sowas mutiert nicht zum großen user beta test

naja ich werds mal beobachten .........

aber wer kauft sich jetz schon bitte ne dx 10 karte ????

ich nich .... mochnich jedenfalls <---- hier könnte man wieder über sinn und unsinn von Windoof Vista debatieren mach ich aber jetzt nicht ;)

auch werden die großen game firmen nicht dierekt zum 01.01.2007 alles nurnoch auf dx10 machen wäre ja bescheuert <----- auch wieder ne grundsatzdiskusieon die ich weglasse :angel:

cu brokk
 
Hi,

schein so, als wenn sich das desaster welches sich ATI damals bei der viel zu späten einführung von PS3.0 karten erlaubt hatte wiederholt.

wenn ich sehe, das NV jetzt sein DX10 karten startet, und schon im januar mit Budget karten wie der 8300/8600 kommen will, wird ATI wohl keine DX9 karten mehr an den mann bringen können !

Ich denke mal das sich selbst der größte ATI Fan nicht lange mit einer DX9 karte zufrieden geben wird, wenn erstmal Crysis da ist oder ander DX10 games!

Oder glaubt ihr, das ATI ( AMD ) jetzt nochmal richtig gas geben werden, um schnellstmöglich ihre DX10 karten zu Lounchen ?

BITTE SACHLICH DISKUTIEREN !!!!!!!!! KEIN FANBOY GESPAME !!!!!!!

Sachlich diskutiert - OK!

Kein Desaster weil:

a.) Man z.Zt. noch gar nix von D10 hat (Weder OS noch Spiele)

b.) Man auch "damals" bei PS 3.0 Karten keinen wirklichen Vorteil hatte mit Nvidia Karten, weil die Leistungansprüche an die Karten einfach noch zu hoch waren ( erste PS 3.0 Karten waren 6xxx Reihe)


Ich denke mal das sich selbst der größte ATI Fan nicht lange mit einer DX9 karte zufrieden geben wird, wenn erstmal Crysis da ist oder ander DX10 games!

Ist genauso falsch, weil ATI selbst jetzt noch PS 2.0 Karten verkauft und ich persönlich es auch nicht bräuchte (Habe ein Spiel mit HDR gespielt und mit zugeschalteten AA wurde es so lahm, das ich AA den Vorzug gab - Call of Juarez) - von daher sehe ich selbst heute nicht unbedingt die Notwendigkeit von PS 3.0.

Ausserdem wird es erstmal eine Zeit dauern bis sich Vista (was ja dringend benötigt wird um DX10 darstellen zu können) sich beim Endanwender durchsetzen und solange werden die Spiele weiterhin auf DX9 programmiert. Die wenigsten XP user sind bereit sofort bei Vista Launch zu wechseln, und ich behaupte mal einfach, wär sich wg. DX10 einen neue Graka zulegen will, der kann getrost die übernächste Genaration abwarten ......
 
Sachlich diskutiert - OK!

Ist genauso falsch, weil ATI selbst jetzt noch PS 2.0 Karten verkauft und ich persönlich es auch nicht bräuchte (Habe ein Spiel mit HDR gespielt und mit zugeschalteten AA wurde es so lahm, das ich AA den Vorzug gab - Call of Juarez) - von daher sehe ich selbst heute nicht unbedingt die Notwendigkeit von PS 3.0.

höhö, weil HDR direkt mit PS3.0 zusammenhängt ;)
das is wie ketchup und senf...
PS3.0 is im vergleich zu 2.0 ein großer fortschritt, da er mehr effekte bei weniger leistungsverlust usw. bringt... vor allem bei shader 2.0-games hab ich mit meiner 6600GT schöne leistung erzielt (z.B. CS:S, zumidnest gewisse maps ^^)
HDR is wieder was anderes... in der aktuellen verwendung ist es sowieso nochnicht richtig hoochwertig, da es "nur" FP16(16bit)hdr ist... zudem ist wie du gesagt hast der leistungsabfall relativ groß...

aber der unterschied zu damals ist ja grundlegend anders:
x8xx und 6xxx-serie sind relativ gleichzeitig erschienen, aber nur die NVIDIA-reihe wies dieses neue feature auf...
jetzt ists ja x2xxx und 8xxx, die aber BEIDE das D3D10 feature unterstützen

=>"damals" war eine grafikganeration unterschied, diesmal ists die gleiche kartengeneration, nur mit ca. einem quartal unterschied in der veröffentlichung... also ich sehe keinen grund, warum das ATI probleme machen sollte ^^
 
Hi,

schein so, als wenn sich das desaster welches sich ATI damals bei der viel zu späten einführung von PS3.0 karten erlaubt hatte wiederholt.

wenn ich sehe, das NV jetzt sein DX10 karten startet, und schon im januar mit Budget karten wie der 8300/8600 kommen will, wird ATI wohl keine DX9 karten mehr an den mann bringen können !

Ich denke mal das sich selbst der größte ATI Fan nicht lange mit einer DX9 karte zufrieden geben wird, wenn erstmal Crysis da ist oder ander DX10 games!

Oder glaubt ihr, das ATI ( AMD ) jetzt nochmal richtig gas geben werden, um schnellstmöglich ihre DX10 karten zu Lounchen ?

BITTE SACHLICH DISKUTIEREN !!!!!!!!! KEIN FANBOY GESPAME !!!!!!!

:rolleyes:

Du bist doch selber regelmäßig genug hier, um zu wissen was geht:

1. ATI/AMD kommt (allerhöchstwahrscheinlich) innerhalb der nächsten 3-4 Monate mit 'ner neuen Karte bzw. Karten-Familie
2. Crysis, der erste richtige Next-Gen Blockbuster kommt allerfrühestens zum 1. April 2007
3. die anderen frühen "D3D10-Spiele" (der neue Flight-Simulator etc.) bewegen wohl erstmal nur die allerwenigsten Leute zu einem schnellen Umstieg

Wo soll also das Problem liegen? Echte Enthusiasten und/oder Leute die Monitorbedingt die Power brauchen greifen halt jetzt zum G80, der Rest lehnt sich erstmal zurück und schaut was das Frühjahr 07 so bringt...

Sorry, aber ich verstehe das Drama bzw. den Sinn des Threads hier nicht so ganz.
 
Zuletzt bearbeitet:
dx10 bringt ja jetzt mal noch gar nichts.
Abgesehen davon weiss man ja nicht mal ob die neuen NV-Karten dx10 überhaupt richtig umsetzen werden.Ich denke da ja mal an die ersten dx9 Karten von NV, da war auch einiges noch nicht korrekt...
ATI zog nach, und dann vorbei ;)
(mit der 9500, 9700 , ... )

mal abwarten

Es heißt D3D10 ;)

ATi brachte mit dem R300 alias 9700Pro die erste DX9 Karte auf den Markt, das war September 2002. nVidia zog erst im Jahre 2003 mit dem NV30 alias FX5800/U nach. Afaik profitierte ATi vom frühen Launch und DX9 wurde speziell darauf zugeschnitten. Die FX Serie war alles andere als schlecht, sie kam nur zu spät.


@Topic

Piefke, wieso kam der R520 so spät? Weil es Probs mit der Fertigung gab. Ob jetzt ATi 2 Monate nach dem G80 kommt, ist völlig egal. Es gibt kein Vista, keine Games (nichtmal Crysis ist ein richtiges "DX10 Game"!).

Genauso sinnlos wie SM3 damals beim NV40. Kein Mensch braucht jetzt eine D3D10 Karte. Es ist sehr nett, dass der G80 die nächste DirectX Api unterstützt, wird sicher bei den Verkaufszahlen helfen, genauso wie damals beim NV40, aber praktisch sind die Features sowieso jetzt nicht zu gebrauchen...

ATi wird kontern und ich bin fest davon überzeugt, der R600 wird den G80 schlagen. Hat jede ATi bisher getan, seit 2002 ist jedes ATi Gegenstück schneller gewesen als das NV Pendat.

Aber nVidia hat diesmal eine richtig geile Karte gelaunched, es wird nicht so leicht wie früher, nVidia scheint den alten Weg wieder zu gehen ;)
 
Zuletzt bearbeitet:
Hi,

schein so, als wenn sich das desaster welches sich ATI damals bei der viel zu späten einführung von PS3.0 karten erlaubt hatte wiederholt.

wenn ich sehe, das NV jetzt sein DX10 karten startet, und schon im januar mit Budget karten wie der 8300/8600 kommen will, wird ATI wohl keine DX9 karten mehr an den mann bringen können !

Ich denke mal das sich selbst der größte ATI Fan nicht lange mit einer DX9 karte zufrieden geben wird, wenn erstmal Crysis da ist oder ander DX10 games!

Oder glaubt ihr, das ATI ( AMD ) jetzt nochmal richtig gas geben werden, um schnellstmöglich ihre DX10 karten zu Lounchen ?

BITTE SACHLICH DISKUTIEREN !!!!!!!!! KEIN FANBOY GESPAME !!!!!!!


es kann auch wieder anders kommen als man denkt, siehe geforce 5 ;)

dx9 noch nicht draußen aber nvidia hat schon eine karte die das kann.

endresultat, microsoft hat sich doch noch kurz davor umentschieden und den dx9 standard verändert, ta ta ati war der sieger siehe 9700, 9800 ;)
 
ich hoffe eher das die Preise wieder runtergehen. ich hab mir damals auch ne 7800 GT für knapp über 300 gekauft. Das konnte man investieren ;)
 
höhö, weil HDR direkt mit PS3.0 zusammenhängt ;)
das is wie ketchup und senf...
PS3.0 is im vergleich zu 2.0 ein großer fortschritt, da er mehr effekte bei weniger leistungsverlust usw. bringt... vor allem bei shader 2.0-games hab ich mit meiner 6600GT schöne leistung erzielt (z.B. CS:S, zumidnest gewisse maps ^^)
HDR is wieder was anderes... in der aktuellen verwendung ist es sowieso nochnicht richtig hoochwertig, da es "nur" FP16(16bit)hdr ist... zudem ist wie du gesagt hast der leistungsabfall relativ groß...

Teils falsch teils richtig - ich kann HDR auch über PS 2.0 darstellen, habe ich mit meiner ATI x800GTO²@x850XT PE auch machen können (Demo: HL2 die mit der Insel). Sicherlich bringtPS 3.0 weniger Leistungsverluste und Vorteile bei der Programmierung, aber wie schon gesagt ist es sogar teilweise in heutigen Spielen noch noch nicht eingesetzt!

aber der unterschied zu damals ist ja grundlegend anders:
x8xx und 6xxx-serie sind relativ gleichzeitig erschienen, aber nur die NVIDIA-reihe wies dieses neue feature auf...

welches zu dem Zeitpunkt nutzlos war und höchsten für "Enthusiasten" ein muss war, die aber dann auch eh schon die nächste Graka Genaration kaufen (NV 7xxx & ATI x1xxx) wo dann auch erst PS 3.0 erst interessant wurde ... und mal ehrlich wär hat Farcry dauerhaft gespielt, und nicht nur so installiert um mal die Effekte zu sehen ;)

Ich hatte eine NV 6800 mit PS3.0 unterstützung und bin dann noch zur x800GTO²@x850XT PE gewechselt - ich habe die Features von PS 3.0 nicht gebraucht. Heute ist es bei aktuellen Titeln ist es eher interessant, aber immer noch nicht "nicht wegzudenken" und das wird bei DX10 auch erst ab Ende nächsten, Frühjahr übernächsten Jahres der Fall sein - zumindest für die, die nicht immer das neuste und schnellste haben müssen.

=>"damals" war eine grafikganeration unterschied, diesmal ists die gleiche kartengeneration, nur mit ca. einem quartal unterschied in der veröffentlichung... also ich sehe keinen grund, warum das ATI probleme machen sollte ^^

Jau zustimm!



Auf der anderen Seite ist es natürlich gut das die Hardwareentwickler immer weiter nach vorne preschen dadurch wird Leistung gesteigert, neue Technologoen entwickelt und ältere absolut ausreichende Hardware günstiger. Im prinzip verdanken wir denen (Ich will mich jetzt nicht unbeliebt machen ;) ) die immer das neuste und schnellste kaufen - ob Sinn o. Unsinn - stelle ich mal auf ein anderes Blatt, das wir Highendhardware 1/2 Jahr nach Release für die Hälfte billiger bekommen ;)
 
Zuletzt bearbeitet:
Hi,

ich glaub bei der Einführung von T&L damals war das auch nicht großartig anders....mit dem einen Unterschied das wir damals noch 3DMark spielen konnten ;) - irgendein Test nutzte dieses T&L und sah richtig geil aus. Genützt hat es nix weil es AFAIk ewig dauerte bis das erste Spiel das nutzte (glaub das war Black&White).

Gleiches wiederholt sich jetzt. Wenn ich mal von Standardspieler ausgehe (Sohn oder einfacher Angestellter, Famlie oder kleines Taschengeld) dann hat der nen übertakteten Prozessor und bestenfalsl ein 19"TFT, also 1280x1024. Hier sind die neuen Nvidia brutal schnell, das ist am Ende aber auch alles. OK, die können nun endlich besseres AF, wurde ja auch Zeit. Der Rest der Leistung verpufft aber und es bleibt noch ein wenig 3DMurks übrig.

Alle höheren Dimensionen, also 1600x1200 oder dergleichen profitieren schon ne Ecke mehr, gerade in Games wie Gothic 3 oder FEAR oder evtl BF2. Ob man dafür jetzt schon ne NV8xXX benötigt sei jedem selbst überlassen.

Für meine Begriffe schlucken diese Karten im reinen 2D Betrieb (mal selbst analysieren wie oft Ohr spielt und wie oft Ihr im Desktop rumhampelt) viel zuviel Strom. Diese Karte macht NICHTS....es wäre schön wenn die Firmen dabei komplette Kreise abschalten würden...der Stndardzocker dürfte sich im Bereich 70-80% surfen und lesen bewegen, dafür braucht NIEMAND 100W oder was weiß ich wieviel. Lobbyismus der Netzteilhersteller?

Am Ende bleibt kaum etwas wofür man die Karte JETZT als Durchschnittsspieler benötigen würde. Gerade wenn man das eigene Ego und den Hardwareteufel mal komplett ausperrt.
MFG
 
Für meine Begriffe schlucken diese Karten im reinen 2D Betrieb (mal selbst analysieren wie oft Ohr spielt und wie oft Ihr im Desktop rumhampelt) viel zuviel Strom. Diese Karte macht NICHTS....es wäre schön wenn die Firmen dabei komplette Kreise abschalten würden...der Stndardzocker dürfte sich im Bereich 70-80% surfen und lesen bewegen, dafür braucht NIEMAND 100W oder was weiß ich wieviel. Lobbyismus der Netzteilhersteller?
das ist ein guter aspekt...
und das mit den schaltkreisen abschalten auch...
bei CPUs gibts ja auch das cool and quiet u.ä., bei den aktuellen ATIs kann man auch die spannung runternehmen...
gibts das auch bei den neuen nvidias? ich zB spiele nur ~1std am tag css (da reicht meine 7800GT ;)), 2std am tag forum oder chatten und den rest vom tag ist der rechner einfach nur "an".
da könnte man sich mal ne stromspartechnik für grakas einfallen lassen.
mich persönlich stört der strompreis nicht, wofür hab ich denn mammi und pabbi, aber mehr strom bedeutet gleichzeitig mehr wärme im case, die herausgebracht werden muss, was wieder mit zusätzlich lärm verbunden ist.
würde man aber die grafikkarte auf ca. 15-30W verlustleistung idle drosseln können, CPU @1,1GHz mit 0,8V, dann könnte man seinen rechner auch bedenkenlos komplett passiv laufen lassen...

ouh, ich sehe, ich schweife ab :fresse:
 
der G80 ist momentan auch "nur" eine DX9 Karte. Erst mit D3D10 Software wird sie "erhoben". Dann ist ATI aber auch zur Stelle. Ich kann von einem Disaster nichts erkennen. Jeder, der jetzt auf Dx10 umseteigen will zahlt erstmal nur Lehrgeld.
 
Hinweis von einem des Französischen Mächtigen: Es heißt deja vu. Die Accents hab ich der Einfachheit halber mal weggelassen.
 
mich persönlich stört der strompreis nicht, wofür hab ich denn mammi und pabbi, aber mehr strom bedeutet gleichzeitig mehr wärme

Naja, solange die beiden nicht gerade reich sind wird das Geld ja nicht unvermindert vermehren....und ICH hätte ein schlechtes Gewissen wenn sich meine Eltern weniger leisten könnten weil ich mich gewissenlos an Ihrem Geld bediene....zum Glück bin ich35 und werde meine Blagen besser erziehen ;)

*scnr*
 
Hi,

es geht mir n erste linie garnicht um die noch nicht benötigten DX10 effekte!

sollte es nun zum Lounch der G83/86 Budget Karten NV8300/8600 im ersten Quartal 07 kommen, und es gibt eine z.B 8600GT/512 für 250€ , wer würde bei der Brachialen mehrleistung im DX9 bereich dann noch eine ATI DX9 karte kaufen ?
selbst wenn die 8600Gt nur gleichauf im DX9 umfeld ist wie die schnellste ATI, aber ein so horrender Presunterschied, würde wieder jeder zur NV greifen, wegen der möglichkeit des DX10 !

und zum Stromverbrauch, wer die kohle hat oder auch nur etwas nachdenkt, hat zum Surfen/Arbeiten sowiso einen kleinen zweitrechner ! ( ich nutze dazu einen PIII850/512MB und einen Aktiven Monitor umschalter ) und sowas ist sehr billg zu bauen !

Und so ist mein Game Rechner nur zum Gamen an!
und selbst zum entpacken / Wandelln benutze ich den PIII ! weil es mir da dann egal ist wie lange es dauert !:bigok:

und alten PC krams hat doch jeder noch rumliegen, oder in der Bucht, ich hab für mein i810e MB und die CPU zusammen 15€ bezahlt, ne ATI Rage Pro Turbi 8MB drinn, zwei Brenner ( DVD&CD-RW ) und 5 HDDs wovon 3 über nen extra IDE kontroller laufen !
und der ist 24/7 an !
 
Der R600 kommt ja schon im Januar!Das kannst damals mit der X800/6800 Serie garnicht vergleichen.
 
Worauf willst du hinaus? Es gibt keine günstigen D3D10 Karten von Nvidia.

Woher nimmst du das erste Quartal 2007 als Termin für die Midrange-Karten von Nividia? Die Roadmap auf VR-Zone spricht von H1 und NICHT von Q1 -> also Januar bis Juni...

Abgesehen davon wage ich zu bezweifeln, dass die kommenden Midrange-Karten von Nividia die älteren Highend ATI/Nvidia Karten "wegrocken". Dafür ist z.B. die X1950XTX schon viel zu nah an der 8800GTS.

BTW: es heißt "Launch"
 
Zuletzt bearbeitet:
Woher willst du wissen, daß Ati NUR die teure R600 Highend Serie Launcht? Wird wohl eher so sein wie bei dem grossem Launch der 1xxx Serie: ATI wird wahrscheinlich wieder direkt eine ganze DX10 Familie launchen: highend, midrange und lowend, evtl mit paar Wochen Pause dazwischen.
 
Teils falsch teils richtig - ich kann HDR auch über PS 2.0 darstellen, habe ich mit meiner ATI x800GTO²@x850XT PE auch machen können (Demo: HL2 die mit der Insel). Sicherlich bringtPS 3.0 weniger Leistungsverluste und Vorteile bei der Programmierung, aber wie schon gesagt ist es sogar teilweise in heutigen Spielen noch noch nicht eingesetzt!
lies bitte nochmal meinen post durch, vll. fällt dir dann die ironie auf:

höhö, weil HDR direkt mit PS3.0 zusammenhängt
das is wie ketchup und senf...
für alle dies direkt lesen wollen: PS3.0 ist für HDR nicht verplichtend!


sollte es nun zum Lounch der G83/86 Budget Karten NV8300/8600 im ersten Quartal 07 kommen, und es gibt eine z.B 8600GT/512 für 250€ , wer würde bei der Brachialen mehrleistung im DX9 bereich dann noch eine ATI DX9 karte kaufen ?
selbst wenn die 8600Gt nur gleichauf im DX9 umfeld ist wie die schnellste ATI, aber ein so horrender Presunterschied, würde wieder jeder zur NV greifen, wegen der möglichkeit des DX10 !

diese theorie is noch mehr stuss als am anfang ^^
ganz einfach deswegen:
ATI: R6xx für highend/midrange karten ~anfang 2007
NVIDIA: G83/86 usw. ~anfang 2007

aktuell: beide hersteller haben im midrangesegment nur DX9 karten

=> nvidia und ati haben ca. gleichzeitig D3D10 midrangekarten und beide werden probleme haben ihre "alten"(jetzt aktuellen) DX9 karten zu vermarkten

wo soll das für ati ein desaster werden?
 
Zur X800XT:
Der PS2 Shader war kein "Desaster", zumindest für mich nicht.
Habe für eine X800XT damals 469€ bezahlt weil sie in den entscheidenden Games schneller war und von HDR noch nichts zu sehen war.
Und als dann das erste interessante Game mit HDR von Beginn an kam (Oblivion) - da hatte ich schon die X1900XT (Anfang mai glaub ich).
Von daher wayne.

Die G80 ist z.Z ein SEHR schneller, SEHR GUTER! DX9 Chip. Aber zu mehr ist er auch nicht zu gebrauchen. Noch lange bevor das 10 Stunden Game Crysis kommt, wird ATI ebenfalls ein Gegenstück gelauncht haben.
Und dann werde ich mich zwischen den beiden Karten entscheiden, und wenn es so läuft wie in der Vergangenheit dann kommt Nvidia immer früher und ATI dafür besser ;).

Achja: Die FX Serie - insbesondere die 5800Ultra / 5900 Ultra waren doch die reinste Katastrophe, deren DX9 Leistung war doch sogar so schlecht das sie in HL2 den DX8 Renderpfad aufgedrückt bekamen. Abgesehen von den schrecklichen Kühllösungen und der Hitzeentwicklung. Nicht ohne Grund haben sie den FX Namen relativ fix wieder über Board geworfen.
 
Abgesehen davon wage ich zu bezweifeln, dass die kommenden Midrange-Karten von Nividia die älteren Highend ATI/Nvidia Karten "wegrocken". Dafür ist z.B. die X1950XTX schon viel zu nah an der 8800GTS.

BTW: es heißt "Launch"

die 7600GT war auch schneller als die 6800Ultra, und das war auch das Higend Modell der vorgänger version.

Noch dazu vergesst ihr die Qualitäts vorteile der 8er reihe, und hier kommt immerhin noch ein refresh chip in 65Nm raus. Also der verbrauch wird sicher auch was dazu beitragen. vl gibts noch die einen oder anderen Treiberoptimierungen.


Zum Thema:
Was ich nicht verstehe, warum muss die ATi soviel ziehen, das ist doch nicht produktiv?
 
Also bei der Leistung die die 8800 GTX bringt muss sich ATI warm anziehen...da war der 1950 XTX nen kalter Aufguss mit lediglich 5% mehr Leistung gegenüber der 1900XTX !

Hier reden wir jedoch von einer 8800 GTX die soviel bringt wie ein Crossfire System...ich bin jedenfalls von 12.000 Punkten im 3dMark06 und den Ergebnissen in Fear und Oblivion überzeugt.

Persönlich ist mir aber von der Sympathie ATI lieber....aber NVIDIA hat auch bei der Bildqualitiät und Lautstaerke nachgebessert und ATI übertroffen.
 
Also bei der Leistung die die 8800 GTX bringt muss sich ATI warm anziehen...da war der 1950 XTX nen kalter Aufguss mit lediglich 5% mehr Leistung gegenüber der 1900XTX !

Hier reden wir jedoch von einer 8800 GTX die soviel bringt wie ein Crossfire System...ich bin jedenfalls von 12.000 Punkten im 3dMark06 und den Ergebnissen in Fear und Oblivion überzeugt.

Persönlich ist mir aber von der Sympathie ATI lieber....aber NVIDIA hat auch bei der Bildqualitiät und Lautstaerke nachgebessert und ATI übertroffen.


Die x1950xtx ist ein neuer Aufguss der x1900xtx ;)
 
Wirklich schneller? Das wusste ich nicht. Ich hab' die 7600GT immer recht nah bei der 6800GT gesehen. Naja gut, wir werden sehen.

ca. 2-3% schneller


die xtx1950 war doch ok, bis auf den preis.

EDIT: hab grad nachgeschaut, sind sogar bis zu 5%
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh