Was spricht überhaupt pro 3870 :: contra 8800gt

naja ich hab keine erfahrungen mit CF und SLI, habs aber vor, von daher interessiert mich das schon, aber ich denke, dass die cf fraktion niemals nen nvidia chipsatz hatte, sie schreiben nur irgendwas von wegen "das is schrott" oder "nV boards stinken" <- riechen totsicher genau wie alle anderen °_°
würde gerne mal ne begründung in irgendeiner art und weise hören, warum die sli chipsätze schlechter als die cf sind
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
"8800GT Besitzer die 230€ bezahlt haben kann man wohl an einer Hand abzählen."

@riverna: ich glaube nich dass das geht, ich weiß noch als einige Bestellungen bei MIX rausgingen, als die die Leadtek 8800GT für 214€ da hatten
 
Ich wollte gar keine Graka runterziehen, nur offensichtlich falsche Aussagen korrigieren. Ist aber in diesem Forum anscheinend nicht möglich.
Ist es nicht seltsam dass es keinen einzigen Beweis gibt, dass ATis R6xx-Karten angeblich eine bessere BQ haben?

MfG :cool:
Ich würde mal sagen, dass die Bildquali ein sehr subjektiver Eindruck ist. Was nützt einem die beste BQ, wenn man einen scheiss Monitor hat?
Technische Feature hin oder her... am besten beurteilen kann man es nur, wenn man beide karten direkt bei sich daheim verglichen hat. Und das hat bis jetzt noch keiner außer Riverna.
Ist ja schön und gut, dass die GT auf dem Papier eine bessere Bildquali haben sollte. Wenn man beide Karten hatte und sagt die BQ der ATI sei besser, wieso denjenigen deswegen angreifen?
Ich vertraue schon lange keinen Tests mehr aus dem Internet. Als Tendenz was man sich mal anschauen sollte ist das ok, aber die Entscheidung treffe ich immer aufgrund von Erfehrungsberichten in diversen Foren.

Mfg Loopy
 
Ich wollte auch eine 8800GT.Und ich wollte sie nach Markteinführung,nicht irgendwann nächstes Jahr.Dank des Paperlaunches mit den total günstigen Verbraucherpreisen hab ich das gekauft,was verfügbar war - eine 3870.Pech für Nvidia.10% weniger Leistung,damit kann ich leben.Kühler war auch relativ leise,andere Lösungen passen.Super Karte,schnell genug,leise,einigermaßen verfügbar.

aber letzten endes warum kaufen alle die 3870er??? versteh das nicht...
Weil die 8800GT überall maßlos gehypt wird,es entsteht eine immense Nachfrage dh lieferbare Karten werden weiterhin 250,260 Euro kosten.Das ist einfach toll :)
Soviel Geld hat nicht jeder.
 
Zuletzt bearbeitet:
Das wird meist 1:1 "Umgerechnet", heisst 300-350 Euro, glaub doch auch mal was! ^^

Also ich weiß ja nicht warum du so auf den Preis rumreitest :rolleyes:
Es sind Afaik erst 2 Karten gelistet (natürlich nicht Lieferbar :d ) und eine davon gibt es bereits ab 269,99 €.
Nun überleg dir mal wieviel die User durchschnittlich für eine 8800GT bezahlt haben ;)
Was die Leistung angeht, bin ich mir ziemlich sicher das die GTS die GT abhängt, wenn auch erst ab Auflösungen > 1680 x 1050


http://geizhals.at/deutschland/a298480.html
 
Ich hatte nen 680I SLI chipsatz lief wunderbar auch mit einem quad @ 3,2GHZ. wo ist das Problem?

Das Problem liegt jenseits der 3,2Ghz ;).
Da versagen fast alle 680er mit nem Quad, wenn der FSB für zb P35 Chipsätze "normale" Werte erreicht. Und zumindest für viele hier, ist das ein gutes Argument,der eine will mit seiner Lukü ans Limit der CPU,der andere mit ner Wakü und wieder einer evtl noch mehr und das schmeckt es vielen nicht, wenn das Board weit vor der CPU schlapp macht.

Und zum Thema ansich...
Das Gezanke ist doch Banane, beide haben leichte Schwächen, beide Karten sind ziemliche P/L Wunder, vorallem die 3850 im Sektor um die 150€ ungeschlagen, beide sind sehr performant, was das die Wortkonstellation ansich P/L ja schon sagt. Und wer eine von beiden zu nem guten Preis bekommt, sollte glücklich sein.
 
Also ich weiß ja nicht warum du so auf den Preis rumreitest :rolleyes:
Es sind Afaik erst 2 Karten gelistet (natürlich nicht Lieferbar :d ) und eine davon gibt es bereits ab 269,99 €.
Nun überleg dir mal wieviel die User durchschnittlich für eine 8800GT bezahlt haben ;)
Was die Leistung angeht, bin ich mir ziemlich sicher das die GTS die GT abhängt, wenn auch erst ab Auflösungen > 1680 x 1050


http://geizhals.at/deutschland/a298480.html
Ist jemals der Preis von Dollar zu Euro real umgerechnet worden? Nicht dass ich wüsste, aber wir werden sehen ist ja noch garnicht released!

Und, na klar haut die G92GTS die GT weg, was anderes sagt doch keiner!?
 
Also ich weiß ja nicht warum du so auf den Preis rumreitest :rolleyes:
Es sind Afaik erst 2 Karten gelistet (natürlich nicht Lieferbar :d ) und eine davon gibt es bereits ab 269,99 €.
Nun überleg dir mal wieviel die User durchschnittlich für eine 8800GT bezahlt haben ;)
Was die Leistung angeht, bin ich mir ziemlich sicher das die GTS die GT abhängt, wenn auch erst ab Auflösungen > 1680 x 1050


http://geizhals.at/deutschland/a298480.html

hast du den amazon link schon angeklickt? :d
 
Thema Verfügbarkeit:
Es gibt bei allen Karten Märchenpreise. Sicher, der eine oder andere hat seine Karte zu einem günstigen Preis erstanden, aber:
8800 GT günstigster Preis 210 € lieferbar ab 270 €
HD 3870 günstigster Preis 180 € lieferbar ab 235 € (in Italien ab 200€)
wobei die 3870 etwas besser vefügbar zu sein scheint.

Erkennt jemand ein Muster? Von den gelisteten Preisen würde ich Abstand nehmen. Nie und nimmer bekommt auch nur irgendjemand die G92 GTS für 270 € (jedenfall nicht in naher Zukunft). Warum sollte NVidia sich wieder Konkurrenz machen und den reißenden Absatz der GT gefährden?
Dollar Preise werden i.d.R. 1:1 umgesetzt, und vielleicht 10 - 20 % nach unten korrigiert.

@Khorne
Ich will nicht behaupten, dass die 8800 GT nicht gehypt wurde, aber das Gleiche lässt sich nicht ;) von der 3870 behaupten. Warum auch nicht? Beide Karten sind top.

Die Auswahl ist absolute Glaubenssache, wie man ja an diesem Thread sieht. Persönlich würde ich zur 3870 greifen, aber ich bin Atheist und da ist für mich der Preis der ausschlaggebende Grund: ~ 200€ sind eine Schmerzgrenze, und da liegt die GT um Welten drüber, selbst wenn sie die entsprechende Leistung hat.

Stromverbrauch im idle wäre für mich nicht so wichtig, da ich meine Daddelkiste nur zum Spielen anschalte. Der Rechner läuft nicht länger als 2 Stunden am Tag.
 
Mutig von dir , ich bin von Punkt 1-5 anderer Meinung(ausser Punk 2).

Dann bist du anscheinend blind oder möchtest es nicht sehen. Punkte 3 ist wohl offensichtlich. Der Kühler ist 0.5db leiser und die Karte hat im Normalfall nur 60°c - 70°c unter Last. Die 8800GT hingegen über 90°c wenn man den Leuten hier im Forum glauben darf. Punkt 4 mit minimal weniger Stromverbrauch ist auch bekannt, 106Watt gegen 110Watt. Wie gesagt wo wenig das man es irgnorieren kann. Es stimmt aber. Zu Nr.5 kann ich nur das sagen was ich im Forum lese. Da sind mir einige 8800GT´s bekannt die durch Hitzetot gestorben sind. Bissher war noch keine 3870 kaputt. Und Punkt 6 kann man in dem von mir verlinkten Computerbase Tets nachlesen.

Ich weiß also nicht warum du da anderer Meinung sein willst. Punkt 1 und Punkt 5 sind Themen die halt recht subjektiv sind das geb ich zu. Kann auch sein das die Bildqualität der 8800GT besser ist als der 8800GTs 320MB die ich getestet habe. Ich bezweifel es aber doch ehrlich gesagt. Und das Bild von der GTS war im 2D etwas unschärfer und unter 3D musste ich LOD immer eine Stufe höher stellen als bei der ATI um das gleiche Bild bzw gleiche Bildschärfe hinzubekommen. Ob das nun jemand hören will oder nicht.

Ich sage damit nicht das die 8800GT eine schlechte Karte ist, im Gegenteil. Sie ist besser als die 3870 das habe ich nie bestritten. Aber die Mondpreise von teilweise 270€ machen den Vorteil der 8800GT nuneinmal zu nichte. Die 8800GT ist die schnellere Karte, die 3870 hat eindeutig das bessere Preisleistungs/Verhältnis wenn man das Gesamtpaket betrachtet.

Das ist meine Meinung und die muss niemande mit mir teilen, aber ihr solltet sie akzeptieren.
 
Ich teile mit Dir diese Meinung und begebe mich jetzt wohl mit ins Kreuzfeuer der Kritik! :wink:

Die 8800GT ist ne super Karte, jedoch war mir vor allem der Lüfter lieber bei der ATI. Und man hört nichts über ein schnelles absterben der Karten. Wenn man zur 8800GT oder zur ATI 3870 greift kann man nichts falsch machen.
 
Zuletzt bearbeitet:
Das Problem liegt jenseits der 3,2Ghz .
Da versagen fast alle 680er mit nem Quad, wenn der FSB für zb P35 Chipsätze "normale" Werte erreicht. Und zumindest für viele hier, ist das ein gutes Argument,der eine will mit seiner Lukü ans Limit der CPU,der andere mit ner Wakü und wieder einer evtl noch mehr und das schmeckt es vielen nicht, wenn das Board weit vor der CPU schlapp macht.

Genau das ist der Grund warum kein Nv Board, da verschenke ich ja da wieder Leistung.
Ich kann hald nur auf die Gerüchte von Intel hoffen das auf dem x38 mal Sli möglich sein wird.
Deshalb ist auch mein Favorite die 3870 (CF):coolblue:
 
Zuletzt bearbeitet:
*Ironie*Vielleicht schummelt auch nVidia bei den anderen Auflösungen nur?*Ironie* Wieso sollte ATI bei einer derart unwichtigen Auflösung schummeln. Das halte ich für äusserst lächerlich.

Die 8800GT verliert mit zugeschaltetem AA/AF einfach an Boden. Bis 4x/16x reicht der Vorsprung noch aus. Das schummelt niemand.
 
Zuletzt bearbeitet:
@jaNN:

Welchen Sinn hat dieser Thread? Ein kleiner, privater Flamewar?

Argumente pro 38X0 hast Du zur Genuege bekommen. Der Vergleich zur kommenden G92 ist etwa so angebracht wie der Vergleich LUPO vs. PHAETON - beides VWs, aber eben unterschiedliche Leistungs- und Preisklassen. Wenn Du hier plattes AMD-Bashing veranstalten willst: schreib einfach Hardwarekenner ein paar PNs. Bei dem rennst Du damit offene Tueren ein.

Wenn Du partout Vergleiche AMD / NVIDIA anzetteln willst - wie waer´s mit HD 3850 vs. 8600 GTS? Spielen in der selben Preisklasse.
 
*Ironie*Vielleicht schummelt auch nVidia bei den anderen Auflösungen nur?*Ironie* Wieso sollte ATI bei einer derart unwichtigen Auflösung schummeln. Das halte ich für äusserst lächerlich.

Die 8800GT verliert mit zugeschaltetem AA/AF einfach an Boden. Bis 4x/16x reicht der Vorsprung noch aus. Das schummelt niemand.

Naja wenn du dauernd drauf verweist das Nvidia bei Crysis geschummelt haben soll, ist das auch lächerlich. Mit neuesten Treiber gibts neben Bugfix noch ein paar FPS extra. Letztlich sind beide Karten nicht schlecht , man macht bei beiden nix falsch.
 
dann bringt doch bitte mal argumente, die ihr auch belegen könnt und nicht nur zeug, was ihr irgendwo im forum lest, wo sind tests oder wo hat nen seriöser tester das bewertet? warum soll die neue gts nen flop werden? wo schlägt die 3870 die 8800gt (praxis bitte - spiele) und zwar in auflösungen, die man an normalen monis bis 24" spielen kann (also bis 1900x1200)? laut meiner quelle liegt der preis 300-350 USD, das sind 200-230€, wo sind eure quellen frag ich mich?
Hinzugefügter Post:
nach den erstens benches --> http://www.tweaktown.com/articles/1234/18/page_18_benchmarks_crysis/index.html <-- haut die g92 gts alles weg und warum soll das nen flop sein und wo ist sie schlechter als die gt oder 3870??? ich frag mich wo du deine infos her hast archiee, erzähl doch bitte mal, lasse mich ja gerne eines besseren belehren, aber wo hast du es denn her?

Meine Quelle ist die Gamestar und dei sagt ca 330€. Es ist merh als unwahrscheinlich das sie diese G92 Gts für schlappe 250€ machen.
 
Naja wenn du dauernd drauf verweist das Nvidia bei Crysis geschummelt haben soll, ist das auch lächerlich. Mit neuesten Treiber gibts neben Bugfix noch ein paar FPS extra. Letztlich sind beide Karten nicht schlecht , man macht bei beiden nix falsch.

nV hat geschummelt das ist schon schlimm genug. Und durch den neuen Treiber haben sie meines Wissens nach nicht FPS gewonnen sogar verloren. Nämlich weil die Schummelei aufgeflogen ist und sie es beseitigen mussten. Aber wenn du den Gegenbeweis hast lass es mich bitte wissen ;)

Aber mit dir über nV und ATI zu diskutieren bringt eh nicht viel. Das musste Zocker28 schon am eigenen Leib feststellen...
 
nV hat geschummelt das ist schon schlimm genug.

Belege?

Und durch den neuen Treiber haben sie meines Wissens nach nicht FPS gewonnen sogar verloren.

Haben sie nicht.

Nämlich weil die Schummelei aufgeflogen ist und sie es beseitigen mussten. Aber wenn du den Gegenbeweis hast lass es mich bitte wissen ;)


Ich behaupte ja nicht sondern du , woran machst du eigentlich fest das es sich um einen Cheat gehandelt hat wenn ich mal fragen darf? Die Belege findest du im 3dcenter Forum, wo einige diesen Treiber mit Crysis verglichen haben.
Und wo wir gerade dabei sind?
Was ist hiermit:
http://hardocp.com/article.html?art=MTQwNCw3LCxoZW50aHVzaWFzdA==
Ati cheatet also nicht? Bist leider auch nur ein Fanboy...

Aber mit dir über nV und ATI zu diskutieren bringt eh nicht viel. Das musste Zocker28 schon am eigenen Leib feststellen...

Weil es an Argumenten fehlt?
 
Belege?



Haben sie nicht.




Ich behaupte ja nicht sondern du , woran machst du eigentlich fest das es sich um einen Cheat gehandelt hat wenn ich mal fragen darf? Die Belege findest du im 3dcenter Forum, wo einige diesen Treiber mit Crysis verglichen haben.
Und wo wir gerade dabei sind?
Was ist hiermit:
http://hardocp.com/article.html?art=MTQwNCw3LCxoZW50aHVzaWFzdA==
Ati cheatet also nicht? Bist leider auch nur ein Fanboy...



Weil es an Argumenten fehlt?

:haha: lol naja Bildqualität wtf man braucht auch wie gesagt einen guten Monitor und der ist meistens teurer als die Karte ;) und nur ein Argument wegen der Bildqualität zu haben ist schwach :shot: schummeln? und Ati sind wohl die Engel oder ? was bringt mir eine karte die nur sehr gering bessere Bildqualität hat aber weniger Performance ?
 
Zuletzt bearbeitet:
:haha: lol naja Bildqualität wtf man braucht auch wie gesagt einen guten Monitor und der ist meistens teurer als die Karte ;) und nur ein Argument wegen der Bildqualität zu haben ist schwach :shot: schummeln und Ati sind wohl die Engel oder ?

War nur ein Beispiel von vielen ;)
Hier der nächste:
http://www.computerbase.de/artikel/...adeon_hd_3850_rv670/21/#abschnitt_lost_planet

Zitat CB: "Aus uns unbekannten Gründen scheint auf einer Radeon-HD-2000-Karte derzeit der so genannte „Fur“-Shader nicht zu funktionieren, der für die Felldarstellung verantwortlich ist."

Cheat? Sicher...:haha: Das ist genauso lächerlich wie Nvidia Cheating vorzuwerfen...
 
is not a bug, it´s a feature :bigok:

Das sind alles Treibergeschichten, genauso ist es auch bei Crysis. Mit den 169.04 Treibern hatte man u.a. weisse Umrandungen an den Bäumen auf Nvidia Karten ebenso wie falsche Wasserreflektionen, aber deshalb behaupte ich nicht gleich das es sich um Cheating handelt...Und siehe da , mit den 169.09 wurden die Probleme behoben ohne Geschwindigkeitsverlust. Was ich letztlich sagen will , man findet sowohl bei Ati als auch Nvidia Ungereimtheiten da nehmen sich beide nix.

MfG
 

Weil du anscheinend zu faul zum suchen bist:
http://www.ht4u.net/news/750

Fakt ist nV zumindestens mit den alten Treiber die Bildqualität "optimiert" hat wie es nV so schön ausdrückt. :haha:



Komisch da seh ich hier aber was ganz anderes:
http://www.hardtecs4u.com/news/878

"Der Artikel der Kollegen zeigt nun, dass die Qualitätsverluste mit der Forceware 169.09 nicht mehr vorliegen, dadurch aber auch die Performance im Bereich von etwas über 10% abnimmt. "


Das ist genau so eine Sauerrei wie das was nV macht. Habe nie was anderes behauptet oder?
Ati cheatet also nicht? Bist leider auch nur ein Fanboy...

Genau ich bin ein ATI Fanboy, darum habe ich in den letzten 2 Jahren auch mehr nVidia Grakas gehabt als ATI Grakas. :shot:... ich glaub dein Avatar sagt mehr als 1000 Worte.


Weil es an Argumenten fehlt?

Nö weil du eh nie etwas schlechtes über nVidia kommen lassen würdest. Selbst wenn es Gott und die Welt beweisen würde. Du bist ein Fanboy nicht ich...
 
Zuletzt bearbeitet:
Fakt ist nV zumindestens mit den alten Treiber die Bildqualität "optimiert" hat wie es nV so schön ausdrückt. :haha:
<--- das die nur elitebastards.com zitieren ist dir nicht aufgefallen? Da muss schon mehr kommen als nur Behauptungen...elitebastards irgendeine komische Site...
Zurück zum Thema:
*lach* Was sollen sie auch schreiben? Hey Jungs wir haben einen Fehler gemacht? Es war doch nur ein Bug und wir haben uns vertan? :rolleyes: Denk mal darüber nach.


"Der Artikel der Kollegen zeigt nun, dass die Qualitätsverluste mit der Forceware 169.09 nicht mehr vorliegen, dadurch aber auch die Performance im Bereich von etwas über 10% abnimmt.
"

Siehe oben und auch Ergebnisse im 3dcenter Forum die das Gegenteil belegen. Eigentlich muss ich darüber nicht mit dir streiten , da ich es selber überprüft habe.

Das ist genau so eine Sauerrei wie das was nV macht. Habe nie was anderes behauptet oder?

Doch du behauptest ja das die Bildqualität bei Ati besser wäre...


Genau ich bin ein ATI Fanboy, darum habe ich in den letzten 2 Jahren auch mehr nVidia Grakas gehabt als ATI Grakas. :shot:... ich glaub dein Avatar sagt mehr als 1000 Worte.

Ich hatte auch viele Ati Karten gehabt in den letzten Jahren und deshalb bin ich kein Nvidia Fan. :p
Das ist doch lächerlich, ich bin von Nvidia mehr überzeugt und stehe wenigstens dazu, wo ist das Problem?

Nö weil du eh nie etwas schlechtes über nVidia kommen lassen würdest. Selbst wenn es Gott und die Welt beweisen würde. Du bist ein Fanboy nicht ich...

Deine Meinung , kein Problem. :wink:
 
Egal mir wird das zu dämlich, mit dir eine Diskussion zu führen ist sinnlos. Aber das habe ich bisher leider nicht als einziger feststellen müssen. Man postet einen Beweis und du stäpelst es natürlich als komische Seite ab.

Leb weiter in deiner Traumwelt, du landest nun da wo eigentlich sehr sehr wenige Leute landen...

Caro33 schrieb:
Doch du behauptest ja das die Bildqualität bei Ati besser wäre...

Kennst du den Unterschied zwischen Bildqualität und Cheaten nicht? Sonst kann ich mir eine derart dämliche Antwort nicht erklären. Denkmal drüber nach...

Ich verabschiede mich nun aus diesem Anti ATI Thread und huldige meine 3870 bisschen im 3870 Thread. :drool:
 
Egal mir wird das zu dämlich, mit dir eine Diskussion zu führen ist sinnlos. Aber das habe ich bisher leider nicht als einziger feststellen müssen. Man postet einen Beweis und du stäpelst es natürlich als komische Seite ab.

Genau wie du Computerbase und Tomshardware... :rolleyes:

Leb weiter in deiner Traumwelt, du landest nun da wo eigentlich sehr sehr wenige Leute landen...

Solange du ein Problem damit hast, kann ich sehr gut damit leben. :hail:

Kennst du den Unterschied zwischen Bildqualität und Cheaten nicht? Sonst kann ich mir eine derart dämliche Antwort nicht erklären. Denkmal drüber nach...

Widersprichst du dir da nicht? Mehr als Crysis Links kamen ja nicht von dir...

Ich verabschiede mich nun aus diesem Anti ATI Thread und huldige meine 3870 bisschen im 3870 Thread. :drool:

Mach das, überlege beim nächsten Mal aber vorher was du behaupten und auch belegen kannst. Sind ja nicht alle Leute so manipulierbar. :asthanos:
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh