[Kaufberatung] GTX260 oder HD4870, o. gar HD4850 brauch schnell Hilfe!!!

Hinzugefügter Post:
was hat den marketing mit dem genuss von quali zu tun aber einer der sich keine 28er kaufen kann kann natürlich nicht mitsprechen;)

a) Dummer Angriff.
b) Sich durch Marketing eine höhere Qualität suggerieren zu lassen, kommt nun wahrlich nicht zum erstem mal vor.

Deine Reaktion bestätigt nur ein recht eingleisiges Denken, vielen Dank.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ein guter Röhrenmonitor kostet aber auch schon wieder etwas mehr, und dafür kann man sich auch einen guten tft kaufen.

gut, 16:9/10 wird manchmal interpoliert.(besides, die interpolations technik ist nicht mehr wie vor 5 jahren, da hat sich einiges getan)

fragt sich was besser ist? 16:10 film gucken auf 4:3 monitor wo das halbe bild aus schwarzen balken besteht? oder damit leben das es heut noch anwendungen gibt die kein 16:10 unterstützen?

Ich habe wirklich 0 nachteile durch 16:10, im gegenteil. Darauf wird in zukunft gesetzt, und mit der technik die sich in der zukunft völlig durchsetzen wird fährt man eh immer auf der besseren schiene.

ich hatte auf meinen 4:3 jedenfalls viel öfter schwarze balken oben und unten als ich sie jetzt mit 16:10 links und rechts habe oder etwas interpolieren muss. eigentlich kommt sowas gar nicht vor...

mfg
 
du willst mir jetzt sagen das es eine rühren moni gäbe der annähernd am meinen 28zoll mit 1920x1200 rankommt scharm entfindest du keine oder:shake:
 
a) Dummer Angriff.
b) Sich durch Marketing eine höhere Qualität suggerieren zu lassen, kommt nun wahrlich nicht zum erstem mal vor.

Deine Reaktion bestätigt nur ein recht eingleisiges Denken, vielen Dank.

tolles marketing daher gerede..
ich glaube heutzutage kann jeder mal in den nächstbesten saturn gehen und sich selber eine meinung über die qualität bilden. stehen ja nicht umsonst 100erte monitore nebeneinander... ich kauf mir das was ich am besten finde.

ich bin doch nicht so blöd und kauf mir nen tft nur weil drauf steht "Bessere bildqualität als röhre" und direkt daneben steht nen röhrenmonitor der offensichtlich bessere bq hat.
 
das ist doch gar nicht die rede aber mein 550euro gerät leistet offentsichtlich besser qualli als jeden röhren moni den ich kenne und hat die nachteil mit dem glas was auch blendet wenn die sonne scheint zu groß verschwendet viel platz hat kein widescreen was besser für die augen ist dafür kann ein tft nicht die reaktionszeit die der röhren mnoi hat aufbringen da die kristale sich ja umstellen müssen was bei einem röhren moni nicht der fall ist ich bin ja nicht dumm ich weiß schon was der eine kann was der andere nicht kann;)
 
das ist doch gar nicht die rede aber mein 550euro gerät leistet offentsichtlich besser qualli als jeden röhren moni den ich kenne und hat die nachteil mit dem glas was auch blendet wenn die sonne scheint zu groß verschwendet viel platz hat kein widescreen was besser für die augen ist dafür kann ein tft nicht die reaktionszeit die der röhren mnoi hat aufbringen da die kristale sich ja umstellen müssen was bei einem röhren moni nicht der fall ist ich bin ja nicht dumm ich weiß schon was der eine kann was der andere nicht kann;)

selbst wenn die 2ms nur unter besten bedingungen zustande kommen..
schlieren gehören längst der vergangenheit an. mit bloßem auge doch längst nicht mehr zu erkennen, bzw kein nicht-kaufargument mehr.
 
ja deswegen spricht ja nichts für die röhre darauf will ich doch hinaus habe nicht umsonst einen 28zoll tft möchte nie wieder auf breitbild verzichten müssen ;)
 
Ein guter Röhrenmonitor kostet aber auch schon wieder etwas mehr, und dafür kann man sich auch einen guten tft kaufen.

Was falsch ist, bei der momentanen Marktlage. Mangels noch produzierter CRTs für den Computerbereich, bekommt man bei gewerblichen Gebrauchthändlern (incl. Garantie) sehr gute Eizo's bspw. zu einem sehr akzeptablen Preis. Was einem billigem TFT entspräche, und dem meines erachtens nach in den meisten Fällen mehr als ebenbürtig ist.

gut, 16:9/10 wird manchmal interpoliert.(besides, die interpolations technik ist nicht mehr wie vor 5 jahren, da hat sich einiges getan)

Natürlich hat sich da eine menge getan, aber ein 800x600 Spiel dort spielen zu müssen empfinde ich persönlich trotzdem als nicht akzeptabel. Dann lieber notgedrungen schwarzer Rand oder Fenstermodus.

fragt sich was besser ist? 16:10 film gucken auf 4:3 monitor wo das halbe bild aus schwarzen balken besteht? oder damit leben das es heut noch anwendungen gibt die kein 16:10 unterstützen?

Filme schaut man doch viel lieber im Wohnzimmer auf seinem trotz dessen grösserem LCD TV - das darf dann auch ruhig 16:10 haben ;)

Wogegen ich mich nur wehre, ist das manche scheinbar meinen CRTs runtermachen zu müssen, aus Prinzip.

Soulja Boy schrieb:
du willst mir jetzt sagen das es eine rühren moni gäbe der annähernd am meinen 28zoll mit 1920x1200 rankommt scharm entfindest du keine oder
Wo hab ich geschrieben das ich bei solch einer Größe einen CRT nehmen würde? Dein Beispiel das ich zitierte war ein anderes! Damit sagtest du prinzipiell aus LCD>all - immer.

die nachteil mit dem glas was auch blendet wenn die sonne scheint

*hüstel* Das wäre eher ein Gegenargument gegen die meisten Konsumer-LCDs mit Glare-Displays, als gegen CRTs. Vor denen darf man oftmals nochnichtmal mit einem weißem T-Shirt sitzen.
 
Zuletzt bearbeitet:
hey, 800x600 sieht aber auch auf jedem röhrenmonitor scheiße aus ;D
das ist einfach so^^
 
oxy ich will mich ja auch nicht streiten aber mein display blendet nicht ;) gibt es überhaupt 28zoll röhre ??? wenn wiegt die bestimmt 40kg :d
 
Was würdet ihr mir empfehlen: warten bis die GTX260 bei etwas über 200 Euro ist oder jetzt die HD4870?

da musst du schon mal schreiben, was du dir vorstellst.

Willst du ne gute günstige Karte, die bei einigen Games schneller ist als ne 260er oder 280er jedoch bei einigen Titeln auch komplett versagt und dazu noch unheimlich viel Energie verbrät, dann rate ich dir zur 4870.

Möchtest ausgereifte Treiber einen akzeptablen Energieverbauch in 2D und gutes OC Potential, was den Vorteil der 4870 ausgleicht, greif zur Nvidia 260!


Wenn dein Rechner häufig an ist, hast du die 40 Euro Mehrkosten durch die niedrigere Stromrechnung innerhalb eines Jahres kompensiert. IDLE braucht ein Gesamtsystem mit einer 260er fast 50 Watt weniger! Bei der 4870 kann man das auch nachträglich nicht mit einem Treiber kompensieren. Das ist hardwarebedingt, auch wenn immer wieder behauptet wird, das wäre möglich.

Darüber hinaus neigen die 4870er beim Übertakten zum flackern beim Umschalten der Taktraten --> Endsnervig!

PS: irgendein Depp hat hier geschrieben, dass die Bildquali der Ati in 2D besser wäre...

solange hier solche Unwahrheiten gepostet werden, wirst du wohl nie entscheiden können was du dir kaufst.
 
Zuletzt bearbeitet:
Bei der 4870 kann man das auch nachträglich nicht mit einem Treiber kompensieren. Das ist hardwarebedingt, auch wenn immer wieder behauptet wird, das wäre möglich.

Darüber hinaus neigen die 4870er beim Übertakten zum flackern beim Umschalten der Taktraten --> Endsnervig!

genau solche Aussagen lassen mich immer noch davon ab die Karte zu kaufen. :heul:
kann mich zwischen der 260 oder 4870 nicht entscheiden

Kannst du paar Quellen angeben zu den beiden Behauptungen.
 
oxy ich will mich ja auch nicht streiten aber mein display blendet nicht ;) gibt es überhaupt 28zoll röhre ??? wenn wiegt die bestimmt 40kg :d

Mag sein das dein Display dir gefällt, aber ein x-beliebiges billiges TN-Panel mit 19-22" ist nicht immer zwingend besser als eine dementsprechende gute Röhre. Es ist immer auch eine Platz-, Anwendungs-, und Budgetfrage - bzw. eine Kombination dessen.

Mir kommt da nur ein 24" CRT Gerät in den Sinn. Von Sony, 40,5 KG Gewicht und knappe 200 Watt Verbrauch ;)

domian schrieb:
solange hier solche Unwahrheiten gepostet werden, wirst du wohl nie entscheiden können was du dir kaufst.

Bei der 4870 kann man das auch nachträglich nicht mit einem Treiber kompensieren. Das ist hardwarebedingt, auch wenn immer wieder behauptet wird, das wäre möglich.

Lt. ATI handelt es sich hier 'nur' um noch nicht im Treiber implementierte Stromsparfunktionen, die in Hardware durchaus vorhanden sind.
 
Zuletzt bearbeitet:
Mag sein das dein Display dir gefällt, aber ein x-beliebiges billiges TN-Panel mit 19-22" ist nicht immer zwingend besser als eine dementsprechende gute Röhre. Es ist immer auch eine Platz-, Anwendungs-, und Budgetfrage - bzw. eine Kombination dessen.

Mir kommt da nur ein 24" CRT Gerät in den Sinn. Von Sony, 40,5 KG Gewicht und knappe 200 Watt Verbrauch ;)

jada hast du recht habe aber auch kein tn panel omg bei einem 28 zoll wäre das krauenvoll. 40,5 XD
 
Kannst du paar Quellen angeben zu den beiden Behauptungen.

mhm Quellen sind schwierig, verstehe schon dein Misstrauen...

aber ATI hat schon bei vielen Grafikkarten behauptet, durch das Powerplay den Strombedarf nachträglich senken zu können. Das war nie möglich.

Das Problem liegt schon beim Chip und der Verlustleistung selbst. Sind wir mal ehrlich kann man den Energiebedarf nur durch eine Absenkung des VCORE oder des Taktes von GPU und Ram erreichen. Hierfür brauche ich aber definitv eine andere Firmware und sowohl Nvidia als auch Ati wird dies nicht im Nachhinein den vielen Käufern zumuten --> da dies bei falscher Handhabung auch mit dem Verlust der Garantie einhergeht.

Ausserdem kann man Chip und Ramtakt nur bis zu einem bestimmten Maß reduzieren, da sonst der Chip Schaden nehmen kann.

Lt. ATI handelt es sich hier 'nur' um noch nicht im Treiber implementierte Stromsparfunktionen, die in Hardware durchaus vorhanden sind.

So ein Quatsch! Die 4870 wird sowohl IDLE als auch unter Last nie einen anderen Verbauch haben! Siehe oben...
 
Zuletzt bearbeitet:
wenn man die ati vernünftig runtertaktet in 2d sinds schonmal 25W weniger im idle...
halte das für sehr überzogen das man die mehrkosten nach nem jahr durch stromsparen wieder drin hat..^^

gleichzeitg sagste man kann die nvidia besser ocen = wieder mehr stromverbrauch unter last.
 
baoh manche labern auch ne sch*****...
selbst kann ich nur davon reden, das die neue 4870er ne geile Karte ist.. zwar etwas laut, aber hält sich im Rahmen.. Ob sich die ATIs jetzt lohnen, kann Dir keiner genau sagen. Crysis ist zum benchen absoluter Schrott, warum wohl kommt kein Patch mehr raus.. von wegen Community, Warhead muss sich gut verkaufen, und da nur Warhead die Optimierunngen der Engine bekommt, läuft auch nur das später wirklich flüssig.

sprich, wenn Warhead / FarCry2 auf den Markt kommen, dann mach Dir ein Bild davon. Ich könnte mir aber gut vorstellen, das die ATIs später sogar besser gehen also die GTs, da die Engines jetzt immer mehr auf Parallelität ausgelegt werden, und da machen 800 (auch wenn sie schwächer sind) shader im Vergleich zu 240 shadern einiges wett.

Ich will es mal so ausdrücken, entweder jetzt ne 4870, oder warten und sich zwischen dem GT200b und der 4870x2 entscheiden. die GT280 hat zu niedrige Taktraten, um später gut wegzukommen.

scheiss fanboys immer.. beide sind gut, niemand ist wirklich besser!
 
mhm Quellen sind schwierig, verstehe schon dein Misstrauen...

Sprich: Keine Quelle.

aber ATI hat schon bei vielen Grafikkarten behauptet, durch das Powerplay den Strombedarf nachträglich senken zu können. Das war nie möglich.

Was ist des für ein Käse? Die 38xxer hatten erheblich effizientere Stromsparmechanismen als NVidia zu dem Zeitpunkt.

Hierfür brauche ich aber definitv eine andere Firmware und sowohl Nvidia als auch Ati wird dies nicht im Nachhinein den vielen Käufern zumuten

Eine spekulative Vermutung, da du nicht weisst inwiefern die derzeitige Firmware dafür schon ausgelegt ist.

So ein Quatsch! Die 4870 wird sowohl IDLE als auch unter Last nie einen anderen Verbauch haben! Siehe oben...

Quatsch ist eher dein beharren auf einer Meinung, die du dir zusammengereimt hast. Sollte es sich in 3-4 Monaten da nichts getan haben, dann kannst du dieses Thema meinetwegen nochmal aufwärmen. Bis dahin glaub ich lieber einer Aussage von ATI, die ihre Karten besser kennen werden als du.
 
Quatsch ist eher dein beharren auf einer Meinung, die du dir zusammengereimt hast. Sollte es sich in 3-4 Monaten da nichts getan haben, dann kannst du dieses Thema meinetwegen nochmal aufwärmen. Bis dahin glaub ich lieber einer Aussage von ATI, die ihre Karten besser kennen werden als du.

Zeig mir einen einzigen Test, bei dem Ati oder Nvidia nach dem Verkaufsstart den ENergiebedarf einer Karte durch einen Treibereingriff gesenkt hat, obwohl sooft versprochen!

Wie kannste nicht? --> also spekulierst auch du nur!

Nicht mehr und nicht weniger.

Ja ich habe eine Meinung wie andere auch, aber anstatt wie viele andere user nur Fanboygequatsche vom Stapel zu lassen oder "boar wie geil", "4870" forever", "shice Nvidia", "shice Ati" versuch ich wenigstens Für und Wieder abzuwägen.

PS: Im übrigen sind Meinungungen wie Ä****löcher, jeder hat eins!
 
Zuletzt bearbeitet:
Zeig mir einen einzigen Test, bei dem Ati oder Nvidia nach dem Verkaufsstart den ENergiebedarf einer Karte durch einen Treibereingriff gesenkt hat, obwohl sooft versprochen!

Was möglicherweise daran liegt, das die meisten Tests zum Beginn des Kartencyclus gemacht werden?

PS: Im übrigen sind Meinungungen wie Ä****löcher, jeder hat eins!

Richtig, aber dann stelle deine nicht als die absolute Wahrheit dar, und stempel andere als direkten Quatsch ab, grade wenn deine nicht durch irgendwelche anderen Daten fundiert wird..
 
hallo

stehe genau vor dem selben problem, habe eine gts8800 g92 und einen hannsg-28zoll tft.

leider ist es so bei der g92, daß bei hoher auflösung im spiel (stalker oder crysis) immer wieder oben links ein diskettensymbol erscheint, wo er nachlädt) und dann ruckelt es in diesen momenten
laut einem anderen thread soll das am speicher der graka liegen.

nun bin ich am überlegen ob hd4870 oder gtx260

ich mach mir halt sorgen, daß ich das phänomen mit dem nachladen bei der hd wieder habe da ja nur 512mb speicher.
 
die 512mb der ati ist das gleiche wie 1gb bei nvidia da diemin doppelt so effektiv arbeiten
 
ich würde mir auch ne HD4870, allerdings nur wegen dem preis. viel positives kann ich der graka bis auf preis/leistung nicht abgewinnen.
 
wißt ihr wann die 1gb variante der hd4780 erscheint?
ist da irgendwas gekannt und was die vorraussichtlich kosten wird?
 
Also ich würde klar zu der 4870 tendieren ( obwohl ich schon immer nen Nvidia Kind war ), und zwar würde ich gleich eine OC nehmen, beispielhaft die von MSI.

Ich habe die Graka und ich kann mich net beschweren, jedes Game kann ich in max AA, MAX AF und 1600 Auflösung zocken ( Crysis auf alles VERY HIGH wird schon knapp, wobei denke ich nicht das AA und AFF max das Prob sind, sondern eher die gigantischen Texturen etc., ich denke eh das man dafür schon CF oder SLI braucht ).

Meine Graka hat mit Versand knapp 220 euro gekostet.
Die Graka höre ich kaum raus, aber sie schaltet bei Last auf Nachbrenner :d

Ich hab keine nennenswerten Abstürze zu vermelden, ausser in Assasins Creed, aber da ist es nen bekannter Bug.

Ausserdem wird dadurch endlich maln frischer Wind in den Markt gebracht

@domian
Deine Rechnung ist merkwürdig, denn 1) 500 Watt ( nur weil dein NT soviel MAXIMAL rausspucken kann, heisst es nciht das er die ganze Zeit 500 Watt gibt ;) ) sind für ein SingleGPU system schon utopisch, das liegt wohl eher bei 350 Watt.
Verbrauch der 4870 : 160 WATT
Verbrauch der GTX 260 : 182 Watt

Somit kostet dich die 260 laut deiner Rechnung ca 16 Euro mehr im Jahr ;)
 
die 4870 ist leiser als die gtx260 :confused::confused:
eher nicht? was viele tests bescheinigen, und 25°C durch wlp wechseln :lol::lol::lol: ich werde wohl morgen noch lachen :haha::haha:

Keine Ahnung haben aber Hauptsache man die Klappe aufreißen ;-). Ja, die HD 4870 ist leiser als die GTX 260 und ein Wärmeleitpastenwechsel bringt tatsächlich erstaunlich viel. Da mag man schon daran denken, ob AMD das ganze nicht mit einer gewissen Absicht gemacht hat, damit die Grafikkarte nicht zu hoch zu übertakten ist. Einen ähnlichen Versuch haben die Mannen aus SunnyValley je bereits im hauseigenen Treiber gestartet. Der Chip an sich würde Taktraten von 900 MHz mit Sicherheit standhalten, weswegen es auch Gerüchte gibt, dass eine HD 4890 mit 950 MHz Chip- und 2400 MHz Speichertakt kommen wird um die GTX 280 zu schlagen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh