che new
Enthusiast
- Mitglied seit
- 31.07.2006
- Beiträge
- 6.540
Also bitte nicht völlig verallgemeinern
Das seh ich auch so, aber genau deswegen ist der pauschalisierende erste Satz von CB inakzeptabel.
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Also bitte nicht völlig verallgemeinern
Ja, aber was soll der Witz mit der 9800er Karte ...
Mit den Nachkommestellen täuschen sie da ne Genauigkeit vor, die absolut nicht geben ist.
ciao
Alex
Das seh ich auch so, aber genau deswegen ist der pauschalisierende erste Satz von CB inakzeptabel.
Wieso der Durchschnitt hat mehrere Nachkommastellen, da selten eine glatte Zahl raus kommt. Bei den minimalen und maximalen Werten stehen ja ganze Werte.
Trozdem ist dort AMD deutlich vorne. Sie hätten ja auch anders Benchen können. (kp, ob eine stärkere Karte was gebracht hätte)
Wenn man jetzt hier sieht, dass 640x480 auf dem X4 955 4FPS weniger liefert als 1280x1024, sagt das schon sehr viel über die Genauigkeit von Messungen in GPU-Limit aus...
für den ersten satz hat doch bestimmt einer die hand aufgehalten
http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/juni/radeon_hd_4800_q3/
Dem stimme ich zu, falls mit "qualitativ" in der Tat die physische Qualität der Bauteile gemeint ist.
Wobei die Furmark-Problematik natürlich schon einen etwas bitteren Beigeschmack hat, aber solange es nur eine Anwendung und ein Benchmark noch dazu ist...
Was die BQ (AF) angeht, es wäre glaube ich das erste mal in der Geschichte, dass sich ein Hersteller aufgrund einer leicht schlechteren BQ seiner Grafikkarten gezwungen sieht die Preis tiefer anzusetzen (Nvidia hätte zu Zeiten der Geforce 7000-Reihe die Karten dann quasi verschenken können).
Auch hier, welche Karten sind denn überhaupt betroffen, das komplette ATi-Portfolio? Das dürften maximal die HD4870 & X2 betreffen. Was ist aber mit der sehr effizienten HD4600-Reihe oder mit der mit hochwertigen Bauteilen ausgestatteten HD4890? Besteht im Vergleich zur HD4870 noch eine Gefahr mit 5 digitalen Phasen statt nur 3?
Viele Reviews zeigen, das die verglichenen Karten jeweils ihre Vor- und Nachteile haben aber in der Gesamtbetrachtung gleichwertig sind. Nur bei CB ist das scheinbar anders...Wolfgang(CB) schrieb:Oh man, kommt mal alle wieder runter. Hier wird nichts gelöscht, auch nicht in der News. Und zwar, weil der Satz einfach eine berechntigung hat.
Wenn zum Beispiel die GTX 260 und HD 4870 genau denselben preis höätten, würde ich die GTX 260 vorziehen. Da ich das Gesamtpaket einfach minimal besser finde. Dasselbe gilt für die GTX 275 vs. HD 4890. Da sind die Nvidia-Karten einfach besser, auch wenn der Unterschied nur klein ist, wie es auch in den dazugehörigen Artikeln steht.
Und das weiß auch ATi, weswegen sie den Preiskampf sehr agressiv gestalten, um dann wieder vorne oder gleich auf zu sein. Ich sehe da jetzt echt nicht so das Problem drin.
Viele Reviews zeigen, das die verglichenen Karten jeweils ihre Vor- und Nachteile haben aber in der Gesamtbetrachtung gleichwertig sind. Nur bei CB ist das scheinbar anders...
Das der Communitiy aber vorwiegend die reißerische und mehrdeutige Formulierung der News nicht gefällt, blendet der "Redakteur" vollkommen aus.
Keine Ahnung warum das Argument sich immernoch so hartnäckig hält...
Also ich hab mittlerweile schon einige RV770 Karten in der Hand gehabt, und Furmark rannte bis jetzt auf jeder, selbst die X2 macht inkl. OC über Stunden (bei umbenannter exe) stabilen Betrieb ohne Fehler...
In dem Satz steckt meiner meinung nach schon ein Stück Wahrheit (vllt. auch zwei *g*)... Die ATi sind im vergleich zu den nVidia meist günstiger (wobei man das warscheinlich nur mit gleichen Treiber ernsthaft messen könnte) und das spricht nunmal meist für die ATi Karten. Der Grund wird (ohne eine vergleichbare ATi eingebaut zu haben) sicher nicht an der "Qualität" liegen sondern ATi möchte die Kunden durch den Preisuntershcied einfach auf sich lenken...CB News vom 09.06 schrieb:Da die ATi-Hardware qualitativ nicht immer ganz an die Nvidia-Konkurrenz heran kommt, versucht man den Nachteil durch einen günstigen Preis wieder wett zu machen, was bei der Radeon-HD-4800-Serie auch hervorragend funktioniert
mr.dude schrieb:also ich habe fast das gefühl, der cb autor wollte etwas anderes ausdrücken. Die formulierung war aber ein griff ins klo.
Das würde ich besser nicht machen, denn unabhängig von der Kartenqualität an sich wird dabei mehr Strom über den PCIe und die Stromstecker vom Netzteil gezogen, als per Standard zulässig ist.
Wenn du dich noch an die Zeit der G70/71 zurück erinnern kannst, die ganzen Pro NV Anhänger haben diese Tatsache mit der schlechteren BQ ja immer als gewäsch bzw. unwichtig abgestempelt...
Ein ordentliches NT muss das abkönnen, und selbst wenns abraucht, wirds halt getauscht, sollte denke ich kein Problem darstellen...
Ich sehe in dem Satz kein Problem, eher die Wahrheit. Alleine der Stromverbrauch der ATi Highend Karten ist ein Nachteil, von CUDA/PhysX ganz zu schweigen..
das bezog sich auf die alte Variante.
Und? Zu Zeiten der 3000er Serie war die Leitungsaufnahme in idle plötzlich das Wichtigeste auf der Welt.. Seit der 4000er Serie ist es aber wieder vollkommen egal und fast zu einem Feature geworden, weil man ja "untertakten" kann, was aber nichtmal immer funktioniert..
Da hilft es auch nix, dass z.B. die 4870 X2 gleichauf mit der GTX 295 liegt. Deswegen wird über den Preis gegangen bei AMD (seit der 3000er Serie). Die machen das doch nicht aus Freundschaft zu ihren Kunden oder sowas.. Früher haben ATi Karten ebenfalls wesentlich mehr gekostet (X1950TX, X850XT PE), warum aber jetzt nicht mehr?