Die 6870 ist laut den CB Test bei Battlefield BC2 leicht vor der GTX470, ich denke mit den kommenden Treibern wird die 6870 schneller als die GTX470, auch wenn es nur eine Mainstreamkarte ist, beachtlich das die schneller als erwartet ist
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Aus dem Märchenalter sind wir schon lange raus - also erzähl uns keine
Ja und dabei muss mann sich aber immer im Kopf behalten, das eine MidRange Karte gleich auf mit einer/ mehreren HighPerformence Karte/n ist und da soll jetz einer sagen hier wäre nur ein kleiner Performence gewinn entstanden. Denn ich Frage mich wenn man die HD6870 und HD6850 jetz schon mit den Spitzenmodellen vergleicht. Mit wem soll man denn dann die HD6970 und HD6950 vergleichen ?
Da liegt ja der Denkfehler, man sollte Midrange mit Midrange Karten vergleichen.
Da liegt ja der Denkfehler, man sollte Midrange mit Midrange Karten vergleichen.
@TopAce Dann sollte das aber beachtet werden um welche Art von Karte es sich handelt. Denn von einigen wurde das ausser Acht gelassen und so viel dann auch die Meinung aus.
@retarded das wäre dann aber berechtigte Kritik
Die Hiobsbotschaft erfolgte dann heute am späten Nachmittag – versehentlich wurden Radeon HD-6850-Produkte mit zu viel aktiven Shader-Prozessoren an die Presse geschickt.
Die habens es zwar bemerkt aber im Test habe ich jetzt keine Wort darüber gefunden. Andere wie CB oder HT4U haben ihre Test schon dahingehend geändert.
Die Frage ist ob solche Karten auch in den Umlauf gelangt sind
Die habens es zwar bemerkt aber im Test habe ich jetzt keine Wort darüber gefunden. Andere wie CB oder HT4U haben ihre Test schon dahingehend geändert.
Die Frage ist ob solche Karten auch in den Umlauf gelangt sind
Und genau deshalb erachte ich es als absolut gerechtfertigt,
sie mit den alten Topmodellen zu vergleichen.
Außerdem sind sie meiner Meinung nach für den klassischen Fall von
Midgrange auch zu teuer.
die 5850 lag anfangs bei 200€, damn, da hätte ich wohl zuschlagen sollen, ich hab die anfangs (als sie rauskam) nur so für 350+€ gesehn...
ob midrange oder nachfolger von 5770 ist doch egal, die Leistung und der Preis sind entscheidend, zumindest den meisten Konsumenten...
die 5850 lag anfangs bei 200€, damn, da hätte ich wohl zuschlagen sollen, ich hab die anfangs (als sie rauskam) nur so für 350+€ gesehn...
ob midrange oder nachfolger von 5770 ist doch egal, die Leistung und der Preis sind entscheidend, zumindest den meisten Konsumenten...
Damit meinst diese FirePro/QuadroFX, für CAD Zeuchs und so? Yo, aber ich kann da AMD schon verstehen. Warum sollte ich einer Karte Features geben, die nicht einmal 0,1% der Käufer brauchen. Macht Double-Precision den Chip nicht teurer?trotzdem wird mit den teuren profikarten viel geld verdient. man muss sich nur mal ansehen auf wie viel unis mit cuda geforscht wird.
was ich erschreckend finde, ist die tatsache, dass die gtx460 768mb mittlerweile scheinbar in mindestens der hälfte der spiele deutlich über den 5850 liegt und auch recht oft sogar vor der 6870...
Als Programmierer kenn ich zwar den genauen Unterschied zwischen SP(32bit?) und DP(64bit?), aber wie sich das auf die Performance auswirkt ist schwer zu sagen. Hängt ja auch stark davon ab, was ich berechne und ich weiss jetzt nicht genau wie ein Codec ein Video umwandelt. Bei Berechnungen in der Astronomie, wo ja wirklich teilweise Monsterzahlen berechnet werden, kann ich mir mit DP einen Performancebonus von 300% vorstellen, aber nur vermutet, kann auch total Quatsch sein, was ich erzähle.ja
zu DP: ich weiß nicht. mich interessiert eher das ergebnis, wie x-mal schneller ein video umzuwandeln als mit der CPU. es gibt aber auch einen supercomputer mit 4870er, weil die p/l-technisch am günstigsten waren.
Ich glaube nicht, das die Leute bei AMD zu blöd sind, da arbeiten ja genau wie bei Nvidia auch nur ganz normale Menschen. Ich kann mir gut vorstellen, das es bei AMD einige gibt, denen das Problem mit der Bildqualität auf den Sack geht, aber die müssen nunmal das machen, was die Vorgesetzten sagen, und die sehen wohl nicht die Notwendigkeit dies zu verbessern. Die arbeiten ja rein wirtschaftlich und die grosse Frage ist, wie stark die Umsätze/Gewinne steigen würden, wenn AMD das AF-Problem beseitigt, bzw. auf das Niveau von Nvidia bringt. Als wirtschaftsnoob würd ich mal vermuten, das die Gewinne durch besseres AF nur unbedeutend steigen würden. Aber ich bewege mich hier gerade in ein Gebiet von dem ich null Plan hab, daher beende ich mal meinerseits die Diskussion darüber.oder AMD kann seit jahren keinen guten AF filter entwickeln. auf CB heißt es:"Immer noch die Nase vorne hat die anisotrope Filterung auf dem GF100. Dort ist „High Quality“ zwar nicht einwandfrei, aber schon sehr ruhig. Und selbst die Standardeinstellung ist dem Barts noch minimal überlegen."
edit:
über die jahre gab es so viele hardcore fanboys die immer meinten, nein, AMD flimmert nicht..bla bla...wenigstens wird das nun endlich eingesehen und die verschiedenen testseiten schreiben darüber.
Ja, die Aussagen von HT4U decken sich mit AMD. Du scheinst nur immer noch nicht zu kapieren, dass sich keine dieser Aussagen mit deinen Behauptungen deckt. AMDs Aussagen sind eindeutig. Und diese besagen, keine schlechtere Qualität mit Standardeinstellungen. Punkt.
"Qualität" ist die neue Standardeinstellung, zudem sind die Render Target Replacements aktiv. Uns fiel zu Beginn der Tests auf, dass der anisotrope Filter der HD-6800-Karten im Vergleich mit einer Radeon HD 5870 stärker flimmert. Nach Rücksprache mit AMD teilte man uns mit, dass die Standardeinstellung "Qualität" aggressiver filtert als der bisherige Treiberstandard (A.I. Standard; dort seien die Texturfilteroptimierungen bei der HD-5800-Reihe bereits deaktiviert). Erst die Option "Hohe Qualität" bringe die Optimierungen auf den bislang gekannten Level und ist vergleichbar mit dem bisherigen A.I. Standard der HD-5800-Karten.