AMD HD6000 Northern Islands Spekulation Thread! (2)

Status
Für weitere Antworten geschlossen.
Die 6870 ist laut den CB Test bei Battlefield BC2 leicht vor der GTX470, ich denke mit den kommenden Treibern wird die 6870 schneller als die GTX470, auch wenn es nur eine Mainstreamkarte ist, beachtlich das die schneller als erwartet ist
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja und dabei muss mann sich aber immer im Kopf behalten, das eine MidRange Karte gleich auf mit einer/ mehreren HighPerformence Karte/n ist und da soll jetz einer sagen hier wäre nur ein kleiner Performence gewinn entstanden. Denn ich Frage mich wenn man die HD6870 und HD6850 jetz schon mit den Spitzenmodellen vergleicht. Mit wem soll man denn dann die HD6970 und HD6950 vergleichen ? ;)
 
Aus dem Märchenalter sind wir schon lange raus - also erzähl uns keine

Achso, hardwareluxx erzählt Märchen? Guck dir den Test an...1680x1050 4xAA ...
Und hör auf persönlich zu werden, wenn dir was nicht passt... aus dem alter SOLLTEST du raus sein
 
Zuletzt bearbeitet:
Ja und dabei muss mann sich aber immer im Kopf behalten, das eine MidRange Karte gleich auf mit einer/ mehreren HighPerformence Karte/n ist und da soll jetz einer sagen hier wäre nur ein kleiner Performence gewinn entstanden. Denn ich Frage mich wenn man die HD6870 und HD6850 jetz schon mit den Spitzenmodellen vergleicht. Mit wem soll man denn dann die HD6970 und HD6950 vergleichen ? ;)

Aber war es nicht immer so, dass die neue Mid Karte auf Niveau der alten
High Karten war? Vergleich 4870->5770 ?
 
Also wenn ich das richtig sehe, ist bist auf in Crysis, Metro und Stalker selbst die GTX460 768MB in 1680x1050 mit 4xAA schneller als die 6850 und fast immer schneller als die 6870.
 
Ich finde die neuen Karten sehr gelungen. Sie sind die neuen MidRange-Karten und bieten vergleichweise die Performance der ehemaligen High-End Lösungen.
 
@TopAce Dann sollte das aber beachtet werden um welche Art von Karte es sich handelt. Denn von einigen wurde das ausser Acht gelassen und so viel dann auch die Meinung aus.

@retarded das wäre dann aber berechtigte Kritik ;)
 
Zuletzt bearbeitet:
@TopAce Dann sollte das aber beachtet werden um welche Art von Karte es sich handelt. Denn von einigen wurde das ausser Acht gelassen und so viel dann auch die Meinung aus.

@retarded das wäre dann aber berechtigte Kritik ;)

Und genau deshalb erachte ich es als absolut gerechtfertigt,
sie mit den alten Topmodellen zu vergleichen.
Außerdem sind sie meiner Meinung nach für den klassischen Fall von
Midgrange auch zu teuer.
 
Die Hiobsbotschaft erfolgte dann heute am späten Nachmittag – versehentlich wurden Radeon HD-6850-Produkte mit zu viel aktiven Shader-Prozessoren an die Presse geschickt.


Ich will nicht wissen wie viel reviews davon betroffen sind. Gewissenhafte Tester wie von PCGH haben es bemerkt, aber leider ist das die Minderheit.
 
Die habens es zwar bemerkt aber im Test habe ich jetzt keine Wort darüber gefunden. Andere wie CB oder HT4U haben ihre Test schon dahingehend geändert.

Die Frage ist ob solche Karten auch in den Umlauf gelangt sind
 
Die habens es zwar bemerkt aber im Test habe ich jetzt keine Wort darüber gefunden. Andere wie CB oder HT4U haben ihre Test schon dahingehend geändert.

Die Frage ist ob solche Karten auch in den Umlauf gelangt sind


PCGH muss nichts ändern, da sie es bereits beim Testen bemerkt haben und eine 6850 mit korrekter SP Anzahl genommen haben. Ein gewissenhafter Tester hätte das nicht erst später bemerkt. Und der Dank dafür ist, dass der gewissenhafte Tester geflamt wird, da mit korrekter SP Anzahl und Treiberversionen die neuen Karten nicht so gut dastehen als z.B. hier auf HWL wo alte Treiber für die anderen Karten verwendet wurden.
 
Die habens es zwar bemerkt aber im Test habe ich jetzt keine Wort darüber gefunden. Andere wie CB oder HT4U haben ihre Test schon dahingehend geändert.

Die Frage ist ob solche Karten auch in den Umlauf gelangt sind

Oder ob man die 6850 vielleicht generell mit einem 6870er BIOS freischalten kann.

Und genau deshalb erachte ich es als absolut gerechtfertigt,
sie mit den alten Topmodellen zu vergleichen.
Außerdem sind sie meiner Meinung nach für den klassischen Fall von
Midgrange auch zu teuer.

Da gebe ich dir recht. Wenn die 6870 der Nachfolger der 5770 sein soll, dann passt der Preis nicht so recht. Die 5850 war damals High-End und lag anfangs bei 200€. Jetzt liegt die Midrange in diesem Preisbereich und die Preise für die High-End Karten werden anziehen. Eigentlich ein cleverer Schachzug von AMD die neue Midrange-Karte höher zu positionieren.
 
die 5850 lag anfangs bei 200€, damn, da hätte ich wohl zuschlagen sollen, ich hab die anfangs (als sie rauskam) nur so für 350+€ gesehn...

ob midrange oder nachfolger von 5770 ist doch egal, die Leistung und der Preis sind entscheidend, zumindest den meisten Konsumenten...
 
die 5850 lag anfangs bei 200€, damn, da hätte ich wohl zuschlagen sollen, ich hab die anfangs (als sie rauskam) nur so für 350+€ gesehn...

ob midrange oder nachfolger von 5770 ist doch egal, die Leistung und der Preis sind entscheidend, zumindest den meisten Konsumenten...

Es ist absolut nichts dagegen einzuwenden, dass die Karte für den Preis
verglichen zu den Preisen der Karten die sie schlägt, eine gute Position besitzt.
Dennoch plädieren hier ja einige darauf, dass es sich um Midrange handelt
und ich finde einfach, dass es preislich einfach nicht Midrange ist.
Jedoch stimmt die Leistung für den Midrange Bereich, denn sie spielt in der
Klasse der Highendkarten der letzten Generation.
 
die 5850 lag anfangs bei 200€, damn, da hätte ich wohl zuschlagen sollen, ich hab die anfangs (als sie rauskam) nur so für 350+€ gesehn...

ob midrange oder nachfolger von 5770 ist doch egal, die Leistung und der Preis sind entscheidend, zumindest den meisten Konsumenten...

Ja wirklich, die langen anfangs noch bei 200€, ehe sie dann in Richtung >250€ davon flog, für 350€ habe ich die Karte aber nie gesehen.

Aber die meisten Konsumenten erwarten wohl ob der Namensgebung eine richtige Powerkarte. Naja, spätestens bei der nächsten Generation ist das ber kalter Kaffee, wenn allen das Namensschema bekannt ist. ;)
 
Tach,
Als ehemaliger HWL'er hänge ich mal wieder ins Zeug rein. :wink:
Anfangs war ich echt begeistert von den Barts Karten aber der KO Schlag kam als mir auffiel das die Dinger mal wieder kein DP können ganz in Tradition der 5770/5750. Der normaler Zogger stört sich nicht dran und das ist richtig so, schließlich ist die Performance echt geil für den Preis. Wenn ich dran denke was mich mal zwei XTX gekostet haben, das hätte einen kompletten Rechner für gegeben. Aber gerade Cruncher von Boinc und Co werden sich mal wieder leicht vor den Kopf geschlagen fühlen. Karten die an die Rechleistung der ehemaligen Highend reichen und letztendlich nur Single Precision mit bekommen haben von Mutter AMD um das Geschäft mimt den teureren Karten zu schützen.
Schade, sehr schade. AMD hat hier ne dicke Chance vertan der GPU-Computing Gemeinde nen dicken Fisch auf die Plancken zu legen. Aber die breite MAsse an Zoggern wird sicher die Karte annehmen, den die Leistung ist mal echt genial zu dem Preis.
sry wenn evt Schreibfehler da sind, erkältet, kann nicht wirklich schlafen und alles leicht verschwommen.
 
Zuletzt bearbeitet:
SeniorChef: Ich habe jetzt nicht so richtig Plan wovon Du sprichst aber ich frag mal drauf los. ^^
Mit DP meinst "Double Precision"? Hängt das mit AMD/ATI Stream zusammen? Wenn meine Vermutung stimmt, kann ich das AMD nicht anlasten, da ich glaube, das nichtmal 0,1% der Grafikkartenkäufer irgendwas mit GPU-Computing/Stream anfangen können, oder?
 
trotzdem wird mit den teuren profikarten viel geld verdient. man muss sich nur mal ansehen auf wie viel unis mit cuda geforscht wird.
 
trotzdem wird mit den teuren profikarten viel geld verdient. man muss sich nur mal ansehen auf wie viel unis mit cuda geforscht wird.
Damit meinst diese FirePro/QuadroFX, für CAD Zeuchs und so? Yo, aber ich kann da AMD schon verstehen. Warum sollte ich einer Karte Features geben, die nicht einmal 0,1% der Käufer brauchen. Macht Double-Precision den Chip nicht teurer?
 
ja
zu DP: ich weiß nicht. mich interessiert eher das ergebnis, wie x-mal schneller ein video umzuwandeln als mit der CPU. es gibt aber auch einen supercomputer mit 4870er, weil die p/l-technisch am günstigsten waren.
 
was ich erschreckend finde, ist die tatsache, dass die gtx460 768mb mittlerweile scheinbar in mindestens der hälfte der spiele deutlich über den 5850 liegt und auch recht oft sogar vor der 6870...

Was ist eine scheinbare Tatsache? Entweder Tatsache oder scheinbar.
Die Messungen der 5850 bei Hardwareluxx, auch bei andere Reviews, liegen genau ein Jahr zurück. Damals wurde mit dem Treiber 9.11 gemessen, jetzt sind wir schon beim 10.10 Treiber. Meistens auch noch mit einem Beta Treiber, so wie eben auch bei der aktuellen 68xx Generation. Wir werden also auch 2012 bis aufs zentel genau die gleichen Zahlen bei der 68xx Generation in den Benches hier bei Hardwareluxx finden mit dem 10.10 Beta Treiber. Beispiel. November 2009 5850 Far Cry 2 19x12 48,12 und jetzt Oktober 2010 48,12.
Es ist eben so üblich, dass man Messungen die vor über einem Jahr gemacht wurden einfach immer weiter kopiert und einfügt. Da meistens die Karten eh nicht mehr zur Verfügung stehen und ja auch dafür keine Zeit vorhanden ist. Deswegen messe ich solchen kopieren und einfügen Messungen keine Bedeutung bei.

Überhaupt sehe ich diese kopieren und einfügen Aktionen als eher unbedeutend an. Auch nehme ich solche Tests maximal als einen kleinen Wegweiser. Als Tatsache oder als stichhaltige Argumentation darf man solche Tests einfach nicht nehmen.
Was mir aber sehr gut gefällt an neuen Tests ist die Tatsache ohne scheinbar, der nie endende Kampf um die besten Argumentationen. Das ist für mich viel interessanter als der eigentliche Test.
 
ja
zu DP: ich weiß nicht. mich interessiert eher das ergebnis, wie x-mal schneller ein video umzuwandeln als mit der CPU. es gibt aber auch einen supercomputer mit 4870er, weil die p/l-technisch am günstigsten waren.
Als Programmierer kenn ich zwar den genauen Unterschied zwischen SP(32bit?) und DP(64bit?), aber wie sich das auf die Performance auswirkt ist schwer zu sagen. Hängt ja auch stark davon ab, was ich berechne und ich weiss jetzt nicht genau wie ein Codec ein Video umwandelt. Bei Berechnungen in der Astronomie, wo ja wirklich teilweise Monsterzahlen berechnet werden, kann ich mir mit DP einen Performancebonus von 300% vorstellen, aber nur vermutet, kann auch total Quatsch sein, was ich erzähle. :fresse:

Aber wie gesagt, zu wenige nutzen/brauchen das, daher hat es AMD wohl auch vollkommen bei den 68xx vernachlässigt. Ich denke das ist auch der Grund, warum AMD immer noch nicht die manchmal/leicht/"subjektiv" bessere Bildqualität der Nvidia Karten erreicht hat. Kaum zu glauben wie wenig Leute darauf achten. Bekannte und Arbeitskollegen wissen oft nichtmal was AA/AF genau ist und stellen das nichtmal ein. AMD denkt sich da wahrscheinlich das es einfach zu wenigen auffällt, bzw. den meisten nicht wichtig genug ist und das ist es ja auch irgendwie (den meisten nicht wichtig, bzw. unbekannt). Daher kann ich AMD ein wenig verstehen, das sie in diesem Bereich immer noch nicht aufgeholt haben, was natürlich für absolute Grafiksuchtis kagge sein kann. ^^
 
oder AMD kann seit jahren keinen guten AF filter entwickeln. auf CB heißt es:"Immer noch die Nase vorne hat die anisotrope Filterung auf dem GF100. Dort ist „High Quality“ zwar nicht einwandfrei, aber schon sehr ruhig. Und selbst die Standardeinstellung ist dem Barts noch minimal überlegen."

edit:
über die jahre gab es so viele hardcore fanboys die immer meinten, nein, AMD flimmert nicht..bla bla...wenigstens wird das nun endlich eingesehen und die verschiedenen testseiten schreiben darüber.
 
Zuletzt bearbeitet:
oder AMD kann seit jahren keinen guten AF filter entwickeln. auf CB heißt es:"Immer noch die Nase vorne hat die anisotrope Filterung auf dem GF100. Dort ist „High Quality“ zwar nicht einwandfrei, aber schon sehr ruhig. Und selbst die Standardeinstellung ist dem Barts noch minimal überlegen."

edit:
über die jahre gab es so viele hardcore fanboys die immer meinten, nein, AMD flimmert nicht..bla bla...wenigstens wird das nun endlich eingesehen und die verschiedenen testseiten schreiben darüber.
Ich glaube nicht, das die Leute bei AMD zu blöd sind, da arbeiten ja genau wie bei Nvidia auch nur ganz normale Menschen. Ich kann mir gut vorstellen, das es bei AMD einige gibt, denen das Problem mit der Bildqualität auf den Sack geht, aber die müssen nunmal das machen, was die Vorgesetzten sagen, und die sehen wohl nicht die Notwendigkeit dies zu verbessern. Die arbeiten ja rein wirtschaftlich und die grosse Frage ist, wie stark die Umsätze/Gewinne steigen würden, wenn AMD das AF-Problem beseitigt, bzw. auf das Niveau von Nvidia bringt. Als wirtschaftsnoob würd ich mal vermuten, das die Gewinne durch besseres AF nur unbedeutend steigen würden. Aber ich bewege mich hier gerade in ein Gebiet von dem ich null Plan hab, daher beende ich mal meinerseits die Diskussion darüber. ;)
 
Zu denken das irgendwas eh keiner brauch kann aber auch schnell mal das Ende bedeuten.
 
Ja, die Aussagen von HT4U decken sich mit AMD. Du scheinst nur immer noch nicht zu kapieren, dass sich keine dieser Aussagen mit deinen Behauptungen deckt. AMDs Aussagen sind eindeutig. Und diese besagen, keine schlechtere Qualität mit Standardeinstellungen. Punkt.

AMD behauptet etwas anderes, siehe unten. So eindeutig können sie nicht sein. Selbst Baumann bestätigt, dass (mit Cypress) High Quality gewählt werden muss um keine Qualitätseinbußen mit Standardeinstellungen hinnehmen zu müssen. Mit dem Unterschied, dass Optimierungen und Fixes nun entkoppelt vom AI sind. Kann ich im übrigen bestätigen in meinen Tests, Hohe Qualität entspricht AI Standard mit vorherigen Treibern. Unter anderem zeigt der Filter Tester es klar auf. Laut übereinstimmenden Berichten hat sich mit der HD6000 das Banding erledigt, das Flimmern ist leider nicht besser geworden bzw. mit der neuen Default Einstellungen eher verschlimmert. Genauere Untersuchungen der Filterqualität werden es zeigen müssen.


"Qualität" ist die neue Standardeinstellung, zudem sind die Render Target Replacements aktiv. Uns fiel zu Beginn der Tests auf, dass der anisotrope Filter der HD-6800-Karten im Vergleich mit einer Radeon HD 5870 stärker flimmert. Nach Rücksprache mit AMD teilte man uns mit, dass die Standardeinstellung "Qualität" aggressiver filtert als der bisherige Treiberstandard (A.I. Standard; dort seien die Texturfilteroptimierungen bei der HD-5800-Reihe bereits deaktiviert). Erst die Option "Hohe Qualität" bringe die Optimierungen auf den bislang gekannten Level und ist vergleichbar mit dem bisherigen A.I. Standard der HD-5800-Karten.
 
Jupp, Barts istz nicht für mich da ich bereist eine HD5850 @auf 850/1200 besitze.
AMD sollte es uns nun schuldig sein, CAYMAN XT/ PRO als Paperlauch zu veröffentlichen,- um nicht die Kunden an NV zu verlieren.
Ausser man kann gleich mies filtern, was ich aber nicht hoffe.

Die 4D Shader und die doch viel höhere Tess Leistung sollten Grund genug sein zu warten, aber was ist mit dem AF Filter ?

Barts wurde einfach so billig wie möglich produziert, und auf die AF Qualitöt wurde verzichtet. Somit scheinen auch die Folien sich mehr auf CAYMAN zu konzentrieren, wurden aber für Barts verwendet, bzw. umgeschrieben.
Könnte dies zutreffen ?

Cayman wird wohl über 300 Euro in der PRO, knappe 450 in der XT Version kosten können...
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh