AMD HD6000 Northern Islands Spekulation Thread! (3)

Status
Für weitere Antworten geschlossen.
Ganz ehrlich, die ganze Sache wurde doch schon 1000000000mal durchgekaut. Ob es nun Cheaten oder ka was ist, ist eh egal, da es eh beide Seiten machen und da gibt es nichts zu rütteln!!! Klar kann es von mir aus Unterschiede geben, nur ist das mir völlig egal, wie auch 90% + von den Leuten. Ich will für mein Geld eine angemessene Qualität und gute FPS Werte und das lieferen beide Seiten! Jeder ist selber dafür zuständig, sich eine Karte zu kaufen die für ihn die "beste" ist. Jeder nVidiaFanboy, der jetzt rumheult, soll mal lieber zuerst auf seiner Seite schauen und wenn nVidia mal unfehlbar sein sollte, könnt ihr gerne wieder kommen, nur wird das nie passieren also WAYNE!!!
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
liebe nVidiaFanboys,

lest weint/freut euch und haltet euch aus einem amdthread raus.
News des 1. Dezember 2010 | 3DCenter.org

eigentlich nicht nur an die fanboys gerichtet auch gut für alle die meinen, dass der filter so dermassen schlecht ist wie sie es hier versuchen darzustellen.
eine wunderbare sicht einer mehr oder weniger neutralen seite.

:btt::btt::btt:
 
Zuletzt bearbeitet:
Ob das besonders vielen Leuten auffällt (daran glaube ich übrigens auch nicht) ist erstmal doch völlig egal, denn um die Bildqualität geht es bei diesen minimalen Unterschieden nicht wirklich.

Ich bin von einer HD5000 auf HD6000 umgestiegen. Ich kann dir versichern, dass mir sofort in einigen Spielen die stärkere Flimmerneigung aufgefallen ist. Auch weiß ich, dass NVIDIA HQ noch ruhiger filtert. Wem das Auge dafür fehlt hat Glück, dem kann es in der Tat egal sein.
 
liebe nVidiaFanboys,

lest weint/freut euch und haltet euch aus einem amdthread raus.
News des 1. Dezember 2010 | 3DCenter.org

eigentlich nicht nur an die fanboys gerichtet auch gut für alle die meinen, dass der filter so dermassen schlecht ist wie sie es hier versuchen darzustellen.
eine wunderbare sicht einer mehr oder weniger neutralen seite.
Danke für den Link. Ein Schlag ins Gesicht für jeden nVidia Fanboi, der von "Gecheate" spricht. Besonders folgendes ist interessant:
Die Umbennung der AMD-Filtermodi in "Quality" und "HighQuality" erfolgte wohl maßgeblich wegen der im Internet kursierenden Tips, für die allerbeste Bildqualität doch "A.I.=off" zu wählen – was aber letztlich auch benötigte Bugfixes und die CrossFire-Profile aus dem Treiber entlädt. Deswegen entschloß man sich bei AMD, diese benötigten Bugfixes und die CrossFire-Profile unabhängig des A.I.-Settings zu machen und selbiges mit einer nachvollziehbareren Namenswahl auszustatten.
Das deckt sich auch mit den Aussagen von Dave Baumann.

Übrigens, SO schaut ein sachlicher Artikel aus. Wenn sich Printmedien und GPU Hersteller auf diese Weise austauschen, ist das iO. Auf das polemische BQ Dauergespamme von dem einen oder anderen kann man hingegen gerne verzichten.
 
Zuletzt bearbeitet:
Danke für den Link. Ein Schlag ins Gesicht für jeden nVidia Fanboi, der von "Gecheate" spricht. Besonders folgendes ist interessant:

Das deckt sich auch mit den Aussagen von Dave Baumann.

Übrigens, SO schaut ein sachlicher Artikel aus. Wenn sich Printmedien und GPU Hersteller auf diese Weise austauschen, ist das ok. Auf das polemische BQ Dauergespamme von dem einen oder anderen kann man hingegen gerne verzichten.


Ich sehe hier kein Dementi. Ob sich AMD durch ne hardwareseitige Filtereinsparung oder durch treiberseitige Optimierungen gegenüber der Konkurrenz ein paar Prozent Vorteil verschafft, macht im Endeffekt keinen Unterschied. Es ist nur Schade, dass AMD durch einen Treiber die Filterqualität wohl nicht anheben kann. Bei Cypress ab Cat 10.10 sieht das natürlich anders aus.
 
Dann kannst du genauso verlangen, dass nur noch bei gleicher Leistungsaufnahme verglichen wird, damit niemand bei den Stromkosten benachteiligt wird. Ich halte ein solches Unterfangen einfach für unrealistisch und unpraktikabel. Zumal es sowieso nicht möglich ist, identische Bildqualität zu gewährleisten. Auch sollte man bedenken, Hardware immer möglichst OTS zu vergleichen. Denn so wird sie die Mehrheit der Käufer betreiben. Es wird den Hardwareseiten ja nicht verboten, darüber hinaus zusätzliche Vergleiche zu machen.
Natürlich könnte man das, allerdings ist sowas noch weniger praktikabel und IMHO auch garnicht nötig. Erstmal muss man feststellen, ob die benötigte Leistung überhaupt da ist, dann kann man Leistung/Watt und Leistung/€ in Betracht ziehen. Und natürlich wirst du es mit vertretbarem Aufwand idR nicht hinkriegn, dass es absolut gleich aussieht (sofern das überhaupt möglich ist), aber man sollte doch zumidnest versuchen, da möglichst nah ranzukommen.
Standard-Einstellungen verschiedener Produkte zu vergleichen halte ich dagegen für absolut sinnfrei, denn das sagt am Ende nichts über die eigentliche Leistungsfähigkeit des Produktes aus.

Eigentlich finde ich das schon wieder richtig dumm...nur weil der eine User heute früh wiedermal mit der BQ anfing,sind jetzt schon wieder fast 2 Seiten zu diesem total ausgelutschten Thema verfasst wurden!
:p
 
Zuletzt bearbeitet von einem Moderator:
Ich sehe hier kein Dementi.
Ich schon. Selbst der Autor gibt ja zu, dass die Anschuldigungen einfach zu viel des Guten waren.
... auch wenn manche der von uns diesbezüglich gewählten Worte unter Umständen auch mal drastisch herüberkommen ...
Der eine sagt, er kann auf ein paar FPS verzichten und will dafür mehr BQ. Ein anderer sagt, er kann auf ein bisschen BQ verzichten und will dafür mehr FPS. Beides ist legitim. Ich kann nach wie vor keine Basis für Anschuldigungen bezüglich "Gecheate" erkennen.


Natürlich könnte man das, allerding sit es noch weniger praktikabel und IMHO auch garnciht nötig.
Wieso sollte es nicht nötig sein? Ich kaufe Hardware nur noch, wenn die Leistungsaufnahme stimmt. Wenn man schon Bildqualität kritisiert, dann sollte das genauso für die Leistungsaufnahme gelten.

Standard-Einstellungen verschiedener Produkte zu vergleichen halte ich dagegen für absolut sinnfrei, denn das sagt am Ende nichts über die eigentliche Leistungsfähigkeit des Produktes aus.
Sollen denn Reviews die "eigentliche Leistungsfähigkeit" vergleichen? Ich denke nicht. Reviews sollen das wiedergeben, was ein potenzieller Käufer OTS bekommt. Und genau das soll auch getestet werden, da es repräsentativ ist. Alles andere macht keinen Sinn. Weitere Vergleiche, die für die Randgruppe der Enthusiasten interessant sind, dürfen gerne zusätzlich durchgeführt werden.
 
Wieso sollte es nicht nötig sein? Ich kaufe Hardware nur noch, wenn die Leistungsaufnahme stimmt. Wenn man schon Bildqualität kritisiert, dann sollte das genauso für die Leistungsaufnahme gelten.
Die Leistungsaufnahme ist bei mir durchaus auch ein entscheidendes Kriteriem, nur kann man die für einen Benchmark nicht einstellen und es wird niemand eine Karte kaufen, die zwar wenig verbraucht, für ihre Aufgabe aber zu langsam ist. Außerdem kritisiere ich die Bildqualität auch garnicht.

Sollen denn Reviews die "eigentliche Leistungsfähigkeit" vergleichen? Ich denke nicht. Reviews sollen das wiedergeben, was ein potenzieller Käufer OTS bekommt. Und genau das soll auch getestet werden, da es repräsentativ ist. Alles andere macht keinen Sinn. Weitere Vergleiche, die für die Randgruppe der Enthusiasten interessant sind, dürfen gerne zusätzlich durchgeführt werden.
Das sehe ich anders. Wenn ich einen Test lese, will ich wissen welches Produkt besser ist. Was nützt es mir denn, wenn der Benchmark suggeriert, das Karte A 5fps mehr bringt als Karte B, das aber nur duch eine andere Wahl der Standard-Einstellung erreicht wird und beide Karten bei gleicher Bildqualität gleich schnell sind? Richtig: Nichts, es sagt nämlich nichts aus.
 
Das sehe ich anders. Wenn ich einen Test lese, will ich wissen welches Produkt besser ist. Was nützt es mir denn, wenn der Benchmark suggeriert, das Karte A 5fps mehr bringt als Karte B, das aber nur duch eine andere Wahl der Standard-Einstellung erreicht wird und beide Karten bei gleicher Bildqualität gleich schnell sind? Richtig: Nichts, es sagt nämlich nichts aus.
Welche "andere Wahl der Standard-Einstellung"? Standard-Einstellung ist Standard-Einstellung. Die wird vom Hersteller vorgegeben. Da gibt's keine andere Wahl. Und zwei Produkte mit ihren Standard-Einstellungen zu vergleichen, ist völlig normal. Wie gesagt, alles darüber hinaus kann zusätzlich betrachtet werden. Wer den Test aufmerksam liest, wird auch sehen, bei welchen Einstellungen wie viel FPS am Ende rausspringen.
 
Zuletzt bearbeitet:
Welche "andere Wahl der Standard-Einstellung"? Standard-Einstellung ist Standard-Einstellung. Die wird vom Hersteller vorgegeben. Da gibt's keine andere Wahl. Und zwei Produkte mit ihren Standard-Einstellungen zu vergleichen, ist völlig normal. Wie gesagt, alles darüber hinaus kann zusätzlich betrachtet werden. Wer den Test aufmerksam liest, wird auch sehen, bei welchen Einstellungen wie viel FPS am Ende rausspringen.
Richtig, der Hersteller wählt irgendetwas aus, das er dann als Standard definiert und diese Entscheidung beeinflusst eben direkt das Ergebnis im Benchmark. Deshalb halte ich es eben für nötig sowas durch die zur Verfügung stehenden Einstellungen auszugleichen und kann das Vorgehen der PCGH daher absolut nachvollziehen.
 
Und wieso senkst du dann zB nicht die Taktraten einer GTX 480 oder GTX 580, um die Leistungsaufnahme und Hitzeentwicklung "auszugleichen"? Richtig, es macht keinen Sinn. Entweder vergleicht man so, wie der Hersteller die Karten spezifiziert, oder lässt es ganz bleiben. Alles andere ist Unfug oder betrachtet man eben separat. Wenn du die Standard-Einstellungen von Grafikkarten selbst festlegen willst, würde ich vorschlagen, du entwickelst und vermarktest erstmal welche.
 
Zuletzt bearbeitet:
Das wurde nun schon zum dritten mal gepostet. Lest doch wenigstens mal die letzten 1-2 Seiten. :rolleyes: Und es ändert sich auch nichts daran, dass NHW erstmal nur FUD kolportiert.

neliz aus dem B3D Forum lässt jedenfalls anderes vermuten.
All I know is the boards are ready
 
Zuletzt bearbeitet:
Ist schon was bekannt was dieses edge aa bewirken soll???
Hoffe ja auf sone art SSAA
 
Ich finde du wiedersprichst dir. Zuerst sagst du das es egal ist, dass AMD nun schlechtere Standardsettings hat da man bei Nvida ebenso manuell die Settings ändern muss und im zweiten Abschnitt sagst du dann das der 0815 Benutzer sowieo nie an den Settings etwas verändert.
Nein, ich sage, ich finde es lächerlich NVs HQ Settings ranzuziehen um AMDs AF schlecht zu reden und (seit dem HD6000er Karten) noch die schlechteren Stock Einstellungen zu kritisieren, wenn man gleichsam für NVs HQ Settings auch manuel Hand anlegen muss.
In Std. Q Settings neigt das AF von NV auch zum flimmern, vllt nicht so stark wie bei AMD, aber darum gings erstmal gar nicht.

Zusammengefasst also, es ist in meinen Augen der verkehrte Weg AMDs AF in den Stock Einstellungen schlecht zu reden und als Basis für den Vergleich eine Treibereinstellung von NV zu wählen, welche nicht den Std. Einstellungen entspricht.

Das der User an den Einstellungen idR nichts ändern wird, zeigt in meinen Augen eigentlich nur die Sinnhaftigkeit solcher Vergleiche. Wenn dann vergleicht man Std. gegen Std. oder eben, erweiterte Settings gegen erweiterte Settings.
Man sollte sich aber dann auch wie mr.dude schon sagte nicht bei einem Thema festbeißen um zu kritisieren. Beim Thema AF ist beispielsweise Banding ein Punkt, wo NV schlechter dasteht. usw.
Nur sieht man in irgend einem Review was davon gegen NV? Sogut wie gar nicht. Ich für meinen Teil sehe aber Banding deutlich mehr als das flimmern...

Auch verstehe ich die Aufregung nicht so ganz, in keinem anderen Land wird das Thema so heiß geredet wie hier in Deutschland. Bzw. im deutschsprachigen Raum...
Den Rest der Welt scheint das nicht zu kümmern... Das zeigt auch, wie die Gewichtung seitens der Hersteller dort angesetzt sein wird -> sogut wie gar nicht... Wem es halt nicht passt, was AMD liefert, soll NV kaufen und mit anderen Kritikpunkten leben.
 
Nein, ich sage, ich finde es lächerlich NVs HQ Settings ranzuziehen um AMDs AF schlecht zu reden und (seit dem HD6000er Karten) noch die schlechteren Stock Einstellungen zu kritisieren, wenn man gleichsam für NVs HQ Settings auch manuel Hand anlegen muss.
In Std. Q Settings neigt das AF von NV auch zum flimmern, vllt nicht so stark wie bei AMD, aber darum gings erstmal gar nicht.


Wenns danach ginge müsste man bei Nvidia auf performance stellen, das würde dann schon eher hinkommen. Die Vergleiche, die du ansprichst, sind oft auf maximale Qualität ausgelegt. D.h. es wird bei AMD AI Off/HQ eingestellt und bei Nvidia das gleiche. Barts auf HQ gegen Nvidia Q ist ohnehin ein Witz, da Barts immer noch deutlich mehr zum Flimmern neigt.

Auch verstehe ich die Aufregung nicht so ganz, in keinem anderen Land wird das Thema so heiß geredet wie hier in Deutschland. Bzw. im deutschsprachigen Raum...
Den Rest der Welt scheint das nicht zu kümmern... Das zeigt auch, wie die Gewichtung seitens der Hersteller dort angesetzt sein wird -> sogut wie gar nicht... Wem es halt nicht passt, was AMD liefert, soll NV kaufen und mit anderen Kritikpunkten leben.

Weil der PC in Deutschland noch einen höheren Stellenwert besitzt als zum Beispiel im Konsolenland der Amis. Und weil eben die Spielkinder nur auf Balken glotzen und keinen Deut auf Bildqualität Wert legen. Hier besteht eine große Wissenslücke, das ist das erste Problem. Sieht man doch schön anhand der internationalen Tests. Xbitlabs schreibt was von 4xMLAA obwohl es nur einen ON and OFF Schalter gibt, da bekomme ich das Kotzen wenn ich diesen Müll lese.
 
Zuletzt bearbeitet:
Könntent ihr diese verdammte BQ scheiße irgendwo anders belabern es ist echt nicht auszuhalten.
 
@mirko10
Warum hast du dir eine HD 6000 gekauft, wenn doch bei Nvidia so vieles besser ist :confused:
 
Wenns danach ginge müsste man bei Nvidia auf performance stellen, das würde dann schon eher hinkommen. Die Vergleiche, die du ansprichst, sind oft auf maximale Qualität ausgelegt. D.h. es wird bei AMD AI Off/HQ eingestellt und bei Nvidia das gleiche. Barts auf HQ gegen Nvidia Q ist ohnehin ein Witz, da Barts immer noch deutlich mehr zum Flimmern neigt.

Laut CB soll wohl AMDs HQ mit NVs Q Settings vergleichbar sein... NV auf Q bringt dir aber nur einen brilineare Filter und damit Bugwellen, die es so bei AMD nicht gibt, bzw. wohl nur in extrem wenigen Fällen.
Und genau an dem Punkt frage ich mich wie so ein Vergleich Sinn machen kann. Es ist ja nicht so, das NVs AF Perfekt ist. Es mag vllt etwas besser sein. (aber auch nur in einem Gesichtspunkt, nämlich Flimmern) Aber wie angesprochen, es scheint die Masse nicht zu interessieren, weil sie weder bei AMD noch bei NV auf HQ drehen, geschweige denn AF erzwingen, sofern das Game es nicht in den Optionen kann...

Und genau sowas muss man einfach kritisieren bei den Betrachtungen... Schwächen gehören angesprochen, keine Frage, aber wie dies hier passiert, ist total danaben. Und das man seitens der AF NV Anhänger dann immer die HQ Settings von NV ranzieht um AMDs Std. Einstellungen schlecht zu machen ist noch viel mehr daneben...



Weil der PC in Deutschland noch einen höheren Stellenwert besitzt als zum Beispiel im Konsolenland der Amis. Und weil eben die Spielkinder nur auf Balken glotzen und keinen Deut auf Bildqualität Wert legen. Hier besteht eine große Wissenslücke, das ist das erste Problem.

Das ändert aber nix an der Tatsache, das Deutschland sicher nicht der größte Markt für Gamer Grafikkarten ist weltweit.
 
So und nun ist Gut.

Es reicht langsam mit den Vergleichen von nV AF und AMD AF da es mit der HD 69x0er Karten mal gar nichts zu tun hat, als OFF TOPIC ist.

Ich auf jeden Fall glaube nicht, dass sich er Launch verschiebt.
AMD Hatte die Chips ja de facto schon fertig im Petto, haben aber aufgrund der GTX 580er nochmal Hand angelegt.

Dass es jetzt aufeinmal mit der Spannungsversorgung nicht passen soll...........HALLO? AMD sind keine 16-jährigen Gartenschuppen bastler.

Sollte übrigens die Aussage, dass die Board´s fertig sind stimmen.
Wäre es sowieso kompletter blödsinn dass AMD probleme mit der Spannungsversorgung hat, denn wenn die Board´s bereit stehen, wird auch der Chip grösstenteils Fertig sein.

Abgesehen von ein paar kleinen Optimierungen.
 
Ich kann mir nicht vorstellen, dass AMD so dämlich war und sich nach der 5870 Zeit gelassen hat. Die Frage ist, ob die Streichung von 32nm zu spät kam und AMD dadurch Probleme bekam. Ich kann mir keinesfalls vorstellen, dass AMD auf die faule Backe gelegt hat.
 
Das sicher nicht, jedoch haben die schon mit 32nm gerrechnet, und einfach mal umstellen und abändern ist keine Arbeit von 2 Wochen.

Viele wissen gar nicht was für eine Dreck´s-Arbeit es ist eine Neue Architektur zu Designen.
Die Zeiten wo man gerade mal 1000 Transistoren im Chip hatte sind Vorbei.
 
@mirko10
Warum hast du dir eine HD 6000 gekauft, wenn doch bei Nvidia so vieles besser ist :confused:

Wer sagt das ich mir eine gekauft habe? Mal davon ab ist das AF nur ein Puzzlestein im Ganzen. Das hat andere Gründe, kannst beruhigt sein.

Laut CB soll wohl AMDs HQ mit NVs Q Settings vergleichbar sein... NV auf Q bringt dir aber nur einen brilineare Filter und damit Bugwellen, die es so bei AMD nicht gibt, bzw. wohl nur in extrem wenigen Fällen.

Kann ich nicht nachvollziehen. Das große Problem bei Barts ist das Flimmern, das aber paradoxerweise nicht besser wird mit HQ, eher das Gegenteil ist der Fall. Alles was ich bisher gesehen habe, ob live oder auf Testseiten, zeigte eine größere Unruhe auf Barts gegenüber Nvidia auf Q. Die Bugwellen sind mir nicht aufgefallen. Streng genommen hat Barts auch noch Bugwellen, die aber nur in Extremfällen sichtbar sind.
Und genau an dem Punkt frage ich mich wie so ein Vergleich Sinn machen kann. Es ist ja nicht so, das NVs AF Perfekt ist. Es mag vllt etwas besser sein. (aber auch nur in einem Gesichtspunkt, nämlich Flimmern) Aber wie angesprochen, es scheint die Masse nicht zu interessieren, weil sie weder bei AMD noch bei NV auf HQ drehen, geschweige denn AF erzwingen, sofern das Game es nicht in den Optionen kann...

Das Gesamtbild entscheidet. Am ehesten vergleichbar wäre Nvidia @performance mit Barts Quality. (HQ bringt optisch praktisch kein Gewinn). Zumindest Nvidias HQ AF filtert ziemlich nah am Referenzbild. Das ist ja auch der Vorteil, man hat optional einen HQ Schalter der den Namen auch verdient im Gegensatz zu AMDs HQ Schalter.

Das ändert aber nix an der Tatsache, das Deutschland sicher nicht der größte Markt für Gamer Grafikkarten ist weltweit.

Ich wollte dir erklären warum in Deutschland penibler darauf geachtet wird. Es hat bei uns einen größeren Stellenwert als anderswo. Oder welche internationale Seite ist dafür bekannt sich die BQ näher anzuschauen? Als erstes ist beyond3d zu nennen, die aber nicht die typische reviewer Seite darstellt. Anandtech, Guru3d und wie sie alles heißen behandeln das doch ziemlich oberflächlich. Und wenn sie es doch aufgreifen sollten, werden verschiedene Sachen durcheinander gewürfelt aufgrund nicht verstandener Thematik.
 
Zuletzt bearbeitet:
Während die AMD Radeon HD 6950 bereits ihren Weg aus den Labors in die Produktionsstätten gefunden hat und bereit zur Auslieferung sei...

Die HD6950 hat wahrscheinlich fast die Leistung der GTX580, da brauchen sie die HD6970 noch nicht raus bringen. :fresse2:
 
Also ich weiß nicht, AMD ist echt ein Looserverein! Ich wollte auch auf die 6970 warten, nach der Verschiebung habe ich mir dann gesagt, nöö, keinen Bock mehr zu warten und habe mir ne GTX 580 gekauft! Und was ist, das war die beste Entscheidung ever - auf der GTX 580 habe ich einen Wasserkühler drauf und sie ist jetzt übertaktet so schnell wie zwei 5870er im Crossfire, die ich vorher hatte! Und sorry, niemals wird ne Single 6970er so schnell, wie zwei 5870er im Crossfire, never ever, und schon mal gar nicht bei Tesssalation! Ich bin kein Fan von irgendeiner Seite, hatte ja vorher fast ein Jahr lang zwei ATI 5870er, aber mit diesen Verschiebungen hat ATI zumindest mich als Kunden verloren!
 
Zuletzt bearbeitet:
@Zoork. Naja wenn man bedenkt das eine HD5870 zum Release fast genau so schnell wie eine HD4870X2 war, könnte das hinkommen das die 6970 wieder so schnell wird. ICh hab zum Glück noch Zeit mir das ganze an zusehn ^^
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh