Spezifikationen der AMD Radeon HD 6870 und HD 6850 aufgetaucht

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@l@mer
Es ist aber eine vollkommen neue Serie mit neuer Technik.
Aber wäre es euch lieber dann eine HD6870 / 71 / 72 / 73 / 74 / 75 usw zu haben, nur die Staffelung? Wohl kaum!

Und wer sich nicht iformiert irgendwas kauft und nicht mal im Zweifelsfalle einen Verkäufer fragt, weil man ist ja schlauer als die, trotz Unwissenheit, tja dann Pech.

Macht aber eben einen gewaltigen Unterschied ob es nun in einer neuen oder alten Serie passiert.

Hm, da ist was wahres dran..
 
ja und? 28nm ist noch nicht mal in der Testphase und noch mindestens ein Jahr von der Marktreife entfernt. Was soll da AMD und nivida machen? Keine neuen Chips mehr rausbringen?
 
Es regen sich doch eh immer nur die auf, die sich mit der Namensgebung auskennen. Also ca. 2% der Weltbevölkerung. Auf das Genörgel von den 2% kann jede Firma nur lachen.
Ihr solltet euch ein Heulstudio einrichten.
 
Was soll da AMD und nivida machen? Keine neuen Chips mehr rausbringen?


sonst gabs doch auch bei fast jedem generationswechsel ne kleinere fertigung....

auf ein ,,update" wies bei der gtx 200er reihe der fall war hab ich keen bock..wenn dann klee richtig
 
Zuletzt bearbeitet:
Es geht aber darum, dass die Zahlen net der Leistung entsprechen. Versteh net genau wo dein Problem liegt. Ne GTX480 ist schneller als ne 470,460 und auch ne 280. Das passt von der Zahlenreihenfolge auch.
Ne 6870 wird langsamer als ne 5870. Das ist für die meisten dann eben nicht mehr ersichtlich, weil sie denken, höhere Zahl muss ja dann auch mehr Leistung sein.

Man sollte aber dem Käufer allermindestens zutrauen sich mit dem Namensschema auseinander zu setzen...

Bei AMD ist das ganz einfach.
Die erste der vier Zahlen steht für die Generation.
Das hat angefangen mit der 7000er Radeon Reihe. Als bei neun dann schluss war hat man kurzer Hand ein "X" genommen. Passt auch hervoragend ins Schema, denn "X" steht bekanntlich für römisch 10.
Xxxx steht also für die 10. Generation. Dann gings weiter mit X1xxx für die 11.
Mit Einführung von DX10 wurde "X" gegen HD getauscht. Aber die Nummern wurden weitergeführt. Auf X1xxx folgte HD2xxx usw.
Und dieses Schema zieht sich bis heute hin, auch bei den HD6xxxer Karten.

Die zweite Ziffer steht für die Leistungsklasse innerhalb der Generation. So sieht man seit Anbeginn der ersten ATI Karten um so höher die zweite Ziffer, desto höher die Leistung innerhalb der Generation.

Die dritte Ziffer steht für die Unterscheidung innerhalb der Leistungsklasse der genannten Generation. Wieder um so höher, desto schneller.

Und als viertes wird idR eine "0" angefügt. Sei mal dahingestellt warum.

Nachdem man die Präfixe wegfallen lassen hat aufgrund der Tatsache, das der unwissende Endkunde nicht weis ob nun Pro, XT, XTX oder was auch immer besser ist unterscheidet man die Karten innerhalb einer Leistungsklasse der Generation nun mit der dritte Ziffer.


Das Namensschema geht voll und ganz auf, es gab in den letzten 10 Jahren keine nennenswerten massiven Schnitzer in diesem Schema. Man wird daran auch nix ändern.
Aber was man auf jedenfall beachten sollte. Karten unterschiedlicher Generationen (sprich erste Ziffer unterschiedlich) lassen sich so nicht pauschal miteinander vergleichen.

Mal ganz davon ab verstehe ich die Aufregung nicht. Mit den X19xxer sowie HD2900er Karten hatte man auch schonmal Single GPU HighEnd Karten mit zweite Stelle 9. Neu ist das defintiv nicht...
 
Zuletzt bearbeitet:
sonst gabs doch auch bei fast jedem generationswechsel ne kleinere fertigung....

auf ein ,,update" wies bei der gtx 200er reihe der fall war hab ich keen bock..wenn dann klee richtig

fast jedem genau - diesmal halt nicht und das ist kein Update, sondern 5D Shader wurden ersetzt durch 4D Shader usw, eine andere Architektur ist das.
 
ich weiss das dies kein update ist... ich meinte ein update auf ne kleinere fertigung falls du das nicht verstanden hast :-)
 
ich weiss das dies kein update ist... ich meinte ein update auf ne kleinere fertigung falls du das nicht verstanden hast :-)

Das wird es so nicht geben... Gerüchten zufolge ist dann das Nachfolgeprodukt wieder eine Verbesserung der mit der HD6000 gezeigten Architektur. Also ähnlich HD3xxx zu HD4xxx oder HD4xxx zu HD5xxx. Und da man aktuell nicht auf 32nm gehen kann wird mit 40nm weiter gearbeitet. Die nächste Generation kommt dann in 28nm.
 
ja, aber worauf willst du verkleinern? Es wird schätzungsweise minimum ein 3/4 Jahr lang keine für den Massenmarkt taugliche 28nm geben, 32nm wurde über Board geworfen.
Außerdem wissen wir ja nicht wie es sich mit Verbrauch, Wärme, Lautstärke mit der HD6K Serie verhält. 40nm hin oder her, es muss nicht zwangsläufig schlechter werden, das muss sich erst noch zeigen.
 
RV670 und RV790 hatten auch beide 55nm... Allerdings gab es oft auch innerhalb einer Serie Updates auf kleinere Fertigung, hätten diese Karten dann auch als neue Serie rausgebracht werden sollen?
 
Allerdings gab es oft auch innerhalb einer Serie Updates auf kleinere Fertigung, hätten diese Karten dann auch als neue Serie rausgebracht werden sollen?


wär mir wie gesagt lieber wenn se alles auf einmal komplett machen weil ich dann erstmal ruhe hätte .... ist halt marktstrategie so werden se mehr los
 
Zuletzt bearbeitet:
RV670 und RV790 hatten auch beide 55nm... Allerdings gab es oft auch innerhalb einer Serie Updates auf kleinere Fertigung, hätten diese Karten dann auch als neue Serie rausgebracht werden sollen?

Warum sollten sie?
Eine neue Generation kommt immer nur dann, wenn eben die Karten auch wirklich als neue Generation verkauft werden könnne, zumindest bei AMD. NV labelt auch gerne mal "alte" GPUs auf neu um...

Wenn du mit dem Argument zum Beispiel die HD4770 meinst, dort ändert der kleinere Herstellungsprozess nix daran, das es immernoch im Kern eine RV7xx GPU ist. Mit allen Vor- und Nachteilen.
 
ja nur wegen einer anderen fertigung nen neuen namen lohnt nicht...kommt halt ein + hinten drann ...das wars :-)
 
Ich hatte nicht gemeint dass es so gemacht werden soll, das war eine Frage an HOT6BOY wegen seiner Aussage, eine neue Serie sollte auch eine kleinere Fertigung haben.
Mir ist sowas eigentlich ziemlich egal.
 
Wer sagt denn das der Stromverbrauch steigt oder durch 28nm sinkt? 28nm muss nicht zwangsläufig stromsparend bedeuten.
 
Wer sagt denn das der Stromverbrauch steigt oder durch 28nm sinkt? 28nm muss nicht zwangsläufig stromsparend bedeuten.

Absolute Stromverbrauchswerte interessieren auch wenig ;)
Effizienz ist wichtig. Und mit dem Wechsel auf 28nm wird die Effizienz sicher ein gutes Stück zulegen können im Gegensatz zu zwei Generationen welche beide in 40nm kommen.
 
Oh man ich kanns kaum erwarten Benches von den Karten zu sehen, damit dieses ewige Gejaule und Spekuliere hier endlich mal ein Ende hat.
 
Absolute Stromverbrauchswerte interessieren auch wenig ;)
Effizienz ist wichtig. [...]
Dies muss aber in einem gesunden Maße sein! Es mag ja dann ganz schön sein sonstwas für eine Leistung zu haben, die xxx Watt tun dann trotzdem weh.

Es muss eine goldene Mitte zwischen Leistung, Verbrauch und Effizienz gefunden werden, alles andere wäre blödsinnig.
 
ja haben sie, hab auch nichts gegenteiliges gesagt. Bloß es ist eben was "neues" was AMD da in der Hand hat bei 40nm, Umstellung von 5 auf 4D Shader muss noch ein wenig mehr optimiert werden.

Wir werden es ja dann sehen.
 
Dies muss aber in einem gesunden Maße sein! Es mag ja dann ganz schön sein sonstwas für eine Leistung zu haben, die xxx Watt tun dann trotzdem weh.

Das ist Persönliches Empfinden...
Der jenige der unbedingt absolutes HighEnd haben will, wird auch mit 500W Leistungsaufnahme leben können, sofern die Effizienz eben gut ist.
Wenn das Teil dann natürlich 500W brauch aber im Gegensatz zur 300W Konkurenz nur 10% zulegen würde macht das keinen Sinn. Aber dann wäre es auch keine Effizienzsteigerung ;)


Das viel größere Problem ist, das eben bei deutlich größer 300W die Kühlung im Moment zum Problemfaktor wird. Rein vom Verbrauch her dürfte das wohl nur recht wenige HighEnd Käufer stören. Schon gleich noch weniger, wenn der idle Verbrauch massiv niedrig ist.

ja haben sie, hab auch nichts gegenteiliges gesagt. Bloß es ist eben was "neues" was AMD da in der Hand hat bei 40nm, Umstellung von 5 auf 4D Shader muss noch ein wenig mehr optimiert werden.

Mit 4D Einheiten waren die Karten vor den R600ern schon ausgestattet, Erfahrung hat man da in einem größen Teil schon... Mal ganz davon ab hat man ja gesehen, wie schwer sich teilweise die 5D R600 Karten trotz höherem Takt und mehr ALUs gegen die X1950XTX getan hat ;)

Mit 4D Einheiten geht es sicher noch ein gutes Stück Bergauf.
 
Mit 4D Einheiten waren die Karten vor den R600ern schon ausgestattet, Erfahrung hat man da in einem größen Teil schon... Mal ganz davon ab hat man ja gesehen, wie schwer sich teilweise die 5D R600 Karten trotz höherem Takt und mehr ALUs gegen die X1950XTX getan hat ;)
Wenn ich mich recht entsinne, war ein R600 über den Daumen etwa 1,7 mal so schnell, ein RV670 dann schon bis zu 2,3 mal je nach Modell.
 
dann stimmt was mit deinen Erinnerungen nicht ;)
Selbst die ca. 25%-30% schnellere G80 GTX (zur 2900XT gesehen) war gerade mal um die 60-70% über einer X1950XTX. Für die R600er Karte blieben da oft nur 50% wenn überhaupt mehr Leistung übrig... In einigen Games sogar deutlich weniger... Beispielsweise Gothic 3.

Der Releaseartikel der R600 Karten auf CB bescheinigt der 2900XT gerade mal 15% in 1600x1200 und 4xAA/16xAF zur X1950XTX...
Leistungsmäßig konnte die Karte aber mit neueren Treibern erfahrungsgemäß sicher keine 55% zulegen ;)


Aber sei es drum. Mit den 4D Einheiten wird AMD einen guten Weg einschlagen. Und das kann uns Endkunden wohl nur recht sein ;)
 
hoffentlich tun se in der 6000er serie nochmals de bildqualie zb. af verbessern .. wie es schon bei der 5000er der fall war.... ...denn dies und weniger verbrauch wäre für mich der einzige grund zu wechseln...
 
Kann ma jemand nen Screen posten auf dem man sieht inwieweit sich der AF von nvidia unterscheidet ? Würde mich mal interessieren da ich eigentlich lange keine nvidia drin hatte und viele den AF von AMD Karten bemängeln.

Ist zwar OT, aber ich kann den Beitrag danach ja löschen :d
 
Ich denke Wunder sollte man in Sachen BQ Verbesserung keine erwarten...

@Christoph0815
schau mal bei CB vorbei. Ich meine mich dran zu erinnern, das die dort im Release Artikel der HD5xxxer Karten bzw. kurze Zeit später was im Angebot hatten.
Aber auf Screens lässt sich sowas immer schwer vergleichen. In Bewegung sprich auf Videos sieht man das besser. Viel Unterschied ist da in meinen Augen nicht.
Das AMD AF neigt etwas mehr zum Texturflimmern. Wenn ein Spiel aber aufgrund von der Umsetzung stark flimmert, dann tuts das auch bei NV. Beispielsweise Gothic 3.
Halbwegs wegbekommen tut man das beispielsweise mit SGSSAA... Mit allen Vor- und Nachteilen ;)
 
Zuletzt bearbeitet:
Kann ma jemand nen Screen posten auf dem man sieht inwieweit sich der AF von nvidia unterscheidet ? Würde mich mal interessieren da ich eigentlich lange keine nvidia drin hatte und viele den AF von AMD Karten bemängeln.

Ist zwar OT, aber ich kann den Beitrag danach ja löschen :d
da brauchst du videos oder nahaufnahmen als gif, um das rauschen zu sehen.
 
bei der hd 5000er war de af qualie erst anehmbar als ich catalyst ai aktiviert hatte...hab ich leider erst sehr spät rausgefunden... 16fach af reichte mir alleine nicht

bin da auch sehr penibel... schliesslich sieht man das aufm 46 zoll sony schon etwas eher :-)

man brauch nur mal auf de strecke in dirt 2 schauen ..ob de steine hervorstechen oder matschig sind...
 
Zuletzt bearbeitet:
Wenn du A.I. aktivierst, dann schaltest du Filteroptimierungen hinzu, was bekanntlich bei AMD Karten die BQ minimal (manchmal auch mehr als minimal) senkt ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh