Offiziell: AMD Radeon-HD-6900-Serie erst Mitte Dezember (Update)

Wie oben schon erwähnt: We believe sagt so ziemlich alles! ;-)
Das ganze würde ich eher als Katz und Maus Spiel betrachten! Bischen hier und da falsche Infos verbreiten, mit evtl einwenig wahrheit drin und schon hast gratis Werbung und trotzdem weiss niemand wirklich was geht! *g*
Das ist doch ideal, da gehen ein paar von 30-50% aus und dann sind es plötzlich 40-60 und schon steht man besser da als erwartet! :-)

Ja aber sowas würde ich nicht sagen! dann lieber sagen das teil wird schneller als die NV und gut weil so sagen die kunden dann naja wenn die highend von der konkurenz schneller ist brauche ich auch nicht zu warten und kaufe gleich die NV!

Es sei denn es würde ein preis bekannt der dann auf einmal lautet 300€ dafür 20% langsamer!
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Zeig mal her die Zahlen. NV hat ja gute Ergebnisse vorgelegt aber von AMD habe ich noch keine gefunden.



In dem Forum wo das ursprünglich herkam hab ich gelesen.. und da standen auch solche Sachen wie: die HD6970 soll 10-15% Mehrleistung gegenüber der 580er haben. Ich traue solchen extremen Aussagen nicht.

guck mal hier: http://www.techpowerup.com/reviews/ATI/Radeon_HD_6870_CrossFire/3.htmlhttp://www.techpowerup.com/reviews/ATI/Radeon_HD_6870_CrossFire/3.html
 

Das ist eine HD6870 im crossfire!!!
P.s. dein link ging nicht!!

Meiner schon ASUS Radeon HD 6870 CrossFire Review - Page 3/25 | techPowerUp

EDIT: Ich habe mal bei CB durchgeschaut wie viel langsamer die HD6870 vs GTX580 ist und von daher wäre es ja so das 30-50% sogar doch so gut ist das man damit mit der GTX580 sehr gut mithalten kann oder gar besser wäre!
Das würde dann auch passen das man knapp hinter der HD5970 liegt aber nur 10-15% bei 50% mehr power im vergleich zur HD6870
 
Zuletzt bearbeitet:
jaja abwarten und tee trinken das Theater hier bringt genau 0

wenn sie schneller ist = schön
wenn sie langsamer ist = schön dann wird sie aber auch keine 450 flocken kosten
so oder so ist wayne was passiert
 
Zuletzt bearbeitet:
Schön, das PCGH aus einem "Wir glauben" ein Faktum schaffen will. Reißerisch und nichts dahinter der Artikel. Erinnert mich an eine gewisse Überschrift von Computerbase...
 
Ich frage mich manchmal, was hier einige so rechnen.

HD 6870 -> HD 5870 (+10%)
HD 5870 -> GTX 480 (+10-15%)
GTX 480 -> GTX 580 (+15%)

Wenn man das alles mal zusammenzählt, kommt man auf 40-45% zwischen HD 6870 und GTX 580. 50% mehr für die HD 6970 würden also locker reichen, um die GTX 480 zu überflügeln und mit der GTX 580 mindestens gleichzuziehen. Wenn Chipgrösse und Leistungsaufnahme passt, wäre das ein super Ergebnis für Cayman und würde den technologischen Vorsprung weiter ausbauen. Der GF110 bringt zwar 15% mehr Performance als GF100, das war es dann aber auch schon. Er ist immer noch extrem gross und extrem stromhungrig. Und nicht zu vergessen, Q1 2011 soll ja auch noch Antilles kommen.
 
Nvidia hat aber bessere AF Qualität, bietet PhysX usw. ;)
Für den Kunden ist die Fläche egal, Leistung & Qualität ist wichtig.
Nvidia hat trotz hoher Herstellungskosten 80 Millionen Gewinn gemacht :wink:
 
Nvidia hat aber bessere AF Qualität, bietet PhysX usw. ;)
Für den Kunden ist die Fläche egal, Leistung & Qualität ist wichtig.
Wenn die Herstellungskosten dadurch sinken und die Preise besser sind, ist das für Kunden alles andere als egal. Genauso wenn dadurch die Leistungsaufnahme geringer ist. Das ist objektiv bewertbar. PhysX und die nicht wahrnehmbaren AF Unterschiede sind dagegen in der Tat völlig belanglos für den Massenmarkt und gerade letzteres äusserst subjektiv. Man sollte auch nicht vergessen, dass AMDs Gesamtpaket einfach mehr Qualität bietet (besserer Multimonitorsupport, besserer HD Support, mehr GPGPU Performance, usw). Reine FPS Zahlen sind nicht alles. ;)
 
Ich frage mich manchmal, was hier einige so rechnen.

HD 6870 -> HD 5870 (+10%)
HD 5870 -> GTX 480 (+10-15%)
GTX 480 -> GTX 580 (+15%)

Wenn man das alles mal zusammenzählt, kommt man auf 40-45% zwischen HD 6870 und GTX 580.

Dem kann ich nur zustimmen, denn die Prozente darf man in diesem Fall nicht addieren, man muss sie multiplizieren (auch wenn der Fehler hier noch nicht besonders groß ist). :fresse:


EDIT: Ich habe mal bei CB durchgeschaut wie viel langsamer die HD6870 vs GTX580 ist und von daher wäre es ja so das 30-50% sogar doch so gut ist das man damit mit der GTX580 sehr gut mithalten kann oder gar besser wäre!

Laut CB ist die GTX580 38 bis 61% schneller als die HD6870. Bei 30 bis 50% würde die GTX580 also im Schnitt noch 6,8% davor liegen.
 
Zuletzt bearbeitet:
Bin mal gespannt ob die min FPS bei der HD6970 genauso besser sind wie bei GTX460 vs. HD6850 weil dann kann die GTX580 schneller sein wenn die min fps aber schlechter sind ist das teil schrott vs. HD6970
 
Damit sollte die Sache klar sein! Wem die Worte fehlen greift zum Schwert.

:btt:

Quelle: Test: Nvidia GeForce GTX 580 (Seite 20) - 09.11.2010 - ComputerBase
Prozentuale Mehrleistung der GTX 580 im Vergleich zur Radeon HD 6870
1680x1050 0xAA/00xAF = 40%
1680x1050 4xAA/16xAF = 49%
1680x1050 8xAA/16xAF = 42%

1920x1200 0xAA/00xAF = 40%
1920x1200 4xAA/16xAF = 45%
1920x1200 8xAA/16xAF = 39%

2560x1600 0xAA/00xAF = 38%
2560x1600 4xAA/16xAF = 61%

Ich selber bin an der Leistung bei 1920x1200 8xAA/16xAF interessiert und sollte die 6970 tatsächlich 30% bis 50% schneller sein, sieht es doch ganz gut aus.

die unterste (1680x1050 0xaa,0xaf) auflösung kann man streichen,wer kauft sich so ne gpu für diese settings.die oberste kann was damit zu tun haben,das hier einfach 1024mb zu wenig sind bei der 6870!
 
Wenn die Herstellungskosten dadurch sinken und die Preise besser sind, ist das für Kunden alles andere als egal. Genauso wenn dadurch die Leistungsaufnahme geringer ist. Das ist objektiv bewertbar. PhysX und die nicht wahrnehmbaren AF Unterschiede sind dagegen in der Tat völlig belanglos für den Massenmarkt und gerade letzteres äusserst subjektiv. Man sollte auch nicht vergessen, dass AMDs Gesamtpaket einfach mehr Qualität bietet (besserer Multimonitorsupport, besserer HD Support, mehr GPGPU Performance, usw). Reine FPS Zahlen sind nicht alles. ;)


Nvidia zieht so oder so den kürzeren. AMD kann doch doppelt so viele GPUs auf dem Waffer packen, heißt Nvidia braucht doppelt so viele Waffer wie AMD um die gleiche Menge GPUs liefern zu können.
Dann die GTX 580 ist High End, das ist reine Prestige Sache. Da kann man höchsten sagen wir haben die schnellste Single GPU, mehr aber auch nicht.
Der für Nvidia wichtige Markt wird von der GTX 560 und 570 abgedeckt werden und da sahnt AMD kräftig ab.
Bis Nvidia die GTX 560 bringt, hat AMD die ganze 6000 Familie am Markt und in ausreichenden Stückzahlen und verdient fleißig daran.

Deshalb finde ich es Witzig das die CB und PCGH News bringen in denen steht AMD hat angst vor der GTX 580 und dreht am Takt der 6950/6970 :stupid:
Die GTX 580 ist doch AMD egal, die 6970 wird im schlimmsten Fall 10% langsamer werden, wird aber weniger brauchen und billiger sein.
Schon muss Nvidia die Preise anpassen und macht weiter Minus.
 
Dem kann ich nur zustimmen, denn die Prozente darf man in diesem Fall nicht addieren, man muss sie multiplizieren (auch wenn der Fehler hier noch nicht besonders groß ist). :fresse:
Welcher Fehler? Dir ist schon bewusst, dass ich natürlich multipliziert habe und nicht addiert? :rolleyes:

Laut CB ist die GTX580 38 bis 61% schneller als die HD6870. Bei 30 bis 50% würde die GTX580 also im Schnitt noch 6,8% davor liegen.
Womöglich beziehen sich die 30% eher auf die HD 6950 und die 50% auf die HD 6970. Und die 61% bzw 66% unter 2560x1600 mit AA/AF kannst du streichen. Da dürfte Barts dann einfach bezüglich Bandbreite an seine Grenzen stossen. Das wird bei Cayman weniger der Fall sein. Ansonsten zeigt CB auch jenen Unterschied, den ich bereits aufführte, 40-45%.
 
Bis Nvidia die GTX 560 bringt, hat AMD die ganze 6000 Familie am Markt und in ausreichenden Stückzahlen und verdient fleißig daran.

Deshalb finde ich es Witzig das die CB und PCGH News bringen in denen steht AMD hat angst vor der GTX 580 und dreht am Takt der 6950/6970 :stupid:
Die GTX 580 ist doch AMD egal, die 6970 wird im schlimmsten Fall 10% langsamer werden, wird aber weniger brauchen und billiger sein.
Schon muss Nvidia die Preise anpassen und macht weiter Minus.

Nvidia hat aber im Q3 80 Millionen Gewinn gemacht, trotz höherer Herstellungskosten :)
im Q4 wird ähnliches erwartet, also gute aussichten bei Nvidia :wink:
 
Zuletzt bearbeitet:
es geht noch immer um die HD6900 und wenn du dir anguckst wodurch der Gewinn zustande kommt dann weißt du woher der Wind weht.
 
mr.dude schrieb:
Man sollte auch nicht vergessen, dass AMDs Gesamtpaket einfach mehr Qualität bietet (besserer Multimonitorsupport, besserer HD Support, mehr GPGPU Performance, usw).
Für Spieler bietet NV mehr (Bild-)Qualität. Und das interessiert mehr Leute als Multimon, wage ich zu behaupten. Und was bringt APP, wenn es CUDA hinterhinkt und OpenCL nicht in die Puschen kommt?
 
Für Spieler bietet NV mehr (Bild-)Qualität. Und das interessiert mehr Leute als Multimon, wage ich zu behaupten. Und was bringt APP, wenn es CUDA hinterhinkt und OpenCL nicht in die Puschen kommt?

Und das stellst du einfach mal so in den Raum, ja?
 
Deswegen kennzeichne ich es als Behauptung. Und ja, Bildqualität bzw. Grafik ist den allermeisten Spielern sicher wichtiger als drei Monitore.
 
die masse ist in keinem forum,die masse steht vor der schachtel und da steht nirgends was von besserer bildquali bei nv,also kennt das somit die masse auch nicht.aber physx und z.b. 3 monitore steht auf der schachtel/verpackung!

hört jetzt endlich mit euren verdammten bidlqualitäts geflame auf,wir haben es kapiert,nv liefert die mit abstand bessere qualität,bei ati erkennt man nix,weil man nur flimmern hat usw...dennoch kann ich mit meiner ati gut leben!:stupid:

schon interessant,wie pcgh...marc sowas schreibt,da fange ich als objektiver gleich an zu denken,ob dann so ein mod bei pcgh noch neutral sein kann!wobei jedes magazin sagt,das die 6800er serie auf high ein gleiches bild abliefert wie die 5800er serie + besseres banding und somit afaik gleich gut wie nv bei standard ist.das ati hier getrickst hat,ist wirklich dumm,würden die aber sowas als standard wert nehmen,gar kein besseres bild anbieten,wäre das so egal,weil eh die masse nicht im treibermenü sachen verstellt,die masse kauft auch keine gtx480/580 oder ati 6970 oder sowas...die masse kennt sich mit sowas null aus!
 
Zuletzt bearbeitet:
Bloß das 97% der Leute die ach so viel bessere BQ nicht sehen - und häufig auch erst wenn es dann in Videos gezeigt wird und nicht im Spiel selbst. Es gibt natürlich Leute, welche nicht spielen, sondern sich nur Timedemos noch und nöcher angucken. Aber die sind wohl noch weiter unten was die Wichtigkeit angeht, da sind selbst Triple Monitor User wohl noch größer.

Zudem kommt es häufig auf die Engine an, wo dann zT bei nvidia eben ein recht starker weißer Rand drum herum ist bei Verwendung von SSGAA usw. Würde ich jetzt nicht unbedingt ein tolles Bild nennen. Juhu, Kanten weg, weißer Rand da.
Sowohl AMD als auch nvidia haben BQ Schwächen.
 
Zudem kommt es häufig auf die Engine an, wo dann zT bei nvidia eben ein recht starker weißer Rand drum herum ist bei Verwendung von SSGAA usw. Würde ich jetzt nicht unbedingt ein tolles Bild nennen. Juhu, Kanten weg, weißer Rand da.
Sowohl AMD als auch nvidia haben BQ Schwächen.
löl, den weißen rand in einem spiel, in dem nur nvidia supersampling darstellen kann, vergisst du nicht mehr. ;)

Nvidia hat aber im Q3 80 Millionen Gewinn gemacht, trotz höherer Herstellungskosten :)
im Q4 wird ähnliches erwartet, also gute aussichten bei Nvidia :wink:
hast du das auch endlich mal begriffen ;)
 
Zuletzt bearbeitet:
Was nützt mir Supersampling wenn es mit der Engine, welche in mehreren Spielen zum Einsatz kommt, "nicht klar kommt"? Was nützt mir ein Feature das die BQ steigern soll, aber es dann weiße Rahmen bildet? Kann ich dann auch gleich weglassen.
 
Zuletzt bearbeitet:
Du pauschalisierst :rolleyes: SSGSSAA macht idR keinen "weiße Rahmen".
 
Lies den Post #173 noch einmal, der klingt anders.
 
Es bezieht sich auf bawdes Aussage, es sei ein Spiel. Es ist aber nicht ein Spiel, sondern eine Engine <- "der" Engine, welche in mehreren Spielen zum Einsatz kommt.
 
Ich finde diese aufkommende Diskussion recht unsinnig. Bevor man die Vor -und Nachteile der Grafikkarten aufzeigt, sollte man zuvor klar und deutlich seinen Standpunkt, seine Perspektive festsetzen, denn ohne dies, wird es zu einer verwirrenden Pauschalschlacht. Die Leute, die sich besonders zu einer Firma hingezogen fühlen, wechseln dann oft den Ausgangspunkt und am Ende hat man einen einen Salat von Argumenten, bei dem ein Amateur (so wie ich ;)) nur noch schwer den Zusammenhang finden kann.

Warum diese Diskussion zur Gewinnspanne von Nvidia und AMD immer wieder versucht auszubrechen, ist mir ebenfalls ein Rätsel. Es ist mit sicherheit für manche ein interessantes Thema, aber den meisten ist es vermutlich vollkommen egal, wie gross der Chip ist, wieviele auf eine Waffel :fresse: passen usw... :wayne: Das ist jetzt nicht böse gemeint, wenn Ihr das ausdiskutieren möchtet, könnt ihr dazu ja einen Thread erstellen und euch da richtig zu dem Thema austoben.

Ah... jetzt kommt die fünfhundertste Diskussion zum AF und SGSSAA. Ebenfalls ein sehr interessantes Thema, aber da zu den Features der 69xx so gut wie nix bekannt ist, gehört diese Diskussion meiner Meinung nach "noch" nicht hier her. :btt:

So, hier mal was zur 6970:
Radeon HD 6970: Cayman XT mit nur 1.536 ALUs? - Update: ALUs bestätigt, 890/2.750 MHz, so schnell wie GTX 480? - radeon
Sieht so aus, als wäre nur der erste Satz neu, der rest ist vom 13.11.2010. :hmm:
 
Sieht so aus als müßte ich mich dann doch um eine 580 kümmern. Schade eigentlich, die 2GB VRAM fand ich schon sehr ansprechend.
 
Oh man das wird ja was...
1536 wäre ja echt nicht so der hit!!!
Warum bringen die nicht einfach mal eine single gpu mit ordentlich power!!!
Naja mal sehen was das teil dann kostet!
250€ wäre ok aber mehr nicht!
Da behalte ich dann meine HD5970@1Ghz weil die macht dann erheblich mehr druck!
Die HD6990 dualgpu karte wird dann wohl auch nur wenig schneller als die HD5970!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh