Offiziell: AMD Radeon-HD-6900-Serie erst Mitte Dezember (Update)

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also wenn man jetzt von 1536 Shadern ausgeht plus etwas mehr Takt sollte sie wohl nicht viel mehr Watt aufnehmen als die 5870. Und wenn man davon ausgeht, das mit jeder neuen Generation eher an der Effizienz gefeilt wird, rechne ich sogar mit etwas weniger Verbrauch.

Wenn Sie dabei nicht ganz die 580GTX knackt und eher zwischen 480/570 und 580 liegt, dabei vermutlich aber um einiges günstiger, ich schmeiß jetzt mal einen UVP von 349$ in den Raum, dann wird das für mich eine Hammer Karte, auch wenn sie nicht die Leistungskrone erhält.

Das sind natürlich reine Spekulatius von mir.

Edit: Wenn wir dann den gleichen Abstand 6870 zu 6850 auf die 69XX ummünzen, wird die 6950 bestimmt eine sehr interessante Karte, bei einem anständigen Preis <300€. Ich bin zB. nicht bereit wie einige andere mehr als 300€ für eine Karte hinzublättern.
 
Zuletzt bearbeitet:
Welcher Fehler? Dir ist schon bewusst, dass ich natürlich multipliziert habe und nicht addiert? :rolleyes:

Ok, hast recht, aber dann schreib nächstes mal auch multipliziert, dann gibts es keine Missverständnisse.


Womöglich beziehen sich die 30% eher auf die HD 6950 und die 50% auf die HD 6970.

Das ist unwahrscheinlich, denn es wurde die 6800er mit der 6900er Reihe verglichen und daher ist es wahrscheinlicher, dass man die 6850 mit der 6950 und die 6870 mit der 6970 verglichen hat. Ansonsten kann ich auch Advokatus Diaboli spielen und sagen die 50% sind 6850 gegen 6970. :fresse:


Und die 61% bzw 66% unter 2560x1600 mit AA/AF kannst du streichen. Da dürfte Barts dann einfach bezüglich Bandbreite an seine Grenzen stossen. Das wird bei Cayman weniger der Fall sein. Ansonsten zeigt CB auch jenen Unterschied, den ich bereits aufführte, 40-45%.

Was du sagst ist zwar richtig, nur du ziehst die falschen Schlüsse. Denn wie kommst du darauf das Amd die 2560x1600 Auflösung bei ihren internen Vergleichen unter den Tisch fallen lässt? Wenn diese Auflösung die neuen Karten gut aussehen lässt, so ist es sogar eher warscheinlich, dass sie mit in die spekulierten 30 bis 50% eingeflossen ist.
 
Mit 384 Vec4 ALUs und 890MHz wäre man mit dem Cayman XT wohl im Bereich 50-60%+ zum Bart XT.
Ca. 15-20% weniger dann für die Cayman GPU.

Das ist sicher weniger als Anfangs spekuliert und von Einigen erwartet, aber dennoch rückblickend recht schlüssig. Bedenkt man das die Lücke zwischen HD5770 und HD5850 recht groß war und AMD eine HD5830 zum Lückenfüller gemacht hat könnte man jetzt diese Lücke von Anfang an vermeiden.

Das man damit nicht weit vor einer 580GTX liegt, ist auch nicht sonderlich schlimm, der Dual GPU Nachfolger wird diesen Part spielend hinbekommen...

Was mich noch bisschen Kopfschmerzen bereitet sind die nach wie vor "nur" spekulierten 32ROPs... welche ja in der Anzahl auch beim Barts XT zu finden sind.
Ebenso ist noch unklar, wie sich das Ändern der SFU auf die Gamingperformance ausübt. Im schnitt dürfte zwar eine Effizienzsteigerung durch höhere ALU Auslastung resultieren, dennoch ist es nicht ganz klar was das am Ende genau heist ;)
 
Zuletzt bearbeitet:
Für Spieler bietet NV mehr (Bild-)Qualität.
Das ist deine persönliche Meinung und rein subjektiv. Das solltest du endlich mal begreifen. Daher ist es irrelevant. Ich persönlich empfinde das Bild der Radeon etwas besser (bessere Farben, mehr Schärfe). Aber das ist genauso subjektiv und in der Praxis für den Massenmarkt genauso irrelevant, da die Unterschiede im kaum wahrnehmbaren Bereich liegen. Die von mir aufgeführten Punkte sind hingegen objektiv bewertbar. Und da hat AMD einfach mehr zu bieten. Das sollte man auch als eingefleischter nVidia Verfechter wie du endlich mal einsehen und akzeptieren. ;)


Das ist unwahrscheinlich
Nein, unwahrscheinlich ganz gewiss nicht. Es lässt aber weiter Spielraum für Spekulationen. 30% mehr für Cayman XT im Vergleich zu Barts XT erscheint mir jedenfalls etwas zu wenig. Mindestens 40-50% halte ich für plausibler. Man wird einfach sehen müssen, worauf AMD den Fokus gelegt hat. Entweder geringe TDP und geringe Chipkosten -> Performancezuwachs hält sich in Grenzen. Oder deutlich mehr Performance -> TDP und Chipkosten steigen im Vergleich zu Cypress sichtbar.

Was du sagst ist zwar richtig, nur du ziehst die falschen Schlüsse. Denn wie kommst du darauf das Amd die 2560x1600 Auflösung bei ihren internen Vergleichen unter den Tisch fallen lässt? Wenn diese Auflösung die neuen Karten gut aussehen lässt, so ist es sogar eher warscheinlich, dass sie mit in die spekulierten 30 bis 50% eingeflossen ist.
Nein, du ziehst die falschen Schlüsse. AMD gibt vor dem Launch keine internen Performanceprognosen nach aussen. Die 30-50% stammen aus irgendwelchen Gerüchteküchen.
 
mr.dude schrieb:
Das ist deine persönliche Meinung und rein subjektiv.
Ein technisch besseres AF (in Bezug auf Samples und Line of Anistropy) sowie SGSSAA unter DX10/11 sind nicht "rein subjektiv", sondern klare Fakten. Die Tents gibt's offiziell nicht mehr, nur ED - das aber rockt. MLAA dagegen ist subjektiv, da Matsch. Und von wegen bessere Farben in Spielen bei AMD? Die sind identisch ...
 
Mit 384 Vec4 ALUs und 890MHz wäre man mit dem Cayman XT wohl im Bereich 50-60%+ zum Bart XT.

Man könnte aber auch einfach den Vergleich zur HD5870 suchen, wenn ich hier die Vec5 aufgrund schlechterer Auslastung einfach mal als Vec4 rechne habe ich 384/320*890/850=1,256. Somit hat die HD6970 nicht mal 26% mehr ALU Power, wahrscheinlich ist der Abstand sogar noch geringer, da die Vec5 Units halt ab und zu doch 5 Operationen durchführen. Leistungsmäßig läge die HD6970 dann gerade mal in der Mitte zwischen GTX480 und 580.

@mr.dude: Natürlich sind die 30 bis 50% ein Gerücht ... aber erst mit mir darüber diskutieren ob es nun 30 oder 50% sind und dann sagen es ist eh nur ein Gerücht, wenn dir die Argumente ausgehen ... :rolleyes:
 
Man könnte aber auch einfach den Vergleich zur HD5870 suchen, wenn ich hier die Vec5 aufgrund schlechterer Auslastung einfach mal als Vec4 rechne habe ich 384/320*890/850=1,256. Somit hat die HD6970 nicht mal 26% mehr ALU Power, wahrscheinlich ist der Abstand sogar noch geringer, da die Vec5 Units halt ab und zu doch 5 Operationen durchführen. Leistungsmäßig läge die HD6970 dann gerade mal in der Mitte zwischen GTX480 und 580.

Können kann man viel... Die Frage ist nur, was ist realistisch(er)

Man brauch sich doch nurmal anschauen, wie AMD die Performance bei vermeitlich geringerer Rohleistung gesteigert hat... zwischen HD58x0 und HD68x0.
Ich denke niemand hätte vorher gedacht, das eine nur unwesentlich höher getaktete HD6870 so nahe an eine HD5870 ran kommt, obwohl man die Anzahl der ALUs um fast 1/4tel kastriert hat.

Wie gesagt, rein logisch gesehen ist es äußerst unwarscheinlich, das man seitens AMD einen Rückschritt in Sachen Effizienz macht. Und wenn ja, dann wird dieser sicher nicht so drastisch ausfallen, das man ein Produkt auf den Markt schmeißt, was sich gerade mal um ~30% vom direkten Vorgänger absetzen kann. Und wo in diesen ~30% mindestens zwei GPUs untergebracht werden müssen.

Das macht in meinen Augen keinen Sinn... Aber warten wir es ab...
Aktueller Entwicklungsstand ist in jedemfall erstmal die RV940 GPU. Sprich daran wird gemessen was machbar ist und was nicht.
 
Man brauch sich doch nurmal anschauen, wie AMD die Performance bei vermeitlich geringerer Rohleistung gesteigert hat... zwischen HD58x0 und HD68x0.
Ich denke niemand hätte vorher gedacht, das eine nur unwesentlich höher getaktete HD6870 so nahe an eine HD5870 ran kommt, obwohl man die Anzahl der ALUs um fast 1/4tel kastriert hat.

Das hat weniger mit gesteigerter Leistung zu tun, als mit der Tatsache, dass man da die HD68x0 mit Quality-Einstellung ins Rennen schickt bei der sogar die Highquality Einstellung schlechter Filtert als die HD58x0. :fresse:
Außerdem skalieren mehr Einheiten und Takt bei den Amd-Karten ja meist nicht so schön 1 zu 1 wie bei NV.
 
Das hat weniger mit gesteigerter Leistung zu tun, als mit der Tatsache, dass man da die HD68x0 mit Quality-Einstellung ins Rennen schickt bei der sogar die Highquality Einstellung schlechter Filtert als die HD58x0. :fresse:
Außerdem skalieren mehr Einheiten und Takt bei den Amd-Karten ja meist nicht so schön 1 zu 1 wie bei NV.

Dann dreht man halt den Regler bis ans max. und hat die gleichen Qualisettings... Und selbst ungeachtet dessen macht der Performanceverlust von 6% + die 6% im Schnitt die der HD6870 zur HD5870 fehlen die rund 35% Rohleistungsverlust nicht wett...
Wer hier keine Effizienzsteigerung sieht, hat was auf den Augen...
 
Ein technisch besseres AF (in Bezug auf Samples und Line of Anistropy) sowie SGSSAA unter DX10/11 sind nicht "rein subjektiv", sondern klare Fakten.
Selbst wenn dem so wäre und man es anhand einer Algorithmenanalyse nachweisen könnte, erstens ist das nur ein Teil der Bildqualität und zweitens nimmt man dies im Spiel nicht wirklich wahr. Was du momentan machen kannst sind maximal emprische Erfahrungswerte anhand von Beobachtungen. Und das sind weder klare Fakten, noch rein objektiv bewertbar.

Natürlich sind die 30 bis 50% ein Gerücht ... aber erst mit mir darüber diskutieren ob es nun 30 oder 50% sind und dann sagen es ist eh nur ein Gerücht
Dann hast du das offenbar nicht richtig verstanden. Ich wollte mit dir gar nicht darüber diskutieren. :rolleyes: Ich wollte dir lediglich eine weitere Option aufzeigen, wie man die 30-50% interpretieren kann.

Das hat weniger mit gesteigerter Leistung zu tun, als mit der Tatsache, dass man da die HD68x0 mit Quality-Einstellung ins Rennen schickt bei der sogar die Highquality Einstellung schlechter Filtert als die HD58x0.
Bitte nicht schon wieder diese unsägliche Diskussion anfangen. Barts bietet in jedem Fall die höherwertige Filterung. Also erspare uns bitte diese Märchen. Und wie fdsonne schon sagte, wir reden zwischen Q und HQ von Performanceunterschieden im einstelligen Prozentbereich. Das reicht bei weitem nicht aus, um die 35% höhere theoretische Shaderleistung von Cypress zu kompensieren. Barts arbeitet hier, bezogen auf Spiele, um einiges effizienter. Und das darf man sicherlich auch bei Cayman erwarten.

Insofern sollte man als Basis erstmal Barts heranziehen. Dieser hat 224 Stream Cores. Sollte Cayman 384 davon haben, wäre das ~71% mehr. Nehmen wir noch das Auslastungsverhältnis pro Stream Core von Gipsel (3,5/5 vs 3,2/4), dann kommst du auf ~57% mehr Shaderperformance bei gleichem Takt. Sollten die restlichen Einheiten ähnlich skalieren, sollten es auch mehr als 30% Unterschied werden.
 
Bitte nicht schon wieder diese unsägliche Diskussion anfangen. Barts bietet in jedem Fall die höherwertige Filterung. Also erspare uns bitte diese Märchen. Und wie fdsonne schon sagte, wir reden zwischen Q und HQ von Performanceunterschieden im einstelligen Prozentbereich. Das reicht bei weitem nicht aus, um die 35% höhere theoretische Shaderleistung von Cypress zu kompensieren. Barts arbeitet hier, bezogen auf Spiele, um einiges effizienter. Und das darf man sicherlich auch bei Cayman erwarten.

Insofern sollte man als Basis erstmal Barts heranziehen. Dieser hat 224 Stream Cores. Sollte Cayman 384 davon haben, wäre das ~71% mehr. Nehmen wir noch das Auslastungsverhältnis pro Stream Core von Gipsel (3,5/5 vs 3,2/4), dann kommst du auf ~57% mehr Shaderperformance bei gleichem Takt. Sollten die restlichen Einheiten ähnlich skalieren, sollten es auch mehr als 30% Unterschied werden.

Also ich haoffe du hast recht mit deiner aussage weil eigentlich sollte es ja so sein das der Cayman mit 384stream cores schon ordentlich besser gehen als der Barts wenn diese cores auch 1:1 scalieren... eigentlich müsste der cayman sogar besser scalieren wegen den 4d shadern!
Allerdings wenn man es mit nur 384 einheiten packt an einen GF110 ran zu kommen wäre das eine beachtliche leistung!
 
Ich glaube die neue AMD wird nicht an die 480 Gerforce ranreichen. Bitte schlagt mich nicht, wurde mir gesagt.
 
Selbst wenn dem so wäre und man es anhand einer Algorithmenanalyse nachweisen könnte, erstens ist das nur ein Teil der Bildqualität und zweitens nimmt man dies im Spiel nicht wirklich wahr. Was du momentan machen kannst sind maximal emprische Erfahrungswerte anhand von Beobachtungen. Und das sind weder klare Fakten, noch rein objektiv bewertbar
schon drollig dieser kommentar. die mehrheit stört das schlechtere AF von ATI, auf ComputerBase gibts abwertung dafür, in den videos sieht man deutlich den unterschied, aber mr. dude hat die rote brille auf und sieht keine fakten usw.

was sind eingentlich empirische Erfahrungswerte?! erfahrene Erfahrungswerte?
 
Zuletzt bearbeitet:
schon drollig dieser kommentar. die mehrheit stört das schlechtere AF von ATI, auf ComputerBase gibts abwertung dafür, in den videos sieht man deutlich den unterschied, aber mr. dude hat die rote brille auf und sieht keine fakten usw.

was sind eingentlich empirische Erfahrungswerte?! erfahren Erfahrungswerte?

Die Mehrheit? Meyer, du und konsorten sind die Mehrheit? Scherzkeks:rolleyes:

Kann mich noch an das grottige Bild meiner MSI 7900gt erinnern, damals habts keinen solchen Wirbel gemacht, obwohl auch die Herren von CB gesagt haben, dass das Bild im Vergleich zu ATI nix ist!
 
Zuletzt bearbeitet:
Hattest du die Karten schon mal im Rechner (während der eingeschaltet war :d )?
Ich kann dir mit jeder beliebigen Karte ein Video machen wo alles flackert, flimmert, ruckelt, verschwommen ist,.... ist alles Einstellungssache.
Wer es nicht kennt sollte auch nicht darüber urteilen. Nachplappern kann jeder ;)
 
guck mal in die anderen foren und über magazine und internetseiten braucht man gar nicht erst anfangen. ;)

In den anderen Foren sehe ich nur dich und meyer unter anderen nicks alles damit voll spamen...

Nenn mir mal ein Magazin, außer den bakannten nvda fansites (pcgh, cb)?
 
weil ich amd ja so ahsse habe ich sicher deshalb von I7 auf Phenom2 umgestellt (siehe sig), ahja genau...
mir sind eben nunma andere sachen wichtig, und sry strpmverbrauch is im bereich in dem sich die karten bewegen nunma egal, kein mensch kauft nen 911 turbo und erwartet das der den verbrauch von nem lupo hat...

ob ne karte 120 oder 180 watt verbraucht mag im midrange noch wen interessieren, aber ob die gtx 580 nun 244 watt braucht und die 5970 bisserl mehr, is doch bei den preisen echt egal, wem 30 euro mehr strom wehtun, kauft die falsche akrte weil er einfach nicht es geld hat...

Schon mal auf die Idee gekommen, dass 60 Watt pro Karte auch bedeutende Auswirkungen auf die Umwelt haben, wenn man das mal auf alle Karten weltweit hochrechnet? Was glaubst du, wo der Strom zum Großteil herkommt? Von Windrädern?

Wenn ich die Wahl zwischen zwei Karten habe, die im großen und ganzen das Gleiche leisten und eine davon verbraucht 60 Watt weniger, dann weiß ich was ich nehme, völlig unabhängig davon, ob mich die 20 Euro zusätzliche Stromkosten im Jahr interessieren, oder auch nicht.
 
Leute kapiert ihr es nicht? MACHT das unter euch aus und zwar per PM

HIER hat euer gezicke nichts zusuchen :btt:


Frage: wurde die neue 6990 wirklich verschoben auf mitte Dez. 10 ?
 
Zuletzt bearbeitet:
So und jetzt nochmal:
Es geht hier um die Verzögerung der Radeon 6900-Series und nicht um Umweltschutz oder weiß der Geier was!
 
anhand der ersten seite sollte doch alles klar sein ;)
ich für meinen Teil werde auch nimmer warten da ich zu Weihnachten einen laufenden PC brauch sonst machen die Kids palaver :d
wollte eigenlich kein CF mehr machen aber naja....

besser die Ati jungs lassen sich Zeit als das so etwas wie der Beta Thermi aufn Markt kommt ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh