AMD HD6000/7000 Southern Islands & Northern Islands Spekulation Thread

Status
Für weitere Antworten geschlossen.
Ich glaube das ist wohl eher Wunschdenken, wenn ATI dann wieder die schnellste SingleGPU hat werden die sich das Ordentlich kosten lassen, denn gekauft wird sie so oder so ob sie dann 350 oder 400-500 kosted dürfte daran auch nicht viel ändern ;)

Die UVPs von AMD sagen aber was andres aus, auch bei der 5870 Serie. Das war das mit dem Angebot und Nachfrage ;) also wenn man keinen Plan hat einfach Ruhe geben, denn schon zigmal wurde gesagt die Hersteller machen nicht die Preise, sondern die Händler..
AMD wäre es zu wünschen wenn die 6er Serie auch nicht nur ein Papierlaunch wird, wie es bisher bei beiden Herstellern immer der Fall war. Denn dann kostet die 6870 auch merklich mehr als 400€, wobei Früher haben Grafikkarten auch 1000DM gekostet und keiner hat sich beschwert.

Und Fetzenkommander, wenn du keinen gescheiten Beitrag zu liefern kannst, willst oder was weiss ich, dann lass es.

@ Topic: Wenn die 6770 genauso gut wird wie ihre Vorgängerin dann freuen wir uns alle ;) Denn mit solchen Karten macht man Umsatz :)
Wiegut das meine 4850 nochn bissl hält
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also ich kann mir das nicht so recht vorstellen mit den 384Bit+ weniger als 200Watt!!
 
Bitte was? Ich habe schon vor geraumer Zeit gesagt, dass es Gerüchte gibt, die von 4 PEs statt 5 PEs pro Stream Core sprechen. Wo habe ich denn etwas von "höherer Superskalarität" gesagt?
Wahrscheinlicher ist, dass ATI weiterhin auf Superskalarität setzt und diese noch weiter ausbaut.
Sehr sachlich, alte Spekus von vor über einem halben Jahr wieder auszugraben, um zu provozieren. Dir ist schon bewusst, dass du Moderator bist? Wieso zitierst du nicht einen gewissen Neurosphere, der behauptete, dass mit den Shadern nicht viel passieren würde, was mit 4 PEs je Stream Core und mehr Stream Cores je SIMD Engine widerlegt wäre?

Ausserdem liegst du falsch. Sollten sich die 24 Stream Cores je SIMD Engine bewahrheiten, wären das 24 VLIW Päckchen mit je 4 Operationen. Das ist mehr Superskalarität als bisher pro SIMD Engine 16 VLIW Päckchen mit je 5 Operationen.


"Scheint", noch wissen wir das nicht. Welche genauen Informationen lassen dich denn darauf schließen?
Ach, plötzlich "scheint" es nur noch? Zuvor klangst du aber mit "wurde auch widerlegt" noch ganz anders. :rolleyes: Und die Informationen wurden hier nun ausführlich diskutiert. Etwas mehr Eigeninitiative solltest du schon zeigen und dir das mal durchlesen. Ich habe keine Lust, alles x-mal zu wiederholen.


Also ich kann mir das nicht so recht vorstellen mit den 384Bit+ weniger als 200Watt!!
Da es hier lediglich um den Cayman Pro ging, kann ich mir das schon vorstellen. Die HD 5850 liegt ja auch deutlich unter 200 W. Die HD 6870 sollte dann wohl bei etwa 225 W liegen.
 
Zuletzt bearbeitet:
Hi

ich brauche bald eine neue Graka - nach vielen Benchmarks die ich mir angeschaut habe, liege ich aktuell bei einer 5850 ... die 5770 mit später option auf CF hat sich fix aufgelöst :|. Jetzt kommen aber die 6000er von Ati ... denke die 6850 wäre hier im rennen. Warten kann ich noch - noch läuft meine 4850.

Was ich hier nie so recht verstehe ... CPU ... habe einen Q6600@3ghz ... bremmst die CPU hier unnötig bei einer 5850/6850? Mit der Karte könnte ich in 1-2 Jahren noch günstig auf CF updaten. Auflösung Monitor wäre 1680x1050.
 
und dann sagen die ati fanboys, ja sch..s nvidia zieht viel zu viel strom.... jaja sowas hab ich gern.

:wall: Wie oft noch? Selbst wenn da 3 x 8Pins drauf wären, es sagt gar nichts über den Verbrauch aus. Es kann auch etwas mit der Stabilität der Stromversorgung zu tun haben, was eben bei der RoG Serie, ausgelegt auf OC, nicht verwunderlich wäre.

Selbst wenn also die HD6k Serie mehr verbraucht, dafür aber auch entsprechend mehr Leistung bringt (und vielleicht sogar die Leistung pro Watt verbessert wird) so wäre die HD6k immer noch besser positioniert.

Übrigens hoffe ich das die HD6k Serie endlich wieder eine "Singleslot" blende für die Anschlüsse einführt. Für mich als Wakünutzer wäre es zumindestens noch interessanter, weil dann kein PCIe Slot nur nur durch einen DVI Anschluss blockiert wird.
 
Zuletzt bearbeitet:
Hi

Was ich hier nie so recht verstehe ... CPU ... habe einen Q6600@3ghz ... bremmst die CPU hier unnötig bei einer 5850/6850? Mit der Karte könnte ich in 1-2 Jahren noch günstig auf CF updaten. Auflösung Monitor wäre 1680x1050.

Je höher die Auflösung und die Qualitätseinstellung je mehr kommt die Graka zum tragen. Sicher ist deine CPU schon etwas betagt und die neuen CPUs würden bei 1680x1050 mehr FPS liefern, bei einem CF würde sicher eine stärkere CPU auch mehr bringen, aber zocken kannste damit sicher immer noch. Entscheidend sind doch nicht die max-fps, wichtiger sind doch die min-fps damit du nicht unter 30fps fällst, vielleicht wird es mal knapp aber sollte doch rund laufen.

ps: das ist hier offtopic. Wenn du mehr infos brauchst mache einen entsprechenden Strang auf :)
 
Da es hier lediglich um den Cayman Pro ging, kann ich mir das schon vorstellen. Die HD 5850 liegt ja auch deutlich unter 200 W. Die HD 6870 sollte dann wohl bei etwa 225 W liegen.
ok 225 Watt für den HD6870 kann ich mir noch vorstellen! 200Watt bezog sich dann nur auf den HD5850 nachfolger das passt dann auch!
 
@ALL
Was komisch ist der Screenshot von Gpu Z der Kursiert würde absolut nicht zur HDRadeon 6870 Passen wenn es 384 Bit sind das wären 307,2GB/S Bandbreite bei 1600 Ram Takt.
Die Werte würden ehr zu einer Radeon HD 6770 der Bart Serie Passen wobei dann der Vantage Benchmark aber wiederum viel zu hoch wäre .
Es kann doch nicht sein das AMD ein kleines Wunder auf die Beine stellt dann würde ja eigentlich bei GPU Z nicht 6800 Serie drin stehen.(Wovon ich nicht abgeneigt wäre)
Entweder GPU Z liest nur Bullshit aus oder der Link von Duplex ist nicht glaub würdig.
Auf jeden fall wünsche ich mir die 384Bit wegen mehr Ram schon ab Serie.

Selbst bei dem jetzigem GDDR5 1200 MHZ Ram wären das bei 384Bit -230,4 GB/s an Bandbreite.
Wenn ich da nicht falsch gerechnet habe.
@Christoph0815
Jo danke korrigiert ,GDDR5 natürlich!:d
Auf jeden Fall können wir noch fleissig weiter spekulieren.
 
Zuletzt bearbeitet:
Auf geht´s :

Was Neues zur Abwechslung....

http://forum.beyond3d.com/showpost.p...postcount=1564


Zitat:
Some more info here: Radeony HD serii 6000 to odgrzewane kotlety? AMD mówi "nie!". :: PCLab.pl, from "a little unofficial talk with an AMD worker". You can try to google translate it, but I don't think it will work well. It's also written rather vaguely, so I complied the main points for you:

- improved Cypress architecture, all GPU blocks improved (so shaders too?)
- better performance clock for clock, less power consumption.
- The experience in the 40nm process allows for better organization of the die (and save space - that's what I personaly wondered if possible)
- Better yields allow for more complicated structures
- new UVD 3.0 decoder, with full video playback acceleration for Eyefinity, up to 6 monitors. Overall better decoder.
- no problems with samples of chips and cards, not even with the 6970.
- prototypes might be send to AMD partners in the coming weeks
- AMD wants HD6970 on the market before Xmas (obviously!)
- No worries from competetion, they believe Radeons will reign in DX11 generation
- Aggressive pricing planned, as long as enough cards can be produced. (buy one asap before prices go up! )
- First low-end, then middle, then HD6970.
- HD6800 planed for beginning of 2011, could be earlier though.
- no comment on the rumour AMD would be doing a fusion processor for next Xbox.
- lots of optimizm in the AMD camp

That's all. FWIW applies here and as many grains of salt you need.
 
Das hört sich doch gut an! ;-) Bin mal gespannt was da auf uns da erwartet*g*
 
Sehr sachlich, alte Spekus von vor über einem halben Jahr wieder auszugraben, um zu provozieren. Dir ist schon bewusst, dass du Moderator bist? Wieso zitierst du nicht einen gewissen Neurosphere, der behauptete, dass mit den Shadern nicht viel passieren würde, was mit 4 PEs je Stream Core und mehr Stream Cores je SIMD Engine widerlegt wäre?

Ausserdem liegst du falsch. Sollten sich die 24 Stream Cores je SIMD Engine bewahrheiten, wären das 24 VLIW Päckchen mit je 4 Operationen. Das ist mehr Superskalarität als bisher pro SIMD Engine 16 VLIW Päckchen mit je 5 Operationen.



Ach, plötzlich "scheint" es nur noch? Zuvor klangst du aber mit "wurde auch widerlegt" noch ganz anders. :rolleyes: Und die Informationen wurden hier nun ausführlich diskutiert. Etwas mehr Eigeninitiative solltest du schon zeigen und dir das mal durchlesen. Ich habe keine Lust, alles x-mal zu wiederholen.



Da es hier lediglich um den Cayman Pro ging, kann ich mir das schon vorstellen. Die HD 5850 liegt ja auch deutlich unter 200 W. Die HD 6870 sollte dann wohl bei etwa 225 W liegen.

bitte was ? :d
 
Auf geht´s :

Was Neues zur Abwechslung....

http://forum.beyond3d.com/showpost.p...postcount=1564


Zitat:
Some more info here: Radeony HD serii 6000 to odgrzewane kotlety? AMD mówi "nie!". :: PCLab.pl, from "a little unofficial talk with an AMD worker". You can try to google translate it, but I don't think it will work well. It's also written rather vaguely, so I complied the main points for you:

- improved Cypress architecture, all GPU blocks improved (so shaders too?)
- better performance clock for clock, less power consumption.
- The experience in the 40nm process allows for better organization of the die (and save space - that's what I personaly wondered if possible)
- Better yields allow for more complicated structures
- new UVD 3.0 decoder, with full video playback acceleration for Eyefinity, up to 6 monitors. Overall better decoder.
- no problems with samples of chips and cards, not even with the 6970.
- prototypes might be send to AMD partners in the coming weeks
- AMD wants HD6970 on the market before Xmas (obviously!)
- No worries from competetion, they believe Radeons will reign in DX11 generation
- Aggressive pricing planned, as long as enough cards can be produced. (buy one asap before prices go up! )
- First low-end, then middle, then HD6970.
- HD6800 planed for beginning of 2011, could be earlier though.
- no comment on the rumour AMD would be doing a fusion processor for next Xbox.
- lots of optimizm in the AMD camp

That's all. FWIW applies here and as many grains of salt you need.

6800er erst 2011? Das is nicht so toll, wenns denn stimmen sollte.
 
Also in dem Polnischen Artikel steht das die HD6970 noch vor Weinachten den Markt erreichen soll.(meins,meins)
Sowie das die HD6800 anfang neues Jahr erscheinen soll früher aber auch nicht ausgeschlossen wird.
 
Zuletzt bearbeitet:
Habe gestern bei Powercolor angefragt ob es wieder eine 6000er Karte mit inkludiertem Wasserkühler geben wird (ähnlich der 5870 lcs). Die Antwort war:

"Yes we do have a plan for this
(end of Oct or early November)"
 
Ja das die HD6970 als erstes kommt hatte ich so auch gelesen daher war ich auch überrascht das alein die single GPU variante so viel power bietet! Weil demnach wäre die HD5970@ 1000Mhz ja dann ca. so schnell wie eine HD6970 mit 700Mhz was schon echt hammer ist! Wenn die HD6970 sich dann auch noch auf 1000Mhz takten lassen würde wäre diese ja gut 100% schneller als die GTX480 wenn Crossfire nicht besser scaliert als im moment! Da würde selbst eine Dual GTX480 nicht mehr reichen um AMD vom thron zu stoßen!
Wenn dann die HD6850 so schnell ist wie eine aktuelle GTX480 wird das für NV wirklich ein problem vorallem fals AMD die preis für solch eine karte bei 300€ ansetzen sollte!

Hmm nicht das NV dann doch noch aus dem desktop grafikmarkt verschwindet!
 
Also das wird nicht passieren, Nvidea muss federn lassen aber die GTX460 ist doch wirklich prächtig und bringt die Kohle rein !
Bin aber sehr gespannt was da auf uns zu kommt, Karten müssten genug vorhanden sein den es soll ja eine weitere Fab auf 40nm umgestellt werden bei TSMC.

Wen es dann nicht genug Karten gibt und dadurch die Preise wieder in die Höhe gehen kann da was nicht mehr stimmen und AMD wird wohl dieses mal nicht zu wenig Ordern ^^


PS: Mhh ich denke ich werd meine MSI5770 Hawk rechtzeitig los ^^
 
Also das wird nicht passieren, Nvidea muss federn lassen aber die GTX460 ist doch wirklich prächtig und bringt die Kohle rein !
Bin aber sehr gespannt was da auf uns zu kommt, Karten müssten genug vorhanden sein den es soll ja eine weitere Fab auf 40nm umgestellt werden bei TSMC.

Wen es dann nicht genug Karten gibt und dadurch die Preise wieder in die Höhe gehen kann da was nicht mehr stimmen und AMD wird wohl dieses mal nicht zu wenig Ordern ^^


PS: Mhh ich denke ich werd meine MSI5770 Hawk rechtzeitig los ^^

Ja die GTX460 ist ok solange bis die HD6770 da ist ;)

Ok ok die GTX460 ist sogar viel mehr als ok die ist klasse! Also bekommt mein kumpel wohl eine GTX460 und keine GTX470 verbaut!
 
Zuletzt bearbeitet:
So und jetzt beruhigen sich mal wieder alle hier...
Die Treiberdiskusion hat hier nix verloren. Da äußerst Subjektiv vom Empfinden des jenigen abhängig, ebenso ist unklar, ob wirklich der Treiber schuld ist, oder ob das ganz andere Ursachen hat... Zu 95% sitzt das Problem meist vor dem Gerät. Das Trifft auf beide Seiten zu.
 
So, nun hab ich hier mal ein wenig was gelesen und muss sagen, dass fast alle Beiträge zu Gunsten einer Partei (sei es AMD oder Nvidia) eingefärbt sind. Wenn ihr was vergleicht (Stromverbrauch, Leistung, usw.) dann bitte doch richtig! Einen Peak-Wert von übertriebenen 320 Watt (real 302-308 Watt) von der GTX 480 geschätzten 225 Watt der neuen 6000er Generation gegenüber zu stellen ist schon hart. Bei Games und Benches sieht wohl eher 250 Watt zu 225 Watt realistisch aus. Das Gleiche betrifft auch die Die-Fläche. Da Fermi nicht alle Cores nutzt aber der Chip halt so produziert wird kann man die Größen auch nicht vergleichen geschweige denn in Bezug zur Leistung setzen (und wenn dann richtig)!

Nur eins, die neue Gen. ist nur ein REFRESH und keine Eier legende Woll-Milch-Sau.
Sprich 15-20% reale Mehrleistung zum aktuellen Fermi bei gleichem Stromverbrauch wie dieser!

Nvidia produziert dann ebenfalls nen Refresh - Fermi in Vollbestückung bei gleichem Verbrauch - und schon herrscht Gleichstand. Dieses Spiel kennen wir doch alle.

Ps.: Fermi war ürsprünglich für den HPC-Markt konzipiert sprich DP-Leistung (und wurde leider für den Consumer stillschweigend beschnitten).
 
Nur eins, die neue Gen. ist nur ein REFRESH und keine Eier legende Woll-Milch-Sau.
Sprich 15-20% reale Mehrleistung zum aktuellen Fermi bei gleichem Stromverbrauch wie dieser!

Erst meckern und dann selber die Glaskugel auspacken wollen. Jaja :)

Ps.: Fermi war ürsprünglich für den HPC-Markt konzipiert sprich DP-Leistung (und wurde leider für den Consumer stillschweigend beschnitten).

Ja und ? Was hat das jetzt zu bedeuten ? Setz das mal in einen Kontext.
 
Zuletzt bearbeitet:
Erst meckern und dann selber die Glaskugel auspacken wollen.

Macht das nicht jeder? Fakt ist, dass man realistisch bleiben sollte (sofern dies möglich ist). Außerdem ist dieser Thread genau für Spekulationen da! Vergleiche sollten aber nicht eingefärbt sein.

Ja und ? Was hat das jetzt zu bedeuten ? Setz das mal in einen Kontext.

Da ist Nvidia bei Weitem besser als AMD. Nicht nur von der Performance her.
Die rein theoretische Leistung kann man da ebenfalls kaum vergleichen. Lese mal die neue c't. Glaskugel: Fermi wird im HPC-Markt auch noch dominieren wenn die 6000er Gen. von AMD kommt (da nur Refresh --> kein ECC, usw.). Also wurde das ursprüngliche Ziel erreicht.

Es ist wohl besser einfach nen Monat zu warten und dann zu sehen was kommt!!
 
Außerdem ist dieser Thread genau für Spekulationen da! Vergleiche sollten aber nicht eingefärbt sein.

Da ist Nvidia bei Weitem besser als AMD. Nicht nur von der Performance her.
Die rein theoretische Leistung kann man da ebenfalls kaum vergleichen. Also wurde das ursprüngliche Ziel erreicht.

Es ist wohl besser einfach nen Monat zu warten und dann zu sehen was kommt!!

Da spricht ja die Neutralität in dir... Glaube kaum, dass nvidia vorgehabt hat, ein Ü 250W Monster herzustellen.

Außerdem, was interessiert es einen Konsumenten, wie es im HPC Markt ausschaut?

Bezüglich 6700er:
Radeon HD 6700 mit 256-Bit-Speicherinterface? - 03.09.2010 - ComputerBase
 
@Nikita23:
Wenn du mich zitierst dann bitte alles (Belege für meine Aussage siehe c't). Da ist auch nichts eingefärbt. Fakt ist auch, dass die GPU's nicht so toll sind wie sie immer promotet werden. Ich denke schon, dass sie wussten wie Stromhungrig die Gen. wird (so ein Chip wird nicht erst produziert und dann merkt man "oh Gott so ein Mist"). Da werden diverse Simulationen gefahren bevor auch nur ein Hauch von Silizium produziert wird. Dann kam die grüne Welle und Nvidia ist am ... (die 6000er Gen. wird auch mehr verbrauchen --> größerer Chip + höherer Takt = mehr Strom).

Außerdem, was interessiert es einen Konsumenten, wie es im HPC Markt ausschaut?

Das sind auch Konsumenten (und nicht wenige --> Unis nutzen gerne Consumer Karten für HPC weil billig)! Natürlich interessiert es die Generation "höher, breiter, schneller" nicht aber der HPC-Markt war auch nur eine Randbemerkung von mir.

So, ich bin hier weg. Ist eh nur Zeitverschwendung sich über ungelegte Eier zu streiten.
 
Fermi dominiert heute nicht und wird es auch in Zukunft nicht tun, auch nicht bei HPC. Zumindest nicht mit dem aktuellen Design. Die Effizienz ist einfach nur schlecht. Und das ist ausschlaggebend und lässt sich nicht wegdiskutieren.
ECC wird zudem überbewertet. Bereits Evergreen beherrscht EDC. In professionellen Bereichen kommen aber eh oft aufwändigere Verfahren zur Datenvalidierung zum Einsatz. Ausserdem ist bisher nicht bekannt, ob Southern Islands ECC unterstützt.
Tatsache ist, AMD hat hardwareseitig einen grossen technologischen Vorsprung. Die Frage ist viel eher, inwiefern man dies auch softwareseitig freisetzen kann. Und da sehe ich mehr Chancen, als dass nVidia ihr Design grundlegend verbessert.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh