AMD HD6000/7000 Southern Islands & Northern Islands Spekulation Thread

Status
Für weitere Antworten geschlossen.
zumindest sage ich dem displayport keine lange lebenszeit vorraus, mittlerweile würden die hersteller gerne rj45-ähnliche monitoranschlüsse haben.
ob die hd6000 darauf bauen wird?

Ich rechne bei DP mit einer längeren Lebenszeit. Durch Mini-DP kann man viel mehr Anschlüsse an der Slotblende realisieren als mit HDMI, was für Eyefinity gerade sehr interessant wird. Ausserdem kostet jeder einzelne HDMI Port Lizenzgebühren. Bei einer Graka mit 6 Ausgängen kann das schon zum dicken Kostenfaktor werden.

Diese RJ-45 Gerüchte sind alles andere als in trockenen Tüchern. Von der Grösse der Anschlüsse ist RJ-45 sowieso keine Lösung.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Allein schon die Verbreitung des Displayports durch Apple und im Grafikerbereich wird der DP nicht einfach so schnell verschwinden.
 
@ bawde

Was willst du auch bei nen PC mit HDMI ?! Glaub ich gleich das sich das in dem Bereich nicht durchsetzt
 
Kommt doch immer auf die Anwendung an. Ich persönlich nutze von Component über VGA, DVI, HDMI und Displayport die ganze Palette.

Meinen DP möchte ich aber nicht mehr missen.

Aber abgesehen davon. Die neue 6er Reihe wird sicherlich wieder exakt mit den gleichen Ausgängen versehen wie die 5er Reihe. Ich könnte mir vorstellen, dass man evtl. noch einen zweiten DP Anschluss dazulötet inkl. Taktgeber damit man diesen auch gleichzeitig nutzen kann.
 
Zuletzt bearbeitet:
@ bawde

Was willst du auch bei nen PC mit HDMI ?! Glaub ich gleich das sich das in dem Bereich nicht durchsetzt

Also ich bin sehr glücklich darüber, dass ich HDMI an der Graka habe, so kann ich locker zwischen TV-Flat und Monitor switchen, und brauch nicht mal was an der Auflösung oder so ändern. Ich wäre dem DP nicht so abgeneigt, wenn es endlich mehr TVs und Monitore gäbe, die den unterstützen.

Ich könnte mir gut vorstellen, dass bei den Consumer-Karten sich eher HDMI als der DP durchsetzt, auch wenn es für den DP Vorteile gibt.
 
mich nervt lediglich nur das ganze "Wirrwarr".
Klar D-Sub werden wir noch einige Zeit an jedem Monitor finden, allein um die maximalste Abwrtskompatibilität gewährleisten zu können. Aber mal hier DVI, dann da HDMI, dann widerum Displayport dies und jenes.

Ich hab immer noch das Bild eines Mitstudenten vor Augen der an sein Notebook den HDMI-> DVI Adapter anschließen und daran widerum ein DVI -> D-SUB Adapter und dann kabel zum Beamer.

Mit den "neuen" digitalen Schnittstellen wird es nicht einfacher wenn jeder "seine eigene Suppe kocht".
 
Was mich tierisch an diesen "Steckern" nervt ist, das sich die Leute, die Schnittstellen entwickeln mal langsam klar darüber werden sollten, was sie eigentlich wollen. Am Ende wird eh das YUV-Signal oder RGB übertragen + Ton, egal was ich da für Stecker drum herum baue.
Erschwerend kommt hinzu, das digital auch digital bleibt. Die Kupferleitungen interessiert das auch nicht, was sie übertragen aber immer schon ständig neue Stecker verbauen nur weil irgendwelche Chips an beiden Enden irgendwas anders machen als bei anderen Kabeln. Am Ende kommt Bild und Ton von A nach B.

Also ich würde mich stark wundern wenn Displayport unterstützt würde. Durch die Baugröße macht es evtl. nur an Laptops Sinn, Apple hat diesen Alleingang mit der Schnittstelle wie immer ja auch geadelt. HDMI würde bei den Einsatzzwecken "TV" evtl. noch mehr Sinn machen wie bei den "g" Modellen, ist aber wieder recht groß.
Leider gibts aber auch wieder Mini, Maxi und sonstwas für Untergruppenverbindungen und am Ende kann man jede Schnittstelle per Adapter auf HDMI brücken.
Warum einigt man sich hier nicht auf einen gängigen Standard!?
Displayport ist sogar Lizenzfrei.

Aber zurück zur Spekulation: Ich glaube nicht, das Displayport verbaut wird. Im MAC-Bereich sicher interessant aber das Hemd ist näher als die Hose und das ist in dem Fall wenn überhaupt HDMI wegen evtl. TV-Einsatz. Meine Spekulation ;)
 
Im Prinzip ist es völlig wurscht mit welchem Anschluss die Graka kommt - denn es gibt notfalls für fast alles einen Adapter :).

Der Nachteil an HDMI sind glaube ich die Lizensgebühren.

Display Port ist glaube ich "Open Source" und umsonst.

Und sie können beide glaube ich im Prinzip das gleiche ?

Der Nachteil am Display Port dürfte einfach sein - wie bei Linux auch - dass der andere Standard wahrscheinlich von irgend einer Lobby gepusht wird.

-

Mir persönlich ist es völlig wumpe welche Anschlüsse an der Grafikkarte sind :).

Ich hoffe persönlich nur darauf, dass ATI/ bzw. jetzt ja nur noch AMD konsequent und gut weitergearbeitet hat und die Karte wieder eine gute Effiziens/Performance - Leistung erzielt.
 
Ich hoffe persönlich nur darauf, dass ATI/ bzw. jetzt ja nur noch AMD konsequent und gut weitergearbeitet hat und die Karte wieder eine gute Effiziens/Performance - Leistung erzielt.

Ja, das steht völlig außer Frage und ich bin jetzt schon auf die ersten wirklichen Realtests gespannt. Bei mir ist im AMD-PC auch was neues fällig.
 
Jap, ich will einen Nachfolger zu meiner 280 GTX, der wenn möglich nichtmehr Strom verbraucht als Sie. 236 Watt Maximum waren bei der 280 GTX angegeben.

Das sollte denke ich mit einer 6970 machbar sein. (Das ist ja dann quasi das Singlegpu-Flaggschiff, nach der neuen Namensgebung, wenn das denn stimmt).
 
Von den neuen Namen bin ich noch nicht wirklich überzeugt muss ich sagen...

Ich glaube auch nicht, das man die HD6970 für das SingleCore Flagschiff verwenden wird. Weil einfach keine Luft für eine Dual GPU Karte bleiben wird. Klar HD6990 wäre noch offen, aber was passiert, wenn man mal ein Upgrad der GPU sehen wird? Gibts dann ne HD6995 oder sowas? Unwarscheinlich...

Warten wir es ab ;)

@henniheine
mit den 236W könnte die Karte doch schon eine ganze Ecke Leistungsstärker als aktuell die HD5870 sein. Ich denke mindestens 30% vllt sogar mehr. Aber ich glaube nicht, das man seitens AMD hier so hoch ansetzen wird. Wenn man sieht, die HD5870 genehmigt sich deutlich weniger als 200W, einzig in Furmark schlägt man die 200W minimal.
 
Wieder ein bisschen Speku-Material -> 2 Fotos eines auf Barts XT basierenden Modells sind aufgetaucht:

Hardwareluxx - AMD "Barts" XT - "Radeon HD 6770" abgelichtet &catid=38&Itemid=101

amd_bart_1ty2s.jpg
amd_bart_20xom.jpg


Mal sehen, ob es ein Axiallüfter auch in die finale Version schafft, oder man wieder zum Radiallüfter greift.
Aber soweit ich mich erinnern kann, gab es auch schon bei der HD4k oder 5k Prototypenfotos mit ähnlichen Kühlern,
die dann später aber auch nicht verwendet wurden.

E: Ja, denke auch, dass wieder Radiallüfter wie beim Cayman-XT-Leak-Foto zu sehen, verwendet werden, zumindest bei den schnelleren Karten.

Das PCB scheint mindestens 24cm lang zu sein (eher noch ein Stück länger). Mal sehen, ob das finale Produkt wieder einen 2. CF-X Connektor hat (war ja bei den Junipern auch so).

Ausgänge: 2 x DVI, 1 x HDMI, 2 x miniDP

mfg
Edge
 
Zuletzt bearbeitet:
Die Leistungsaufnahme wird bestimmt höher ausfallen, dafür aber mehr Leistung ;) auch möglich das die Chipfläche größer ausfällt, ursprünglich war ja 32nm geplannt, dann wäre die Fläche pro mm² kleiner ausgefallen, jetzt kommt das gegenteil, aber hauptsache gute Leistung zu einem guten Preis, hier und da heißt es das doch Northern Islands die HD6000 wird, also neue Architektur
 
Na, ich glaub da braucht man kein Prophet sein, zu erahnen, daß die Referenz-Kühllösungen ähnlich aufgebaut sein werden wie die der letzten Generationen. Sprich, "geschlossene" Dualslotkühlung mit Radiallüfter, die die Luft über das Blech aus dem Gehäuse transportiert.
Ich persönlich finde diese Kühllösung auch ganz gut, wenn sie denn geräuscharm machbar ist.
 
Zuletzt bearbeitet:
Hier die weitern Spekulationen:

Falls dies zutreffen würde, Hut ab und die Konkurrenz stünde echt schlimm da.
Da wäre die HD6870+ knapp auf Augenhöhe mit der HD5970 zu maximal 400 Euro (vielleicht...)

"[HD6750 = high-clocked/renamed Juniper chips - can't think of any other way to fill the gap here]
HD6770 = lower-clocked/partly disabled Barts chips (Pro) ~ HD5850
HD6850 = selected/high-clocked Barts chips (XT) ~ HD5870
HD6870 = lower-clocked/partly disabled Cayman chips (Pro) ~ HD5870+30%
HD6950 = selected/high-clocked Cayman chips (XT) ~ HD5970
HD6970 = 2x Barts XT ~ HD5970+20%
HD6990 = 2x Cayman XT ~ HD5970+50%"

:-)
 
Ich bin mir nicht sicher, was mit Selected gemeint sein soll.
Ja klar selektiert, aber eine Grafikkarte nur auf Basis Selektierter Chips zu bauen?.

Wie das Haus am Sand bauen.
Und waru sollte man 2 Dual Karten Rausbringen? Zu viele Chips?
Ich bin sicher dass diese infos eher in den Müllkorb gehören.
Aber mal sehen
 
an eine 6990 kann ich auch nicht glauben! die 6970 dualkarte wird wohl kommen aber eine 6990 naja glaube ich nicht da man mit der 6970 schon deutlich an der spitze stehen wird!
die 6990 wäre wohl sowas wie die jetzigen HD5970 4GB karten!
 
HD6970 = 2x Barts XT ~ HD5970+20%
HD6990 = 2x Cayman XT ~ HD5970+50%"
Das wäre ja mal dicke 2 Dualkarten.
Aber es stand ja auch schon mal irgendwo das es so gedacht ist.
Gab es früher ja auch schon mal bei 3*** Serie.
http://www.gameswelt.de/articles/reviews/4947-Asus_EAH3850_X2/index.html
Könnte ja sein das die kleine Dualkarte dann gegen die Dual 460 oder was es da werden soll bei NV antreten soll .
Wenn sie den kommt.
Preislich könnte AMD damit NV richtig doll ärgern oder ins Handwerk pfuschen.
 
Zuletzt bearbeitet:
HD6970 = 2x Barts XT ~ HD5970+20%
HD6990 = 2x Cayman XT ~ HD5970+50%"
Das wäre ja mal dicke 2 Dualkarten.
Aber es stand ja auch schon mal irgendwo das es so gedacht ist.
Gab es früher ja auch schon mal bei 3*** Serie.
Test: Asus EAH3850 X2 - Doppelherz mit Leistungsreserven - PC - Seite 1
Könnte ja sein das die kleine Dualkarte dann gegen die Dual 460 oder was es da werden soll bei NV antreten soll .
Wenn sie den kommt.
Preislich könnte AMD damit NV richtig doll ärgern oder ins Handwerk pfuschen.

Gabs danach auch noch bei der 4er Serie :p 4850x2/4870x2

mfg
 
Hier die weitern Spekulationen:

Falls dies zutreffen würde, Hut ab und die Konkurrenz stünde echt schlimm da.
Da wäre die HD6870+ knapp auf Augenhöhe mit der HD5970 zu maximal 400 Euro (vielleicht...)

"[HD6750 = high-clocked/renamed Juniper chips - can't think of any other way to fill the gap here]
HD6770 = lower-clocked/partly disabled Barts chips (Pro) ~ HD5850
HD6850 = selected/high-clocked Barts chips (XT) ~ HD5870
HD6870 = lower-clocked/partly disabled Cayman chips (Pro) ~ HD5870+30%
HD6950 = selected/high-clocked Cayman chips (XT) ~ HD5970
HD6970 = 2x Barts XT ~ HD5970+20%
HD6990 = 2x Cayman XT ~ HD5970+50%"

:-)

Also so ganz abwägig hört sich das nicht an. Spekulieren wir mal weiter....
Vielleicht könnte mal jemand ungefähre Preise anfügen?

6770 = 199 Euro? um nicht durch die 200er Marke zu stoßen?
Die 6850 Konkurrenz zur NV470 = 250 Euro
 
Zuletzt bearbeitet:
Ist eigentlich irgendwas über die Speicherbestückung "bekannt" / oder wird vermutet ?

Geht man bei AMD bei den High End Modellen schon in Richtung 2 GB ?

Nvidia hat ja bei der 480 GTX die 1536MB...

1,5 GB müsste bei AMD ja auch möglich sein oder ?

Also ich spreche nun von den Referenzkarten - so besondere Modelle gibt es ja quasi immer.
 
Bei einem 256 Bit SI sind 1GB & 2GB zu erwarten, ein 384 Bit SI wird es bei AMD nicht geben, wenn dann 512 Bit SI, wird aber nicht nötig sein da die Freuqenzen von DDR5 gesteigert werden, so hat man eine größere Bandbreite und weniger kosten als ein großes SI. 1GB bei der 6870 sind meiner Meinung Standard, denke die 2GB werden erst bei der HD7000 zum Standard, wie immer gibt es Alternativen mit 2GB wie die Toxic usw, wichtig ist für AMD eine günstige Karte mit guter Leistung, z.b. ist die HD5870 in der Herstellung günstiger als eine GTX460 und kostet 350-400 € ;) während die Nvidia Karte die hälfte nur kostet aber auch teurer in der Herstellung ist ;)
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Das Referenzdesign wird anders aussehen, das Bild zeigt nur eine Test Karte für bestimmte Leute (Boardpartner, Apple, Spielhersteller oder Microsoft), evtl. auch ein Fake
 
Ich frage mich, warum auf dem Bild die SpaWas bzw. Regulatoren so weit hinten und nicht in der Nähe von den Stromanschlüssen sind?
 
für mich sind Dualkarten das unwichtigste, midrange-Dual erst recht. Interessieren würde mich dagegen, ob das neue Highendmodell mit nur 1 GB kommen würde oder ob 1,5 bzw 2GB zum neuen Standard wird.

P.S.
Wäre mal wieder Zeit, auf AMD/ATI zu wechseln.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh