AMD HD6000/7000 Southern Islands & Northern Islands Spekulation Thread

Status
Für weitere Antworten geschlossen.
du bist von zwei gtx285 auf eine 5970 (also zwei 5850) umgestiegen? :hmm:

hast du denn für deine beiden gtx285 mehr kohle bekommen, als dich die 5970 gekostet hat?

@Duplex: wie kommst du darauf, dass ni bei gf gefertigt wird? gibts da schon infos drüber? bisher war die frage doch immer offen, bzw die frage, ob gf überhaupt schon in der lage ist, die gpus zu fertigen.

und testen kann man noch mehr als den fertigungsprozesse ;)
ni soll ja angeblich ne vollkommen neue architektur sein, so wie fermi bei nvidia. da ist ja auch fraglich, ob 40nm oder die architektur das eigentliche problem ist.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
An alle die zweifeln, eine Grafikkarte kann nie schnell genug sein.

Und die HD6000 sollte mit Sicherheit hoffentlich dieses Jahr noch kommen :-)
 
Ich hoffe Ati baut endlich eine richtig schnelle Graka ohne Kompromisse, und keine 2-Chip Sparlösung wie bei 3/4/5xxx.
 
Zuletzt bearbeitet:
klar kann man sagen, dass die gtx480 schneller ist. es gibt ausnahmen, aber dann kann man auch nicht sagen, dass die 5870 3 monate die schnellste karte war. es gab auch ausnahmen, wo die gtx285 die nase vorn hatte. trotzdem wage ich zu behaupten, dass die 5870 schneller als die gtx285 ist. ;)
 
Ich hoffe Ati baut endlich eine richtig schnelle Graka ohne Kompromisse, und keine 2-Chip Sparlösung wie bei 3/4/5xxx.

Also 2chips sind doch ok aber diese müßten am besten hardwaremäßig zusammen rendern nicht so wie jetzt bei sli oder cossfire softwaremäßig!
 
Also 2chips sind doch ok aber diese müßten am besten hardwaremäßig zusammen rendern nicht so wie jetzt bei sli oder cossfire softwaremäßig!

Und das bringt dann was?
Die GPUs rendern jetzt auch schon Hardwareseitig zusammen, einzig die Aufteilung der Aufgaben geschiet mehr oder weniger in Software. Anders ist das auch nicht händelbar, weil der Inhalt nicht statisch ist.

Mal ganz davon ab wäre eine vollkommen Hardwareimplementierte Dual/Multi GPU Lösung nix anders, was jetzt der Teil der GPU, welcher die Aufgaben auf die einzelnen ALUs bzw. allgemein Recheneinheiten verteilt.
Nur wie will man zwei GPUs hardwareseitig über PCIe und eine extra Bridge so schnell verbinden, das das alles klappen würde?
Gut könnte man meinen macht man eine Art Dual Core GPU. Was wiederum auch keinen Sinn macht, denn so könnte man gleich die Recheneinheiten verdoppeln und spart sogar noch Platz.

Wie man sieht, bringt das alles eher wenig...
 
Ja ok da hast du recht!
Wenn die spielentwickler alle so perferkt programmieren würde wie Codemaster mit Dirt 2 wäre das allerdings egal weil da scaliert das ganze ja einfach perfekt! Sogar 4GPU rendern munter weiter mit einer perfekten scalierung
 
Ich meine eher mal, das ist das Bier der Treiberentwickler... Sprich also der GPU Hersteller.
Aber das gibt es ja noch ganz andere Titel die sehr gut skalieren. Gab da ja damals vom User zocker28 mal tripple oder gar quad CF Tests mit HD5850 Karten. Beim Zuschalten von SGSSAA und hohen Auflösungen war da richtig was an Performance drin...

Problem ist halt bei AFR aktuell das Thema MR und vor allem das Thema Inputlag, was bei mehr als einer GPU deutlich zum tragen kommt...
 
Nunja, wenn Dualcore GPUs keinen Sinn machen würden müsste es auch keine DualCore-CPUs oder sogar inzwischen Hexacores geben...

Es kommt rein auf die Programmierung an - wenn sich die Grafikkerne die Aufgaben sinnvoll teilen könnten anstatt nur sinnfrei halbes Bild/ halbes bild zu spielen könnte das sogar richtig abgehen...

Das es teilweise ordentlich was bringt sieht mer auch an einigen Benches 2x 5770 Vs. 1x 5870... die 5770er ziehen ne Singlekarte in manchen Disziplinen locker ab, in manch anderen versagen sie dagegen - was vermutlich an "der langen Leitung" liegt.

Über Sinn oder Unsinn lässt sich also streiten.

Ich für meinen Teil verwende CF nicht weil mehr Performance bringt sondern weils hammer aussieht - nur falls irgendeiner auf die Idee kommt zu fragen.

lg
 
Nunja, wenn Dualcore GPUs keinen Sinn machen würden müsste es auch keine DualCore-CPUs oder sogar inzwischen Hexacores geben...

Es kommt rein auf die Programmierung an - wenn sich die Grafikkerne die Aufgaben sinnvoll teilen könnten anstatt nur sinnfrei halbes Bild/ halbes bild zu spielen könnte das sogar richtig abgehen...

Da hast du wohl nicht richtig verstanden worum es geht...
Vereinfacht gesagt könnte man sagen, eine CPU besteht aktuell aus 2, 4 oder mittlerweile 6 bzw. 12 Rechenkernen. Eine GPU besteht schon seit Jahr und Tag aus mehr als einem Rechenkern. Eine 480GTX beispielsweise kommt mit 480 ALUs.

Vereinfacht gesagt hast du also bei der 480GTX eine 480 Core GPU, also 480 Rechenkerne, dazu gesellen sich dann noch ROPs, TMUs usw. welche ebenso mehrfach ausgelegt sind um die Performance zu steigern.

Würde man jetzt also eine Dualcore GPU aus zwei 480GTX Chips bauen, bekommt man 2x480 ALUs. Was wiederum viel eleganter in einem Chip mit 1x960 ALUs aufbauend zu realisieren ist, weil einfach die Last sowieso schon über die ALUs verteilt wird, man sich quasi den zwischenschritt spart die Last erst in zwei Teile zu splitten (das was aktuell bei CF/SLI geschiet, mit dem Rendermodus ala AFR, SFR) und dannach diese Anzahl an Berechnunge wiederum auf die ALUs aufzuteilen.

Der einzige echte Vorteil bei Multi GPU Lösungen ist, das man ohne recht viel Aufwand mit kleinen Chips recht viel Leistung erzielen kann. Man hält die Produktionskosten pro Chip gering und geht dabei noch hoher Fehleranfälligkeit usw. aus dem Weg.
 
Vereinfacht gesagt hast du also bei der 480GTX eine 480 Core GPU, also 480 Rechenkerne


Aber ultra dupra oberhammermässig dreimal schwarzer Kater vereinfacht.

Du weisst ja genau das die Hersteller sich zwar damit schmücken aber so eine ALU eigentlich garkeine vollwertige Recheneinheit ist. Das ist nur Marketing.

Das ist mehrere Stellen hinterm Komma mit nem CPU Kern zu vergleichen
 
Zuletzt bearbeitet:
Aber ultra dupra oberhammermässig dreimal schwarzer Kater vereinfacht.

Du weisst ja genau das die Hersteller sich zwar damit schmücken aber so eine ALU eigentlich garkeine vollwertige Recheneinheit ist. Das ist nur Marketing.

Das ist mehrere Stellen hinterm Komma mit nem CPU Kern zu vergleichen

Das kommt drauf an, was man berechnet. Eine GPGPU Anwendung wird über die ALUs berechnet, sprich doppelte Anzahl bedeutet bei gleichem Takt und sonst gleicher Architektur auch im optimal Fall doppelte Leistung.

Das der Vergleich zur CPU nicht ganz richtig ist, ist ja bekannt, aber dennoch geht es nur zur Veranschaulichung darum, das eben eine GPU nicht aus einem Core besteht, sondern schon intern aus vielen einzell Recheneinheiten. Und genau aus diesem Grund macht eine Dualcore GPU aus zwei vollwertigen GPUs keinen Sinn, so wie es aktuell bei CPUs abläuft und worauf auch Pirate85 hinaus wollte.
 
Demnach könnte ein Crossfire-Gespann aus 2 5770ern niemals schneller sein als eine 5870 da beide exakt dieselben Units beinhalten, eher sollten die 5770er langsamer sein weil sie durch die Bridge ne längere Leitung zueinander haben...

Ich weiß das Shader eigene Recheneinheiten sind, habe mich aber so dermaßen nicht damit beschäftigt. Aber die Praxis zeigt einfach das Multigpu-Systeme sogar mit gleichen Grundwerten ihre daseinsberechtigung haben. ;)

Würde mich mal interessieren wie das dann zustande kommt...
 
Das könnte beispielsweise an den Frametimes liegen, die bei einem CF ja teils drastisch auseinander liegen...

Würde man das ganze auf den niedrigen Wert runter ziehen, dann wären die FPS auch deutlich niedriger beim CF Gespann.

Aber ich will mich da nicht zu weit aus dem Fenster lehen, müsste man mal nachtesten...
Mal schauen, ob ich mal die besagten Karten zusammen bekomm, dann gibts ein Test ;)
 
nur mal kurz zum thema alu vs cpu-kern: eine alu ist durchaus eine vollwertige recheneinheit. aber sie ist nur das. ein cpu-kern hingegen verfügt über eine vielzahl von befehlssätzen wie zb sse, was eine völlig andere art und weise der aufgabenbewältigung ermöglicht.
der vorteil der gpu-architektur liegt in der enormen parallelisierbarkeit der berchnungnen, die eine cpu nacheinander abarbeiten muss. dafür kann eine cpu wiederum vieles, dass die gpu "zu fuss" rechnen muss, per befehlssatz erheblich einfacher und schneller lösen. je nach anwendungsgebiet ist mal das eine, mal das andere prinzip teils sehr deutlich im vorteil.
 
Plz CF etc gehört hier so nicht hin, ich möchte gerne was zum R900 hören! ;-)
 
Also genau genommen verfügen die meisten CPUs über genau einen Befehlssatz. Bei AMD und Intel ist das zB x86 (Itanic ausgenommen). SSE ist vielmehr eine Befehlssatzerweiterung. Und die Formel ist recht einfach, eine CPU ist gut für serielle Tasks, eine GPU ist gut für parallele Taks. Und diese Kombination aus beidem, was ja nach Task den optimalen Lösungsweg geht, nennt AMD Heterogenous Computing.
 
stimmt, es muss richtig befehlssatzerweiterung heißen. danke mr. dude :)
 
hab mich jetz nich in das thema reingelesen... meint ihr die hat dann mehr leistung ? damals die hd 2900xt war ja auch nur genauso gut wie die hd 3870 :-)

na ok.. da wollten se vieleicht blos de nachteile ausbessern..aber kein grund klee sowas als nachfolge modell anzupreisen :-)



ne neue generation würde sich garnicht lohnen zumal jeder der sich jetz ne 5870 geholt hat nicht mehr leistung braucht.... okay...ausser für metro...... und die games die ende des jahres erscheinen müssten auch noch leistung ohne ende fressen .... ansonsten sehe ich schwarz
 
Zuletzt bearbeitet:
GF hat ja schon einen guten Ruf, was die schnelle Einführung neuer Fertigungstechniken angeht. Das scheint jetzt wohl auch bei den 28nm so zu sein.
Nvidia wird sich noch grün ärgern, dass sie sich gegen die GF entschieden haben und weiterhin nur bei TSMC fertigen wollen.

Wirklich schade, dass für die SI etwas zu spät kommt, um sie noch auf 28nm umstellen zu können. Und NI braucht wohl noch seine Zeit bis zu Fertigstellung.
hab mich jetz nich in das thema reingelesen... meint ihr die hat dann mehr leistung ? damals die hd 2900xt war ja auch nur genauso gut wie die hd 3870 :-)

na ok.. da wollten se vieleicht blos de nachteile ausbessern..aber kein grund klee sowas als nachfolge modell anzupreisen :-)

ne neue generation würde sich garnicht lohnen zumal jeder der sich jetz ne 5870 geholt hat nicht mehr leistung braucht.... okay...ausser für metro...... und die games die ende des jahres erscheinen müssten auch noch leistung ohne ende fressen .... ansonsten sehe ich schwarz

Mehr Leistung wird SI wohl auf jeden Fall bieten, ist ja schließlich "nur" eine Evolution und kein riskanter Versuch das Rad komplett neu erfinden zu wollen (wie es bei der 2900 der Fall war).
Und diese Mehrleistung lohnt sich schon und wird auch durchaus gebraucht:
Z.B. um höhere Auflösungen (Stichwort EyeFinity) fahren zu können (Vorteil für den Nutzer). Und damit ATI auch wieterhin Druck auf Nvidia aufrechterhalten und Marktanteile abjagen kann (Vorteil für ATI).
 
Zuletzt bearbeitet:
was eyefinity ? das war doch was wo man mehrere monitore anschliessen kann war ..? wer brauch denn das ? ich kenne keen.. ok hier im forum wirds schon ein paar freaks geben

aber es kann einen nur recht sein....kommen neue raus fällt der preis der alten...nachteil: wir ärgern uns das unsere jetzigen karten nicht mehr viel wert sind
 
Ich meine gestern was in die Richtung Globalfoundries im Radio gehört zu haben, dass irgendwie die ersten Aufträge eingingen für den 28Nm Prozess, konnts aber nicht genau hören, Radio war zu leise xD

Ob die Aufträge dann wohl von AMD kommen? :bigok:
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh