Neja wenn man aber alles weg lässt was man nur einmal bräuchte, dann hätte man im Grunde zwei mal die Recheneinheiten + einmal die Logikeinheiten, welche für die Anbindung und für das Kommunizieren untereinander gebraucht werden würden.
Ergo, man hat ne einzellne GPU mit doppelten Recheneinheiten und mit doppelter Leistung...
Hat also quasi nicht mehr wirklich viel mit Dualcore GPU zu tun, und genau darauf will ich hinaus. Es denken doch die meisten, ja wenn das bei CPUs klappt, dann geht das bei GPUs auch. Also einfach zwei zusammen klatschen und schon hat man doppelte Leistung... NENE, so einfach ists dann doch nicht.
Und das will ich ja damit sagen, eine GPU mit doppelten Recheneinheiten so wie du sie beschreibst, wäre dann im Grunde keine Dualcore GPU mehr.
![zwink ;) ;)](/community/styles/default/xenforo/smilies/luxx/wink.gif)
sondern eben eine GPU mit doppelten Recheneinheiten.
Wie intern die Verteilung der Last geregelt wird, ist dabei wohl erstmal egal.
Rein aus logischer Sicht meiner seits stelle ich es mir aber schwieriger vor, zwei GPU Teile von xxx ALUs nebeneinander am gleichen Bild rechnen zu lassen (bzw. machen sie ja gar nicht, sie rechnen ja wohl 2 unterschiedliche Bilder), als xxx*2 ALU.
Denn bei letzterem kommt, sofern die Last gut verteilt werden kann und alle ALUs ausgelastet werden können immer die doppelte Leistung raus. Bei ersterem gibts wiederum Nachteile...
Vor allem, steigt die Anzahl der GPUs wenn man so will, dann steigt auch die Zahl der vorrausberechneten Bilder, was eine schlechte Skalierung mit sich zieht usw.
Wie gesagt, das weit größere Problem bei den GPUs ist doch die Herstellung solche über GPUs, ob das nun zwei Dualcore GPUs wären oder eine aufgeblähte Single GPU macht den Kohl nicht Fett.