wie das jetzt 100% genau zusammenhängt, kann ich jetzt so gleich mal gar nicht, sagen, aber die Vec5 Einheiten von AMD lassen sich bedeutend schwerer auslasten, weil man dort nicht einfach 160x5 rechnen kann.
Denn es können nur 5 Dinge gleichzeitig berechnet werden, wenn diese vom gleichen Objekt (nennt man das so?) kommen, quasi eine Berechnung von unabhängigen Dingen wie bei NV ist das nicht. Sprich Höhe, Breite, Tiefe, den Z Wert und noch was anderes.
Das heist AMD hat im schlimmsten Fall nur 160 Shader mit 750MHz, wohingegen NV immer 240 Shader mit 1xxx MHz hat.
Im besten Fall wäre natürlich die AMD GPU deutlich der 280GTX überlegen, was aber idR nie eintritt, zumindest nicht in Sachen 3D Games
Und die Sache mit der Effizienz, gilt in erster Linie wohl dem Platzverbrauch auf dem Wafer, angeblich soll mit steigender Anzahl der 1D Shader der Platzverbrauch überproportional zunehmen.
Des weiteren ist in Sachen Stromverbrauch die G200 Reihe auch unterlegen (zumindest im Lastzustand) mal sehen ob sich da was mit den 55nm ändert.
@TopAce888
ne du verstehst das nicht wie ich das meine...
Eine CPU ist eine CPU, dort ist nix parallelisiert drin, zumindestens nicht wirklich, heist soviel wie, es kann nur eine Rechenaufgabe gleichzeitig ausgeführt werden. Soll eine zweite Aufgabe berechnet werden, muss die erste Aufgabe pausiert werden bzw. gewartet werden bis diese fertig ist. Heist wenn zwei Rechenaufgaben beendet werden müssen, brauch man auch die doppelte Zeit, mit nem Dualcore, also 2 CPUs würde man beide Rechenaufgaben gleichzeitig abarbeiten können.
Eine GPU besteht im Beispiel von NVs 280GTX zum Beispiel aus 240 Shadern, die können 240 Dinge gleichzeitig und unabhängig voneinander ausführen. Heist soviel wie, man brauch keinen zweiten kompletten Core, ein Multi Chip Design ist überflüssig, weil dadurch auch andere Dinge mehrfach vorhanden sein müssten. So zum Beispiel der Speicher, die Stromversorgung usw...
Besser wäre es eigentlich, wenn man nur die einzellnen Einheiten in der GPU verdoppelt. So in etwa hat ja NV den G200 gebracht, welcher ja zum großteil das Doppelte des G92 ist... Nur leider ist wohl das Problem, solche x Mrd Transistorfassenden Monster zu fertigen. In CPUs ist der Großteil der Transistoren der Cache, in der GPU ist eigentlich 95% logic drin, wenn da was schief geht bei der Herstellung, kann die GPU wegfliegen...
Solche riesen Chips sind also ineffizient, was Herstellung/Ausbeute betrifft dafür aber deutlich effizienter was Stromverbrauch, Gesamtkosten, Auslastbarkeit im Betrieb usw. betrifft.
Um das Problem zu umgehen werden einfach zwei kleine Chips auf einem PCB zusammen verbaut (oder auf 2 PCBs) was sich dann SLI oder CF schimpft. Aber das bringt entscheidende Nachteile, erstens MR wobei das mit Software wohl lösbar wäre, zweitens viele Bauteile müssen doppelt vorhanden sein was Strom kostet, es besteht keine Funktion auf den Speicher der anderen GPU zuzugreifen (zumindest gibts keine schnelle Verbindung) usw.
Wenn man das ganze nicht aus dem sturen Luxxer, der nur mehr Leistung haben will, betrachtet, wird man feststellen, das es Sinnlos ist, die GPU Anzahl zu erhöhen, weil es eine Parallelisierung einer Parallelisierung ist.
Es wäre viel besser, einfach mehr Shadereinheiten auf einem DIE zusammen zu pressen, die Anzahl der TMUs und ROPs usw. zu erhöhen und das ganze als SingleChip Karte zu vermarkten als auf solchen Schmarn mit Multi GPU zu setzen.
EDIT:
puhh, ist das viel Text gewurden...
Aber eins noch. Man müsste so in der Art wie die Nahalem CPUs schaffen, sprich mindestens 2 Bereiche, wobei man den Bereich der die Recheneinheiten beinhaltet beliebig erweitern könnte, das Problem könnte nur die interne Verbindung zum Speicher werden, sprich wie schnell ist die Verbindung zwischen Core und Uncore Bereich in so einem Fall, glaube kaum, das dort Bandbreiten von 1xx GB/sec erreicht werden könnten...