wenns um den Flächenverbrauch in Relation zur theoretischen Leistung geht, ja, da steht Nvidia schlechter da.
Wenns aber hinsichtlich der Effizienz um das Verhältnis von theoretischer Leistung zu tatsächlich umgesetzter Leistung geht, da steht Nvidia deutlich besser da. Jedenfalls soweit es meine Erfahrungen betrifft (Folding@Home<---GPGPU-Anwendung).
Ob das nun an ATI liegt oder an den Programmiereren, die es nicht schaffen, die Leistung des ATI-Ansatzes (5D-Shader) auch zu nutzen, interessiert mich nicht. Beides entzieht sich meinem Einfluss.
noch was zur Effizienz (Steigerung des RV870 relativ zum RV790):
Flops-Leistung: 100 %
Pixelfüllrate: 100 %
Texelfüllrate: 100 %
Du kannst aber nicht anhand einer einzigen Anwendung die GPGPU Performance aktueller GPUs vergleichen...
Zumahl Floding@Home eigentlich überhaupt keinen nutzen hat für den Anwender, sprich er hat da gar nix davon, wenn er da mitmacht, außer hohen Stromverbrauch!
Aber mal als anderes Beispiel, man schaue von RV670 auf RV770, Shaderleistung hat sich verzweieinhalbfacht, Plus den Mehrtakt der RV770...
Aber es bleiben nur ca. doppelte Performance in Games am Ende...
Das zeigt doch, das aktuelle AMD GPUs an weit anderen Stellen limitieren, als der Shaderleistung.
Und beim RV870 hat man nur alles mal zwei genommen, Plus Optimierungen hier und da, logisch, das sich an dem Verhältniss nicht wirklich viel ändern wird...
Aber das war anhand der Fakten vorher abzusehen, wer mehr erhofft hat, hatte einfach falsche Erwartungshaltungen...
Bei NV wird es nicht anders laufen...
hmm, weiss nicht. Mir ist da heute was in den Kopf gekommen. Alle schimpfen doch über cGPU welche dem Gamer nicht wirklich was nützt. Vielleicht könnte es aber auch genau das der Grund sein warum sie im gegensatz zur 5870 nicht ausgebremst wird und so ihre enorme Power erhält. cGPU für die eigene CPU zur Unterstützung um die volle GPU-Power entfalten zu können. Bei ATI sind es ja derzeitig absolute High-End CPUs die die Karte noch ausbremsen. Vielleicht hat nVidia so einen Weg gefunden noch ne gute Ecke rauszuholen. Rein spezifisch gesehen würde die Karte ganz knapp über der "Midrangekarte 5870" seitens ATI liegen. wer weiß...ist nur ein Gedankengang den ich euch mitteilen wollte^^
Das wird so nix werden...
Zumindest nicht mit aktuellen Programmen und Games...
Man müsste für den Fall gewisse Berechnungen auf die GPU auslagern, gut das wäre sicher machbar, aber macht nur dann Sinn, wenn beide Hersteller (und Intel in Zukunft wohl auch) da eine Einheitliche Lösung anbieten werden...
Speziell für einen Hersteller aufbereitete Software lohnt für den Entwickler nicht, es sei denn, der Hersteller der GPU zahlt hier kräftig mit.
Zum Verständniss, du kannst nicht einfach so ein normales Programm auf der GPU berechnen lassen.
Ebenso ist es ja nun mittlerweile gang und gebe, das Programme SSE nutzen, das kann die GPU nicht und müsste in dem Fall (wohl grottenlahm) emulieren...
Man müsste also für den Anwendungsfall spezielle Software entwickeln oder vorhandene Software speziell anpassen... --> Ein Mehrkostenaufwand für den Entwickler, der auch nur dann lohnt, wenn die GPUs noch Luft nach oben haben (und das haben sie wenn dann nur im HighEnd Bereich) Bei der Unter- und Mittelklasse sind die GPUs viel zu lahm um da noch signifikannt Berechnungen nebenbei durchführen zu können...
Wenn man so will, können GPUs zwar extrem schnell Berechnungen ausführen, weit schneller als CPUs, aber eben nur in Speziellen Anwendungsfällen, geht man davon etwas weg, wird das ganze sehr ineffizient... Und die CPU tritt wieder an die Spitze...
Eine GPU wird mit Sicherheit auch nie eine CPU ersetzen können...