[Sammelthread] Allgemeiner GPGPU Diskusionsthread

berschrift10ru.png
hardwareluxx_logocwz9.png

Worum geht es hier?
Dieser Thread dient allgemein als Diskussionsplattform über das Thema GPGPU. Sowohl die Softwaresicht als auch die Hardwaresicht können hier diskutiert werden.


Was ist GPGPU eigentlich?
GPGPU (General Purpose Computation on Graphics Processing Unit) bezeichnet die Verwendung eines Grafikprozessors (GPU) für Rechenaufgaben zusätzlich zu seinem eigentlichen Aufgabengebiet.
Derartige Aufgaben treten in Zukunft vermehrt auf um die Berechnungen zu beschleunigen.


Die Anfänge von GPGPU:
Angefangen hat wohl alles um das Jahr 2000. Erste GPUs mit programmierbarer Grafikpipeline erblickten das Licht der Welt und wurden dazu "missbraucht" auch andere Aufgaben zu bewältigen als 3D Szenen auf den Schirm zu zaubern.
Populär wurde GPGPU aber spätestens seit dem G80 (8800GTS/GTX) von NVidia... Dies waren die ersten GPUs mit Unified Shadern.
AMD brachte später mit dem R600 (2900XT) ebenfalls eine Karte raus, die über frei programmierbare Shadereinheiten verfügt.

GPGPU aus Hardwaresicht:
Zuerst einmal gibt es grundlegend zum aktuellen Zeitpunkt zwei Unterschiede zwischen den beiden großen GPU Herstellern (AMD und NVidia)
NVidia setzt bei ihren GPUs auf 1D ALUs, dafür aber mehr einzelne Einheiten die höher takten als der direkte Konkurrent. AMD hingegen auf 5D ALUs, dafür in der Regel weniger in der Anzahl und geringer getaktet.
In der Theorie betrachtet können AMD GPUs teils deutlich mehr Leistung entfalten als die Konkurrenzprodukte. Es kommt aber praxisbezogen stark auf die Anwendung an, ob AMDs 5D Shader ihre volle Stärke ausspielen können.

Da es im Homecomputerbereich in der Regel nur Karten mit recht geringem Grafikspeicher gibt, findet man bei beiden Herstellern auch speziell auf GPGPU ausgelegte Karten. Zu nennen wäre hier die Tesla Reihe von NVidia sowie die FireStream Produkte von AMD. Beide Hersteller verbauen bei diesen Karten mehr Grafikspeicher und bringen spezielle Treiber für die Produkte.


GPGPU aus Softwaresicht:
Im Moment kochen beide Hersteller noch ihr eigenes Süppchen wenn es um Software geht. Zu nennen wäre hier NVidias Cuda sowie Stream von AMD.
Beides sind quasi Standards bezogen auf die jeweilige Hardware des Herstellers.
Aber auch der OpenSource bzw. herstellerunabhängige Softwaremarkt hat hier Produkte im Angebot.
Allen voran OpenCL sowie DirectX Compute Shader von Microsoft.

Es ist davon auszugehen, dass die Herstellerspezifischen Schnittstellen früher oder später nahezu vollständig von offenen- und herstellerungebundenen Standards abgelöst werden. Einfach aus dem Grund, dass es keine Beschränkung auf spezielle Hardware mehr gibt. Ob man für NVidia-/AMD- eigene Projekte auch auf diese offenen Standards aufsetzt, bleibt abzuwarten.

Im allgemeinen sind erstmal alle Produkte die DX10 können auch GPGPU tauglich. Zumindest was NVidia und AMD Produkte angeht.

Zu unterscheiden ist ebenso die Berechnung an sich. Hauptaugenmerk liegt dabei auf der einfachen Genauigkeit (SP), sowie der doppelten Genauigkeit (DP)
Bei NVidias 1D ALUs rechnen bei SP alle Einheiten jeweils einen Wert, bei DP hingegen müssen immer zwei Einheiten zusammengefasst werden um die doppelte Genauigkeit zu bekommen.
Bei AMD gibt es die Möglichkeit durch unabhängige Werte voneinander alle 5D Einheiten vollständig auszulasten (SP). DP hingegen verlangt das Zusammenschalten der Einheiten. So steht bei DP nur 1/5 der Leistung von SP zur Verfügung.


Derzeit verfügbare Software:
Es gibt immer mehr Programme, die sich mit Hilfe einer GPGPU beschleunigen lassen. Einiges bieten die GPU-Hersteller sogar selbst an um ihre Produkte zu etablieren.
Zu nennen wäre da zum Beispiel Badaboom von NVidia.
http://www.nvidia.de/object/badaboom_de.html
Ein Tool zum konvertieren von Video Files direkt auf der GPU. Was im Vergleich zur Berechnung auf der CPU erheblich weniger Zeit bracht.
Auch AMD bietet mit dem AVIVO Converter ein ähnliches Produkt speziell für AMD GPUs an.
http://ati.amd.com/technology/avivo/technology.html

Aber auch andere Software lässt nicht auf sich warten. So bietet Cyberlink in ihren Produkten sowohl Cuda als auch Stream Support. Ebenso gibt es Adobes Photoshop mit Features zur Performancesteigerung durch GPGPU.
F@H als Software für Distributed Computing hat ebenso einen Client für aktuelle GPUs.

Benchmarksoftware im Bereich GPGPU könnte man zum Beispiel dieses Tool nennen.
Es besitzt auch eine ausgezeichnete Unterstützung für AMDs 5D Einheiten, was im allgemeinen bei einiger Software ein Problem ist und AMDs Karten teils recht schlechte Werte ausspucken lässt.


Schlusswort:
So gut, das soll's erstmal von mir gewesen sein. Ich erwarte hier eine Sachliche Diskussion. Gespame, Geflame oder sonstige Anfeindungen usw. sowie Missachtung der Forenregeln haben hier nichts zu suchen.
Auch soll hier kein Kleinkrieg zwischen NVidia und AMD Anhängern entstehen.

In diesem Sinne...
Fröhliches Diskutieren ;)
 
Zuletzt bearbeitet:
Wer sagt das? Nur weil einige meinen, ständig mit einem uralten F@H Client argumentieren zu müssen, soll es keine Anwendungen geben? Glaube mir, es gibt genug Anwendungen. Und so schwer sind die 5D Shader nicht auszulasten. Leider auch wieder so ein Mythos, den einige fälschlicherweise verbreiten.

Dann frage ich mich allerdings warum dann Cuda boomt und man von Stream so wenig hört:hmm:

Ist das auch ein "Mythos"?

Sind die Programmierer einfach zu faul die 5D Shader der ATI Karten zu nutzen,wenn es doch laut deinen Aussagen so einfach ist für diese entsprechenden Programme zu schreiben?

Oder hat Nvidia diese alle nur bestochen u diese folgen blind wie die Lemminge?

Scheint fast so als kennst nur du die bedeutenden Killer Applikationen,die Ati auf diesem Gebiet zu bieten hat.

Wenn das allerdings so ist wie du sagst wo sind die Apps,von denen du redest?

Von der Aussage"glaube mir" ist niemanden hier geholfen:)
 
Zuletzt bearbeitet:
Wer an der Leistungsfähigkeit von Stream zweifelt sollte einfach Collatz C (BOINC Projekt) auf einer x-beliebigen ATI Karte mit sagen wir minimal 320 Shader laufen lassen. Eine Radeon HD 3850 leistet in diesen Fall mehr als eine GTX285, das ist schon beachtlich. Hier mal die Bestenliste: http://boinc.thesonntags.com/collatz/top_hosts.php

MFG dr-ami
 
Wer an der Leistungsfähigkeit von Stream zweifelt sollte einfach Collatz C (BOINC Projekt) auf einer x-beliebigen ATI Karte mit sagen wir minimal 320 Shader laufen lassen. Eine Radeon HD 3850 leistet in diesen Fall mehr als eine GTX285, das ist schon beachtlich. Hier mal die Bestenliste: http://boinc.thesonntags.com/collatz/top_hosts.php

MFG dr-ami

Das zweifelt auch niemand an das die 5D Shader theoretisch stärker sind,u auch praktisch,wenn es denn entsprechende Apps gebe die diese auslasten.

Nur kann man diese Applikationen suchen,wie eine Nadel im Heuhaufen,das ist der Punkt!

Ob sich das mit DirectComput u Open CL nun igendwann ändert wir werden sehen;)
 
Zuletzt bearbeitet:
Dann frage ich mich allerdings warum dann Cuda boomt und man von Stream so wenig hört:hmm:

Es gibt mittlerweile mehr als genug Programme die Stream nutzen.


Viele Programme die jetzt erscheinen und die GPU nutzen, unterstützen sowohl Stream als auch Cuda. ;)


Gab letztens irgendwo auch mal einen Performancevergleich mit diversen Programmen und da lag Stream vorne.
 
Dann frage ich mich allerdings warum dann Cuda boomt und man von Stream so wenig hört
Wo boomt CUDA? nVidia vermarktet es einfach nur aggressiver, das ist alles. Und was soll das mit meiner Aussage zu tun haben? :stupid:

Sind die Programmierer einfach zu faul die 5D Shader der ATI Karten zu nutzen,wenn es doch laut deinen Aussagen so einfach ist für diese entsprechenden Programme zu schreiben?
Ich habe erstens nicht gesagt, dass sie "so einfach" auszulasten sind. Und zweitens stehen bei GPGPU Programmierung ganz andere Aspekte im Vordergrund. Du hast vermutlich nur noch nie etwas programmiert und argumentierst jetzt aus einer naiven PR-Sichtweise.
 
Jup die Cyberlink Programme z.Bsp und all sowas nutzen alle beide Techniken.

Kaum eine Softwareschmiede wird sich nur auf Cuda beschränken. Nur es wird mehr die Werbetrommel gerührt. Wenn man etwas schaut bekommt man das meinste auch mit Stream unterstützung.
 
Nvidia ist in einen Bereich der Konkurrenz schon immer meilenweit voraus: Marketing. Cuda wird von Nvidia gut vermarktet und wohl auch gut supported bei Stream sieht das bisher anders aus. Diese Collatz C und Milkyway Stream Umsetzung wurde vor allen durch den Einsatz eines Users so vorangetrieben, ATI sieht hier scheinbar keine Notwendigkeit Marketing zu betreiben im Gegensatz zu Nvidia die mit Projektbetreibern zusammen arbeiten. Nvidia wirbt auf breiter Front mit Cuda bei ATI habe ich bisher keinen Stream Aufkleber auf der Verpackung gesehen.

MFG dr-ami
 
Zuletzt bearbeitet:
mr.dude schrieb:
Ich habe erstens nicht gesagt, dass sie "so einfach" auszulasten sind.

Und so schwer sind die 5D Shader nicht auszulasten.

Mal im Ernst, wir sind hier nicht beim Wahrsagen. Diese Wortdreherei sollte man sich sparen - der Unterschied zwischen "so einfach" und "nicht so schwer" ist faktisch nicht vorhanden, und wenn er es doch ist, dann bitte mal über treffenderen Ausdruck nachdenken ;) Aber nicht etwas schreiben, was eigentlich eindeutig zu verstehen ist, und dann User anmaulen, weil man doch was anderes gemeint hat.

Und ja, ich hab schon Shader geschrieben ;)

edit: Sorry fdsonne, der musste noch ;)
 
Das Problem ist ein ganz anderes. nVidia will CUDA so aggressiv vermarkten, weil es deren proprietäre Technologie ist, die mit nichts anderem kompatibel ist, und so die eigene Hardware pushed. Und wenn man eben weniger effiziente Hardware hat, muss man sich den Vorteil über Software "erkaufen". Bei AMD hingegen steht Stream nicht im Fokus. Für eine breitflächige GPGPU Nutzung setzt AMD auf OpenCL und DirectCompute.

Mal im Ernst, wir sind hier nicht beim Wahrsagen. Diese Wortdreherei sollte man sich sparen - der Unterschied zwischen "so einfach" und "nicht so schwer" ist faktisch nicht vorhanden, und wenn er es doch ist, dann bitte mal über treffenderen Ausdruck nachdenken ;) Aber nicht etwas schreiben, was eigentlich eindeutig zu verstehen ist, und dann User anmaulen, weil man doch was anderes gemeint hat.
Ich habe das gemeint, was ich geschrieben habe. Scully hingegen wollte das in seiner typischen Art nur in ein anderes Licht rücken. DAS ist eindeutig zu verstehen. Also sag ihm das und spar dir deine verfehlten Belehrungen.
 
Zuletzt bearbeitet:
Wer an der Leistungsfähigkeit von Stream zweifelt sollte einfach Collatz C (BOINC Projekt) auf einer x-beliebigen ATI Karte mit sagen wir minimal 320 Shader laufen lassen. Eine Radeon HD 3850 leistet in diesen Fall mehr als eine GTX285, das ist schon beachtlich. Hier mal die Bestenliste: http://boinc.thesonntags.com/collatz/top_hosts.php

MFG dr-ami

Stimmt schon bei Collatz sind sie vorne, aber bei Folding@Home sind sie nicht so gut!
Je nach dem wie die Projekte optimiert wurden:

http://www.pcgameshardware.de/aid,6...-home/News/bildergalerie/?iid=937875&vollbild

:bigok:
 
Ich habe das gemeint, was dasteht. Scully hingegen wollte das in seiner typischen Art nur in ein anderes Licht rücken. DAS ist eindeutig zu verstehen. Also spar dir deine Belehrungen.

Ich würde ja sagen, er hat, bewusst oder nicht, offengelegt, dass die Aussage nichts wert war. Außer einigen Auserwählten hier weiß niemand, ob es schwer oder leicht ist, 5D-Shader zu programmieren. Viele wissen vermutlich nichtmal, was das eigentlich genau ist. Folglich können diejenigen auch nicht deuten, ob "nicht so schwer" jetzt "leicht" bedeuten soll oder vielleicht irgendwas anderes, was du verschwiegen hast. Weil du das alles aber sicherlich mindestens so gut weißt wie ich, muss ich mich wundern, warum du denn in einer Diskussion mit scully überhaupt eine solche Aussage bringst. Insofern ist die "Belehrung" mit der Diskussionskultur möglicherweise nicht ganz fehl am Platz.

Zum Thema, ich muss mich leider der Meinung vieler hier anschließen. Ich finde, die Abwesenheit jeglicher Bereitschaft, Fermi zu präsentieren, und vor allem die sehr begrenzte Lobhudelei - die man so einfach nicht gewohnt ist - sprechen eine eindeutige Sprache. Marketing für ein gutes Produkt ist das jedenfalls nicht.

edit: Kann mir einer erklären, wie man durch akkumulierte Rechenleistung die Collatz-Vermutung beweisen will?
 
Zuletzt bearbeitet:
Stimmt schon bei Collatz sind sie vorne, aber bei Folding@Home sind sie nicht so gut!
Je nach dem wie die Projekte optimiert wurden:

http://www.pcgameshardware.de/aid,6...-home/News/bildergalerie/?iid=937875&vollbild

:bigok:

Mit Folding kenn ich mich leider nicht aus. Es kommt immer darauf an was eigentlich berechnet wird und welche Architektur damit am besser zurecht kommt. Vielleicht kann Folding ATI-Karten nicht so gut auslasten wie die Karten der Konkurrenz was natürlich auch bei Collatz C der Fall sein kann nur mit umgekehrten Vorzeichen.

MFG dr-ami
 
Das ist nur im idle der Fall, da die Karten einen Bug in Verbindung mit GDDR5 besitzen, der das Heruntertakten verhindert. Siehe dazu auch die GDDR3 HD4850, die nicht übermäßig sparsamer ist (bei CB nur 13W weniger als die GTX260 in 55nm).

Dann frage ich mich allerdings warum dann Cuda boomt und man von Stream so wenig hört:hmm:

Das liegt am guten Support durch Nvidia. Stream ist da eher ein Papiertiger.
 
Zuletzt bearbeitet:
Weil du das alles aber sicherlich mindestens so gut weißt wie ich, muss ich mich wundern, warum du denn in einer Diskussion mit scully überhaupt eine solche Aussage bringst.
Ich habe gar nicht mit scully diskutiert. Meine Aussage bezog sich auf einen Beitrag von fdsonne. Dass scully seine permanenten Provokation nicht stecken lassen kann, liegt nicht in meiner Verantwortung. Insofern solltest du deine "Belehrungen" eventuell an ihn richten. ;)

Stimmt schon bei Collatz sind sie vorne, aber bei Folding@Home sind sie nicht so gut!
F@H basiert für Radeons leider noch auf einer uralten Brook Implementierung für die R600 Generation. Mit einer aktuellen Implementierung würde ATI wahrscheinlich auch dort vorne liegen.
 
Dass scully seine permanenten Provokation nicht stecken lassen kann, liegt nicht in meiner Verantwortung. Insofern solltest du deine "Belehrungen" eventuell an ihn richten. ;)
.

Das hat rein gar nix mit Provokation zu tun,nur ich werde nix stehen lassen,was offensichtlich die Realität verdreht.

Du magst bestimmt auf einigen Gebieten eine Koryphäe sein,nur nimm bitte zur Kenntniss,das einige sich auch ein Bisschen auskennen,auch wenn du ihnen des öfteren mal Unwissenheit unterstellst.
@mr dude
und argumentierst jetzt aus einer naiven PR-Sichtweise

Und wenn hier gewollt Blödsinn über Cuda vs Stream geschrieben wird,um unwissende Leser in eine bestimmte Richtung "zu drücken",musst du auch damit rechnen das manche hier ihr Veto einlegen.

Ob dir das nun schmeckt oder nicht sollte anderen allerdings egal sein;)
 
Zuletzt bearbeitet:
wieso bei DP nur 1/5 der sp Leistung bei ATI müsste das nit 2/5 sein ? der "5te" shader des 5D Shader bleibt unausgenutzt
 
Ne, soweit ich weis nur 1/5tel. 4 der 5 Teile arbeiten zusammen an einem DP Wert. Der letzte liegt brach...

Die Diskusion hatten wir aber schonmal, weis nur nich mehr genau wo...
 
Jupp, ich erinner mich dunkel. Die GPU kann nur 2/5 nutzen, wenn MUL oder ADD gefragt ist. Bei MAD sinds nur 1/5...
 
Programme für GPU-Computing (ATI)

Hi,
ich wollte mal fragen, da es ja für NVIDIA CUDA jede Menge Programme gibt, ob es nicht auch irgendwas für ATI-Karten gibt.

mfg
Kai
 
Zum Cracken von Hashes gibt es einige Programme, das zur Zeit beste findest du hier. Dort hat Nvidia keine Schnitte, auch ohne die 5800er-Serie ;)
 
Hallo,

kann mir jemand eine freeware nennen, mit der ich mit Hilfe meiner Radeon4850 Videos konvertieren kann? (diesen AVIVO Converter krieg ich einfach nicht installiert :( )
Oder ist der Geschwindigkeitsunterschied zu ner aktuellen CPU gar nicht so groß?
 
Zuletzt bearbeitet:
Hallo,

kann mir jemand eine freeware nennen, mit der ich mit Hilfe meiner Radeon4850 Videos konvertieren kann? (diesen AVIVO Converter krieg ich einfach nicht installiert :( )
Oder ist der Geschwindigkeitsunterschied zu ner aktuellen CPU gar nicht so groß?

Einen guten Konverter wirst du denke ich kaum für Lau bekommen,weder von ATI noch von Nvidia.

Alle Programme die etwas taugen sind auch mit Anschaffungskosten verbunden:)

Oder ist der Geschwindigkeitsunterschied zu ner aktuellen CPU gar nicht so groß?

Nun wenn ich mit TmpeGenc einen Film konvertiere bin ich mit der Grafikkarte 280GTX im Schnitt 2 bis 4mal so schnell fertig(je nach Videomaterial) als mit meinem I7 965 XE bei gleicher Qualität des Endmaterials.

Ich denke das spricht klar für eine Berechnung auf der Grafikkarte:)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh