Cuda Extrem Supercomputer mit Grafikkarten ohne Worte

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hab da gerade was gefunden zum thema double precision

Es scheint sich doch was zu tun auf den gebiet (6 bis 15fache leistungssteigerung im double precision),offensichtlich nimmt sich nvidia des problems im cluster sektor an u wer weiss was cuda 3.0 noch so bringt an flexibilität;)

Nvidia scheint es also doch ein bisschen ernster zu meinen im supercomputerbereich



http://www.heise.de/newsticker/Graf...ias-DirectX-11-Chip-3-TFlops--/meldung/136687

zuerst kleine Systeme so mit GraKas und CUDA aufbauen, später dann vllt. direkt auf größere Systeme übergehen, wer weiß :rolleyes:
 
Na sooo klein ist das system ja gar nicht u mit 23 x g300 chips wäre das rack in der höchsten ausbaustufe,wenn die gerüchte stimmen sollten schon bei ca 69 teraflops an leistung(singel) bei geringerer leistungsaufnahme wie jetzt mit den dual karten:bigok:

U dann wohl auch deutlich gesteigerter double precision;)
 
Nun wie ich schon sagte vielleicht arbeitet nvidia dieser problematik ja schon entgegen,sei es bei der architektur des g300 oder in form von cuda3.0;)

Auch könnte sich die programmierung eventuell flexibler darstellen mit kommenden generationen u die grafikarten auch für weitaus komplexere aufgaben fit machen.

Es bleibt auf jedenfall spannend auf dem sektor

Ein problem ist es ja nur für die minderheit der kunden. Diese dinger werden zu 99% an spieler verkauft - die interessiert DP performance nicht die bohne. Aber wenn das transistor budget es zulässt, dann kann es durchaus sein, dass sich da was tut in zukunft. Nvidia muss sich ja diversifizieren um nicht irgendwann den gleichen weg wie 3dfx zu gehen...


Hab da gerade was gefunden zum thema double precision

Es scheint sich doch was zu tun auf den gebiet (6 bis 15fache leistungssteigerung im double precision),offensichtlich nimmt sich nvidia des problems im cluster sektor an u wer weiss was cuda 3.0 noch so bringt an flexibilität;)

Nvidia scheint es also doch ein bisschen ernster zu meinen im supercomputerbereich



http://www.heise.de/newsticker/Graf...ias-DirectX-11-Chip-3-TFlops--/meldung/136687

Habe ich gestern auch gesehen, aber ist ja auch nur spekulation einer news seite von der ich noch nie was gehört habe (wenns denn wenigstens eine der bekannten quasselseiten wäre, dann wüsste man wie wenig man drauf geben kann ;))

In dem heise artikel steht ja aber auch mal eine glatte zahl für die DP performance einer GTX285. Mit 89Gflops ist das wahrlich nicht berauschend. Das dürfte ein dual xeon-dp (nehalem) locker übertreffen.

Man wird sehen wie sich das ausgeht.
 
Ein problem ist es ja nur für die minderheit der kunden. Diese dinger werden zu 99% an spieler verkauft - die interessiert DP performance nicht die bohne. Aber wenn das transistor budget es zulässt, dann kann es durchaus sein, dass sich da was tut in zukunft. Nvidia muss sich ja diversifizieren um nicht irgendwann den gleichen weg wie 3dfx zu gehen...
.

Stimmt das wäre ironie des schicksals wenn gerade den hersteller das selbe schicksal treffen würde wie damals 3dfx als sie von nvidia aufgekauft wurden:fresse:

Aber dieser "geringe" kundenkreis der solche cluster für wissenschafliche zwecke verwenden möchte,verspricht aber einen enormen gewinn wenn sich nvidia dort festbeissen könnte:d

Allerdings dürfte das sun,ibm u co so gar nicht in den kram passen

Ich sehe es noch nicht mal so sehr als eine falsche "gerüchtenews" an,denn nvidia hat ja schon angekündigt das sich mit cuda3.0 u den neuen karten einiges tun wird auf dem sektor;)
 
Zuletzt bearbeitet:
Ein problem ist es ja nur für die minderheit der kunden. Diese dinger werden zu 99% an spieler verkauft - die interessiert DP performance nicht die bohne. Aber wenn das transistor budget es zulässt, dann kann es durchaus sein, dass sich da was tut in zukunft. Nvidia muss sich ja diversifizieren um nicht irgendwann den gleichen weg wie 3dfx zu gehen...
das wird sich aber in naher zukunft ändern, da die GPUs um ein vielfaches schneller sind als CPUs (Gleitkommarechnen).
 
das wird sich aber in naher zukunft ändern, da die GPUs um ein vielfaches schneller sind als CPUs (Gleitkommarechnen).

Aber eben aktuell nur in speziellen Bereichen...
In vielen gebräuchlichen Sachen, wo Supercomputer dran rechnen bringt die GPU nicht wirklich Vorteile...

Aber darüber wurde doch die ganze Zeit hier gesprochen :hmm:
 
das wird sich aber in naher zukunft ändern, da die GPUs um ein vielfaches schneller sind als CPUs (Gleitkommarechnen).

Das nützt dir in dem falle,wie fdsonne schon sagte noch nix,weil eben die dual performance noch zu niedrig ist bei aktuellen gpus(in der news 85 gflops für eine einzelne 285er)


Wir werden sehen in wie weit nvidia da mit dem g300 aufholen kann u was auch noch viel wichtiger ist,wie flexibel der chip für andere aufgaben,ausser einfacher parallelisierung,im clusterbereich dann geeignet ist

Vielversprechend ist der gpu ansatz in dem sektor jedenfalls;)
 
Zuletzt bearbeitet:
Aber eben aktuell nur in speziellen Bereichen...
In vielen gebräuchlichen Sachen, wo Supercomputer dran rechnen bringt die GPU nicht wirklich Vorteile...

Aber darüber wurde doch die ganze Zeit hier gesprochen :hmm:
was heißt da speziel, von video bis zu komplizierten berechnungen ist alles dabei, der markt wächst und wird immer größer.

wenn die graka etwas 4x schneller schafft als eine CPU, dann ist klar in was man sein geld stecken wird. es gibt noch nicht viel programme dafür, aber es wird immer mehr.
 
Zuletzt bearbeitet:
vllt. sieht man diese CUDA-Sache als Zwischenstufe einer Entwicklung, von GraKas angefangen bis hin zu Supercomputern später . . .
 
was heißt da speziel, von video bis zu komplizierten berechnungen ist alles dabei, der markt wächst und wird immer größer.
.

Das bringt dir aber doch nix wenn die performance bei 2 oder 4facher genauigkeit(wie sie in der wissenschaft gebraucht wird) extrem abfällt u das ist derzeit anscheinend noch der fall bei nvidia karten.

"Einfache" parallelisierte programme mit singel precision wie es bei folding@home angewendet wird kannst du nicht mit komplexen berechnungen in der z.B atom physik vergleichen;)

Atomare simulationen(mit supercomputern wie road runner,blue gene oder oder oder) müssen ein "bisschen" effizienter(genauer) ablaufen als es bei folding@home der fall ist

Vielleicht schafft es nvidia ja mit der nächsten generation näher heran zukommen wir werden sehen;)
 
Zuletzt bearbeitet:
Das bringt dir aber doch nix wenn die performance bei 2 oder 4facher genauigkeit(wie sie in der wissenschaft gebraucht wird) extrem abfällt u das ist derzeit anscheinend noch der fall bei nvidia karten.
und man muss dazu auch noch anmerken, dass die ganzen Berechnungen alle nur "Näherungen" und keine absoluten Werte sind. Es wird immer ein gewisser Fehler vorhanden sein... siehe damals die Datenbanken von PG&E in California
 
Das bringt dir aber doch nix wenn die performance bei 2 oder 4facher genauigkeit(wie sie in der wissenschaft gebraucht wird) extrem abfällt u das ist derzeit anscheinend noch der fall bei nvidia karten.
um zum eingentlichen zurückzukommen:
CUDA wird seinen weg machen, es ist nur schlecht, wenn man vor der zukunft seine augen verschließt.
bisher sind wohl hauptsächlich spieler an den guten grakas interessiert, das ändert sich aber immer mehr.


Das Unternehmen setzt dabei auf eine Cluster-Lösung von NVIDIA.

Das neue System besteht aus 42 NVIDIA-Tesla-GPUs, die von 14 Quad-Core-Prozessoren AMD Phenom gesteuert werden. Die Rechenleistung liegt bei über 40 TFLOPS.
....usw....usw.
 
um zum eingentlichen zurückzukommen:
CUDA wird seinen weg machen, es ist nur schlecht, wenn man vor der zukunft seine augen verschließt.
bisher sind wohl hauptsächlich spieler an den guten grakas interessiert, das ändert sich aber immer mehr.



....usw....usw.

Du solltest dir noch mal die postings von scully und mir durchlesen. Da ging es um den vergleich zwischen supercomputern und dem was mit GPGPU möglich ist und der schlussfolgerung, dass aktuell GPGPU in der hinsicht kein land sieht, noch nicht mal gegen die schnellsten CPUs wenn es um berechnungen geht, für die supercomputer gebaut werden, nämlich mit hoher FP präzision und nicht bloss einfachen streaming aufgaben wo single precision ausreicht.

Was du als beispiel anführst ist was ganz anderes. Und das machen GPGPUs auch prima. Aber das andere können sie eben bislang überhaupt nicht gut - CUDA hin, CUDA her.

Man muss die dinge schon auseinander halten.
 
Genau so ist die situation z.Zt,wie garni es ausgedrückt hat

Das die 200er serie in dual precision so ineffizient ist war mir zwar neu aber man lernt halt nie aus;)

Aber sollte es nvidia u ati tatsächlich gelingen mit stream,cuda oder was auch immer kommen mag die shader alus flexibler u effizienter einzusetzen,bietet der clustersektor enormes entwicklungspotential für GPGPU berechnungen

Allein schon aus ökonomischer sicht,(stichwort stromverbrauch):d
 
Zuletzt bearbeitet:
ich würde von dem thema double precision weg gehen, der thread hat sich an diesem punkt festgefahren.

Ich wüsste nicht was sich da festgefahren hat. Die sachlage ist doch klar. Du hast aber auf einige aussagen zum thema DP mit (durchaus richtigen) fakten zur (SP) streaming performance geantwortet, die man aber nicht miteinander vergleichen kann und darf. Das wollte ich nochmal hervorheben. Das ist alles.

Um die zukunft nochmal aufzugreifen:

Wenn die nächsten produkte dann an dieser schwäche feilen, dann könnte das den weg auch für hochspezialisierte anwendungen ebnen. Aber da wo die hin wollen warten eben auch schon firmen wie ClearSpeed mit ihren CATS-700 1U einschüben die über 1.1TFlops bei doppelter genauigkeit und gerade einmal 400-500W leistungsaufnahme jetzt schon im angebot haben.

Ich bin einfach der meinung, dass es doch keinen sinn macht nur über die vorteilhaften facetten von GPGPU zu sprechen nur weil die anderen aspekte eben (noch) nicht besonders gut anzuschauen sind.
 
Das die 200er serie in dual precision so ineffizient ist war mir zwar neu aber man lernt halt nie aus;)...
wieso ineffizient?
Nvidia hat für Double afaik extra Einheiten im Chip und es war immer die Rede von 100 Gflops theoretischer Leistung.
Hier ist die Rede von 89 Gflops gewesen und somit sind wir fast bei der theoretischen Leistung.
Ich find das Thema sehr spannend, aber als nächstes muss sich erstmal wieder deutlich was in der Spieleleistung tun. Und hierfür brauchts bisher keine Einheiten, die Double Precision können.
Wenn die GPU dann aber zusätzlich noch mehr GPGPU-Leistung und das auch in Double bekommt, dann soll es mir natürlich recht sein.
Dem G200 haben diese "speziellen" Einheiten ja einige angekreidet.
Eventuell wechselt Nvidia ja auf den gleichen Ansatz wie ATI.
Die stellen Double momentan über mehrere Durchläufe auf den "normalen" Einheiten dar.

ciao Tom
 
Zuletzt bearbeitet:
wieso ineffizient?
Nvidia hat für Double afaik extra Einheiten im Chip und es war immer die Rede von 100 Gflops theoretischer Leistung.
Hier ist die Rede von 89 Gflops gewesen und somit sind wir fast bei der theoretischen Leistung.

[...]

Dem G200 haben diese "speziellen" Einheiten ja einige angekreidet.
Eventuell wechselt Nvidia ja auf den gleichen Ansatz wie ATI.
Die stellen Double momentan mit mehreren Durchgängen auf den "normalen" Einheiten dar.

Im vergleich zu eben dem ansatz von ATI ist es schon relativ ineffizient. Bei ATI bleibt deutlich mehr DP leistung im verhältnis zur rohen SP leistung übrig, mit der sie ja alle zusammen immer gross hausieren gehen.
 
. Aber da wo die hin wollen warten eben auch schon firmen wie ClearSpeed mit ihren CATS-700 1U einschüben die über 1.1TFlops bei doppelter genauigkeit und gerade einmal 400-500W leistungsaufnahme jetzt schon im angebot haben.
Richtig aber jetzt münzen wir das mal auf den g300 um,wenn dieser den gerüchten nach wirklich 3 teraflops (singel) ereicht und nur 1/3 der leistung übrig bleiben würde im double(was zugegebener maßen schon wieder ineffizient wäre in meinen augen) dann hätte er ein besseres stromverbrauch zu leistungsverhältniss als diese;) Ich habe die hoffnung u den glauben immer noch nicht ganz aufgegeben das er nicht über die pcie spezifikationen hinaus wächst in sachen stromverbrauch:fresse:
 
Zuletzt bearbeitet:
@Gani
Das kann man doch nicht vergleichen.
Aber vielleicht hängts auch daran, wie man die Effizienz definiert.
Für mich ist es der Vergleich aus theoretischer zu tatsächlicher Leistung.
Aber dafür fehlen dann die Informationen, da anscheinend die theoretische Leistung bei 90 Gflops liegt: http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/4/ (da gibts einen Punkt "Double Precision")
Da sieht man auch, das nur ein Teil der ALUs für Double geeignet ist.
Von daher ists auch logisch, dass hier dann die Leistung kleiner ist als bei Single. Für Single stehen einfach deutlich mehr Einheiten zur Verfügung.

Ineffizient ist wohl aber der Verbrauch an Chipfläche.

@scully1234
beim G300 kann die Leistung bei Double mit dem bisherigen Ansatz nur steigen, wenn hierfür auch mehr Einheiten verbaut werden.
Aus Spielersicht brauchts das aber nicht.
Alternativ könnte Nvidia auch auf den ATI-Ansatz wechseln. Oder man macht vielleicht eine Kombination aus beidem.

ciao Tom
 
Zuletzt bearbeitet:
@scully1234
beim G300 kann die Leistung bei Double mit dem bisherigen Ansatz nur steigen, wenn hierfür auch mehr Einheiten verbaut werden.
Aus Spielersicht brauchts das aber nicht.
Alternativ könnte Nvidia auch auf den ATI-Ansatz wechseln. Oder man macht vielleicht eine Kombination aus beidem.

ciao Tom

Wir betrachten den chip ja z.Zt nicht aus spielersicht,sondern in hinblick auf seine GPGPU fähigkeiten;)
Eventuell wechselt Nvidia ja auf den gleichen Ansatz wie ATI.
Die stellen Double momentan über mehrere Durchläufe auf den "normalen" Einheiten dar.

ciao Tom
Damit würde man aber keine 6 bis 15 fache effizienzsteigerung ereichen,so wie in der news gemutmaßt wird,das genaue gegenteil wäre dort der fall;)
 
Zuletzt bearbeitet:
Wir betrachten den chip ja z.Zt nicht aus spielersicht,sondern in hinblick auf seine GPGPU fähigkeiten;)

Bedenke aber nach wie vor noch, das es sich um eine Grafikkarte handelt, sprich, in erster Linie zählt das was an 3D Leistung hinten raus kommt...
Erst danach kommt der Rest, wofür man das Produkt noch missbrauchen kann.

Wenn man mit wenig Aufwand die Leistung für den besagten "Rest" deutlich steigern könnte, wird man das sicher auch tun.
Aber wenn eben viel Aufwand bestehen würde, um die Leistung im GPGPU Bereich, speziell doppelte Genauigkeit, zu steigern, stellt sich nun wieder die Frage, ob das ganze für den Endkunden Sinn macht...

Denn seien wir mal realistisch, die potentiellen Käufer solcher Karten sind nach wie vor Gamer.
Im professionellen Bereich gibts die FireGL und Quadros, welche aber auch ein Unding mehr kosten...
Eventuell trennt sich auch irgendwann das Lager... Sprich wir werden reinrassige Grafikkarten sehen, und wir werden im Profi Bereich Karten sehen, die eben noch mehr als nur 3D Berechnen können.


Ein weiterer nicht zu vergessender Punkt stellt wohl auch der Speicher dar, auch wenn man die Rechenleistung mit jeder neuen Gen. immer weiter verbessern, vllt sogar verdoppeln kann, bleibt immer noch das Problem mit dem Speicher.
Schließlich will die GPU auch ausreichend mit Daten versorgt werden... Bei Speichergrößen von 4GB aktuell für die Quadros ist das schon recht wenig im Verhältniss zur theoretisch machbaren Rechenleistung mit einfacher Genauigkeit...
 
@fdsonne: klar, GraKas sind primär dazu gedacht, eine hohe 3D Leistung zu bringen. Aber wenn nV nun merkt, dass sie mit GPGPU wesentlich mehr Geld auf dem Sektor verdienen, dann investieren sie dort mehr Geld. Da beeinflusst im Endeffekt auch der Markt solche Entwicklungen.

Laut einigen Berichten soll die DP-Leistung des G300 ordentlich steigen. Wie sieht es mit SP bzw. DP bei Intels Larabee aus? Der dürfte damit doch keine Probleme haben?
 
Du hast schon recht...
Aber, das ganze wird früher oder später wenn dann darauf hinaus laufen, das sich hier der Profibereich und der Mainstream Gamer Bereich weiter trennen werden...

Im Gamingbereich bringen dir die hohe DP Leistung eher keine Vorteile, ganz im Gegenteil, eswird wohl mehr GPU Fläche und somit Transistoren verschwendet werden.
Sowas kann man bauen, wenn man Monopolist ist, aber gerade die heutige Zeit mit dem RV770 und G200 zeigt doch, das wirklich alles passen muss, wenn man oben mitspielen will.
Und den Gamer interessiert es nicht, ob die Karte potentiell gut in der Lage wäre, DP Leistung zu bringen, der will, das seine Games gut laufen...
 
Ich weiss nicht ob man das überhaupt so differenziert sehen muss u ob nvidia überhaupt unterschiedliche karten für beide bereiche(games/cluster) entwickeln will was wiederum auch sehr aufwendig wäre u entwicklungskosten verschlingt anstatt einfach die shader in richtung db zu optimieren u nur ein produktlinie auszuliefern die beides beherscht;)

Ein klares anzeichen dafür ist ja schon das gerücht um die 6 bis 15 fache steigerung im db bereich beim "normalen" g300 chip.

Das dies nur der quadro chip können sollte in zukunft daran glaube ich ehrlich gesagt nicht,denn ein cluster aus quadro karten zu erstellen wäre im endefekt immens teuer u nicht mehr konkurenzfähig gegen normale cell cluster.

Das kann nicht in nvidias sinn sein wenn sie dort ein standbein haben wollen

Und senkt man den preis bei quadro karten macht man sich im endefekt den gewinn im cad bereich zu nichte,also bliebe nur die erste option;)
 
Zuletzt bearbeitet:
Das dies nur der quadro chip können sollte in zukunft daran glaube ich ehrlich gesagt nicht,denn ein cluster aus quadro karten zu erstellen wäre im endefekt immens teuer u nicht mehr konkurenzfähig gegen normale cell cluster.
eins hast du übersehen, nVidia kann die Karten für die Quadro Serie schon so produzieren und einige Einheitung bzw. Logikbereiche hinterher für den Desktop bereich deaktivieren, so wie Intel das mit dem 2.ten QPI macht der eiegntlich bei jedem i7 Prozzi dabei ist
Meiner Meinung nach will nVidia sich die Zukunft nicht verbauen und flexibel bleiben mit der Lösung, daher wird auch in GPGPU investiert. Wenn man Intel mit Larabee sieht, die gehen auch einen änlichen Weg
 
Ihr vergesst Tesla. Quadro sind Karten für technische Zeichnungen etc., Tesla dagegen ist nurnoch auf Berechnungen ausgelegt.

Außerdem, wenn NV ein neues Geschäftsfeld einnehmen möchte würde sich die Entwicklung eines eigenen Chips schon rentieren. Ob er dabei im groben auf dem Grafikchip basiert ist doch relativ.

Das Problem ist P/L, und wenn NV mit dem GT300 zweigleisig fahren will kann es sein, dass der Chip zu teuer wird und beide möglichen Kunden, der Gamer, der von den zusätzlichen Eigenschaften nichts hat, und der Profi, der für das 3D können des Chips nicht mitbezahlen möchte nicht bereit sind das Produkt zu kaufen.
 
Dann wäre es doch eigentlich sinnfrei die DP leistung eines normalen ich nenne es jetzt mal "gamer" chip mit in die höhe zu ziehen,wenn man vor hätte zweigleisig oder in dem falle sogar dreigleisig zu fahren(gamer,cluster u quadro)

Ich tippe eher auf einen chip der alles kann mit optimierten DP shadern für die clusteranwendungen,so wie es bis jetzt auch war zwischen quadro und mainstreambereich
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh