CUDA zu oneAPI und ROCm: NVIDIA schränkt Übersetzungsschicht ein

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.945
NVIDIAs Compute Unified Device Architecture (CUDA) ist noch immer der Defacto-Standard einer Programmierschnittstelle, um Software zu entwickeln, die dann auf der GPU ausgeführt werden kann. Über Jahre hat NVIDIA hier ein entsprechendes Ökosystem auf Hard- und Software aufgebaut, was letztendlich auch dazu geführt hat, dass man im GPU-Computing und nun auch im KI-Segment der führende Hersteller ist.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das ging schneller als erwartet.
 
War ja sowas von "klar" ... :sneaky:
 
Kann ja nicht sein das die Konkurrenz für den fast halben Preis die gleiche Leistung in CUDA Anwendungen liefern kann.
Ich hoffe das hier Nvidia mal vom Gesetzgeber/EU auf den Deckel bekommt.

Unfaire Praktiken im Wettbewerb sind halt auch leider nur möglich, wenn man das Geld dazu hat. Jetzt hat man sich die Arbeit gemacht eine Übersetzung zu schreiben die mit gewissem Leistungsverlust einhergeht und dann kommt so etwas.
War ja klar.
 
@Shutterfly da im Text die Rede von einer Anpassung der Nutzungsbedingungen ist die jetzt wohl erst bekannt wurde / erfolgt ist, ist meine Aussage kein Witz.
Zluda ist vor wenigen Wochen aufgetaucht, die Leute stürzen sich drauf und --> "Das ging schneller als erwartet."
 
Kann ja nicht sein das die Konkurrenz für den fast halben Preis die gleiche Leistung in CUDA Anwendungen liefern kann.
Ich hoffe das hier Nvidia mal vom Gesetzgeber/EU auf den Deckel bekommt.

Unfaire Praktiken im Wettbewerb sind halt auch leider nur möglich, wenn man das Geld dazu hat. Jetzt hat man sich die Arbeit gemacht eine Übersetzung zu schreiben die mit gewissem Leistungsverlust einhergeht und dann kommt so etwas.
War ja klar.
Wie kommst du denn auf diese steile These?

Hast du schon mal mit ROCm gearbeitet? Klingt irgend wie nicht danach.
 
Uhhmm CUDA existiert bereits seit längerer Zeit und hat eine große und etablierte Benutzerbasis sowie eine umfangreiche Dokumentation. Das bedeutet, dass es für Entwickler, die mit CUDA-Architekturen arbeiten, mehr Ressourcen, Tutorials und Forenunterstützung gibt. ROCm entwickelt sich zwar, hat aber immer noch nicht das Niveau an Unterstützung und Ressourcen wie CUDA. Es ist immer noch weniger ausgereift im Vergleich zu CUDA. Dies macht sich in der Stabilität, Leistung und den verfügbaren Features bemerkbar. Entwickler werden auf mehr Bugs oder Unzulänglichkeiten in den Werkzeugen und Bibliotheken stoßen.

CUDA-optimierte Anwendungen werden in viel Fällen besser performen als ihre ROCm-Pendants. Auch wenn das von der spezifischen Anwendung, der verwendeten Hardware und der Art der durchgeführten Berechnungen abhängt. CUDA hat eine breitere Palette an spezialisierten Bibliotheken und Werkzeugen.

Während ROCm den Vorteil bietet, offener und plattformübergreifender zu sein, kann die tatsächliche Portabilität von Code zwischen unterschiedlichen Architekturen oder Betriebssystemen immer noch problematisch sein. CUDA-Programme sind stark an NVIDIA-GPUs gebunden, aber sie profitieren von der Konsistenz und Vorhersagbarkeit innerhalb dieses Ökosystems - also ein bisschen die Vorteile einer PS gegenüber dem PC oder Apple gegenüber Android. Abgesehen davon, dass CUDA auf Windows und Linux läuft und Rocm nur auf Linux. Das war zumindest mein letzter Stand.
 
Ich hoffe das hier Nvidia mal vom Gesetzgeber/EU auf den Deckel bekommt.
Warum sollte man für das verwenden der eigenen Software passend zu seiner Hardware was auf den Deckel bekommen ?
Intel und speziell AMD bekommen halt dementsprechend nichts auf die Reihe und haben darüber hinaus gut Kohle versenkt für ihren "open source" CUDA Emulator :lol:.
 
Irgendwas mit Kartellamt und Wettbewerb. Aber praktisch wird natürlich gar nix passieren.
 
Warum sollte man für das verwenden der eigenen Software passend zu seiner Hardware was auf den Deckel bekommen ?
Intel und speziell AMD bekommen halt dementsprechend nichts auf die Reihe und haben darüber hinaus gut Kohle versenkt für ihren "open source" CUDA Emulator :lol:.
Weil das die gleiche Situation oder ähnlich ist wie damals das illegale Kartell von Intel & Dell, als Intel Dell spezielle Preise angeboten hatte dafür das sie keine AMD Produkte im Sortiment anbieten.

Das geht in gleiche Richtung mit den Softwareentwicklern, so macht das Nvidia seid jeher angefangen mit DLSS & Raytracing.
Als das AMD einmal bei Starfield gemacht hat, war das Geschrei groß.
Wenn es umgekehrt ist also Nvidia bevorzugt wird zu release und AMD erst kurz vor Release Zugang zum Game bekommt um die Treiber zu optimieren wird nur herumgeritten warum AMD Grafikkarten zu Release so schlecht performen.

Aber ich verstehe schon wenn man Fanboy ist und Aktien hält, ist einem Wettbewerb egal Hauptsache das was mir gehört geht steil.

Edit: Übrigens das ist auch einer der Gründe warum Intel sich so schwer tut, sie brauchen nicht nur länger weil sie weit unerfahrener sind als AMD & Nvidia im Gaming Grafik Markt, sondern sie erhalten auch erst spät kurz vor Release oder erst am Release Tag Zugang zum Game/Software um die Treiber dafür zu optimieren.
 
Weil das die gleiche Situation oder ähnlich ist wie damals das illegale Kartell von Intel & Dell, als Intel Dell spezielle Preise angeboten hatte dafür das sie keine AMD Produkte im Sortiment anbieten.

Das geht in gleiche Richtung mit den Softwareentwicklern, so macht das Nvidia seid jeher angefangen mit DLSS & Raytracing.
Als das AMD einmal bei Starfield gemacht hat, war das Geschrei groß.
Wenn es umgekehrt ist also Nvidia bevorzugt wird zu release und AMD erst kurz vor Release Zugang zum Game bekommt um die Treiber zu optimieren wird nur herumgeritten warum AMD Grafikkarten zu Release so schlecht performen.

Aber ich verstehe schon wenn man Fanboy ist und Aktien hält, ist einem Wettbewerb egal Hauptsache das was mir gehört geht steil.

Edit: Übrigens das ist auch einer der Gründe warum Intel sich so schwer tut, sie brauchen nicht nur länger weil sie weit unerfahrener sind als AMD & Nvidia im Gaming Grafik Markt, sondern sie erhalten auch erst spät kurz vor Release oder erst am Release Tag Zugang zum Game/Software um die Treiber dafür zu optimieren.
Bei welchem Spiel hat Nvidia die Implementierung von AMD Software unterbunden?
 
Bei welchem Spiel hat Nvidia die Implementierung von AMD Software unterbunden?
Bei keinem, aber den Zeitpunkt frühestens ab Release oder kurz vor Release. Das heißt Exclusive.
Bei FSR hatte wohl Nvidia nicht unterbunden, weil es auch ein gratis Upgrade für die 900er/1000er Grafikkarten Serie war.

Wie lange hat es gedauert bis Nvidia auf druck von VESA erlaubt hatte das die Grafikkarten endlich auch mit Adeptive Sync laufen?
Wie lange hat sich Nvidia geweigert die Funktion der Grafikkarte nicht einzuschränken bis Microsoft druck gemacht?
Nvidia Treiber haben lange Zeit die Arbeit verweigert wenn eine AMD Karte im System war.

Darum geht es ja LUDA ist eine Methode AMD Architektur CUDA kompatibel zu machen, das wäre so als würde AMDs KI Beschleuniger DLSS nutzen, das will Nvidia nicht.
Das soll ausschließlich Nvidia vorbehalten bleiben. Das ist ja das Resultat aus dem hier.

Ich meine _roman_ hat hier alles wichtige bereits genannt. In der IT ist es wichtig Kompatibilität zu haben.
 
Bei keinem, aber den Zeitpunkt frühestens ab Release oder kurz vor Release. Das heißt Exclusive.
Bei FSR hatte wohl Nvidia nicht unterbunden, weil es auch ein gratis Upgrade für die 900er/1000er Grafikkarten Serie war.
Na weil der Absatz hört sich ein bisschen anders an.
Das geht in gleiche Richtung mit den Softwareentwicklern, so macht das Nvidia seid jeher angefangen mit DLSS & Raytracing.
Als das AMD einmal bei Starfield gemacht hat, war das Geschrei groß.

Und welche AMD Treiber sollen denn den Dienst verweigern, wenn eine AMD Karte installiert ist?

AMDs KI Beschleuniger DLSS nutzen, das will Nvidia nicht.
Ich glaube hier gehts weniger um wollen und mehr um können.
 
Und welche AMD Treiber sollen denn den Dienst verweigern, wenn eine AMD Karte installiert ist?
Nvidia Karten haben den Dienst verweigert wenn auch eine AMD Karte installiert war.
Früher wurden gerne Nvidia Karten als Physics Karten genutzt, Nvidia wollte das unterbinden.
Obwohl der Benutzer sogar legal die Hardware gekauft hat, man musste mit hacks und workarounds den Treiber täuschen.
Das ist schon traurig.

Ich glaube hier gehts weniger um wollen und mehr um können.
LUDA ist doch ein können, aber Nvidia nicht wollen.
 
Nvidia Karten haben den Dienst verweigert wenn auch eine AMD Karte installiert war.
Früher wurden gerne Nvidia Karten als Physics Karten genutzt, Nvidia wollte das unterbinden.
Obwohl der Benutzer sogar legal die Hardware gekauft hat, man musste mit hacks und workarounds den Treiber täuschen.
Das ist schon traurig.
Ah ok, graue Vorzeit - darum war mir nicht klar worauf du hinaus wolltest.

LUDA ist doch ein können, aber Nvidia nicht wollen.
Ok und das hat mit DLSS jetzt genau was zu tun?
 
Ah ok, graue Vorzeit - darum war mir nicht klar worauf du hinaus wolltest.


Ok und das hat mit DLSS jetzt genau was zu tun?
Das ist genau das gleiche Problem. Wenn jetzt die Entwickler für AMD/Intel HW einen Übersetzer für ihre KI Architektur entwickeln würden damit diese mit DLSS kompatibel wäre.

Wären wir beim gleichen Thema. Übrigens wäre das möglich, Nvidias 1080TI konnte noch mit DLSS 1.9X in Control DLSS fahren ... zwar mehr schlecht als recht, aber es hat funktioniert mit CUDA.

Wir sprechen von was anderem wie kopieren der Technologie sondern nur kompatibel machen, also AMD/Intel werden nicht 1:1 Tensor cores nachbauen etc., was übrigens bei Physics mittlerweile wunderbar funktioniert.

Microsoft ist ja schon dabei einen universal Upscaler zu integrieren. Vielleicht wird da auch mal ein ein neutral KI basierter Upscaler kommen.
 
Das ist genau das gleiche Problem. Wenn jetzt die Entwickler für AMD/Intel HW einen Übersetzer für ihre KI Architektur entwickeln würden damit diese mit DLSS kompatibel wäre.

Wären wir beim gleichen Thema. Übrigens wäre das möglich, Nvidias 1080TI konnte noch mit DLSS 1.9X in Control DLSS fahren ... zwar mehr schlecht als recht, aber es hat funktioniert mit CUDA.

Wir sprechen von was anderem wie kopieren der Technologie sondern nur kompatibel machen, also AMD/Intel werden nicht 1:1 Tensor cores nachbauen etc., was übrigens bei Physics mittlerweile wunderbar funktioniert.

Microsoft ist ja schon dabei einen universal Upscaler zu integrieren. Vielleicht wird da auch mal ein ein neutral KI basierter Upscaler kommen.
Ich kann dir nicht folgen.

Du schreibst:
AMDs KI Beschleuniger DLSS nutzen, das will Nvidia nicht.
Ich frage nach:
Ich glaube hier gehts weniger um wollen und mehr um können.
Du Antwortest:
LUDA ist doch ein können, aber Nvidia nicht wollen.
Ich frage nach:
Ok und das hat mit DLSS jetzt genau was zu tun?
Und du antwortest quasi: sie hätten einfach ein anderes Produkt entwickeln können.
Häää??? Ja natürlich hätten sie ein anderes Produkt entwickeln können... sie hätten auch Würsten verkaufen können aber wieso sollte Nvidia sein Produkt, das AI Beschleuniger verwendet so umbauen sollen, damit die Software von AMD, das gar keine Beschleuniger Verwendet, die Beschleuniger von Nvidia benutzen kann...m wo ergibt das Sinn? Also wenn überhaupt hätte man sagen können: AMD hätte eine Softwarelösung bringen können, die Beschleuniger verwendet wenn sie da sind und wenn nicht, dann nicht. Aber das war überhaupt nicht der Ansatz von AMD. Sie haben sich ja bewusst gegen KI und Hardware entschieden. Daher nutzt auch kein KI Beschleuniger etwas.
 
Und du antwortest quasi: sie hätten einfach ein anderes Produkt entwickeln können.
Häää??? Ja natürlich hätten sie ein anderes Produkt entwickeln können... sie hätten auch Würsten verkaufen können aber wieso sollte Nvidia sein Produkt, das AI Beschleuniger verwendet so umbauen sollen, damit die Software von AMD, das gar keine Beschleuniger Verwendet, die Beschleuniger von Nvidia benutzen kann...m wo ergibt das Sinn? Also wenn überhaupt hätte man sagen können: AMD hätte eine Softwarelösung bringen können, die Beschleuniger verwendet wenn sie da sind und wenn nicht, dann nicht. Aber das war überhaupt nicht der Ansatz von AMD. Sie haben sich ja bewusst gegen KI und Hardware entschieden. Daher nutzt auch kein KI Beschleuniger etwas.
Nein ich meine, weil Nvidia die Funktion einschränken kann und will, das macht ja Nvidia jetzt bei LUDA mit den Übersetzungsschichten.

Hacks zu DLSS haben ja gezeigt das man FSR einbinden kann. Aber auch nur eine Frage der Zeit bis das auch unterbunden wird.
Schließlich möchte Nvidia nicht auch noch eigene Käufer der 3000er/2000er Generation belohnen.
Kein Hersteller ist ein heiliger, aber es fällt schon schwer auf.
AMD schränkt FSR auch nicht grundsätzlich ein.
Zumindest die integrierte Variante ist für alle Hersteller verfügbar, wenn Softwareentwickler diese integrieren möchte.
Wir brauchen hier keine Debatte über nutzen oder Leistung führen. Das sei jedem Nutzer selbst überlassen.

Aber Nvidia bestraft seine eigene Kundschaft und die Leute feiern sie dafür.
Jede sachliche Diskussion darüber wird versucht alles ins positive zu rücken.
Klar jemand der viel Geld ausgegeben hatte für ein Feature ist natürlich nicht glücklich darüber wenn jemand anders das auch bekommt.

 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh