NVIDIA werkelt an einem x86-Chip

Bleibt eben noch die Frage inwieweit dann VIA die x86 Lizenz hergeben darf und oder ob die X86 Lizenz verlängert wird. Gehören tut die Lizenz nicht VIA und VIA muss die auch immer wieder verlängern lassen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Sache ist die das NV wohl Vorteile hat weil Intel sehr wahrscheinlich Linzenzen von NV oder ATi braucht für ihren LRB. So könnte es unter stillschweigen zu einem Technologie- oder Linzenzaustausch kommen.
 
wenn ich jetzt mal bedenke, wie schnell NVidia damals gute Grakas gegen 3DFX hatte, und dann damals der einstieg in den Chipsatz Markt, wo die alle hinter sich gelassen hatten mit z.B. Dual Cannel beim RAM, und wenn die jetzt noch ne eigene CPU bringen würde, die wieder alles in den schatten stellt.
z.B. das CPU/Chipsatz und GPU direkt verlinkt werden,und alles über Cuda als schnittstelle, das währe was.:bigok:
 
Zuletzt bearbeitet:
Lass ihn doch. Hardwarekenner ist wieder mal in seine weltfremden nVidia Phantasien versunken. Ich glaube, er sollte sich lieber mal die Komplexität einer x86 Mikroarchitektur anschauen. Dann würde er vielleicht aus seinem Traum aufwachen. :hmm:

Ich frage mich aber, wieso und welche Lizenzen Intel für Larrabee brauchen soll. Mir würde ehrlich gesagt nichts einfallen.
 
Ich frage mich aber, wieso und welche Lizenzen Intel für Larrabee brauchen soll. Mir würde ehrlich gesagt nichts einfallen.

Ich hatte da vorher auch nicht dran gedacht, habe aber einige interessante Beiträge dazu bei 3DCenter im Forum gelesen, und allzu abwägig erscheint das nicht. Welche Lizenzen genau das sein könnten kann ich dir auch nicht sagen, aber überschneidungen könnte es sehr wohl geben. Ob Intel deshalb gleich dazu bereit ist Via die x86 Lizenz zu lassen wenn NV irgendwann groß einsteigt kann man deshalb aber nicht gleich annehmen, zumal die beiden eh grad nicht gut aufeinander zu sprechen sind. Andererseits kennen wir auch nicht die Auflagen des Lizenzabkommens zwischen Via und Intel.

Es wäre mal interessant zu erfahren ob Via damals die Linzenz erneuern mussten als sie Cyrix übernommen haben... Ich wüsste nicht das Via vorher selbst eine Lizenz besessen hat.
 
Lass ihn doch. Hardwarekenner ist wieder mal in seine weltfremden nVidia Phantasien versunken. Ich glaube, er sollte sich lieber mal die Komplexität einer x86 Mikroarchitektur anschauen. Dann würde er vielleicht aus seinem Traum aufwachen. :hmm:

ja klar, ein CPU ist ja so viel komplzierter als ein GPU !:stupid:

aber gut das Ihr beide euch so gut auskennt, und den vollen durchblick habt !:heuldoch:
 
ja super das du dich dabei sogut auskennst ^^

CPUs sind deutlich komplexer als so ein GPU wobei auch bei GPUS kann man ohne extreme Mittel nimmer einfach so einsteigen. Dazu kommt bei CPU noch die Sache mit den Lizenzen dazu usw.
 
CPU Zentrale Verarbeitungseinheit
GPU Bild Verarbeitungseinheit.

ja klar, ein Zentrale Verarbeitungseinheit CPU ist ja so viel komplzierter als ein Bild Verarbeitungseinheit GPU !:stupid:

aber gut das Ihr beide euch so gut auskennt, und den vollen durchblick habt !:heuldoch:

ja super das du dich dabei sogut auskennst ^^

CPUs sind deutlich komplexer als so ein Bild Verarbeitungseinheit GPU wobei auch bei GPUS kann man ohne extreme Mittel nimmer einfach so einsteigen. Dazu kommt bei Zentrale Verarbeitungseinheit CPU noch die Sache mit den Lizenzen dazu usw.

:stupid: :shot:
 
@mr.dude, Hardwarekenner:

sehts euch mal an! sogar eine einfach CPU ist schon extremst kompliziert!
Mein Lehrer hat uns mal eine RISC-CPU (5Takt Pipeline, OutOfOrder-Architektur) präsentiert die von jemandem an der TU Graz entwickelt wurde! Das ganze war sehr interessant, allerdings nur solange bis er uns auf die Fehlersuche los lies :d

mfg
aelo

edit:
hab noch nie ein Modell einer GPU gesehen, kann deshalb nicht sagen was komplizierter ist
hat beides seine Schwierigkeiten z.B. die Befehlssätze einer GPU (falls es dort sowas überhaupt gibt!?) wären sicherlich um einiges einfacher
 
Zuletzt bearbeitet:
edit:
hab noch nie ein Modell einer GPU gesehen, kann deshalb nicht sagen was komplizierter ist
hat beides seine Schwierigkeiten z.B. die Befehlssätze einer GPU (falls es dort sowas überhaupt gibt!?) wären sicherlich um einiges einfacher


Naja bei der GPU ist eine einzige sache einfach x mal parallelgeschaltet bei CPU geht kaum was so "einfach"
 
Naja, ich denke, dass wenn Nvidia möchte, sie einen X86 Prozessor herstellen könnten. Denn, wenn sie u.U. Via in der Zukunft aufkaufen sollten, um leichter an die X86 Lizenzen zu kommen, erwerben sie auch ein Unternehmen, das seit Jahren im X86 Bereich überlebt hat, wohlgemerkt neben AMD und Intel - auch zeitweise im Mainstreambereich mit Cyrix z.B. Das heißt sie würden auch Know-How bzw. Ingenieure aufkaufen. Und mit dem eigenen Know-how über Grafikkarten könnte es echt sehr interessant werden bez. der Lösungen, die sie entwicklen:

Wenn man mal bedenkt, AMD hat als hauptsächlich CPU Hersteller ATI aufgekauft und konzentriert sich eher darauf beide Sparten, sowohl CPU als GPU zu halten - ist klar, beides sind ihre Geschäftsfelder. Intel versucht als hauptsächlich CPU-Hersteller in den Grafikmarkt einzusteigen mit Larabee. Beide unternehmen haben zudem im Einstiegsbereich vor, GPUs auf CPUs zu packen, Intel sagt aber, dass leistungsstarke Grafikkarten separat erhältlich sein werden, wenn die integrierte Lösung nicht reicht - ähnlicher Meinung wir auch wohl AMD sein. Beide sind der Meinung, die CPU GPU Aufgaben lösen zu lassen - wie gesagt, zumindest im Einstiegsbereich.

Nvidia ist aber hingegen ein hauptsächlich GPU-Hersteller. D.h. sie betrachten das Ganze von Gegenüber und sind der Meinung: Statt GPU auf CPU, CPU auf GPU und demonstrieren mit Cuda jetzt sogar ansatzweise, dass sogar die heutigen GPUs mehr als reine GPUs sind. Wie wird es also in Zukunft aussehen, wo doch Nvidia der Meinung ist, dass X86 Prozessoren obsolet werden?

Fassen wir zusammen:
AMD/Intel:
- Im Einstiegsbereich sollen die CPUs GPU Aufgaben übernehmen.
- Integrierte Lösung wird aber wahrscheinlich nicht mit HighEnd-Lösungen mithalten, also weiterhin sparate GPUs produzieren.

Nvidia:
- (Gerücht) Im Einstiegsbereich CPU/GPU als integrierte Lösung - ähnlich/gleich wie Lösung von Intel und AMD.
- Sind aber der Meinung, dass GPU CPU Aufgaben erledigen kann und somit CPUs langfristig obsolet sind.

Worauf ich hinaus will ist: Es gibt quasi die zwei Parteien AMD und Intel mit ähnlicher Meinung, grob "CPU soll immer mehr GPU Aufgaben übernehmen". Und die Partei bestehend aus Nvidia mit der entgegengesetzten Meinung, "GPU soll CPU obsolet machen".

Beide Seiten werden dann womöglich andere Lösungen anstreben, da sie zwar gleiche Ziele verfolgen (One-chip-Lösung bzw. Recheneinheiten vereinen), aber eben aus verschiedenen Richtungen. Es wird womöglich am Anfang ähnliche Lösungen geben, ersteinmal Einstiegslösungen als One-Chip aus GPU/CPU, eher eine Symbiose als dass einer den Anderen wirklich obsolet macht, denke ich mal - vermutlich werden in dieser Lösung CPU und GPU Einheiten immernoch unterscheidbar sein.
 
Zuletzt bearbeitet:
Ich hatte da vorher auch nicht dran gedacht, habe aber einige interessante Beiträge dazu bei 3DCenter im Forum gelesen, und allzu abwägig erscheint das nicht. Welche Lizenzen genau das sein könnten kann ich dir auch nicht sagen, aber überschneidungen könnte es sehr wohl geben.
Hmm, das hilft mir natürlich nicht viel weiter. Ich könnte mir höchstens Lizenzen im Bereich von CF oder SLI vorstellen. Aber erstens verfolgt Intel mit Larrabee sowieso einen etwas anderen Multi GPU Ansatz. Und zweitens würden sie im Fall der Fälle wohl lieber etwas eigenes entwickeln.
Um es mal auf den Punkt zu bringen, ich weiss zwar nicht, was genau bei 3dcenter zu lesen war, ich persönlich halte das aber für ziemlich abwegig. Was natürlich nichts heissen muss. :)

ja klar, ein CPU ist ja so viel komplzierter als ein GPU !
Genauso ist es. Das kann ich dir versichern. Ich habe mich schliesslich lange genug mit der x86 ISA auseinandergesetzt. Die Komplexität ist einfach weitaus höher. Bei GPUs war das Komplexe bisher mehr die Treiber.
Und jetzt schau dir mal an, wie lange Intel für Larrabee braucht und wie lange sie brauchen werden, um damit wirklich konkurrenzfähig zu sein. Dann kannst du dir ja ausrechnen, wie lange nVidia für eine x86 CPU braucht. ;)
Ich will nicht ausschliessen, dass nVidia irgendwann, durch welche Umstände auch immer, an eine x86 Lizenz kommt und eine entsprechende CPU entwickelt. Dann wird man mittelfristig aber erstmal Anschluss an Produkte wie die von VIA oder Atom suchen müssen. Konkurrenz für AMD oder Intel im Mainstream oder gar HPC Markt ist das aber noch lange nicht.

Beide unternehmen haben zudem im Einstiegsbereich vor, GPUs auf CPUs zu packen
AMD hat das wohl nicht nur in den kleineren Bereichen vor. Siehe BD mit seinen APUs.

Beide sind der Meinung, die CPU GPU Aufgaben lösen zu lassen
Umgekehrt. GPUs bzw GPU Einheiten sollen Aufgaben der CPU übernehmen.


Und bevor hier immer wieder diese These kommt, nochmal ganz deutlich:

Nur weil nVidia VIA aufkauft oder sich zumindest Anteile an dem Unternehmen sichert, ist noch lange nicht sicher, dass sie auch eine x86 Lizenz erwerben und damit entsprechende CPUs vertreiben können.
 
Zuletzt bearbeitet:
ATI arbeitet zwar weiterhin eigenständig, trotzdem gibt es sie als separates Unternehmen nicht mehr. Sind sind nun ebenfalls AMD. Das wäre bei nVidia und VIA nicht anders. Wie genau dann Lizenzrechte geregelt sind, und eben speziell x86, dafür müsste man die Verträge kennen. Ich kenne sie zumindest nicht. :)
 
Das wird nicht so laufen, dass NV einen eigenen x86er entwickelt, sondern vielmehr, dass NV mit ins Formosa Haus reinschlüpft und mit VIA gemeinsame Sache macht. Da gibts weder Probleme mit irgendeiner Lizenz noch gibts fehlendes Knowhow. VIA scheint sich ja sowieso sehr in Richtung CPU-Entwicklung zu bewegen, der Nano ist ja ein richtig teures Design - völlig anders als die CPU-Generationen davor. Zudem fällt auf, dass die Plattform langsam doch alt wird. Nano hat im Gegensatz zu den Generationen davor nämlich alle Features und Möglichkeiten, die aktuelle CPU-Kerne von AMD und Intel ebenfalls haben, das Ding ist technologisch ein Quantensprung für VIA. Wenn diese Entwicklung jetzt forciert wird und NV dazu die passende Infrastruktur und Vektorchips bietet, ist das eine recht fruchtbare Zusammenarbeit. Vielleicht sehen wir in 3-5 Jahren ja tatsächlich einen 3-geteilten Markt.
 
Zuletzt bearbeitet:
Worauf ich hinaus will ist: Es gibt quasi die zwei Parteien AMD und Intel mit ähnlicher Meinung, grob "CPU soll immer mehr GPU Aufgaben übernehmen". Und die Partei bestehend aus Nvidia mit der entgegengesetzten Meinung, "GPU soll CPU obsolet machen".

Ob ich GPU-Funktionalität letztlich in die CPU verlagere, oder auf dem Chipsatz-Die unterbringe, ist für die Performance keine so großer Unterschied, interessant wird es aber beim Packaging. Aktuelles Beispiel: Atom, da hängt ein relativ moderner, kleiner Prozessor an einem Steinzeit-Chipsatz, der fünfmal so viel Strom verbraucht. Mit der nächsten Generation, die Graphik und Northbridge in die CPU verlagert, wird Atom erst richtig interessant.

Darum geht es nämlich: in vielen Segmenten verkaufen sich vor allem komplette Plattformen. Handhelds, Netbooks und Laptops (die aktuellen Wachstumssegmente) entwickeln sich immer mehr zu Paket-Deals (Intel CPU plus Intel Chipsatz, AMD CPU mit ATI Graphik), dank verstärkter Anstrengungen Intels im Graphiksektor muß nVidia fürchten, auf diesen Plattformen mittelfristig ganz verdrängt zu werden.

Deswegen ist der ganze Kampf "CPU vs. GPU" auch irreführend. Klassisches x86 ist nämlich schon lange tot, heute werden CPUs effizient designt und dann ein x86-Übersetzer drangeflanscht, der nochmal 10% Chipfläche braucht. Bei Intels Itanic ist der Compiler bald wichtiger als die CPU selbst. Eine Art von CPU wird immer benötigt werden, um komplexe Befehlssätze auszuführen, ob ich die stark parallelisierten SIMD-Einheiten dann zur CPU hinzufüge oder separat als Graphikkarte realisiere, ist vor allem eine Frage, wie viel SIMD-Leistung ich in Relation zur CPU-Leistung brauche. Gamer brauchen viel, deswegen bietet sich allein aus thermischen Gründe eine getrennte Lösung an, Notebook- und Bürouser ein ausgewogenes Verhältnis, da sind beide Varianten denkbar, für Netbookuser ist niedriger Verbrauch wichtiger als 3D-Leistung, deswegen kommt man nicht um eine Single-Package-Lösung herum.

Deswegen ist es für nVidia interessant, im Niedrig- bis Mittelpreissegment eine komplette Platformlösung anbieten zu können weil sonst >70% des Gesamtmarktes der Zukunft (Bürorechner, Handhelds a la "iPhone der Zukunft", Netbooks, Nettops, Notebooks, Multimediafernseher und Settop-Boxen usw.) ohne nVidia stattfinden.
 
und der Thinclient Markt nimmt auch immer mehr zu !

und NV soll ja auch eine eigene Spielekonsole in Planung haben.

Leider wird das ohne Unterstützung von Studios nix. Auf dem Konsolensektor zählen nur Games, die Technik zweitrangig...
 
Wenn NV bei Via einsteigt wird sich am Aufbau eh nichts ändern. Die Entwicklung von CPUs würde in den jetzigen Labors von Via ablaufen, warum sollte man das auch ändern. Vielmehr wirds darauf hinauslaufen das NV Geld oder zusätzliche Entwickler in die Forschung steckt.
 
Leider wird das ohne Unterstützung von Studios nix. Auf dem Konsolensektor zählen nur Games, die Technik zweitrangig...

"The way it's meant to be played"

ist deiner meinung nach unbekannt bei den Studios ?

---------- Beitrag hinzugefügt um 11:44 ---------- Vorheriger Beitrag war um 11:44 ----------

Wenn NV bei Via einsteigt wird sich am Aufbau eh nichts ändern. Die Entwicklung von CPUs würde in den jetzigen Labors von Via ablaufen, warum sollte man das auch ändern. Vielmehr wirds darauf hinauslaufen das NV Geld oder zusätzliche Entwickler in die Forschung steckt.

wie AMD bei ATI!
 
"The way it's meant to be played"

ist deiner meinung nach unbekannt bei den Studios ?

Ja, bei PC-Titeln. Er meint aber das für eine mögliche Konsole auch Spiele entwickelt werden müssen, denn es bringt nichts wenn sie noch so toll ist. Schau dir die PS3 an, es ist ne gute Konsole, aber viele der Kracher sind noch immer nicht draußen.

Zumal ich das Gerücht um die Konsole auch sehr stark bezweifle.
 

Nicht ganz. Erstens hat bei AMD/ATI der CPU-Hersteller den GPU-Hersteller übernommen, so daß die x86-Rechte sowieso beim Mutterkonzern lagen, zum anderen ist ATI inzwischen fast vollständig in AMD integriert, der Erhalt der Marke ist eher eine Frage des Marketings.

Über kurz oder lang dürfte auch nVidia VIA integrieren müssen, alles andere hätte betriebswirtschaftlich keinen Sinn. Die Grundlagenforscher zum CPU-Design bei nVidia würden sich mit den VIAnern austauschen, aber als erstes würde die Parallelentwicklung von Chipsätzen und Graphikkernen (S3) gestoppt werden. Letztlich läuft es darauf hinaus: Wenn nVIAdia genug Patente hält, die sie an andere weiterlizensiert haben, wird Intel zwar murren, aber letztlich die x86-Lizenz auch auf den Mutterkonzern / das neue Unternehmen übertragen. Genauso wie es sich Intel im aktuellen Streit um Globalfoundries nicht leisten kann, auf AMD-Patente zu verzichten (AMD64), sonst könnten sie bis auf den Itanium nämlich so ziemlich jede Chipserie einstampfen.


"The way it's meant to be played"

ist deiner meinung nach unbekannt bei den Studios ?

Das ist völlig irrelevant, bei Konsolen wird nicht für DirectX programmiert, sondern für ein fest definiertes Hardwarepaket. Und da ist es für die Konsolenhersteller zunächst einmal wichtig, Kontrolle über das Graphikcoredesign zu haben. Wohl auch einer der Gründe, weswegen Microsoft mit der XBox von nVidia zu ATI gewechselt ist. Heute basieren sowohl die GPU der XBox als auch die des Wiis auf Auftragsarbeiten von ATI, wobei die Rechte am fertigen Design weitestgehend bei Microsoft und Nintendo liegen und die Chips in deren Auftrag gefertigt werden. Sony dagegen muß für die PS3 von nVidia gefertigte GPUs zukaufen, eine Situation, mit der man bei Sony recht unglücklich ist, versucht nVidia doch, maximalen Profit aus dem Liefervertrag zu schlagen.

Werbebotschaften wie "The way it's meant to be gay" oder "nVidia, jetzt 20% grüner" treten bei Konsolendeals in den Hintergrund. Es gewinnt der, der das beste Gesamtpaket aus Preis, intellectual property-Rechten, Verfügbarkeit etc. anbietet. Zumal die Einstiegshürde im Vergleich zum PC insofern geringer ist, als daß man bei einer neuen Konsolengeneration nicht die GPU an eine bestehende Softwarearchitektur anpassen muß (Larrabee, Treiberproblematik), sondern die Softwarearchitektur an die Hardware (deswegen war es für Microsoft auch kein so großes Problem von x86 zu PPC bei der XBox zu wechseln) anpassen kann.
 
Zumal die Einstiegshürde im Vergleich zum PC insofern geringer ist, als daß man bei einer neuen Konsolengeneration nicht die GPU an eine bestehende Softwarearchitektur anpassen muß (Larrabee, Treiberproblematik), sondern die Softwarearchitektur an die Hardware (deswegen war es für Microsoft auch kein so großes Problem von x86 zu PPC bei der XBox zu wechseln) anpassen kann.

Larrabee besteht quasi ebenso nur aus Software, welche dinge emulieren, wenn man so will. Sprich es gibt Universelle Recheneinheiten, die via Software gefüttert werden.
Nicht wie bei normalen Grafikarten, wo es für spezielle Sachen spezielle Recheneinheiten gibt...

Larrabee bzw. eine Form analog dazu würde sich ebenso beispielsweise auf anderen Architekturen machen lassen wie nem Cell Prozessor oder was auch immer, da es quasi nur ne Softwareanpassung ist...
Nachteil, die ganze Sache kann schnell sehr ineffizient werden, sprich man brauch enorm viel Rechenleistung um hinten raus brauchbare Ergebnisse zu bekommen, und das könnte der Fatale Punkt bei Larrabee werden... Aber abwarten
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh