Hybrid SLI ist tot lang lebe Optimus

scully1234

Banned
Thread Starter
Mitglied seit
21.01.2008
Beiträge
15.813
Ort
Thüringen
Neu aufgetauchte Gerüchte?? im Netz besagen das Nvidia ihr ehemaliges Hybrid SLI Konzept wieder ins Leben zurückrufen will.

Diesmal soll es unter dem neuen Namen "Optimus" wiederauferstehen u vor allen Notebooks zu einer längeren Arbeitszeit verhelfen.

Ob Optimus auch irgendwann wieder im Desktop Markt Einzug halten wird ist derzeit nicht bekannt



http://blogs.nvidia.com/ntersect/2010/01/new-nvidia-optimus-primer.html
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
mittlerweile sind die idle verbräuche schon so niedrig beim PC so niedrig das es sich nicht mehr umbedingt lohnt.

Beim Mobile sieht das schon anders aus afaik hat ATI so eine technik doch schon.
 
mittlerweile sind die idle verbräuche schon so niedrig beim PC so niedrig das es sich nicht mehr umbedingt lohnt.
.

Bei Einzelgrafikkarten sicherlich nicht so

Aber


Bei SLI Systemen würde die Technik durchaus Sinn machen für den Home PC,aus damaligen u heutigen Standpunkt.

Jeder möchte immer mehr u mehr Leistung,muss aber im Idle dafür in Kauf nehmen das Grafikkarten im SLI Modus zusätztlich sinnlos Energie "verbrennen"
 
Zuletzt bearbeitet:
Ist eine gute Idee, gerade beim surfen oder Office brauch man kein SLI.

Ist wieder ein Schritt in richtung Green IT ;)
 
Ich frag mich nur grad wie das im Desktopbereich anwendbar sein soll, wenn NV keine Chipsätze mehr herstellt und AMD und Intel zukünftig wohl ihre Grafikeinheiten in die CPU packen?

Somit müsste NV ne Technik anbieten um die Grafikeinheit der CPUs zu nutzen. Macht irgendwie keinen Sinn muss ich sagen, weil NV verdient dran nix :fresse:
 
Ist eine gute Idee, gerade beim surfen oder Office brauch man kein SLI.

Ist wieder ein Schritt in richtung Green IT ;)


Ist aber leider noch nicht gesagt ob es auch für den Home PC kommen wird:wink:
Ich frag mich nur grad wie das im Desktopbereich anwendbar sein soll, wenn NV keine Chipsätze mehr herstellt und AMD und Intel zukünftig wohl ihre Grafikeinheiten in die CPU packen?
:

Dazu muss man erstmal abwarten wie sich die aktuelle Lage mit Intel u der FTC entwickelt;)

Und ob Nvidia nicht auch ein Joint Venture mit VIA eingeht,wenn Intel nicht mehr drohen darf mit Entzug von x86 Lizenzen
 
Zuletzt bearbeitet:
Dazu muss man erstmal abwarten wie sich die aktuelle Lage mit Intel u der FTC entwickelt;)

Und ob Nvidia nicht auch ein Joint Venture mit VIA eingeht,wenn Intel nicht mehr drohen darf mit Entzug von x86 Lizenzen

Ja was hat das nu damit zu tun?
Egal ob NV nun ne CPU Herstellen darf oder nicht, sie werden das auf absehbare Zeit nicht packen... Da sie absolut Null Komma gar keine Erfahrung in dem Bereich haben. Selbst wenn sie VIA mit ins Boot nehmen (können) bringt das nix, weil VIA jetzt schon keine CPUs für den uns interessanten Bereich anbieten kann.

Wenn man mal vom NForce2, 3 und 4 bei AMD absieht war eigentlich der einzige Grund nen NV Chipsatz zu nehmen (egal ob Intel oder AMD) die SLI Fähigkeit. Sogut wie alles andere konnten AMD und Intel mit ihren eigenen Chipsätzen ebenso bieten.

Zumahl der Chipsatzmarkt immer kleiner wird, fast alles wandert in andere Bereiche und der Chipsatz wird nur noch zur Kommunikation benutzt. Durch spezielle Funktionen kann man hier schon lange nichts mehr gewinnen...
 
Zuletzt bearbeitet:
Ja was hat das nu damit zu tun?
Egal ob NV nun ne CPU Herstellen darf oder nicht, sie werden das auf absehbare Zeit nicht packen... Da sie absolut Null Komma gar keine Erfahrung in dem Bereich haben. Selbst wenn sie VIA mit ins Boot nehmen (können) bringt das nix, weil VIA jetzt schon keine CPUs für den uns interessanten Bereich anbieten kann.
...

Die Frage ist doch eher wie hoch ist der Stellenwert der CPU für Projekte wie Fusion überhaupt,wenn ich 90% der Aufgaben der GPU zuwießen kann,sollte dann auch eine äusserst "simple" x86er Architektur ohne 64bit Erweiterung,wie sie selbst VIA liefern könnte ausreichen;)

Aber um zurück zu kommen zum eigentlichen,allein um ein SLI System auch zu Vermarkten auf dem immer wichtiger werdenden Standpunkt"Green It"(Ich hasse den Begriff:fresse:) wäre Hybrid SLI respektive Optimus ein willkommener Werbeträger für Nvidia
 
Zuletzt bearbeitet:
Die Frage ist doch eher wie hoch ist der Stellenwert der CPU für Projekte wie Fusion überhaupt,wenn ich 90% der Aufgaben der GPU zuwießen kann,sollte dann auch eine äusserst "simple" x86er Architektur ohne 64bit Erweiterung,wie sie selbst VIA liefern könnte ausreichen;)
Wieso 90% der Aufgaben?
Wenn es 10% sind, sind es viel, schau dir doch mal an, was derzeit alles an Anwendungen im Umlauf ist und was davon potentiell sinnvoll wäre auf ner GPU berechnen zu lassen. Viel bleibt da nicht übrig.
Ist eher eine Frage von, wer braucht was!?

Der Privatanwender wird wohl kaum 24h am Tag über Jahre hinweg nur Video/Bildbearbeitung betreiben, wo sowas Sinn machen könnte... Um nur ein Beispiel zu nennen.

Ebenso stellt sich die Frage ob ohne 64Bit noch weit zu kommen ist... Wenn ich mir ansehe, MS bietet im Server Bereich mit dem Sharepoint 2010, dem Server 2008 R2 und selbst schon mit dem Exchange 2007 nur noch reine 64Bit Versionen an. 32Bit gibts nicht mehr...
Das lässt doch schon vermuten das ohne 64Bit in den nächsten Jahren nicht mehr viel zu holen ist.

Aber um zurück zu kommen zum eigentlichen,allein um ein SLI System auch zu Vermarkten auf dem immer wichtiger werdenden Standpunkt"Green It"(Ich hasse den Begriff:fresse:) wäre Hybrid SLI respektive Optimus ein willkommener Werbeträger für Nvidia

Dann ist aber immernoch die Frage warum ich mir dafür nen NV Chipsatz kaufen solle. Jetzt zu Zeiten des X58 oder P55 wo man kein NV Chipsatz für SLI mehr brauch...
Sowohl AMD als auch NV sollten viel mehr mal überhaupt mit den idle Verbräuchen was machen, man geht ja schon in die richtige Richtung, aber warum nicht Karten gänzlich abschalten (oder zu 99% schlafen legen) wenn die Power nicht gebraucht wird... Im Notebookbereich geht das doch auch schon...
Scheinbar will man aber gar nicht sowas haben, ich seh zumindest nirgends ein Verlangen danach ;)
 
Dann ist aber immernoch die Frage warum ich mir dafür nen NV Chipsatz kaufen solle. Jetzt zu Zeiten des X58 oder P55 wo man kein NV Chipsatz für SLI mehr brauch...
;)

Aus dem einfachen Grund weil es keiner anbietet im Desktop Markt auch nicht x58 oder P55,bzw alle wieder einen Rückzieher gemacht haben,obwohl das Energiethema aufgrund der steigenden Energiekosten ja mehr u mehr an Bedeutung gewinnen sollte.
 
Zuletzt bearbeitet:
es würde ja schon reichen, wenn sich im idle die zweite graka totlegen lässt. die highend karten von nvidia und ja auch neuerdings von ati haben imho einen akzeptablen idle konsum; da wird fermi bestimmt keine ausnahme.
 
Wieso 90% der Aufgaben?
Wenn es 10% sind, sind es viel, schau dir doch mal an, was derzeit alles an Anwendungen im Umlauf ist und was davon potentiell sinnvoll wäre auf ner GPU berechnen zu lassen. Viel bleibt da nicht übrig.
Ist eher eine Frage von, wer braucht was!?

;)

Denke aber daran das sowohl GPGPU als auch die dafür verfügbaren Anwendungen nicht auf dem Entwicklungslevel der Anfangszeit stehen bleiben.

Die Platformen(Cuda) u die GPUs(Fermi) dazu sind flexibler geworden u passen sich den Gegebenheiten multipler Anwendungsgebiete immer weiter an,einige Ausagen der Anfangszeit sind mittlerweile schon gar nicht mehr haltbar(siehe DP)
 
Zuletzt bearbeitet:
Aus dem einfachen Grund weil es keiner anbietet im Desktop Markt auch nicht x58 oder P55,bzw alle wieder einen Rückzieher gemacht haben,obwohl das Energiethema aufgrund der steigenden Energiekosten ja mehr u mehr an Bedeutung gewinnen sollte.

Schon, aber wenn man sieht, das der erste Versucht sowohl von AMD als auch von NV gescheitert ist, auch wegen der geringen Nachfrage nach soetwas, frage ich mich irgendwie warum man sich dazu entschließt jetzt nochmals so eine Lösung anzubieten...

Man müsste mal die Technischen Gegebenheiten wissen, vllt setzt das ganze ja auch auf Chipsätze der Konkurenz auf... ;)
 
Das würde ich sogar vermuten das es eventuell nebst Zusatzchip alla NFxx auf der Platine verbaut wird wenn es denn überhaupt kommen tut;)

Das ist die einzige Möglichkeit für NV, noch irgendwie GPUs an den Mann zu bringen. Immerhin haben die neuen auf der CPU integrierten Intel HDs näherungsweise die Leistung des AMD 780G. Wenn man sich also ein Notebook mit NV GPU kauft dann immer nur zusätzlich zu der vorhandenen "Onchip" GPU, und da darf man doch erwarten, dass nicht beide GPUs gleichzeitig sinnlos Strom verpfeffern.
 
Der Thread ist falsch benannt! Die Funktion die angeblich Tod sein soll heißt HybridPower und ist Teil von der HybridSli Technologie!
Nur so am Rande HybridPower läuft selbst mit dem aktuellem Treiber, richtige Karte vorrausgesetzt!
Ich bin mir nicht sicher aber ich hab das Gefühl das es nicht an NV lag das HybridPower keinen Erfolg hatte, sondern ehr an den Herstellern!

Ich fände das super wenn NV dieses Feature wieder zum Leben erweckt!
Gerade im Highend Bereich ist das sehr sinnvoll(dort werden CPU/GPU Kombinationen wie die Clarkdale eh nicht Fuß fassen)!
 
Das ist die einzige Möglichkeit für NV, noch irgendwie GPUs an den Mann zu bringen. Immerhin haben die neuen auf der CPU integrierten Intel HDs näherungsweise die Leistung des AMD 780G. Wenn man sich also ein Notebook mit NV GPU kauft dann immer nur zusätzlich zu der vorhandenen "Onchip" GPU, und da darf man doch erwarten, dass nicht beide GPUs gleichzeitig sinnlos Strom verpfeffern.

In Notebooks ist das doch derzeit schon gang und gebe, das bei verwendung einer dedizierten Zusatzgrafikkarte die Onboard Intel GPU abschaltet, bzw. bei verwendung der Intel IGP die Zusatz GPU abschaltet.
Ein Umschalten wärend des Betriebes ist möglich... Man muss die Kiste also nicht neustarten.
 
In Notebooks ist das doch derzeit schon gang und gebe, das bei verwendung einer dedizierten Zusatzgrafikkarte die Onboard Intel GPU abschaltet, bzw. bei verwendung der Intel IGP die Zusatz GPU abschaltet.
Ein Umschalten wärend des Betriebes ist möglich... Man muss die Kiste also nicht neustarten.

Echt? Wow, ich bin da etwas uninformiert. Spielen auf dem Notebook ist für mich immer noch irgendwie seltsam *g*
Na wenn das jetzt schon geht, dann war die News wohl nicht so der Burner.
 
wie wollen sie das ohne eigene MBs machen ?!? nur für den ION ?

Genau das ist die Frage... vllt setzt man ja auch auf Lösungen der Konkurenz auf, glaube ich aber ehrlich gesagt nicht, weil NV daran sogut wie nix verdient. Es sei denn die haben ein Lizenzprogramm in der Hinterhand :)
 
War ja klar das sich Intel in die Technologie verliebt nicht unbedingt in Nvidia:fresse:

Ob die beiden Streithähne dadurch ihr Kriegsbeil vorerst mal begraben werden:haha:
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh