Tut mir leid, mehr als Halbwissen seh ich hier nicht. Das ist weder als Beleidigung noch persönlich gemeint.
Dann bliebe die Frage wozu das überhaupt entwickelt wird?
Als Experiment. Die Mittel die da hereingesteckt werden sind wirklich minimal...warum hat es so lange gedauert, bis der ATI-Booster voll funktionsfähig war?
Warum nimmt NVidia die "Hybrid SLI"-Funktionen nicht in alle neuen Chips/GraKas auf?
Endkommentar:
Die Technik ist da, warum nutzt sie keiner???
Das kann ich dir beantworten, es gibt zwei bzw. 3 Gründe (je nach zählweise):
1. Es funktioniert nicht so wie du es dir vorstellst.
2. Das halbwegs sinnvoll zu machen kostet...!
3. Der Markt ist nicht wirklich vorhanden.
Wenn ich hier noch einmal "Macbook" lese...das Gerät verwendet beide Grafikchips, aber nicht die volle Funktionalität, die es haben könnte. Dazu hat sich Apple einen speziellen Treiber schreiben lassen - NUR für das eine Gerät, von dem es vll. 2 Ausstattungsvarianten gibt. Sowas beim Hersteller durchzusetzen schafft nur Apple, dank MacOS-Sonderstatus.
Übrigens verwendet das Macbook auch "unbrauchbare" Mittelklassegrafik.
So...also zu einem Mikrochip (Grafikkarte) gehören 4 Komponenten: Der Grafikchip, Speicher, Energieversorgung und Kühlung. Alles verbraucht einen eigenen Anteil Strom. Gehen wir davon aus, dass du den Chip komplett schlafen legen kannst - dann verbraucht er IMMER NOCH Energie. Genauso der Speicher, und die Stromversorgung sowieso. Das heißt: Du musst die Einheit füttern, auch wenn du sie nicht nutzt! Das gilt nicht nur für Dedizierte, sondern auch für integrierte Grafik (wenn auch da weniger). Komplett abschalten würde einen Neustart voraussetzen - PCIe ist theoretisch zwar Hotplug-Fähig, aber fast immer auch nur Theoretisch. Und je tiefer du ein System in den Schlafzustand versetzt, umso länger braucht es zum "aufwachen" - deswegen wird das nur bis zu einem gewissen Punkt gemacht. Siehe Neustart...
Die Margen im Consumergeschäft sind extrem dünn. Kein PC-Hersteller wird dir das entwickeln, vor allem nicht für den Markt. Die Ideen sind durchaus schon lange da, sie werden aber nicht fertig entwickelt. Damit zutun zu haben, kann unter anderem sehr frustrierend sein. Aber an der Stelle regieren nicht die Ingenieure sondern die BWLer.
Zum Markt: Laut dir ist der ja so groß...dazu zu deinem Posting:
Netbooks: Sind von der Hardware her stromsparend, aber oft auch Sparsam von der Qualität...incl. Batterieausstattung. Spezialisierung auf "Extrem Billig", deswegen auch erfolgreich
Subnotebooks: Haben prinzipiell die gleichen vor- und nachteile wie Netbooks, die höhere Leistung erreicht man nur durch starke Selektion der Prozessoren. An Grafikkarte zu denken wäre eine Sünde...Diese Gattung ist NUR zum Arbeiten gedacht, möglichst lange ohne Steckdose. Spezialisierung auf: Stromsparen um jeden Preis
Normal große Notebooks sind in den Größen von 13,3"-16" zu finden. Damit kann man wie schon gesagt ganz gut Arbeiten, Allround in verschiedenen Abstufungen zwischen Mobilitiät und Performance. Im wesentlichen wird überall die gleiche Hardware verwendet. Problematisch das Platzangebot, und dass mit steigender Displaygröße der größte Stromverbraucher noch schlimmer wird...
17"-Geräte taugen NUR als Desktopersatz, die Mobilität beschränkt sich auf "in ein anderes Zimmer oder zur LAN tragen". Dafür ist hohe Leistung möglich.
Die Zielgruppe die du hier meinst sind die 15,4"-Geräte. Der Mainstream kauft Geräte zwischen 700-1100€, mit Tendenz zu dem was billiger ist. Alleine deine Hochleistungsgrafikkarte verbraucht so viel Strom wie das Restnotebook in Ruhe, gibt ebensoviel Wärme ab, und das ganze nimmt Platz weg. Und kostet alleine so viel wie ein besseres Netbook.
Das heißt: Das Notebook muss dicker und schwerer werden, es gibt maximal mehr hitze ab und wesentlich teurer.
Dein Denkfehler besteht darin, dass du den "Best-Case" annimmst...ein Notebook ist aber IMMER ein Kompromiss, auch wenn du es nicht wahr haben willst. Wer ein mobiles Notebook will, wird zum 13,3er greifen, wer damit spielen will braucht einen möglichst großen Bildschirm, da wird's mit 17" schon eng. Und wer auch noch was anderes machen will, der tendiert zur Mitte, und die heißt Allround...beispielsweise 13,3er mit Mittelklasse-Grafik; 15,4er mit Highend; 17,4" mit integrierter Grafik für ne Apotheke.
Letztendlich ist für die meisten Leute etwas, dass sie 80-90% der Zeit nicht brauchen, reine Verschwendung - die dazu dann wo anders Nachteilig ist.
Auch die CPU unter Dauer-Vollbelastung im Notebook testen und prüfen, dass gängige Grenzen nach gesundem Menschenverstand (also nicht mehr als 60 - 65 °C) nicht überschritten werden.
Zusätzlich die Möglichkeit integrieren, externe Grafiklösungen für den gehobenen Grafikeinsatz (Spiele, CAD, etc. ...) anzubinden und diese auch Austauschbar zu machen (die ganze Box oder besser noch Austauschmodule für die Box anbieten).
Auch wenn du es mir nicht glaubst: Die Teile werden getestet, und zwar gegen die Spezifikationen vom Chiphersteller. Die 60-65°C sind wirklich langweilig und sowas von langweilig und unkritisch, wenn man einen Prozssor der nach-AthlonXP/P4-Ära ansieht. Bei 80°C kannst du dir anfangen Gedanken zu machen. Bei Grafikchips bei 95°C...aushalten tun die aber bis 120°C.
CAD: Es gibt Workstations, die werden aber auch NUR als solches verwendet, und sind bereits entsprechend Hardwaremäßig ausgestattet. Da geht es darum, einem Kunden evtl. kurz das neueste CAD-Modell vorzustellen (ohne Steckdose), und du packst erst mal zig Gerätschaften aus...ein evtl. fehleranfälliger integrierter Hybrid wäre genauso schlimm.
Und sowas dauerhaft zum Arbeiten einzusetzen kannst du von den Kosten für das Unternehmen vergleichen mit der Workstation vergessen...die kostet nämlich bei höherer Produktivität wesentlich weniger, mal abgesehen dass du mit einer mobilen Workstation die Anforderungen der BG (< 30dB(A), mind. 19"-TFT) nicht erfüllst.