Intel und AMD gemeinsam: Core H mit Radeon-Grafik und HBM2 (Update)

Die Leute bei AMD und Intel sind doch nicht blöd!

Auch wenn ich persönlich glaube das Apple als großer Antreiber hinter der ganzen Sache steckt, haben AMD und Intel sich den Markt angesehen und die 1050/1050ti mobile ist da das Hauptziel als kleiner "Massenmarkt", insoweit ist es doch nicht vewunderlich, dass das wohl eine aufgebohrte (HBM2) Polaris (12nm) mit 1536 Shadern und 1190 MHZ Takt ist. Das läuft direkt auf eine kleinere RX 470 hinaus, die es locker mit einer 1050ti aufnehmen kann.

Somit hat man sich wohl schon den Hauptgegner rausgesucht in diesem high end Notebook Marktsegment. Die Daten und Rohleistung, die man ableiten kann, sprechen doch Bände!

Fußnote: Die iGPU meldet sich mit GFX 804 an, eine VEGA ist immer GFX 9, insoweit scheint das eine aufgebohrte Polaris oderr eine Fiji zu sein.

Ich verstehe die Intention von Intel nicht! Was will der Konzern erzielen? Sich der von VIA Technology erkauften GPU-Sparte entsagen? Dann soll Intel sie an NVIDIA abgeben, dann hat NVIDIA immerhin alle Technologien von VIA inne. Was ist um Iris Pro? Ist doch absolut konkurrenzfähig, bis zuletzt sogar überlegen gewesen. Sieht Intel das Potenzial nicht, oder was stimmt in diesem Hause nicht?

Die Iris Pro sieht nichtmal gegen Raven Ridge, der nur auf DDR4 setzt einen Stich, hier greift man ein ganz anderes Kaliber mit den mobilen Nvidia 1050 und 1050ti an, deshalb braucht man HBM2 (4GB) und eine leistungsfähige GPU, die damit umgehen kann. Außerdem muss Jemand dafür auch die Treiber schreiben und Apple mischt da auch gehörig mit und die legen sich mit Nvidia wohl nie wieder ins Bett, nach Bumpgate.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also nur, um das nochmal klarzustellen: Es geht darum, dass ein Vega-IGP wo reinpasst, wo eine Pascal-dGPU nicht reinpasst. Und das ist natürlich ein massiver Unterschied, schließlich spart man sich beim IGP die komplette Spannungswandlung der Grafikkarte und der HBM nimmt auch viel weniger Platz weg.
Selbst die Mini-STX-Mainboards könnte man noch verkleinern, wenn alles auf dem CPU-PCB ist. Dann könnte man gut und gerne nochmal die halbe Fläche nehmen. Dann ist das Ding vielleicht so groß, wie ein Raspberry Pi, und nur der Kühler, der 50-100W wegkühlen müsste, damit man ordentliche Taktraten fahren kann, würde noch an einen altbekannten PC erinnern, etwa gleich breit wie das ganze Board sein und deutlich in die Höhe ragen.

ja und was wäre das, wo pascal nicht rein passt, aber vega "igp" (ist ja nichtmal ne igp) schon? die platine wird kleiner. spawa brauchst trotzdem, nur sind die halt nun versammelt statt in zwei spots. dafür halt mehr an einer stelle. dazu weniger platz für vram.

sehe aber noch nicht, wo man damit plötzlich so viel heftigeres bauen kann.

dass es auch mit aktuellem sehr klein geht, zeigt AsRock immer wieder gut.
 
Zuletzt bearbeitet:
Ich verstehe die Intention von Intel nicht! Was will der Konzern erzielen? Sich der von VIA Technology erkauften GPU-Sparte entsagen? Dann soll Intel sie an NVIDIA abgeben, dann hat NVIDIA immerhin alle Technologien von VIA inne. Was ist um Iris Pro? Ist doch absolut konkurrenzfähig, bis zuletzt sogar überlegen gewesen. Sieht Intel das Potenzial nicht, oder was stimmt in diesem Hause nicht?

ein Idee dazu: Man will sich für die nächste Konsolengeneration (Joint Venture) aufstellen. Vielleicht hat Intel da Vorverträge kann aber die Grafikpower nicht allein liefern.
Für AMD Hardware in Sachen Verbreitung der Infrastruktur ist das jedenfalls mal eine Ansage.

- - - Updated - - -

Weniger Platz ist immer gut!
Mehr Platz für bessere Kühlung - größerer Akku - oder weniger Gewicht. Weniger Fertigungskosten.
 
Nachtigall ick hör Dir trappsen. Erst Partner, dann einsteigen, zuletzt übernehmen ? AMD < Intel oder Intel<AMD ?
 
Nachtigall ick hör Dir trappsen. Erst Partner, dann einsteigen, zuletzt übernehmen ? AMD < Intel oder Intel<AMD ?

Solche Post helfen hier keinem!

Ist doch klar, dass AMD hier letztlich Intel übernimmt. :fresse:
 
Nenn einen Formfaktor. Mir fällt nichts ein, wo ein H+Vega combi passt, aber H+Pascal nicht.
ZB Notebooks die an bestimmte Vorgaben gebunden sind. Du kannst nicht jeden Markt mit fetten 17-Zöllern bedienen. Oder Tablets, Convertibles usw. Oder NUCs, ZBOXen und ähnliche Mini PCs. Es gibt so einiges.

Es ist aber nicht nur das. Wie gesagt, bei gleicher Performance ist die Lösung mit dGPU immer aufwändiger, teurer und ineffizienter. Daher führt der Weg an einer iGPU nicht vorbei.

Spannend bleibt die Verwendung von HBM2. Was sicherlich die Kosten erstmal um einiges erhöht. Weshalb Raven Ridge noch darauf verzichtet. Trotzdem ein interessanter "Testlauf" für zukünftige APU Generation, die dann auf preiswerteren HBM zurückgreifen können.
 
Belege das doch mal!

In jedem Media Markt und Saturn gibt es seit Juli Ryzen PCs.
Der neue Aldi Medion ist auch ein Ryzen!

Außerdem ändert das nichts am Zahlen Volumen, der alleine bei Mindfactory abgesetzt wird!

Belegen kann ich nichts. Ich arbeite weder in dem Business, noch hab ich Insider Infos.
Ich merke das nur, egal mit wem ich Rede. Auch Leute die viel am PC hocken, zocken etc. Jeder will Intel/ nVidia. Das sind nichtmal alte Leute, Leute im Bereich 18-30. Die Haben Intel und nVidia im Kopf, AMD wollen sie nicht. Fertig das reicht denen. Objektiv kann man in solchen Diskussionen nicht kommen.
 
ZB Notebooks die an bestimmte Vorgaben gebunden sind. Du kannst nicht jeden Markt mit fetten 17-Zöllern bedienen. Oder Tablets, Convertibles usw. Oder NUCs, ZBOXen und ähnliche Mini PCs. Es gibt so einiges.

Es ist aber nicht nur das. Wie gesagt, bei gleicher Performance ist die Lösung mit dGPU immer aufwändiger, teurer und ineffizienter. Daher führt der Weg an einer iGPU nicht vorbei.

Spannend bleibt die Verwendung von HBM2. Was sicherlich die Kosten erstmal um einiges erhöht. Weshalb Raven Ridge noch darauf verzichtet. Trotzdem ein interessanter "Testlauf" für zukünftige APU Generation, die dann auf preiswerteren HBM zurückgreifen können.
17 zöller?

Wir reden hier von cpus mit 30-45W und dgpu mit bis 70W oder so. Das gibts in 14"...

Tablets/convertibles werden den hybrid hier nicht sehen da kühlung zu aufwändig.

Kosten sparen, vielleicht, dafür kostet hbm mehr, da ist die ersparnis wieder weg.

Ineffizienter? Seit wann ist pascal ineffizienter als vega?

In nen NUC gehts wieder zwecks kühlung nicht. Und wenns minimal größer ist, dann gibts auch schon seit jahren entsprechendes mit dgpu. Siehe gigabyte gaming cube/nuc, asrock minis etc. Letzteres gibts bus rauf zu ner gtx1080 mxm.

Sorry aber ich seh immernoch keinen formfaktor, der mit aktuellen mitteln nicht auch schon möglich wäre.

In laptops geht damit einzig etwas größerer akku. Aber da knausern die meisten hersteller eh in der mittelklasse.

Sent from OP3T
 
Zuletzt bearbeitet:
Der ATX Standart ist über 20 Jahre alt und heute eigentlich total veraltet. Einzig das Füllen der großen Gehäuse mit diversen Kühlkomponenten macht noch Sinn.
Floppy Disk ist tot, optische Laufwerke reicht wenn ein externers für Notfälle und HDDs sind für Leute die meinen das Internet runterladen zu müssen.
Der M2 Standart aus den mobilen Bereich findet sich jetzt auf Mainboards und könnte langfristig auch seperate SSDs ablösen.

Die spannende Frage ist der HBM Speicher als Arbeitsspeicher nutzbar?
Kann man in Zukunft evtl. Prozessoren nach Ram Bestückung kaufen aka 16gb oder 32gb auf dem Package?
Kommt DDR5 Ram noch oder steigt man um auf HBM und folgt den Grafikkarten.

Realistisch gesehen ist die vermeintliche flexible Rambestückung der Mainboards zu 95% unnötig. Damals 8Gb, heute 16gb und für spezielle Anwendungen/Workstations eben mehr.
Rammenge ist mit das am leichtesten zu erratende am Desktop und wäre kein Verlust wenn die CPU Hersteller den Ram auf die CPU integrieren.
 
Zuletzt bearbeitet:
HBM Speicher taugt absolut nicht als CPU Speicher, da viel zu langsam und viel zu hohe Latenz!
 
@update. Ist deshalb die verfügbarkeit von vega so bescheiden da sie chips für das hier zur seite gestellt haben?

Gibt ja schon fertige produkte offensichtlich.
 
Unwahrscheinlich, das dürften bis hierhin eine Hand voll Prototypen, maximal eine Kleinserie sein.
 
Da müssen Intel und AMD aber schon ne ganze Weile an der Sache sitzen, wenn bereits erste fertige Produkte zu zeigen sind.
 
Der ATX Standart ist über 20 Jahre alt und heute eigentlich total veraltet. Einzig das Füllen der großen Gehäuse mit diversen Kühlkomponenten macht noch Sinn.
Floppy Disk ist tot, optische Laufwerke reicht wenn ein externers für Notfälle und HDDs sind für Leute die meinen das Internet runterladen zu müssen.
Der M2 Standart aus den mobilen Bereich findet sich jetzt auf Mainboards und könnte langfristig auch seperate SSDs ablösen.

Die spannende Frage ist der HBM Speicher als Arbeitsspeicher nutzbar?
Kann man in Zukunft evtl. Prozessoren nach Ram Bestückung kaufen aka 16gb oder 32gb auf dem Package?
Kommt DDR5 Ram noch oder steigt man um auf HBM und folgt den Grafikkarten.

Realistisch gesehen ist die vermeintliche flexible Rambestückung der Mainboards zu 95% unnötig. Damals 8Gb, heute 16gb und für spezielle Anwendungen/Workstations eben mehr.
Rammenge ist mit das am leichtesten zu erratende am Desktop und wäre kein Verlust wenn die CPU Hersteller den Ram auf die CPU integrieren.



Ich vermute in ferner Zukunft wird der RAM dann eher ähnlich wie ein Prozessor als Sockel (nur deutlich kleiner) direkt neben dem Prozessor montiert. Damit dürfte man wahrscheinlich deutlich kürzere Signalwege hinbekommen und gleichzeitig alles Flach und Kompakt halten.
 
ich denke das hier ist ein apu killer. ivh hatte gehofft man bringt eine apu mit hbm2.
es macht für amd aber vlt sinn, da die leute grundsätzlich zu intel tendieren den highend apu markt intel zu überlassen und selbst weiterhin das untere lebel zu bedienen.

die frage ist bloß ob das amds image als igpu vorreiter/Präferenz schadet.

wobei ich denke dass leute die wissen was da in ihrem pc ist zum einen eine minderheit sind und zum anderen wissen woher der wind weht.

generell ist das ein sehr interessantes Produkt. gepaar mit intels quadcore u cpus. langsam wäre es ja mal an der zeit dass z.b. für videoschnitt cpu und gpu gleichermaßen ausgelastet werden.
das wird sicher kommen.
gerade wo man jetzt bei servern immer mehr auf gpu power setzt wird die igpu in zukunft wohl eine ganz neue rolle spielen
 
Zuletzt bearbeitet:
Ui, bei dem Fetten GPU Die und der Spannungsversorgung würde ich auf eine Vega 56 im SweetSpot, also leicht reduziertem Takt tippen.
 
Aktuell wird im Office-Bereich oft schon ein ITX-Board mit CPU mit IGP eingesetzt.
Eben, und was ändert diese CPU/GPU Kombi oder Raven Ridge daran? Nichts, außer daß stärkere GPUs auf weniger Platz verbaut werden können. Wer hätte das gedacht daß die Entwickung weiter geht, ein Wunder der Technik :rolleyes:

Mit dem Core H wird erstmals auch HBM mit auf dem Package sein und somit würden langfristig auch die RAM-Riegel wegfallen(nicht bei Core H, aber in Konsequenz später)
Bei kleinen Lösungen wie Laptops oder SFF artige Dinger / Boxen durchaus denkbar, allerdings eher bei (deutlich) mehr als 4GB. Selbst bei 8GB, wer will eine Kiste die zum Gamen taugt, sich aber CPU und GPU läppische 8GB teilen müssen?

... die Kombination im Consumer-Segment bringen, sind sämtliche Karten bis zur RX 560 und GTX 1050 so gut wie tot, weil etwa die gleiche Leistung schon im IGP stecken würde.
Tot nicht denn es wird nach wie vor Bedarf an Low End/Low Budget GPUs für billige Kisten geben, allerdings werden die wohl in der Auswahl sehr begrenzt werden. Ähnlich wie es in den letzten Generationen gerade im Low Budget Bereich kaum Neuerungen gab, dafür aber jede Menge Rebrands. So eine Lösung wie in den News wird vielleicht zu teuer für viele Billig PCs sein. Es sei denn da kommen noch weitere Ableger die den Markt nach unten abdecken, runter bis hin zu den simplen iGPUs.

Bei AMD ist jetzt schon fast alles im SoC - somit müssten sie nur noch die LAN-Anbindung und Audio integrieren und schon bräuchten die Mainboard-Hersteller nur noch die Stromversorgung liefern, und die Leiterbahnen zu den Steckern ziehen. Mehr würde das Mainboard nicht mehr tun, ...
Zudem mit viel höherer Effizienz, weil die Spannungswandlung in den SoC fest integriert werden kann, und das Mainboard somit im Prinzip nur von z.B. 5V DC, die per Schaltnetzteil und Rundstecker reinkommen, auf ca. 1V wandeln bräuchte.
Wie schon andere vermutet haben und nun das Update bestätigt hat ist das leider falsch. Da sind schon noch eine Menge an Spannungswandler zusätzlich zur CPU die die GPU versogen. Bei kleineren Lösungen wird das vielleicht besser - so aktuell aber anscheinend noch nicht.

... schließlich spart man sich beim IGP die komplette Spannungswandlung der Grafikkarte und der HBM nimmt auch viel weniger Platz weg.
Wie oben schon erwähnt ist das anscheinend nicht der Fall. Ja es ist kleiner da gerade der HBM weniger Platz braucht als die (teils aus mehreren Chips bestehende) GDDR Lösung. Die Spannungsversorgung sieht jedoch ähnlich groß aus.

@Powl
Sehe das genau so. Ja - es geht wohl kleiner, aber unglaublich revolutionieren wird das noch nichts.

... Erst Partner, dann einsteigen, zuletzt übernehmen ? AMD < Intel oder Intel<AMD ?
Vielleicht ein dummer Gedanke, aber eventuell geht die "Radeon" Sparte irgendwann zu Intel über? AMD und Intel haben ja unzählige Patentabkommen und AMD könnte ja nach wie vor an APUs und GPU Lösungen an/in den CPUs arbeiten. Die Radeon Group hat das Know How und Intel wohl die Power/Kapazitäten um nette Produkte zu fertigen und zu vermarkten. Ist etwas irre der Gedanke, aber Intel wieder nach unzähligen Jahren im dGPU Sektor?

.. Oder Tablets, Convertibles usw. Oder NUCs, ZBOXen und ähnliche Mini PCs. Es gibt so einiges.
Die ersten drei kannst wohl für solche Produkte die in den News erwähnt wurden vergessen, da nicht wirklich kühlbar. Kleinere Ableger oder kleine Raven Ridge Lösungen, ja ... was was ordentlich Power hat, noch eher nein.

Es ist aber nicht nur das. Wie gesagt, bei gleicher Performance ist die Lösung mit dGPU immer aufwändiger, teurer und ineffizienter. Daher führt der Weg an einer iGPU nicht vorbei.

Spannend bleibt die Verwendung von HBM2. Was sicherlich die Kosten erstmal um einiges erhöht. Weshalb Raven Ridge noch darauf verzichtet. Trotzdem ein interessanter "Testlauf" für zukünftige APU Generation, die dann auf preiswerteren HBM zurückgreifen können.
Aufwendiger ... eventuell, teurer ... hält sich vielleicht noch die Waage, ineffizienter? Aktuell nicht wirklich, in Zukunft sieht es dann wohl besser aus, ja.

Hat es nicht zu Vega schon irgendwo mal Vergleiche/Vermutungen gegeben daß HBM(2) gar nicht so viel teurer ist? Wie Du sagst werden zukünftige APUs von AMD bestimmt auch HBM anbieten, hat ja AMD schon auf Folien prophezeit.

Ich vermute in ferner Zukunft wird der RAM dann eher ähnlich wie ein Prozessor als Sockel (nur deutlich kleiner) direkt neben dem Prozessor montiert. Damit dürfte man wahrscheinlich deutlich kürzere Signalwege hinbekommen und gleichzeitig alles Flach und Kompakt halten.
Das bekommt man mechanisch nicht hin wenn es steckbar sein soll. Da müsste der Sockel deutlich größer sein und das würde den Vorteil von "Stacked" Memory wie HBM es ist und die Größe wieder zu nichte machen. RAM Module sind am Desktop seit etwa SD-RAM alle gleich groß und am mobilen Sektor mit den SO-DIMMs ebenfalls. So ziemlich alles was kleiner ist ist verlötet. Man sieht zwar an SO-DIMMs daß RAM Module nicht so groß sein müssen wie normale Module, aber bei Desktops ist es nicht so wichtig.
 
Selbst bei 8GB, wer will eine Kiste die zum Gamen taugt, sich aber CPU und GPU läppische 8GB teilen müssen?
Ich rede nicht von Core H, sondern betrachte das mittelfristig. Aktuell könnte ein Stack 8GiB beherbergen, mit 2 Stacks also 16 GiB. vielleicht ist schon die nächste CPU-Generation mit 2 Stacks ausgestattet.


So eine Lösung wie in den News wird vielleicht zu teuer für viele Billig PCs sein.
Also Du sparst Dir das komplette PCB, massiv Spawas etc - das Ding braucht mit 4 Kernen+RX 470-Leistungsniveau ja normalerweise nur ca. 100-150W insgesamt, während eine dGPU+CPU heute zwischen 150 und 600W verbrät, je nachdem, wie viele Kerne und Shader... Und wenn man es für Notebooks taktet, verbraucht es noch viel weniger Energie. Das bedeutet viel weniger Verlustleistung und viel billigere Spannungswandler. Das, was wir hier sehen, ist auch nur "zusammengeklebt" - diesmal von Intel. Wenn aber alles aufeinander abgestimmt ist, sodass die Spannungen fast identisch sind, etc. - und das wird letztlich das Ziel der Technologie sein - wird man sehen, dass die Produktion massiv günstiger ist - wahrscheinlich könnte man das Ding, wenn man es gut macht, schon für einen Preis von einer einzelnen RX 560 verkaufen - jedenfalls wenn ein Ryzen-Modul die CPU wäre. Aber wie bereits geschrieben, ist das etwas, was ich in den nächsten Jahren kommen sehe, als HBM+CPU+GPU auf einem einzigen Interposer mit nur einer Eingangsspannung, und aktuell ist es noch nicht da.

Vielleicht ein dummer Gedanke, aber eventuell geht die "Radeon" Sparte irgendwann zu Intel über?
Aus Sicht von AMD wäre der Gedanke komplett hirnrissig. Sie sind fast dabei "draufgegangen", ATI zu übernehmen, aber es fängt jetzt an, sich auszuzahlen. Warum sollten sie ihren massiven Vorteil jetzt plötzlich abgeben? - Natürlich wäre für Intel die Radeon-Abteilung Gold wert, da sie Nvidia nicht kaufen können und es auf weiter Flur keine Alternative gibt. Trotzdem wird AMD den Teufel tun, CPU, GPU, oder HBM-Dinge an irgendwen abzugeben. Sie werden aber Intel die Möglichkeit bieten, es mitzunutzen, solange Intel angemessen dafür bezahlt, um Intel nicht unter den Druck zu setzen, möglichst schnell eine GPU-Sparte auf ein gleiches Niveau auszubauen.
 
Wie kommst du darauf, dass spawas und pcb es so viel billiger machen? Das sind cent beträge. Das teure ist und bleibt der chip.

Und wieso sollte man die vrm kleiner machen können als jetzt schon? Aktuelle lösungen in notebooks sind doch auch bei 100-150W in ähnlichem form faktor. Da brauchste hier die gleiche vrm, nur halt an einer stelle statt auf zwei stellen verteilt.

Du hast irgendwie ein paar herbe denkfehler in deinem verständnis. Deine connection scheint zu sein [vega gpu auf gleicher bridge = igpu == gleiche bedürfnisse wie intel igpu] und das ist schlicht falsch. Nur weil die gpu näher ran rückt, verschwindet nicht plötzlich der stromverbrauch oder die wärmeentwicklung oder die kosten für den chip.

Das einzige, was diese lösung hier nennenswert einspart, ist etwas pcb. Und das macht den kohl nicht fett, weder preislich noch räumlich, jedenfalls in den geräteklassen, in denen man das sinnvoll kühlen kann.


Sent from OP3T
 
Zuletzt bearbeitet:
Es kann aber sehr wohl die komplexizität der PCBs verkleinern, was diese günstiger macht. Wen weniger Layer nötig sind, wird das PCB günstiger.
 
17 zöller?

Wir reden hier von cpus mit 30-45W und dgpu mit bis 70W oder so. Das gibts in 14"...
Aber eben keine, die an bestimmte Abmessungen und an ein bestimmtes Gewicht gebunden sind.

Kosten sparen, vielleicht, dafür kostet hbm mehr, da ist die ersparnis wieder weg.
Aber nicht bei dGPUs, die ebenfalls auf HBM setzen.

Ineffizienter? Seit wann ist pascal ineffizienter als vega?
Wir reden von CPU+iGPU vs CPU+dGPU. :rolleyes: Letztes ist einfach ineffizienter bei vergleichbarer CPU- und GPU-Architektur.

Tablets/convertibles werden den hybrid hier nicht sehen da kühlung zu aufwändig.
...
In nen NUC gehts wieder zwecks kühlung nicht.
Was du nicht alles weisst. Praktisch nichts. LOL.

https://www.computerbase.de/2017-11/kaby-lake-g-nuc-vega-hbm2/

Übrigens, selbst 15W brauchen keine besonders aufwändige Kühlung. Und Modelle mit weniger TDP erst recht nicht.
 
Hut ab an Intel, was sie da vor haben scheint wirklich mal was Handfestes zu sein.
Das Beste aus beiden Welten vereinen: Low Latenz Cache & hohe IPC gepaart mit High-Bandwidth bei geringem Energieverbrauch, auch bei der Produktion. :)
 
Aber eben keine, die an bestimmte Abmessungen und an ein bestimmtes Gewicht gebunden sind.


Aber nicht bei dGPUs, die ebenfalls auf HBM setzen.


Wir reden von CPU+iGPU vs CPU+dGPU. :rolleyes: Letztes ist einfach ineffizienter bei vergleichbarer CPU- und GPU-Architektur.


Was du nicht alles weisst. Praktisch nichts. LOL.

https://www.computerbase.de/2017-11/kaby-lake-g-nuc-vega-hbm2/

Übrigens, selbst 15W brauchen keine besonders aufwändige Kühlung. Und Modelle mit weniger TDP erst recht nicht.

Bestimmte Abmessungen? Nenn ein Beispiel. Der Constraint an die Größe ist bei den meisten Notebooks mit starker GPU/CPU der Kühlung geschuldet. Etwas weniger pcb verringert nicht massiv das nötige Volumen der Kühlung.


"iGPU". Nochmal, nur weil die gpu nun näher an der cpu ist, wird der verbrauch nicht weniger. Ne 1536 shader Vega verbraucht bei gleichem Takt gleich viel, egal ob sie auf der EMIB liegt oder am anderen Ende des PCB.


Die bisherige KBL-G NUC Platine ist deutlich größer als bisherige NUCs. Schau dir die IO an, das Teil ist fast mITX.
Und mit Tablets/Convertibles hat das auch nichts zu tun. Ja 15W sind da kühlbar, aber KBL-G in der bekannten Konfiguration wird weeeeeit über 15W liegen. Zeig mir doch mal ein Convertible mit 100W TDP.

Sent from OP3T
 
Zuletzt bearbeitet:
Bestimmte Abmessungen? Nenn ein Beispiel. Der Constraint an die Größe ist bei den meisten Notebooks mit starker GPU/CPU der Kühlung geschuldet. Etwas weniger pcb verringert nicht massiv das nötige Volumen der Kühlung.
Ach Jungchen, ich hab jeden Tag mit etlichen Notebooks verschiedenster Hersteller zu tun. Am meisten verkauft sich das, was kompakt und einfach in der Umsetzung ist. Da haben Hersteller weder Platz noch Budget für aufwändige dGPU Umsetzungen.

Nochmal, nur weil die gpu nun näher an der cpu ist, wird der verbrauch nicht weniger.
Das hat auch keiner gesagt. Man ist trotzdem effizienter, da zum einen ein PCB wegfällt und zum anderen Signallaufzeiten kürzer sind und Stromsparmechanismen etwas effektiver implementiert werden können. Noch effizienter wäre man natürlich, wenn alles auf einem Die implementiert ist.

Die bisherige KBL-G NUC Platine ist deutlich größer als bisherige NUCs.
Selbst wenn dem so wäre, irrelevant. NUC ist NUC. Aber ich merke schon, Einsicht besitzt du keine. Anstatt deine falsche Behauptung einfach mal zuzugeben, suchst du lieber nach billigen Ausflüchten. Echt abartige Diskussionskultur!

Und mit Tablets/Convertibles hat das auch nichts zu tun. Ja 15W sind da kühlbar, aber KBL-G in der bekannten Konfiguration wird weeeeeit über 15W liegen. Zeig mir doch mal ein Convertible mit 100W TDP.
Natürlich sind auch Tablets/Convertibles möglich. So eine Combo ermöglicht Packages <15W.
 
Zuletzt bearbeitet:
"nuc ist nuc".

Die ganze diskussion geht um platzeinsparung. Wenn das ding GRÖSSER ist als vorher, dann ist eben nicht nuc gleich nuc.



Oh, es wird minimal effizienter weil die signallaufzeit kürzer ist. Also noch kleinlicher geht ja nicht. Das eine Watt machts jetzt fett oder was?


Aufwändige dgpu umsetzungen? Mit dem hybriden hier wird das nicht nennenswert weniger aufwändig? Pcb wird etwas kleiner, dafür wird kühler und layout um die EMIB rum schwieriger. Und die kühlung wird halt nicht kleiner als sie bisher schon möglich wäre.


Was soll ich dir noch belegen? Was willst du? Man sieht dass das aktuelle KBL G NUC pcb größer ist. Soll ich das foto anders rotieren? Bei gleichem verbrauch wird die kühlung nicht kleiner werden, als sie es schon jetzt ist. was soll ich dir da belegen? Willst du dem widersprechen? Dann solltest du lieber schleunigst beweisen, wie du plötzlich die physik aushebelst.


Und wie zum henker stellst du dir nen hybriden wie das hier mit <15W vor???? Allein die GPU wird jenseits der 50W fressen...
Wenn du das hier auf <15W skalierst, machts absolut keinen Sinn mehr, weil dann die Leistung auch nicht mehr höher ist als die bisheriger tablet lösungen...


Und DU willst was von abartiger Diskussionkultur erzählen! Du argumentierst nur, um "dagegen" zu sein.

Sent from OP3T
 
Allein die GPU wird jenseits der 50W fressen
Wie kommst Du denn auf sowas? Die Notebookversion von Raven Ridge hat 1,6 TFLOPS GPU-Leistung und GPU+CPU nehmen zusammen maximal 25W auf. Wenn ich das mal verdopple, bin ich bei max. 50W. Der HBM kommt noch dazu, somit vielleicht 60W. Selbst wenn ich es verdreifachen würde, wären wir bei 75W, wobei jedoch kein 12-Core kommen wird, sodass man für die CPU wieder viel abziehen muss. Wir bewegen uns hier somit zwischen 50 und 80W für das ganze Package, vielleicht.

Wenn die Polaris-GPU, wie hier angegeben, mit nur 1190MHz taktet, und die gleichen Optimierungen wie Vega bekommt, wird sie auch voll im Sweetspot landen - genauso wie Vega in Raven Ridge mit bis zu 1300MHz.

Wenn man eine GPU für den Desktop mit den ganzen Bauteilen, die heiß werden, mit so einem kleinen Ding vergleicht, was selbst gar keine Verlustleistung durch Spannungswandler abgibt, macht man meiner Meinung nach einen großen Fehler in der Einschätzung. Man braucht zwar eine große Fläche, damit so kleine Dinger weiterhin ihre Wärme gut abgeben können und wird deshalb wahrscheinlich erst sehr spät die absolute HighEnd-Hardware dadurch ersetzen können, aber wenn man es richtig anstellt, lässt sich die Energieeffizienz dadurch im Welten verbessern.
 
Zuletzt bearbeitet:
Wieso vergleichst du mit dem Desktop? Ich vergleiche mit dGPUs in bisherigen Laptops. Wieso nimmst du an, der kram in laptops hat keine verlustleistung? Ne 50W gpu hat in nem laptop genauso viel wandlerverluste wie als eigenständige karte mit gleicher vrm ausstattung. Wieso nimmst du an, dass plötzlich faktoren wegfallen, die rein garnichts mit der geräteklasse zu tun haben?

Bzw verbrauch. Die bisherige Info spricht von 1536 shader bei 1-1.2ghz. wenn ich das linear interpoliere von polaris oder vega, komme ich auf 60W. Klar skalierts nicht linear, aber ist die einfachste Näherung. Von RR hochrechnen ist ein denkfehler, denn das wird bei last auf gpu+cpu nicht den vollen takt halten können, zumindest wenns so ist wie bei jeder ULV sku seit nem Jahrzehnt. Und selbst wenn hat RR was, 640 shader? Wir haben also fast drei mal so viele shader und nur etwas weniger max takt. 50W min für die gpu sind da nicht unrealistisch.

Cpu kommt da noch dazu und Core H kann fröhlich 20W aufwärts nehmen bei Last.

Sent from OP3T
 
Zuletzt bearbeitet:
Die ganze diskussion geht um platzeinsparung. Wenn das ding GRÖSSER ist als vorher, dann ist eben nicht nuc gleich nuc.
Doch.

Oh, es wird minimal effizienter weil die signallaufzeit kürzer ist. Also noch kleinlicher geht ja nicht. Das eine Watt machts jetzt fett oder was?
Das hat nichts mit Kleinlichkeit zu tun. In kleinen Formfaktoren zählt jedes Watt.

Aufwändige dgpu umsetzungen? Mit dem hybriden hier wird das nicht nennenswert weniger aufwändig?
Doch, für Systemhersteller deutlich. Kühlung und Layout wird vereinfacht, und nicht schwieriger, wie du fälschlicherweise behauptest.

Und wie zum henker stellst du dir nen hybriden wie das hier mit <15W vor???? Allein die GPU wird jenseits der 50W fressen...
Nein. Nach unten kann man immer problemlos skalieren. Oder brauchen die mobilen Raven Ridges 100W? :rolleyes:

Wenn du das hier auf <15W skalierst, machts absolut keinen Sinn mehr, weil dann die Leistung auch nicht mehr höher ist als die bisheriger tablet lösungen...
Doch, aus Sicht von Intel schon.

Und DU willst was von abartiger Diskussionkultur erzählen! Du argumentierst nur, um "dagegen" zu sein.
Nein, das machst DU! Kurzzeitgedächtnis? DU warst derjenige, der meine Beiträge angegriffen und behauptet hat, dass 'ne dGPU in gleichen Formfaktoren möglich wäre, die Lösung hier nicht bei NUCs geht und ähnliches, was ja mittlerweile widerlegt ist. Also komm mal von deinem Egotrip runter und betrachte die Sache objektiv und unvoreingenommen!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh