IDF16: Intel zeigt erstmals siebte Core-Generation in Aktion

L

lll

Guest
Ist wohl eine IGP Präsentation gewesen, wann wollte wohl zeigen wie weit man ist, mal sehen wie gut sie gegen die aktuell kleinsten Grafikchips der Hersteller sein wird, gegen die GTX950 & RX460.
Im RX460 Test hat CB auch die beliebten E-Sports Spiele getestet, inklusive Overwatch, wenn die neue Grafikeinheit wieder einen guten Sprung gemacht hat könnte sie diesen beiden Karten fast auf den Fersen sein.
Eine Intel Iris Pro Graphics 6200 war inklusive OC an der GTX750 dran, wenn wieder ein guter Sprung gemacht wurde könnte die neue Intel IGP die GTX750Ti überholen, damit wäre man nur 20% hinter den beiden genannten Karten, mit OC (was bei Intel IGP's sehr gut und weit funktioniert) würde Intel gut Druck aufbauen können.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hoffen wir mal das nicht nur die Prozessorgrafik aktualisiert wurde und mehr Leistung hat, auch wenn da Zweifel aufkommen, wenn die zuerst demonstriert wird.

Übrigens: Das Datum des ersten Posts ist: "01.01.70, 01:00" :d
 
Bin echt auf die integrierte Grafik gespannt. Der nächste Intel NUC damit könnte meins sein :)
Ansonsten werde ich wohl mit Kaby Lake meinen Ivy Bridge in Rente schicken.
 
Wenn die interne die Leistung von ner 960 hat, wäre ich dabei. Dann könnte die Grafikkarte bei mir raus.
 
Ihr seid aber bescheiden. Ich würde sofort umsteigen (z.Zt. 8 Jahre alter AMD Sempron), wenn Intel doch endlich die GTX1080 mit ihrem OnChip-Gedöns übertrumpft. Also so 20-30% Mehrleistung sollten schon drin sein, sonst kann man ja auch bei der 1080er bleiben.
 
Für das IGPU Gedöhns bin ich nicht die Zielgruppe. Mein nächster bekommt deshalb Sockel 2066.
 
wenn Intel doch endlich die GTX1080 mit ihrem OnChip-Gedöns übertrumpft. Also so 20-30% Mehrleistung sollten schon drin sein, sonst kann man ja auch bei der 1080er bleiben.
Dann träum weiter, denn die Resourcen einer solche GPU auch noch zusammen mit einer Chip in einem Gehäuse oder gar auf einem Die zur Verfügung zu stellen, wird auch Intel nicht gelingen. Nimm alleine mal die TDP einer 1080er und schau Dir deren Speicheranbindung an, dann werfe einen Blick auf die Größe des Die, wo soll es da noch Sinn machen ein paar CPU dran zu kleben und selbst wenn, dann würde es nicht weniger kosten als beides getrennt zu kaufen, sondern sogar noch mehr. iGPUs werden große Grakas daher nie wirklich ersetzen können.
 
@Holt

sarcasm.jpg
 

Anhänge

  • 82e07402c94674dab1761ed5cba76725.jpg
    82e07402c94674dab1761ed5cba76725.jpg
    8,3 KB · Aufrufe: 108
ja der Treiber ist alt und stürtzt ab
Okay und da wird nicht mehr weiter dran gearbeitet meinst Du? Wäre schade wenn Intel das wieder einstampft, vor allem wenn in Zukunft doch einige Spiele mit Vulkan Support raus kommen.

@Holt
Das war bestimmt ein Scherz. Ich glaube niemand erhofft oder erwartet sich die Leistung einer aktuellen Performance/High End Karte in einer iGPU/APU.
 
Ich finde es nach wie vor bedauerlich, daß intel keinen Nachfolger für den i7-5775C und i5-5675C bringt. Der i7-5775C ist die perfekte CPU für einen Arbeitsrechner.
Für einen Arbeitsrechner? Wozu brauchst Du da die starke iGPU?

Dann packt man eigentlich wenigstens einen :d dahinter. Da wäre ich mir leider nicht so sicher, denn manche Leute habe wirklich derart überzogene Vorstellungen.
Also bei einigen Aussagen ist wohl kein Smiley notwendig.
Ja einige glauben/hoffen daß wenn z.B. neue APUs mit HBM(2) daherkommen daß diese dann DIE Überflieger in Sachen iGPU Leistung sind. Natürlich hätte man dann das Nadelöhr der Speicheranbindung für den GPU Teil so gut wie beseitigt, trotzdem benötigt es um auf deutlich schnellere GPUs aufzuschließen auch deutlich mehr DIE Fläche wg. mehr Shader etc. Weiters benötigen diese GPU Parts dann wie Du sagst mehr Leistung die 1. erst einmal bereitgestellt werden muß (Sockel/Mainboard Spezifikationen demnach hoch ausgelegt) und 2. abgeführt werden muß.
Und letztendlich kosten die Dinger dann bestimmt auch einiges mehr wie aktuell.

Ich bin und war sowieso noch nie so recht überzeugt von den APUs von AMD. Klar, anfangs war es eine tolle Sache da endlich eine brauchbare GPU für z.B. diverse Videobeschleunigungen und aktuellen 3D API Support (DX Versionen etc.) zu haben. Viel frühere Chipsatz Grafikeinheiten waren da ja teils mehr als mies. Aber mehr Leistung als z.B. aktuelle Intel HD iGPUs auch in den kleinsten Celeron Modellen bietet benötigt man kaum wenn man nicht spielt. Selbst für HTPCs taugen die seit den letzten Generationen. Lediglich bei den unterstützten Codecs sowie teils Anschlußmöglichkeiten hinken die teils der neuesten Technik hinterher, wobei sie da aber immer mehr aufholen.
Meine Meinung zu den stärksten APUs ist - für seriöses Gaming in höheren Auflösungen/Settings zu langsam, für lediglich 2D und Video etc. unnötig schnell (wie gesagt da tut's auch ein kleiner Celeron um 35 EUR oder eben eine kleine APU) und im Endeffekt zu teuer (da man für unwesentlich mehr viel mehr Leistung mit einer dGPU und reinen CPU erhält). Und falls die Leistung eines Teils (CPU oder GPU) nicht mehr genügt muss man beides austauschen.
 
Ich bin und war sowieso noch nie so recht überzeugt von den APUs von AMD.
Die Idee hinter den APU war ja eigentlich auch eine ganz anderen, nämlich das GPU Computing auch für kleine Aufgaben sinnvoll nutzbar zu machen. Das scheitert bei einer dedizierten Graka an den langen Wegen über PCIe, die dafür sorgen das es sich erst lohnt wenn es aufwendigere Berechnungen zu erledigen gilt, weil sonst die Zeit für die Übertragung der jeglichen Zeitvorteil auffrisst bzw. es sogar länger dauert als die Berechnungen gleich auf der CPU zu erledigen.

Diese Idee wurde damals auf der Erkenntnis geboren, dass sich die Leistung pro Kern nicht mehr so unendlich weiter steigern lassen wird und es auch aufwendiger ist eine große Anzahl komplexer CPU Kerne zu realisieren als eine viel höhere Anzahl an GPU Shadern, die zwar einfach aber für viele Berechnungen trotzdem ausreichend sind. Das war also von Anfang an für HSA ausgelegt, nur konnten die ersten Generationen das noch gar nicht und die SW-Unterstützung war auch nicht gerade üppig, zumal auch AMD die Entwicklung solche SW nicht gerade sehr intensiv unterstützt hat, was man sieht wenn man das mal mit NVidias Unterstützung für CUDA vergleicht. Also ist es immer noch so, dass GPU Computing nur bei Aufgaben verwendet wird wo viel auf den Daten gemacht werden muss und eine große Graka dann jede CPU mit der puren Masse ihrer Shader erschlägt und andererseits jede (i)GPU heute mehr oder weniger viele Codecs unterstützt um Videobearbeitung zu beschleunigen.
 
Aus dem einleitenden Bericht:
Erste Samples des Prozessors sind bereits an Intels Partner zur Evaluierung gegangen, man erwarte die Verfügbarkeit im Markt "noch diesen Herbst", entsprechend also irgendwann im dritten oder vierten Quartal.

Im dritten Quartal würde ich nicht damit rechnen.

Der Herbst beginnt am 23. September und endet am 21. Dezember. Es wird wohl eher knapp vor Weihnachten, dass die Prozessoren im Markt verfügbar sind.
 
Nur bezieht sich das, auch wenn es hier in der News nicht so dasteht, auf die Notebook CPUs, die gesockelten kommen erst später.
 
Für das IGPU Gedöhns bin ich nicht die Zielgruppe. Mein nächster bekommt deshalb Sockel 2066.

Was ich net schnaggel ist, der Broadwell C mit iris pro und 128MB L4 Cache und achundsoviel Slices hatte eine so bekackte Spieletauglichkeit, da kommen die non pro iGPU's von Kabylake auch net mal dran und dann soll das alles gewesen sein bei dem "Refresh"?

Werde die X99 Platform noch knapp ein Jahr fahren, und dann mal schauen, was Intel so mit dem Sockel R4 aka 2066 aka Basin Fall so in petto hat. Ihre iGPU können sich Intel sonst wo hinstecken.
 
Zum beschleunigen von Grafik- und Video-Software. ...
Okay wenn für Dich die Leistung da passt bzw. reicht, dann ist diese CPU mit der Iris Pro iGPU wohl gut für Dich. Ich denke mir nur daß wenn man viel mit 3D Anwendungen oder Videoberechnung macht (wo man zumindest für Previews etc. die GPU Beschleunigung nimmt) man sowieso stärkere GPUs nutzt.

Die Idee hinter den APU war ja eigentlich auch eine ganz anderen, nämlich das GPU Computing auch für kleine Aufgaben sinnvoll nutzbar zu machen. ... Das war also von Anfang an für HSA ausgelegt, nur konnten die ersten Generationen das noch gar nicht und die SW-Unterstützung war auch nicht gerade üppig, zumal auch AMD die Entwicklung solche SW nicht gerade sehr intensiv unterstützt hat, was man sieht wenn man das mal mit NVidias Unterstützung für CUDA vergleicht. ...
Ja da hast Du schon recht, der Ansatz der APU war mitunter auch der HSA Aspekt. AMD listet ja nach wie vor ihre APUs mit xx Compute Cores wo sie die CPU Kerne und GPU Einheiten zusammenzählen. Das Problem ist halt nur wie Du sagst daß die SW das explizit nutzen muß. Die Idee daß die GPU der CPU unter die Arme greift wo sinnvoll ist ja nicht schlecht, wenn das aber nicht automatisch bei generischem Code schon gemacht wird, sondern erst explizit auf Anwendungsebene schon dafür programmiert werden muß, klappt das nur mit breiter Unterstützung der Software Entwickler.
Und so wie Du sagst, wenn da schon darauf hingearbeitet werden muß dann nimmt man eine universellere Schnittstelle wie OpenCL oder CUDA und ist somit mit einer dGPU erst wieder besser dran da diese leistungsfähiger sind.
 
ein zockerkolegen der zur zeit aufstocker ist ,ist seine graka abgeraucht.Für seine Bedürfnisse hat er sich eine 750ti als ersatz gekauft.wenn man bedenkt das eine interne GPU fast an einer 750 rankommt,ist das sogesehn schon weit fortgeschritten.Ich selber besitze im Zockerrechner aktuell noch eine 560 TI. Sagt mir jetz ned,das die CPU mehr Grafikleistung hat als mein Rechner :P
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh