[Sammelthread] Intel's Larrabee-Projekt ***News- und Gerüchte***

Intel's Larrabee-Projekt ***News und Gerüchte***

Larrabee, die neue Multicore-Mikroarchitektur:

z2pal2y2.jpg

Larrabee Blockdiagramm Quelle: Intel

  • Freiprogrammierbarer Chip, der Aufgaben einer X86-CPU und GPU übernehmen kann
  • Raytracing fähig
  • Erste Version mit 4 bis 24(32?) Kernen, später bis zu 64(80?)
  • Basiert zum Teil auf dem Pentium P54C
  • fünfstufige in-order Pipeline
  • 64 KiByte L1 Cache pro Kern
  • 256 KiByte L2-Cache pro Kern
  • 64-Bit-Support
  • 1 Vektoreinheit (Intel VPU) pro Kern
  • 16 Instruktionen (Vec16)
  • Tiling-Architektur aus VR-Power Lizenz (Berechnung des Bildes in einzelnen Kacheln)
  • 45-Nanometer-Prozess
  • 10 Kerne so groß wie ein Conroe Core 2 Duo (143mm²)
  • bis zu 2 GHz Takt (1.7-2.5 GHz?)
  • 2 TFlop pro Prozessor
  • 1.024 Bit Ringbus
  • 128-256-Bit (512?) SI mit GDDR5-RAM
  • kaum festverdrahtete Logik (Vertex- und Pixelshading "in Software")
  • Texture-Mapping in Hardware
  • Optimierung für 8-Bit-Texturen
  • 12 Layer PCB
  • DirectX und OpenGL Support
  • C-Code kompatibel
  • Mulitchip fähig (wie X-Fire/SLI)
  • up to 300 Watt TDP(?)
  • Release: Ende 09/Anfang 10
vgyr8w3v.jpg

Larrabee Wafer Quelle: Intel

Umfassende Artikel zu Larrabee:

anandtech.com: engl., 16 Seiten Intel's Larrabee Architecture Disclosure: A Calculated First Move
pcgameshardware.de: deut., 3 Seiten Der Pentium als Grafikchip: Intel enthüllt Larrabee

News Historie:

Auf Grund der Größe verspoilert. Achtung: Enthält auch ältere Spekulationen, die sich schon als falsch erwiesen haben.
Dezember 06:
Gerüchte um Intel Prozessoren zur Grafikberechnung durch eine Stellenausschreibung von Intel in der für den Standort in Oregon nach Spezialisten für die Entwicklung von "High Performance Graphics" gesucht wird.
The Larrabee Development Group (LDG) has the mission to establish the future of computing for high throughput workloads. Our initial products are focused on high performance graphics and visual computing. LDG offers a start-up environment with a passionate, experienced team of professionals possessing a clear vision and broad.
golem


März 07:
Erste Gerüchte zu Spezifikationen. Angeblich plant man bei Intel auf eine Manycore-Architektur zu setzen und mindestens 16 Grafikkerne auf einem Chip zu vereinen. Die High-End-Variante soll bei Intel 2009 in 32nm hergestellt werden und den HighEnd-Markt erobern. Eine Anfrage nach GDDR 5 Speicher der Größen 512 MB und 1 GB bei den Herstellern Micron, Quimonda und Samsung enthüllt weiteres. Die Karten könnten auf dem zukünftigen PCIe2 Standard beruhen.
Die Markteinführung der ersten Generation mit 16 Kernen scheint irgendwann in der ersten Hälfte 2008 geplant zu sein.
theinquirer
vr-zone



12. April 07:
Intel entwickelt Grafikchips zum "Kampf um die Plattform". Auszug aus einem Universitätsvortrag.
beyond3d
golem

17. April 07:
Auf dem IDF in Peking enthüllte Intel erstmals Details der Arbeiten am Projekt „Larrabee“ . Dabei soll es sich um einen Multi-Core-Prozessor handeln, der aus einer Vielzahl von Kernen besteht, die mittels Software neue Funktionen erlernen können. Ähnlich können auch die Shader-Einheiten von modernen GPUs arbeiten. Die Vorarbeit soll der Polaris Chip geliefert haben, um die Kommunikation der Vielzahl an Kernen zu erproben. Ob dieses Projekt schlussendlich als "GPU" zum Einsatz kommt bleibt weiter offen.

Bild:Golem
golem

01. Juni 07:
Interne Dokumente zum Larrabee Projekt aufgetaucht. Intel Dokument (nicht nur Larrabee) *pdf-Format*
Erste Bilder zum Boardlayout, der Chiparchitektur,Spezifikationen und den Einsatzmöglichkeiten von Larrabee Chips:

Bilder: Intel/Tgdaily/Computerbase
PCIx Karten und reine Multiprocessorsysteme auf Larrabee Basis sollen möglich sein.
Larrabee soll eine CPGPU (Central Processing/Graphics Processing Units), die Aufgaben von Hauptprozessor (CPU) und Grafikkarte (GPU) auf sich vereinen, mit mindestens 16 Kernen und einer programmierbaren Leistung von 1 Teraflop sein. Jeder der 16 Kerne verfügt über einen 32 KB großen L1- und einen 256 KB großen L2-Cache. Außerdem sind zwei Speichercontroller für GDDR mit einer Gesamtbandbreite von 128 GB/s integriert. Der Grafikspeicher soll eine Größe zwischen 1 und 2 GB haben. Die Quelle spricht weiter von 2 GHz Takt und 150W Energieverbrauch auf einem PCI Express 2.0-Board. GPGPUs könnten in Zukunft als "Co-Prozessor" die Allzweckwaffe für Grafik, Physik und General Purpose Processing darstellen.
Tgdaily Artikel über Larrabee
Computerbase Artikel über Larrabee

Es sieht danach aus, dass Larrabee mit einem auf 512 Bit verbreiterten SSE arbeitet - SIMD16 genannt, wegen der 16-fach parallelen SP- und 32-Bit-Integer-Operationen. Außerdem wird es mit einer größeren Anzahl direkt adressierbarer SSE-Register ausgestattet sein als jetzt, möglicherweise gar mit 128, so wie Cell auch - da wird man an dem SSE-Instruktionssatz ganz schön herumstricken müssen......Der Kern selbst ist ein recht einfaches In-Order-Design für x86, bei dem die Wartezeiten durch Vierfach-SMT (Simultaneous Multithreading) überbrückt werden[...]Teraflop-Gleitkommaleistung in doppelter Genauigkeit pro Chip ist in der Tat ein dickes Pfund, mit dem man die Wissenschaftler in Michigan sicher beeindrucken konnte. ATI und Nvidia beschränken sich bislang auf einfache Genauigkeit - für Grafik reicht diese zwar aus, für HPC ist das jedoch meist zu wenig....Für den Larrabee-Grafikchip ist gemäß Tabelle ein integriertes Interface zum Grafikspeicher (GDDR/ Fast DRAM) mit maximal 2 GByte Kapazität vorgesehen, über das die Kerne dann flott mit 128 GByte/s kommunizieren können. Der Hauptspeicher wird dann vergleichsweise langsam via CSI angesprochen. In der HPC-Fassung soll der Speicher (DDR3/FBD/GDDR bis 32 GByte) direkt mit 20 bis 50 GByte/s angebunden sein[...]
heise

08. Juni 07:
Intels "Boardpartner" scheinen auf der Computex bestätigt zu haben, dass es ab 2008 Grafikkarten von Intel gibt. Intel peile angeblich das Preis-Segment um/bis 300 US-Dollar an. Sofern der Zeitplan eingehalten werden kann, sind nach Ansicht einiger Grafikkarten-Hersteller sogar schon im zweiten Quartal des kommenden Jahres Karten mit Intel Chipsatz zu erwarten.
Computerbase

18. Juni 07:
Angebliche Larrabee Roadmap aufgetaucht: 48 Kerne im Jahr 2010 und die Vorteile von vielen "kleinen" inorder Kernen:

Bilder: Intel/PCwatch.jp

28. Juli 07:
Larrabee soll Pentium 1-Technik verwnden. Wie die Webseite Tech.co.uk berichtet, setzt Intels kommender Many-Core-Prozessor Larrabee auf Techniken, die bereits im originalen Pentium MMX zum Einsatz kamen. Intel sollen bestätigt haben, dass es sich um ein ähnliches - wenn auch extrem modifiziertes - Design handelt.
Weiter wird berichtet, dass die integrierte GPU von Larrabee im Gegebsatz zu normalen Grafikprozessoren nicht auf Rasterschaltkreisen basieren wird. Stattdessen wird Larrabee Instruktionen in einfache Basic-Sprache umwandeln, um sie zu verarbeiten. Das ist nicht ganz so effizient, wie die nativen Rasterchips von AMD und Nvidia, aber die hohe Rechenleistung von Larrabee kann dies zu einer akzeptablen Lösung machen. Einen Vorteil hat die Sache: Larrabee kann sowohl Raster-Grafiken als auch Ray-Tracing-Grafiken bearbeiten. Ray-Tracing bietet wesentlich realistischere Beleuchtung und Intel geht davon aus, dass es Raster-Grafik in Zukunft ersetzen wird.
tech.co.uk

19. September 07:
Larrabee vs. Nvidia/AMD offiziell !?
Auf dem IDF in San Francisco bestätigte Intel weder die durch entfleuchte Entwicklungsdokumente schon bekannten 16 In-Order-Cores von Larrabee, noch erklärte Otellini den ersten Einsatzzweck des neuen Chips genauer. Das erledigte aber später Pat Gelsinger in einem Roundtable-Gespräch: "Wenn man im Grafikgeschäft ist, liefert man auch Treiber für OpenGL und DirectX. Punkt.", erklärte der Leiter der Digital-Enterprise-Abteilung.

Bilder: Intel/Golem/PCWatch
golem

16. Januar 08
Larrabee: Launch Ende 09/Anfang 10, erste Prototypen noch in 08, 45nm Fertigung, eventuell sogar schon 32nm, als Gegner der DX11 Generation von AMD & Nvidia

Larrabee first silicon should be late this year in terms of samples and we’ll start playing with it and sampling it to developers and I still think we are on track for a product in late ’09, 2010 timeframe. Paul Otellini
beyond3d.com

07. März 08
Intel zeigte erstmals auf dem hauseigenen 'Intel Investor Meeting' einen 300mm Wafer mit Larrabee-Terascale-Chips.

Vizepräsident, Eric Mentzer gab bekannt, dass Intel in Zukunft stärker in den Grafikmarkt investieren will, in welcher Form auch immer. Außerdem ließ man verlauten das die integrierte Grafikeinheit im zukünftigen Nehalem-Prozessor auf Ressourcen aus dem Larrabee-Projekt aufbauen wird.

Bild: Informationweek.com

pcgameshardware

23. Mai 08

Offizielle Vorstellung auf dem IDF in San Francisco Anfang 09. Die Markteinführung der High-End Variante soll im August/September 09 erfolgen. Intel üblich wohl erst für den Servermarkt. Sechs Monate später soll dann die Mainstream Variante für Desktop und Notebook folgen. Wie TGDaily spekuliert soll dies mit dem Launch der X6x Chipsatzreihe einhergehen.

Laut TGDaily soll die Larrabeekarten der Desktop Version mit einem bis zu 1024 Bit breiten SI inklusive GDDR 5 Speicher ausgestattet sein.
We expect GDDR5 memory and the 1024-bit bus as key factors for Intel to achieve hundreds of gigabytes of bandwidth. The internal path is targeting 1 TB/s[...]
Die Kernanzahl zum Launch wird mit 4-24 beziffert, gestaffelt je nach Einsatz und Marktsegment.

tgdaily.com


3. Juni 08

Intel Larrabee mit 300 Watt TDP?

fudzilla

7. Juli 08

Larrabee mit zwei TFLOPS Rechenleistung.
Larrabee soll mit 32 Kernen in den Handel kommen, ein jeder basiert auf dem alten Pentium P54C, besser bekannt als Pentium. Aller Wahrscheinlichkeit nach sind die Kerne 64-Bit-fähig, die Fertigung in 45 Nanometer Strukturbreite ist selbstverständlich. Mit 32 FLOPS pro Takt im Single-Precicion-Verfahren würden die 32 Kerne bei 2 Gigahertz Takt eine Rechenleistung von 2 TFLOPS entfalten[...]

pcgameshardware

17. Juli 08

Larrabee mit DirectX & OpenGL voll kompatibel. Intel plant aber mit einer neuen hauseigenen Schnittstelle ("like Voodoo's Glide").

fudzilla
IN DIESEM THREAD GEHT ES NUR UM DAS MIT DEM CODENAME "Larrabee" VERSEHENDE ENTWICKLUNGSPROJEKT.
WAS ICH NICHT LESEN WILL IST JEGLICHES AMD/ATI ,INTEL UND NVIDIA GEFAME UND ANFEINDUNGEN ZWISCHEN DEN USERN.
WAS ICH LESEN WILL SIND GERÜCHTE UND NEWS RUND UMS THEMA.
DISKUSSIONEN SIND O.K. SOLANGE SIE SACHLICH LAUFEN.
:coolblue:



Besonderen Dank an "Xptweaker" für den News Support.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bin auch gespannt...
 
Ok, wie erwartet, mehr Infos und Fakten. Vor etwas über einer Stunde hat Sean Maloney eine Key Note gehalten, die ursprünglich von Pat Gelsinger kommen sollte:

Laut Intel haben wichtige Entwickler bereits Larrabee-Muster erhalten.
Maloney führte ein erstes Larrabee-Vorserienmuster vor, das in einem PC mit dem für 2010 angekündigten Sechskernprozessor Gulftown (32 nm/Westmere-Generation) steckte. Auf dem Gulftown-Larrabee-Gespann lief das 3D-Spiel Quake Wars: Enemy Territory in einer Raytracing-Version.
Don't ask about performance

It was, however, noticeable that the scene had very few moving elements, and appeared to be running at a comparatively low frame rate - perhaps around 15fps, despite running on an as-yet unreleased six-core 32nm CPU.
So machte er etwa klar, dass die mit der 32-Nanometer-Prozessorgeneration Sandy Bridge Ende 2010 debütierenden Advanced Vector Extensions (AVX) nur eine Vorstufe sind zu potenziell leistungsfähigeren Beschleunigungseinheiten in noch weiter in der Zukunft liegenden Intel-Prozessoren: Die zurzeit noch in der Entwicklung befindliche Larrabee-Technik soll dort nämlich "eines Tages" Einzug halten.
Aus diesem Zitat könnte man folgern, dass die für Ende 2012 geplante neue Architektur in 22nm Codname Haswell einen Larrabee IGP kriegt.
Mit Sandy Bridge, so Maloney, geht die Integration einen Schritt weiter: CPU und GPU sitzen dann auf demselben Die, (...)
Das wäre dann der Zwischenschritt. Dannach kommt Ivy Bridge der Die Shrink von Sandy Bridge mit 22nm und dann wäre wie gesagt 2012 Haswell drann mit ner neuen Architektur. Und da Haswell das am weitesten in der Zukunft liegende ist was irgendwie grob geplant wird, passen die Aussagen mit der Larrabee Technik als CPU Beschleuniger sehr gut zusammen mit Haswell.

Larrabee: first public demonstration

IDF: Larrabee-GPU soll in künftige Intel-Prozessoren einziehen
Larrabee bezeichnet Intel selbst als eine Familie zukünftiger auf Grafik ausgerichteter Co-Prozessoren. Erste Testsysteme stehen bereits bei einigen wichtigen Entwicklern. Dabei bestätigte Intel auch, das Larrabee zunächst in Form diskreter Grafikkarten auf den Markt kommen soll. Es sei aber eventuell möglich, dass die Larrabee-Architektur künftig auch direkt in Prozessoren integriert werde, so Intel vage.
"auf Grafik ausgerichteter Co-Prozessoren" hm, villeicht läufts auch mal auf etwas hinnaus, was vor ein paar Jahren schon im Gespräch war, z.B. als der Cell kam. Das verschiedene Kerne mit unterschiedlichen Aufgaben in einem Chip vereint werden, also z.B. Acht große CPU Kerne, ein paar kleinere, ein paar Larrabee mäßige Grafikkerne, ein größerer Grafikkern,... aber wohl ehern nicht :haha:.
Die erste öffentliche Vorführung von Larrabee verlief jedoch genau so enttäuschend, wie viele Kritiker sie erwartet hatten. Intels Chefwissenschaftler für Grafikforschung, Bill Mark, zeigte eine statische Szene aus dem auf Raytracing umgesetzten "Quake Wars: Enemy Territory".
Mit soviel Vorschuss-Hype, der nun auch von Intel angefacht wurde, war das erste öffentliche Auftreten von Larrabee umso ernüchternder. Die wenigen bewegten Objekte der Szene ruckelten über die Leinwand, was erkennbar nicht am Beamer lag. Schon die im Juni gezeigten Vorführungen des selben Spiels, und dabei noch auf nur acht CPU-Kernen, waren wesentlich eindrucksvoller.
Die Entteuschung kann ich jetzt nicht nachvolziehen. Aktuelle Spiele schnell darstellen kann doch jeder, aber Raytracing nicht. Und auch wenn es nur mit 15 FPS dahingeruckelt ist, Intel hat ja schon früher klar gesagt, das die erste Larrabee Generation Rraytracing noch nicht packt und nicht dafür gedacht ist, um so erstaunlicher also, dass überhaupt schon das möglich ist, was gezeigt wird.

Intel zeigt Larrabee (Update)
Larrabee kommt erst als diskrete Grafikkarte, später im Prozessor


http://www.youtube.com/watch?v=G-FKBMct21g&hd=1
 
finde das bisher alles ziemlich schwach ... naja mal gucken was generation 2 bringt da können sie ja bis zu 375W saugen ^^ und die auflageflächer ist ja viel höher als bei Nv und ATI also effektiver kühlbar.
 
Imo schwach, der besteht so niemals gegen ATi und nVidia...
 
der 1 muss und soll das ja nicht problem ist nur wenn sich der einser verschiebt verschiebt sich auch der 3ter womit er sich nit gegen GT400 sondern gegen den GT 500 oder gar GT600 stellen muss.
 
finde das bisher alles ziemlich schwach ... naja mal gucken was generation 2 bringt da können sie ja bis zu 375W saugen ^^ und die auflageflächer ist ja viel höher als bei Nv und ATI also effektiver kühlbar.
Woran machst du fest, dass der erste zu schwach wird? Bevor der erste auch nur ansatzweise fertig ist kann man ihn doch nicht abharken und schon auf den zweiten kucken.
Die Aussagen über Performance, Hitze und Größe stammen eigendlich alle samt noch von den 45nm AX Steppings und die kann man nun wirklich zu keinem Vergleich ranziehen.
 
wenn damit games flüssig gingen hätte das intel bestimmt gezeigt ^^ und gibt ja auch ein inoffizieles video und das hatte keinen fps counter und hat "gelaggt" wie sau, und da ich mit dem Gt und RV vergleiche gehe ich natürlich von game performance aus für GPGPU ratracing usw sollen sich andere kümmern ^^
 
wenn damit games flüssig gingen hätte das intel bestimmt gezeigt
Wüsste nicht warum, das IDF ist halt keine Messe für Endkunden die man mit schnellen bunten Games und viel FPS beeindrucken muss. Und ein Jahr bevor das Produkt raus kommt muss man sich auch noch nicht um die Werbung kümmern. Ich denk mal die Entwickler und Industriepartner wollte man einerseits beeindurcken, dass Larrabee überhaupt schon lauffähig ist und dann sogar so leistungsfähig, dass Raytracing läuft, obwohl es noch garnicht dafür gedacht ist. Und dann wurde das System mit der Raytracing ja sowieso noch für den "Beitrag zur Larrabee Programmierung" gebraucht.
 
naja da es ja was komplett neues wird wird es auch langsam zeit sonst ist anfangs ja 0 Software vorhanden.
 
Man darf gespannt sein :)
 
Tja, wie schon länger vermutet, Larrabee ist momentan nicht konkurrenzfähig für Grafikanwendungen. Für den Consumer Markt scheint der Chip jedenfalls erstmal kein Thema mehr zu sein. Man wird sich damit ausschliesslich auf den professionellen Markt beschränken. Ob zumindest daraus etwas wird, ist ungewiss.
“Larrabee silicon and software development are behind where we had hoped to be at this point in the project,” said Nick Knuppfler, a spokesman for Intel in Santa Clara, Calif. “Larrabee will not be a consumer product.”
Quelle
 
Also entweder hat da jemand nur alte Gerüchte wieder aufgewärmt oder einfach falsche Inhalte kopiert. Larrabee ist doch schon länger keine Option mehr für die PS4. Und nachdem der Grafikchip gecancelt wurde, sollte das auch nicht weiter überraschen.

According to Goto's sources, Larrabee simply didn't offer the sheer power Sony was looking for. Instead, Sony is likely to pursue one of two options for the PS4: use a modified and improved version of the Cell architecture (as previously rumored), or develop a "normal" multi-core CPU akin to the chips found in personal computers and the Xbox 360. ... However, an unnamed SCE executive isn't counting Intel out of the game yet, noting "Larrabee can help us to plan PS5 and PS6, but it cannot make it into PS4."
Quelle
 
Also entweder hat da jemand nur alte Gerüchte wieder aufgewärmt oder einfach falsche Inhalte kopiert.
Naja, das Geruücht ist wohl irgendwie mit den Gerüchten um die Wii wie auferstanden. Aber ganz abwegig klingt das alles ja nicht, nur weil Larrabee1 nicht wie geplant 2010 auf den Markt kommt heißt das ja nicht, dass bis 2012 Larrabee2 nicht reif sein könnte.

http://www.pcgameshardware.de/aid,702080/Geruecht-Nintendo-Wii-2-kommt-mit-AMD-Fusion-APU-Update-Vielleicht-doch-mit-Intels-Larrabee/Konsolen/News/

---------- Beitrag hinzugefügt um 13:37 ---------- Vorheriger Beitrag war um 13:36 ----------

Zu Projekt Offset will Intel 2010 übrigens noch was sagen:
http://www.pcgameshardware.de/aid,686390/Project-Offset-Intels-Larrabee-Spiel-Update-Was-passiert-nach-dem-Aus-von-Larrabee/Spiele/News/
 
Naja, das Geruücht ist wohl irgendwie mit den Gerüchten um die Wii wie auferstanden. Aber ganz abwegig klingt das alles ja nicht, nur weil Larrabee1 nicht wie geplant 2010 auf den Markt kommt heißt das ja nicht, dass bis 2012 Larrabee2 nicht reif sein könnte.
Ja, aber als Option für die PS4 kann man Larrabee, egal welche Generation, wohl trotzdem ausschliessen.

Als Option für den Nachfolger der Wii sehe ich Larrabee übrigens auch nicht unbedingt. Das wird mit Sicherheit kein kleiner und sparsamer Chip. Das passt nicht wirklich zum Konzept der Wii.
 
Zuletzt bearbeitet:
Ich denke auch, dass der Larrabee1 nie auf den Markt kommen wird. Auch nicht in den Konsolen. Dafür ist er einfach zu stromhungrig. Aber er dient als Grundlage, für einen besseren Nachfolger...
 
Damit gehts dann nun zu Ende:

Technology@Intel

War aber irgendwie auch zu erwarten das Intel es nicht schaffen wird. Das Projekt weicht einfach zu weit von den bisherigen Lösungen ab und die Leistung war einfach zu gering.
 
Ganz aufgegeben hat man es noch nicht, der Fokus liegt aber jetzt ausschließlich im Bereich der Supercomputer.

Die Desktopableger sind aber endgültig Geschichte...
 
Ganz aufgegeben nicht, aber damit ist LRB für den Enduser so interessant wie der Itanium.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh