[Sammelthread] Intel's Larrabee-Projekt ***News- und Gerüchte***

Intel's Larrabee-Projekt ***News und Gerüchte***

Larrabee, die neue Multicore-Mikroarchitektur:

z2pal2y2.jpg

Larrabee Blockdiagramm Quelle: Intel

  • Freiprogrammierbarer Chip, der Aufgaben einer X86-CPU und GPU übernehmen kann
  • Raytracing fähig
  • Erste Version mit 4 bis 24(32?) Kernen, später bis zu 64(80?)
  • Basiert zum Teil auf dem Pentium P54C
  • fünfstufige in-order Pipeline
  • 64 KiByte L1 Cache pro Kern
  • 256 KiByte L2-Cache pro Kern
  • 64-Bit-Support
  • 1 Vektoreinheit (Intel VPU) pro Kern
  • 16 Instruktionen (Vec16)
  • Tiling-Architektur aus VR-Power Lizenz (Berechnung des Bildes in einzelnen Kacheln)
  • 45-Nanometer-Prozess
  • 10 Kerne so groß wie ein Conroe Core 2 Duo (143mm²)
  • bis zu 2 GHz Takt (1.7-2.5 GHz?)
  • 2 TFlop pro Prozessor
  • 1.024 Bit Ringbus
  • 128-256-Bit (512?) SI mit GDDR5-RAM
  • kaum festverdrahtete Logik (Vertex- und Pixelshading "in Software")
  • Texture-Mapping in Hardware
  • Optimierung für 8-Bit-Texturen
  • 12 Layer PCB
  • DirectX und OpenGL Support
  • C-Code kompatibel
  • Mulitchip fähig (wie X-Fire/SLI)
  • up to 300 Watt TDP(?)
  • Release: Ende 09/Anfang 10
vgyr8w3v.jpg

Larrabee Wafer Quelle: Intel

Umfassende Artikel zu Larrabee:

anandtech.com: engl., 16 Seiten Intel's Larrabee Architecture Disclosure: A Calculated First Move
pcgameshardware.de: deut., 3 Seiten Der Pentium als Grafikchip: Intel enthüllt Larrabee

News Historie:

Auf Grund der Größe verspoilert. Achtung: Enthält auch ältere Spekulationen, die sich schon als falsch erwiesen haben.
Dezember 06:
Gerüchte um Intel Prozessoren zur Grafikberechnung durch eine Stellenausschreibung von Intel in der für den Standort in Oregon nach Spezialisten für die Entwicklung von "High Performance Graphics" gesucht wird.
The Larrabee Development Group (LDG) has the mission to establish the future of computing for high throughput workloads. Our initial products are focused on high performance graphics and visual computing. LDG offers a start-up environment with a passionate, experienced team of professionals possessing a clear vision and broad.
golem


März 07:
Erste Gerüchte zu Spezifikationen. Angeblich plant man bei Intel auf eine Manycore-Architektur zu setzen und mindestens 16 Grafikkerne auf einem Chip zu vereinen. Die High-End-Variante soll bei Intel 2009 in 32nm hergestellt werden und den HighEnd-Markt erobern. Eine Anfrage nach GDDR 5 Speicher der Größen 512 MB und 1 GB bei den Herstellern Micron, Quimonda und Samsung enthüllt weiteres. Die Karten könnten auf dem zukünftigen PCIe2 Standard beruhen.
Die Markteinführung der ersten Generation mit 16 Kernen scheint irgendwann in der ersten Hälfte 2008 geplant zu sein.
theinquirer
vr-zone



12. April 07:
Intel entwickelt Grafikchips zum "Kampf um die Plattform". Auszug aus einem Universitätsvortrag.
beyond3d
golem

17. April 07:
Auf dem IDF in Peking enthüllte Intel erstmals Details der Arbeiten am Projekt „Larrabee“ . Dabei soll es sich um einen Multi-Core-Prozessor handeln, der aus einer Vielzahl von Kernen besteht, die mittels Software neue Funktionen erlernen können. Ähnlich können auch die Shader-Einheiten von modernen GPUs arbeiten. Die Vorarbeit soll der Polaris Chip geliefert haben, um die Kommunikation der Vielzahl an Kernen zu erproben. Ob dieses Projekt schlussendlich als "GPU" zum Einsatz kommt bleibt weiter offen.

Bild:Golem
golem

01. Juni 07:
Interne Dokumente zum Larrabee Projekt aufgetaucht. Intel Dokument (nicht nur Larrabee) *pdf-Format*
Erste Bilder zum Boardlayout, der Chiparchitektur,Spezifikationen und den Einsatzmöglichkeiten von Larrabee Chips:

Bilder: Intel/Tgdaily/Computerbase
PCIx Karten und reine Multiprocessorsysteme auf Larrabee Basis sollen möglich sein.
Larrabee soll eine CPGPU (Central Processing/Graphics Processing Units), die Aufgaben von Hauptprozessor (CPU) und Grafikkarte (GPU) auf sich vereinen, mit mindestens 16 Kernen und einer programmierbaren Leistung von 1 Teraflop sein. Jeder der 16 Kerne verfügt über einen 32 KB großen L1- und einen 256 KB großen L2-Cache. Außerdem sind zwei Speichercontroller für GDDR mit einer Gesamtbandbreite von 128 GB/s integriert. Der Grafikspeicher soll eine Größe zwischen 1 und 2 GB haben. Die Quelle spricht weiter von 2 GHz Takt und 150W Energieverbrauch auf einem PCI Express 2.0-Board. GPGPUs könnten in Zukunft als "Co-Prozessor" die Allzweckwaffe für Grafik, Physik und General Purpose Processing darstellen.
Tgdaily Artikel über Larrabee
Computerbase Artikel über Larrabee

Es sieht danach aus, dass Larrabee mit einem auf 512 Bit verbreiterten SSE arbeitet - SIMD16 genannt, wegen der 16-fach parallelen SP- und 32-Bit-Integer-Operationen. Außerdem wird es mit einer größeren Anzahl direkt adressierbarer SSE-Register ausgestattet sein als jetzt, möglicherweise gar mit 128, so wie Cell auch - da wird man an dem SSE-Instruktionssatz ganz schön herumstricken müssen......Der Kern selbst ist ein recht einfaches In-Order-Design für x86, bei dem die Wartezeiten durch Vierfach-SMT (Simultaneous Multithreading) überbrückt werden[...]Teraflop-Gleitkommaleistung in doppelter Genauigkeit pro Chip ist in der Tat ein dickes Pfund, mit dem man die Wissenschaftler in Michigan sicher beeindrucken konnte. ATI und Nvidia beschränken sich bislang auf einfache Genauigkeit - für Grafik reicht diese zwar aus, für HPC ist das jedoch meist zu wenig....Für den Larrabee-Grafikchip ist gemäß Tabelle ein integriertes Interface zum Grafikspeicher (GDDR/ Fast DRAM) mit maximal 2 GByte Kapazität vorgesehen, über das die Kerne dann flott mit 128 GByte/s kommunizieren können. Der Hauptspeicher wird dann vergleichsweise langsam via CSI angesprochen. In der HPC-Fassung soll der Speicher (DDR3/FBD/GDDR bis 32 GByte) direkt mit 20 bis 50 GByte/s angebunden sein[...]
heise

08. Juni 07:
Intels "Boardpartner" scheinen auf der Computex bestätigt zu haben, dass es ab 2008 Grafikkarten von Intel gibt. Intel peile angeblich das Preis-Segment um/bis 300 US-Dollar an. Sofern der Zeitplan eingehalten werden kann, sind nach Ansicht einiger Grafikkarten-Hersteller sogar schon im zweiten Quartal des kommenden Jahres Karten mit Intel Chipsatz zu erwarten.
Computerbase

18. Juni 07:
Angebliche Larrabee Roadmap aufgetaucht: 48 Kerne im Jahr 2010 und die Vorteile von vielen "kleinen" inorder Kernen:

Bilder: Intel/PCwatch.jp

28. Juli 07:
Larrabee soll Pentium 1-Technik verwnden. Wie die Webseite Tech.co.uk berichtet, setzt Intels kommender Many-Core-Prozessor Larrabee auf Techniken, die bereits im originalen Pentium MMX zum Einsatz kamen. Intel sollen bestätigt haben, dass es sich um ein ähnliches - wenn auch extrem modifiziertes - Design handelt.
Weiter wird berichtet, dass die integrierte GPU von Larrabee im Gegebsatz zu normalen Grafikprozessoren nicht auf Rasterschaltkreisen basieren wird. Stattdessen wird Larrabee Instruktionen in einfache Basic-Sprache umwandeln, um sie zu verarbeiten. Das ist nicht ganz so effizient, wie die nativen Rasterchips von AMD und Nvidia, aber die hohe Rechenleistung von Larrabee kann dies zu einer akzeptablen Lösung machen. Einen Vorteil hat die Sache: Larrabee kann sowohl Raster-Grafiken als auch Ray-Tracing-Grafiken bearbeiten. Ray-Tracing bietet wesentlich realistischere Beleuchtung und Intel geht davon aus, dass es Raster-Grafik in Zukunft ersetzen wird.
tech.co.uk

19. September 07:
Larrabee vs. Nvidia/AMD offiziell !?
Auf dem IDF in San Francisco bestätigte Intel weder die durch entfleuchte Entwicklungsdokumente schon bekannten 16 In-Order-Cores von Larrabee, noch erklärte Otellini den ersten Einsatzzweck des neuen Chips genauer. Das erledigte aber später Pat Gelsinger in einem Roundtable-Gespräch: "Wenn man im Grafikgeschäft ist, liefert man auch Treiber für OpenGL und DirectX. Punkt.", erklärte der Leiter der Digital-Enterprise-Abteilung.

Bilder: Intel/Golem/PCWatch
golem

16. Januar 08
Larrabee: Launch Ende 09/Anfang 10, erste Prototypen noch in 08, 45nm Fertigung, eventuell sogar schon 32nm, als Gegner der DX11 Generation von AMD & Nvidia

Larrabee first silicon should be late this year in terms of samples and we’ll start playing with it and sampling it to developers and I still think we are on track for a product in late ’09, 2010 timeframe. Paul Otellini
beyond3d.com

07. März 08
Intel zeigte erstmals auf dem hauseigenen 'Intel Investor Meeting' einen 300mm Wafer mit Larrabee-Terascale-Chips.

Vizepräsident, Eric Mentzer gab bekannt, dass Intel in Zukunft stärker in den Grafikmarkt investieren will, in welcher Form auch immer. Außerdem ließ man verlauten das die integrierte Grafikeinheit im zukünftigen Nehalem-Prozessor auf Ressourcen aus dem Larrabee-Projekt aufbauen wird.

Bild: Informationweek.com

pcgameshardware

23. Mai 08

Offizielle Vorstellung auf dem IDF in San Francisco Anfang 09. Die Markteinführung der High-End Variante soll im August/September 09 erfolgen. Intel üblich wohl erst für den Servermarkt. Sechs Monate später soll dann die Mainstream Variante für Desktop und Notebook folgen. Wie TGDaily spekuliert soll dies mit dem Launch der X6x Chipsatzreihe einhergehen.

Laut TGDaily soll die Larrabeekarten der Desktop Version mit einem bis zu 1024 Bit breiten SI inklusive GDDR 5 Speicher ausgestattet sein.
We expect GDDR5 memory and the 1024-bit bus as key factors for Intel to achieve hundreds of gigabytes of bandwidth. The internal path is targeting 1 TB/s[...]
Die Kernanzahl zum Launch wird mit 4-24 beziffert, gestaffelt je nach Einsatz und Marktsegment.

tgdaily.com


3. Juni 08

Intel Larrabee mit 300 Watt TDP?

fudzilla

7. Juli 08

Larrabee mit zwei TFLOPS Rechenleistung.
Larrabee soll mit 32 Kernen in den Handel kommen, ein jeder basiert auf dem alten Pentium P54C, besser bekannt als Pentium. Aller Wahrscheinlichkeit nach sind die Kerne 64-Bit-fähig, die Fertigung in 45 Nanometer Strukturbreite ist selbstverständlich. Mit 32 FLOPS pro Takt im Single-Precicion-Verfahren würden die 32 Kerne bei 2 Gigahertz Takt eine Rechenleistung von 2 TFLOPS entfalten[...]

pcgameshardware

17. Juli 08

Larrabee mit DirectX & OpenGL voll kompatibel. Intel plant aber mit einer neuen hauseigenen Schnittstelle ("like Voodoo's Glide").

fudzilla
IN DIESEM THREAD GEHT ES NUR UM DAS MIT DEM CODENAME "Larrabee" VERSEHENDE ENTWICKLUNGSPROJEKT.
WAS ICH NICHT LESEN WILL IST JEGLICHES AMD/ATI ,INTEL UND NVIDIA GEFAME UND ANFEINDUNGEN ZWISCHEN DEN USERN.
WAS ICH LESEN WILL SIND GERÜCHTE UND NEWS RUND UMS THEMA.
DISKUSSIONEN SIND O.K. SOLANGE SIE SACHLICH LAUFEN.
:coolblue:



Besonderen Dank an "Xptweaker" für den News Support.
 
Zuletzt bearbeitet:
Das spielt doch keine Rolle ob die Karte nun für GPGPU gemacht wurde oder nicht... Fakt ist, die RV870 GPU kann im Vollausbau mehr als das doppelte an Berechnungen durchführen, wie die schnellste NV GPU derzeit. (SP)
Auch gibt es in den aktuellen Listen der Supercomputer Systeme mit AMD Grafikkarten (HD4870 X2 beispielsweise)
Das man hier explizit auf Tesla GPUs setzten muss, ist also nicht richtig.

Im übrigen bietet AMD für genau den Markt die FireStream Karten an ;)

Und die Einfache Genauigkeit macht jetzt genau wieviel % des Marktes im Supercomputingbereich aus?

Genau dafür hat man nicht die DP Performance der Tesla Modelle erheblich gesteigert um simple "Folding@Home Berechnungen" in SP auszuführen.

Zum anderen ist der Markt der Cuda basierten Apps SP als auch DP um Längen weiter ausgebaut/supported als es bei ATI mit Stream der Fall war und ist.

Was bleibt also prozentual von der "theoretischen Mehrleistung" in SP der ATI Shaderprozessoren in der Praxis übrig?

Oder anderst gesagt wieviel Anteil im Clusterbereich fällt hier auf ATI ab ohne jetzt ein paar wenige Supercomputer mit speziell getrimmten Apps auf FireStream bzw Radeon Basis als Totschlagargument zu gebrauchen?

Sich auf die Schulter klopfen und sagen seht her wir haben die höhere SP Leistung bringt rein gar nix wenn dafür das Applikationsumfeld fehlt.

Oder anderst ausgedrückt was nützt das schnellste Pferd im Stall wenn der Jokey dazu fehlt

Noch prekärer ist das wenn man dazu auch noch Applikationen"Jokeys" des Mitbewerbers benutzen muss um die eigenen Thesen zu untermauern.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Und nachdem du nun reichlich Gegenargumente gebracht hast kannst du diese doch auch durch reichhaltige Belege untermauern?
Oder woher die Kenntniss das der Tesla Markt um längen größer ist als der Markt, indenen FireStream Karten zum Einsatz kommen?

Wie oben erwähnt, wenn mich nicht alles täuscht ist derzeit auf Platz 7 der aktuellen HPC Rangliste ein System mit HD4870 X2 GPUs (zumindest mit einigen vielen davon, welche einen großen Teil der Leistung beitragen)
Das System läuft seit 2009 in der Form. Gut mittlerweile gibt es aufgrund derjüngst erschienenen Fermi Karten auch ein System auf Platz 2 mit Tesla GPUs. Aber weit weit mehr verbreitet kann man da sicher nicht sprechen.
Zumindest nicht in den Bereichen der absoluten Superlative ;)
 
Und nachdem du nun reichlich Gegenargumente gebracht hast kannst du diese doch auch durch reichhaltige Belege untermauern?
Oder woher die Kenntniss das der Tesla Markt um längen größer ist als der Markt, indenen FireStream Karten zum Einsatz kommen?

Wie oben erwähnt, wenn mich nicht alles täuscht ist derzeit auf Platz 7 der aktuellen HPC Rangliste ein System mit HD4870 X2 GPUs (zumindest mit einigen vielen davon, welche einen großen Teil der Leistung beitragen)
Das System läuft seit 2009 in der Form. Gut mittlerweile gibt es aufgrund derjüngst erschienenen Fermi Karten auch ein System auf Platz 2 mit Tesla GPUs. Aber weit weit mehr verbreitet kann man da sicher nicht sprechen.
Zumindest nicht in den Bereichen der absoluten Superlative ;)

Wie oben schon erwähnt geht es da nicht um ein paar wenige Supercomputer in der Ranglist von 1-100.Das Anwendungsgebiet hat seinen Fokus bei weiten nicht nur auf diesen Großclustern mit speziell angepassten Apps.

Auch die Erdölindustrie,Seismologie,Medizin;Baustatik,Filmindustrie nutzen solche Systeme wenn auch nicht im Großformat nur ist dort der grüne Konzern in Sachen Support und Anwendungsvielfalt um einiges besser aufgestellt als das Gegenstück aus der roten Ecke
 
Zuletzt bearbeitet:
hoffendlich sind die bald am start und mischen AMD und NV mal ein wenig auf :d
 
Knights Ferry ist allerdings eine reine Computing Lösung. Mit Grafik(karte) ist da nix. ;)
 
Larrabee als Grafikbeschleuniger ist aber erstmal ad acta gelegt. Die konzentrieren sich momentan rein aufs Computing. Ob es in Zukunft wieder Ambitionen Richtung Grafik geben wird, kann natürlich niemand von uns vorhersagen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh