[Sammelthread] Intel's Larrabee-Projekt ***News- und Gerüchte***

Intel's Larrabee-Projekt ***News und Gerüchte***

Larrabee, die neue Multicore-Mikroarchitektur:

z2pal2y2.jpg

Larrabee Blockdiagramm Quelle: Intel

  • Freiprogrammierbarer Chip, der Aufgaben einer X86-CPU und GPU übernehmen kann
  • Raytracing fähig
  • Erste Version mit 4 bis 24(32?) Kernen, später bis zu 64(80?)
  • Basiert zum Teil auf dem Pentium P54C
  • fünfstufige in-order Pipeline
  • 64 KiByte L1 Cache pro Kern
  • 256 KiByte L2-Cache pro Kern
  • 64-Bit-Support
  • 1 Vektoreinheit (Intel VPU) pro Kern
  • 16 Instruktionen (Vec16)
  • Tiling-Architektur aus VR-Power Lizenz (Berechnung des Bildes in einzelnen Kacheln)
  • 45-Nanometer-Prozess
  • 10 Kerne so groß wie ein Conroe Core 2 Duo (143mm²)
  • bis zu 2 GHz Takt (1.7-2.5 GHz?)
  • 2 TFlop pro Prozessor
  • 1.024 Bit Ringbus
  • 128-256-Bit (512?) SI mit GDDR5-RAM
  • kaum festverdrahtete Logik (Vertex- und Pixelshading "in Software")
  • Texture-Mapping in Hardware
  • Optimierung für 8-Bit-Texturen
  • 12 Layer PCB
  • DirectX und OpenGL Support
  • C-Code kompatibel
  • Mulitchip fähig (wie X-Fire/SLI)
  • up to 300 Watt TDP(?)
  • Release: Ende 09/Anfang 10
vgyr8w3v.jpg

Larrabee Wafer Quelle: Intel

Umfassende Artikel zu Larrabee:

anandtech.com: engl., 16 Seiten Intel's Larrabee Architecture Disclosure: A Calculated First Move
pcgameshardware.de: deut., 3 Seiten Der Pentium als Grafikchip: Intel enthüllt Larrabee

News Historie:

Auf Grund der Größe verspoilert. Achtung: Enthält auch ältere Spekulationen, die sich schon als falsch erwiesen haben.
Dezember 06:
Gerüchte um Intel Prozessoren zur Grafikberechnung durch eine Stellenausschreibung von Intel in der für den Standort in Oregon nach Spezialisten für die Entwicklung von "High Performance Graphics" gesucht wird.
The Larrabee Development Group (LDG) has the mission to establish the future of computing for high throughput workloads. Our initial products are focused on high performance graphics and visual computing. LDG offers a start-up environment with a passionate, experienced team of professionals possessing a clear vision and broad.
golem


März 07:
Erste Gerüchte zu Spezifikationen. Angeblich plant man bei Intel auf eine Manycore-Architektur zu setzen und mindestens 16 Grafikkerne auf einem Chip zu vereinen. Die High-End-Variante soll bei Intel 2009 in 32nm hergestellt werden und den HighEnd-Markt erobern. Eine Anfrage nach GDDR 5 Speicher der Größen 512 MB und 1 GB bei den Herstellern Micron, Quimonda und Samsung enthüllt weiteres. Die Karten könnten auf dem zukünftigen PCIe2 Standard beruhen.
Die Markteinführung der ersten Generation mit 16 Kernen scheint irgendwann in der ersten Hälfte 2008 geplant zu sein.
theinquirer
vr-zone



12. April 07:
Intel entwickelt Grafikchips zum "Kampf um die Plattform". Auszug aus einem Universitätsvortrag.
beyond3d
golem

17. April 07:
Auf dem IDF in Peking enthüllte Intel erstmals Details der Arbeiten am Projekt „Larrabee“ . Dabei soll es sich um einen Multi-Core-Prozessor handeln, der aus einer Vielzahl von Kernen besteht, die mittels Software neue Funktionen erlernen können. Ähnlich können auch die Shader-Einheiten von modernen GPUs arbeiten. Die Vorarbeit soll der Polaris Chip geliefert haben, um die Kommunikation der Vielzahl an Kernen zu erproben. Ob dieses Projekt schlussendlich als "GPU" zum Einsatz kommt bleibt weiter offen.

Bild:Golem
golem

01. Juni 07:
Interne Dokumente zum Larrabee Projekt aufgetaucht. Intel Dokument (nicht nur Larrabee) *pdf-Format*
Erste Bilder zum Boardlayout, der Chiparchitektur,Spezifikationen und den Einsatzmöglichkeiten von Larrabee Chips:

Bilder: Intel/Tgdaily/Computerbase
PCIx Karten und reine Multiprocessorsysteme auf Larrabee Basis sollen möglich sein.
Larrabee soll eine CPGPU (Central Processing/Graphics Processing Units), die Aufgaben von Hauptprozessor (CPU) und Grafikkarte (GPU) auf sich vereinen, mit mindestens 16 Kernen und einer programmierbaren Leistung von 1 Teraflop sein. Jeder der 16 Kerne verfügt über einen 32 KB großen L1- und einen 256 KB großen L2-Cache. Außerdem sind zwei Speichercontroller für GDDR mit einer Gesamtbandbreite von 128 GB/s integriert. Der Grafikspeicher soll eine Größe zwischen 1 und 2 GB haben. Die Quelle spricht weiter von 2 GHz Takt und 150W Energieverbrauch auf einem PCI Express 2.0-Board. GPGPUs könnten in Zukunft als "Co-Prozessor" die Allzweckwaffe für Grafik, Physik und General Purpose Processing darstellen.
Tgdaily Artikel über Larrabee
Computerbase Artikel über Larrabee

Es sieht danach aus, dass Larrabee mit einem auf 512 Bit verbreiterten SSE arbeitet - SIMD16 genannt, wegen der 16-fach parallelen SP- und 32-Bit-Integer-Operationen. Außerdem wird es mit einer größeren Anzahl direkt adressierbarer SSE-Register ausgestattet sein als jetzt, möglicherweise gar mit 128, so wie Cell auch - da wird man an dem SSE-Instruktionssatz ganz schön herumstricken müssen......Der Kern selbst ist ein recht einfaches In-Order-Design für x86, bei dem die Wartezeiten durch Vierfach-SMT (Simultaneous Multithreading) überbrückt werden[...]Teraflop-Gleitkommaleistung in doppelter Genauigkeit pro Chip ist in der Tat ein dickes Pfund, mit dem man die Wissenschaftler in Michigan sicher beeindrucken konnte. ATI und Nvidia beschränken sich bislang auf einfache Genauigkeit - für Grafik reicht diese zwar aus, für HPC ist das jedoch meist zu wenig....Für den Larrabee-Grafikchip ist gemäß Tabelle ein integriertes Interface zum Grafikspeicher (GDDR/ Fast DRAM) mit maximal 2 GByte Kapazität vorgesehen, über das die Kerne dann flott mit 128 GByte/s kommunizieren können. Der Hauptspeicher wird dann vergleichsweise langsam via CSI angesprochen. In der HPC-Fassung soll der Speicher (DDR3/FBD/GDDR bis 32 GByte) direkt mit 20 bis 50 GByte/s angebunden sein[...]
heise

08. Juni 07:
Intels "Boardpartner" scheinen auf der Computex bestätigt zu haben, dass es ab 2008 Grafikkarten von Intel gibt. Intel peile angeblich das Preis-Segment um/bis 300 US-Dollar an. Sofern der Zeitplan eingehalten werden kann, sind nach Ansicht einiger Grafikkarten-Hersteller sogar schon im zweiten Quartal des kommenden Jahres Karten mit Intel Chipsatz zu erwarten.
Computerbase

18. Juni 07:
Angebliche Larrabee Roadmap aufgetaucht: 48 Kerne im Jahr 2010 und die Vorteile von vielen "kleinen" inorder Kernen:

Bilder: Intel/PCwatch.jp

28. Juli 07:
Larrabee soll Pentium 1-Technik verwnden. Wie die Webseite Tech.co.uk berichtet, setzt Intels kommender Many-Core-Prozessor Larrabee auf Techniken, die bereits im originalen Pentium MMX zum Einsatz kamen. Intel sollen bestätigt haben, dass es sich um ein ähnliches - wenn auch extrem modifiziertes - Design handelt.
Weiter wird berichtet, dass die integrierte GPU von Larrabee im Gegebsatz zu normalen Grafikprozessoren nicht auf Rasterschaltkreisen basieren wird. Stattdessen wird Larrabee Instruktionen in einfache Basic-Sprache umwandeln, um sie zu verarbeiten. Das ist nicht ganz so effizient, wie die nativen Rasterchips von AMD und Nvidia, aber die hohe Rechenleistung von Larrabee kann dies zu einer akzeptablen Lösung machen. Einen Vorteil hat die Sache: Larrabee kann sowohl Raster-Grafiken als auch Ray-Tracing-Grafiken bearbeiten. Ray-Tracing bietet wesentlich realistischere Beleuchtung und Intel geht davon aus, dass es Raster-Grafik in Zukunft ersetzen wird.
tech.co.uk

19. September 07:
Larrabee vs. Nvidia/AMD offiziell !?
Auf dem IDF in San Francisco bestätigte Intel weder die durch entfleuchte Entwicklungsdokumente schon bekannten 16 In-Order-Cores von Larrabee, noch erklärte Otellini den ersten Einsatzzweck des neuen Chips genauer. Das erledigte aber später Pat Gelsinger in einem Roundtable-Gespräch: "Wenn man im Grafikgeschäft ist, liefert man auch Treiber für OpenGL und DirectX. Punkt.", erklärte der Leiter der Digital-Enterprise-Abteilung.

Bilder: Intel/Golem/PCWatch
golem

16. Januar 08
Larrabee: Launch Ende 09/Anfang 10, erste Prototypen noch in 08, 45nm Fertigung, eventuell sogar schon 32nm, als Gegner der DX11 Generation von AMD & Nvidia

Larrabee first silicon should be late this year in terms of samples and we’ll start playing with it and sampling it to developers and I still think we are on track for a product in late ’09, 2010 timeframe. Paul Otellini
beyond3d.com

07. März 08
Intel zeigte erstmals auf dem hauseigenen 'Intel Investor Meeting' einen 300mm Wafer mit Larrabee-Terascale-Chips.

Vizepräsident, Eric Mentzer gab bekannt, dass Intel in Zukunft stärker in den Grafikmarkt investieren will, in welcher Form auch immer. Außerdem ließ man verlauten das die integrierte Grafikeinheit im zukünftigen Nehalem-Prozessor auf Ressourcen aus dem Larrabee-Projekt aufbauen wird.

Bild: Informationweek.com

pcgameshardware

23. Mai 08

Offizielle Vorstellung auf dem IDF in San Francisco Anfang 09. Die Markteinführung der High-End Variante soll im August/September 09 erfolgen. Intel üblich wohl erst für den Servermarkt. Sechs Monate später soll dann die Mainstream Variante für Desktop und Notebook folgen. Wie TGDaily spekuliert soll dies mit dem Launch der X6x Chipsatzreihe einhergehen.

Laut TGDaily soll die Larrabeekarten der Desktop Version mit einem bis zu 1024 Bit breiten SI inklusive GDDR 5 Speicher ausgestattet sein.
We expect GDDR5 memory and the 1024-bit bus as key factors for Intel to achieve hundreds of gigabytes of bandwidth. The internal path is targeting 1 TB/s[...]
Die Kernanzahl zum Launch wird mit 4-24 beziffert, gestaffelt je nach Einsatz und Marktsegment.

tgdaily.com


3. Juni 08

Intel Larrabee mit 300 Watt TDP?

fudzilla

7. Juli 08

Larrabee mit zwei TFLOPS Rechenleistung.
Larrabee soll mit 32 Kernen in den Handel kommen, ein jeder basiert auf dem alten Pentium P54C, besser bekannt als Pentium. Aller Wahrscheinlichkeit nach sind die Kerne 64-Bit-fähig, die Fertigung in 45 Nanometer Strukturbreite ist selbstverständlich. Mit 32 FLOPS pro Takt im Single-Precicion-Verfahren würden die 32 Kerne bei 2 Gigahertz Takt eine Rechenleistung von 2 TFLOPS entfalten[...]

pcgameshardware

17. Juli 08

Larrabee mit DirectX & OpenGL voll kompatibel. Intel plant aber mit einer neuen hauseigenen Schnittstelle ("like Voodoo's Glide").

fudzilla
IN DIESEM THREAD GEHT ES NUR UM DAS MIT DEM CODENAME "Larrabee" VERSEHENDE ENTWICKLUNGSPROJEKT.
WAS ICH NICHT LESEN WILL IST JEGLICHES AMD/ATI ,INTEL UND NVIDIA GEFAME UND ANFEINDUNGEN ZWISCHEN DEN USERN.
WAS ICH LESEN WILL SIND GERÜCHTE UND NEWS RUND UMS THEMA.
DISKUSSIONEN SIND O.K. SOLANGE SIE SACHLICH LAUFEN.
:coolblue:



Besonderen Dank an "Xptweaker" für den News Support.
 
Zuletzt bearbeitet:
hoffentlich auf für enduser erwerbar und leistungsstärker als cuda....

Was bitte stellst du dir denn unter "leistungstärker" vor für eine Platform wie sie Cuda darstellt?

Selbst wenn "Experimental" Larrabee ein passendes Gerüst wie Cuda bekäme ist es äusserst fraglich wie er überhaupt noch mit Grafikkarten vom Schlag einer ATI 5er bzw Fermi Generation mithalten will.

Geschweige denn mit den nächsten Grafikablegern die schon in den Startlöchern stehen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich denke mal das muss sich noch zeigen, wo Intel da genau ansetzen will/kann...
NV geht mit Cuda ja ich nenns mal den universellen Weg.

Wenn Intel sich mehr oder weniger für spezielle Sachen einsetzt, in welcher Form auch immer, dann lässt sich auch mit phsikalisch deutlich unterlegener Hardware was ordentliches auf die Beine stellen.

Ich denke da beispielsweise an die PhysX Umsetzung seitens NV für die NV Karten. Wenn man sieht, wie effizient eine Ageia PhysX PPU im Gegensatz zu dem Cuda PhysX Krüppel arbeitet, greift man sich an den Kopf. Klar es ist jetzt universell auf den GPUs einsetzbar, aber die Ageia Karte liegt mit einer Leistungsaufnahme von ~20-25W weit unter dem, was eine in etwa gleichschnelle 9600GT verballert. (allein auf PhysX bezogen) Bringt man noch den Herstellungsprozess der Ageia Karten und das Alter ins Spiel wirds noch mieser für die GPUs.

Intel könnte bei Spezialisierung auf bestimmte Bereiche da vllt doch am Ende noch als "Gewinner" rauskommen...
Es muss sich da aber im noch aufflammenden GPGPU Markt erst zeigen, wohin der Weg geht.
 
Damit gehts dann nun zu Ende:

Technology@Intel
Wobei die Betonung auf "Graphics" liegt. Man sollte ja nicht unken, aber es war abzusehen, dass mit x86 Kernen, basierend auf dem P5, kein effizientes Design für einen Grafikchip realisierbar ist. Dennoch wird Intel das Konzept als solches sicherlich nicht sterben lassen. Hier wird man aber wohl abwarten müssen, was aus Tera Scale wird.
 
Das erste Produkt auf Basis der neuen Architektur trägt den Codenamen „Knights Corner“, wird in 22 nm feinen Strukturen gefertigt und soll mehr als 50 Kerne auf dem Die vereinen. Mit dem Chip ausgerüstete Systeme sollen beim parallelen Rechnen Billionen Berechnungen pro Sekunde ausführen können, während sie gleichzeitig Vorteile herkömmlicher Intel-Prozessoren bieten, da bei der MIC-Architektur dieselben Werkzeuge, Software-Algorithmen und Programmiertechniken wie bei Intels Xeon-Prozessoren zum Einsatz kommen.

Und weiter gehts;)

Larrabee-Erbe für Hochleistungsrechner - 31.05.2010 - ComputerBase

Intel will auf Gedeih und Verderb ihr Milliardengrab nicht aufgeben
 
Zuletzt bearbeitet:
und? is doch gut. die schmeisen wenigstens nicht gleich die flinte ins korn, ma muss halt für evolution auch mal etwas hinlegen
 
und? is doch gut. die schmeisen wenigstens nicht gleich die flinte ins korn, ma muss halt für evolution auch mal etwas hinlegen


"etwas" hinlegen:confused:

Nun dieses "Etwas" von dem du da sprichst hätte anderen Firmen schon das Genick gebrochen wenn sie eine Entwicklung so in den Sand gesetzt hätten wie das bei Larrabee der Fall war bisher:asthanos:

Und ob das im Supercomputerbereich der Renner wird steht auch noch in den Sternen,denn es gibt in diesem Bereich unzählige Mitbewerber die auch nicht schlafen bei ihren Entwicklungen
 
Zuletzt bearbeitet:
intel ist halt nicht irgend eine Firma ;) aber das kriegen manche einfach nicht in den kopf
 
intel ist halt nicht irgend eine Firma ;) aber das kriegen manche einfach nicht in den kopf

Das ist schon klar nur unendlich finanzielle Mittel hat auch der blaue Riese nicht zur Verfügung.:coolblue:

Wie heißt ein Sprichwort doch "man soll aufhören wenns am schönsten ist"

Wenn man bei Larrabee überhaupt noch von schön reden kann.


Sicherlich ist es löblich neue Wege zu gehen neue Technologien auszuprobieren,aber wenn diese sich dann immer mehr auf eine Sackgasse zu bewegen,sollte man die Augen wieder klar bekommen und das Projekt loslassen wenns auch schwer fällt;)
 
Sicherlich ist es löblich neue Wege zu gehen neue Technologien auszuprobieren,aber wenn diese sich dann immer mehr auf eine Sackgasse zu bewegen,sollte man die Augen wieder klar bekommen und das Projekt loslassen wenns auch schwer fällt;)

Wo siehst du denn hier Sackgassen?
Sicher hat man bei Intel mittlerweile eingesehen, das eine Gamer GPU mit diesem Vorhaben nicht realisierbar ist. Aber ich würde mal stark behaupten, Intel hat auch als Hauptaugenmerk nie den Gamermarkt im Visier gehabt...

Ich denke viel eher, man wollte eine Art Eierlegende Wollmilchsau schaffen, Perfekt für Gamer, Perfekt im Renderbereich, Perfekt kompatibel zu aktueller Software, usw.

Im Moment fällt da nur der Gamingpart raus. Der Rest muss sich zeigen...


Auch sollte man nie vergessen, gerade im Profibereich wo derartige Hardware zum Einsatz kommen könnte, wächst die Hardware nicht mit der Software, sondern die Software orientiert sich an der Hardware... Da kann Intel also noch so den Krüppel rausbringen, mit der richtigen Software geht das Teil trotzdem ab wie eine Rakete... Wenn der Preis dann stimmt, ist auch wieder alles geritzt für Intel und die Softwareschmieden...

Im Gamingmarkt ists beispielsweise genau andersrum, dort wächst die Hardware mit der Software, siehe DX, OpenGL usw. Man schafft quasi die Hardware, die für die Software benötigt wird.
 
Zuletzt bearbeitet:
Intel hat im GPU Geschäft AMD & Nvidia unterschätzt, Intel braucht das 5 bis 10 fache an Transistoren um AMDs/Nvidias GPU Leistung zu erreichen, Intel wartet noch bis der Wert von Nvidia runtergeht, danach schlagen Sie zu und kaufen Nvidia.
 
Im Gamingmarkt ists beispielsweise genau andersrum, dort wächst die Hardware mit der Software, siehe DX, OpenGL usw. Man schafft quasi die Hardware, die für die Software benötigt wird.

Crysis hast du vergessen aufzuzählen. :wink:

Ich finde Intel macht einen Weisen schritt mit der Vereinung von GPU und CPU.

Dass sie JETZT nicht an die Leistung einer HD 5x oder GTX4x anknüpfen können wird Intel "Verkraften"
 
Intel hat im GPU Geschäft AMD & Nvidia unterschätzt, Intel braucht das 5 bis 10 fache an Transistoren um AMDs/Nvidias GPU Leistung zu erreichen, Intel wartet noch bis der Wert von Nvidia runtergeht, danach schlagen Sie zu und kaufen Nvidia.

Woher nimmst du diese Weisheit?

Nachgedacht hat er jedenfalls nicht. Intel + Nvidia = Kartellbehörde.

Außerdem ist das mit den Transistoren nicht pauschal, wer weiß, wenn man die Effizienz weiter steigern kann ist wohl noch einiges machbar. Aber ein Produkt das ganz anders aufgebaut ist als die bereits am Markt verfügbaren hat es nunmal schwer, gerade weil bei der Entwicklung mehr Steine im Weg liegen.
 
Zuletzt bearbeitet:
Crysis hat mit meiner Aussage gar nix zu tun, weil auch Crysis sich nur an Softwarestandards/Schnittstellen ala DX hält. Es orientiert sich nach wie vor die Hardware an dem was die Software vorgibt. Und nicht andersrum, so wie es im Profimarkt idR läuft. Denn dort wird die Software speziell den Bedürfnissen hin angepasst, bzw. speziell an die Hardware angepasst.

Gutes Beispiel wie oben schon mal erwähnt ist PhysX, Ageia hat eine Hardware gebracht und hat ihre Software speziell auf die Hardware hin zugeschnitten.
NV hat Ageia gekauft und hat eine universelle Schnittstelle geschaffen (über Cuda) welche die Karten unterstützen.
Dann macht man die Software noch Cuda Ready und schon läuft das ganze --> mit grottiger Effizienz im Gegensatz zur Ageia PPU.

Nachgedacht hat er jedenfalls nicht. Intel + Nvidia = Kartellbehörde.

Neja würd ich so nicht sagen, denn Intel verkauft ja jetzt schon die meisten GPUs. Ich denke so kritisch wäre das nicht, wenn Intel NV kaufen würde... Ob das Sinn macht steht aber auf einem anderen Blatt...

Aber ein Produkt das ganz anders aufgebaut ist als die bereits am Markt verfügbaren hat es nunmal schwer, gerade weil bei der Entwicklung mehr Steine im Weg liegen.

Man sollte sich wohl endlich mal davon verabschieden bei derartigen Vergleichen die LRB Geschichten in den Bereich Grafikkarten bzw. GPUs zu stecken...
Denn hier wäre es zweifelsohne etwas anders aufgebautes (im Gegensatz zur Konkurenz gesehen)
Aber im Vergleich zu den CPUs wäre der Unterschied wieder eher gering... Also auch nix unbedingt sooo neues. Und dementsprechend auch ein riesen Vorteil von Intel mit dem vorhandenen Wissen in diesem Bereich.
 
Zuletzt bearbeitet:
Das Mit Crysis war auch Nur Halbernst gemeint (Wink mit dem Zaunpfahl, da die Grafikkarte die es In FullHD und Max Details schafft erst erfunden werden musste :cool:)

Und dass nVidia meiner Meinung nach das was mal Ageia Physics war zu tode vergewaltigt hat ist leider wahrheit.

Neurosphere hat da Vollkommen recht, in sachen Effizienz sind wir noch Weit davon erntfert, was man als Optibal bezeichnen Könnte.
 
Intel: Larrabee was 'impractical'
Failed graphics architecture just too complex


"I just think it's impractical to try to do all the functions in software in view of all the software complexity, ... And we ran into a performance per watt issue trying to do these things."

Damit dürfte Larrabee als Grafikchip wohl endgültig Geschichte sein. Fragt sich, ob man die Entwicklung für professionelle Zwecke (GPGPU) fortsetzt. Aber selbst das scheint angesichts der Probleme mit der Energieeffizienz fraglich zu sein.

Intel wird wohl nicht drumherum kommen, sich von x86 zu verabschieden, wenn sie einen konkurrenzfähigen Chip zu AMD und nVidia entwickeln wollen.
 
Fragt sich, ob man die Entwicklung für professionelle Zwecke (GPGPU) fortsetzt. Aber selbst das scheint angesichts der Probleme mit der Energieeffizienz fraglich zu sein.
Was ich so über den Knight-Prototypen lesen konnte, hörte sich aber nach dem genauen Gegenteil an: Die Prototypkarte begnügte sich allein mit der PCIe-Stromversorgung, also max. 75W. Und lieferte dabei eine Rechenleistung, die auch die neuen Fermi-Tessla total arm aussehen ließ.
 
Was ich so über den Knight-Prototypen lesen konnte, hörte sich aber nach dem genauen Gegenteil an: Die Prototypkarte begnügte sich allein mit der PCIe-Stromversorgung, also max. 75W. Und lieferte dabei eine Rechenleistung, die auch die neuen Fermi-Tessla total arm aussehen ließ.
Na das wäre doch mal was!!
 
hoffentlich bekommt Intel das ding irgendwann, konkurenzfähig marktreif! vielleicht würde es dann technisch endlich mal
wirklich weiter gehen!...die aktuelle grafik, die so auch 2006 oder 2007 hätte rauskommen können, ist mir mitlerweile ein
graus! wird echt zeit das sich mal wieder was tut!
 
hoffentlich bekommt Intel das ding irgendwann, konkurenzfähig marktreif! vielleicht würde es dann technisch endlich mal
wirklich weiter gehen!...die aktuelle grafik, die so auch 2006 oder 2007 hätte rauskommen können, ist mir mitlerweile ein
graus! wird echt zeit das sich mal wieder was tut!

Naja das kannst du so auch nicht sagen weil BFBC2 z.B. schon sehr gut aussieht!
Um nochmal deutlich einen drauf zu setzen brauch man halt deutlich viel mehr leistung als eben!
Ich hoffe auch das Intel da einen richtigen kracher bringt wenn es so weit ist!
Allerdings werden wir wohl erst neue krasse grafiken erst mit den neunen konsolen ala PS4 und dem Xbox360 nachfolgen sehen! Solange die nicht kommen wird kaum bessere grafik kommen!
 
Eine kleine Vorführung dessen, was man mit einer (oder 4 ;)) Knights Ferry Karten machen kann, gab es auf der IDF: YouTube - Intel Labs: Wolfenstein Gets Ray Traced, On a Laptop!

LOL, nett.... also die berechnen die Daten auf 4 Servern und schicken das dann per Lan (oder wie verbinden die das) an das Notebook?
Hab ich das jetzt richtig verstanden?
Wenn sowas kommt rüste ich nur noch meinen Server hoch :hail:
PCI-E hätte ich da noch genug frei.
 
Eine kleine Vorführung dessen, was man mit einer (oder 4 ;)) Knights Ferry Karten machen kann, gab es auf der IDF: YouTube - Intel Labs: Wolfenstein Gets Ray Traced, On a Laptop!

Was heist mit einer oder 4 Karten? Der Typ sagt ja explizit was von 4 Servern!
Bis der Privatanwender mal derartige Performance in Sachen CPU Leistung Zuhause hat vergehen noch Jahre...

Mal ganz davon ab, beeindruckend war das Video nun nich wirklich... bisschen schicke Spieglung. Den Rest hätte auch ne GPU von vor 5 Jahren hinbekommen...
 
Weil ich ursprünglich "mit einer Knights Ferry Karte" schreiben wollte, aber es waren ja eben 4.

Es ging in dem Video doch aber nur um die Spiegelungen, Brechung und das ungeheuer detaillierte Modell des Kronleuchters. Das sollte demonstriert werden, der Rest ist freilich ziemlich uninteressant.
 
Naja, an sich ist die Idee um LRB ja nicht schlecht, nur zum Grafikchip taugt er halt nicht.

Auch ohne x86 währe LRB chancenlos gegen die Konkurenz gewesen und hätte vielleicht auf anderen Gebieten dadurch Vorteile verloren.
 
Naja da muss man halt noch abwarten was die aus dem teil machen...
Intel setzt halt total auf raytracing!
 
Was ich so über den Knight-Prototypen lesen konnte, hörte sich aber nach dem genauen Gegenteil an: Die Prototypkarte begnügte sich allein mit der PCIe-Stromversorgung, also max. 75W. Und lieferte dabei eine Rechenleistung, die auch die neuen Fermi-Tessla total arm aussehen ließ.
Man sollte immer die Relationen betrachten. Fermi ist sicherlich nicht die Messlatte. Da würde ich schon eher Evergreen in Form von Cypress heranziehen.
75 Watt bei Knights Corner sollen für das 22 nm Design reichen. Zwischen Cypress und 22 nm liegen jedoch noch mindestens zwei Fertigungsprozesse (40 -> 28 -> 22), womit man an der ATI Architektur bezüglich Leistungsaufnahme enorm viel drehen kann. Zudem war die Rede von 500 GFLOPS bei Knights Corner (SP/DP?). Cypress liefert heute schon 2720 GFLOPS SP und 544 GFLOPS DP. Wenn man konservative 50% bessere Energieeffizienz pro Shrink nimmt und weitere 50% Verbesserung an der Architektur bis dahin, dann bräuchte man für die Performance von Cypress (TDP 188 W) in 22 nm gerade mal eine TDP von ~55 W.
Angesichts dessen sieht Knights Corner auch nicht besser aus. Gerade bei dem oft übertriebenen Optimismus, mit dem Intel neue Projekte ankündigt. Soweit ich weiss, sollte der Chip ja auch vom Larrabee Projekt abstammen.
 
Man sollte immer die Relationen betrachten. Fermi ist sicherlich nicht die Messlatte. Da würde ich schon eher Evergreen in Form von Cypress heranziehen.
75 Watt bei Knights Corner sollen für das 22 nm Design reichen. Zwischen Cypress und 22 nm liegen jedoch noch mindestens zwei Fertigungsprozesse (40 -> 28 -> 22), womit man an der ATI Architektur bezüglich Leistungsaufnahme enorm viel drehen kann. Zudem war die Rede von 500 GFLOPS bei Knights Corner (SP/DP?). Cypress liefert heute schon 2720 GFLOPS SP und 544 GFLOPS DP. Wenn man konservative 50% bessere Energieeffizienz pro Shrink nimmt und weitere 50% Verbesserung an der Architektur bis dahin, dann bräuchte man für die Performance von Cypress (TDP 188 W) in 22 nm gerade mal eine TDP von ~55 W.
Angesichts dessen sieht Knights Corner auch nicht besser aus. Gerade bei dem oft übertriebenen Optimismus, mit dem Intel neue Projekte ankündigt. Soweit ich weiss, sollte der Chip ja auch vom Larrabee Projekt abstammen.

Nur gibt es (leider) keine Computing Cluster mit Cypress. Die einzigen dedizierten GPGPU-Karten auf dem Markt sind nun mal die Tessla von NV, also sind sie auch die einzige verfügbare Messlatte für die neuen Konkurrenzprodukte.
Natürlich wäre es wünschenswert, wenn auch AMD entsprechende Produkte anbieten würde, aber sie tun es nun mal nicht.

Die von mir angesprochene Prototypkarte ist aber keine Knights Corner (voraussichtlich mehr als 50 Kerne in 22nm), sondern "nur" eine Aubrey Isle (500+GFLOPS, 32 Kerne/32nm). Die Leistungs- und Effizienzsteigerungen durch die Weiterentwicklung und Shrinks gelten somit auch für die Knights.
So wie es momentan aussieht, wird Nvidia an dieser Tessla-Alternative ganz schön zu knabbern haben. Zumal Intel bei seinen Produkten auch noch weitere exklusive Vorteile (z.B. komplette Server/Großrechner aus einer Hand) anbieten kann.
 
Zuletzt bearbeitet:
Nur gibt es (leider) keine Computing Cluster mit Cypress. Die einzigen dedizierten GPGPU-Karten auf dem Markt sind nun mal die Tessla von NV, also sind sie auch die einzige verfügbare Messlatte für die neuen Konkurrenzprodukte.
Natürlich wäre es wünschenswert, wenn auch AMD entsprechende Produkte anbieten würde, aber sie tun es nun mal nicht.

Das spielt doch keine Rolle ob die Karte nun für GPGPU gemacht wurde oder nicht... Fakt ist, die RV870 GPU kann im Vollausbau mehr als das doppelte an Berechnungen durchführen, wie die schnellste NV GPU derzeit. (SP)
Auch gibt es in den aktuellen Listen der Supercomputer Systeme mit AMD Grafikkarten (HD4870 X2 beispielsweise)
Das man hier explizit auf Tesla GPUs setzten muss, ist also nicht richtig.

Im übrigen bietet AMD für genau den Markt die FireStream Karten an ;)
 
Nur gibt es (leider) keine Computing Cluster mit Cypress. Die einzigen dedizierten GPGPU-Karten auf dem Markt sind nun mal die Tessla von NV, also sind sie auch die einzige verfügbare Messlatte für die neuen Konkurrenzprodukte.
Natürlich wäre es wünschenswert, wenn auch AMD entsprechende Produkte anbieten würde, aber sie tun es nun mal nicht.
Wo hast du denn das her? Natürlich gibt es vergleichbare Produkte von AMD. Und das schon sehr lange, siehe FireStream und FirePro (früher FireGL).

Die von mir angesprochene Prototypkarte ist aber keine Knights Corner (voraussichtlich mehr als 50 Kerne in 22nm), sondern "nur" eine Aubrey Isle (500+GFLOPS, 32 Kerne/32nm). Die Leistungs- und Effizienzsteigerungen durch die Weiterentwicklung und Shrinks gelten somit auch für die Knights.
Nein. Erstens wäre das lediglich ein Shrink (32 nm -> 22 nm), nicht zwei. Und zweitens galt das nicht für die 75 W. Diese Prognose war bereits für die 22 nm Version. Es kann also maximal höhere Performance geben. Aber gut, hier ist die Konkurrenz brereits in 40 nm weit voraus. Ich habe extra nochmal nachgeschaut, die 500 GFLOPS waren für SP Linpack. Cypress schafft bei SGEMM über 2 TFLOPS (theoretisch 2,72 TFLOPS). Selbst wenn bei Linpack nur die Hälfte der theoretischen Performance übrig bleibt, wäre das immer noch weit mehr als doppelt so hohe Performance im Vergleich zu Aubrey Isle.

So wie es momentan aussieht, wird Nvidia an dieser Tessla-Alternative ganz schön zu knabbern haben. Zumal Intel bei seinen Produkten auch noch weitere exklusive Vorteile (z.B. komplette Server/Großrechner aus einer Hand) anbieten kann.
Wie gesagt, momentan ist AMD die Messlatte bezüglich Leistungsfähigkeit und Chipeffizienz. Und die können ebenfalls Systeme aus eigener Hand anbieten.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh