News und Artikel durchsuchen
{{#data.error.root_cause}}
{{/data.error}}
{{^data.error}}
{{#texts.summary}}
[{{{type}}}] {{{reason}}}
{{/data.error.root_cause}}{{texts.summary}} {{#options.result.rssIcon}} RSS {{/options.result.rssIcon}}
{{/texts.summary}} {{#data.hits.hits}}
{{#_source.featured}}
FEATURED
{{/_source.featured}}
{{#_source.showImage}}
{{#_source.image}}
{{/_source.image}}
{{/_source.showImage}}
{{/data.hits.hits}}
{{{_source.title}}} {{#_source.showPrice}} {{{_source.displayPrice}}} {{/_source.showPrice}}
{{#_source.showLink}} {{/_source.showLink}} {{#_source.showDate}}{{{_source.displayDate}}}
{{/_source.showDate}}{{{_source.description}}}
{{#_source.additionalInfo}}{{#_source.additionalFields}} {{#title}} {{{label}}}: {{{title}}} {{/title}} {{/_source.additionalFields}}
{{/_source.additionalInfo}}
Deep Learning
-
Schneller und effizienter: Forschung zeigt Vorteile neuronaler Chips
Intel ist nicht der einzige Hersteller, der an neuronalen Chips arbeitet. Vor drei Jahren stellte Intel die erste Generation der Hardware für das neuronale Computing vor: den Loihi. Der Chip verwendete rund 130.000 Neuronen aus Silizium und soll die Art und Weise, wie Deep-Learning-Netzwerke arbeiten, effizienter machen und vor allem beschleunigen. Inzwischen gibt es die zweite Generation alias Loihi 2w, die aus... [mehr] -
Chips designen Chips: Machine Learning übernimmt das Floorplanning
Mit dem Chip Design with Deep Reinforcement Learning haben einige Forscher bei Google AI, genauer gesagt dem Brain Team, eine selbstlernende Methode für das Floorplaning von Chips vorgestellt. Moderne Chip-Architekturen befinden sich über Jahre in der Entwicklung. Je nach Größe des Projekts und der Auslegung vergehen zwischen zwei und fünf Jahren. Heute bereits zu wissen, welche Anforderungen in zwei bis fünf Jahren an das Design... [mehr] -
Das Netzwerk als Rückgrat: Habana Labs' Gaudi liefert 1 TBit/s an Anbindung
Bis Anfang diesen Jahres fuhr Intel zweigleisig, wenn es um dedizierte Hardware für das Inferencing und Training von Deep-Learning-Netzwerken ging. Aber der Chipgigant hat Nervana aufs Abstellgleis geschickt und sich für Habana Labs entschieden. Die hier bereits begonnen Entwicklung von Hard- und Software soll in den kommenden Jahren den Pfad zu dedizierten AI-Beschleunigern ebnen. Mit den genaueren Details zum Goya-Chip für das... [mehr] -
NVIDIA DLSS 2.0: Ein AI-Upscaling wie von Anfang an geplant
Neben der Vorstellung bzw. Teilnahme an DirectX 12 Ultimate hat NVIDIA im Rahmen der Game Developers Conference eine Neuerung zum Deep Learning Super Sampling verkünden. Als DLSS 2.0 hat man den bisherigen Ansatz für das Training und Inferencing weitestgehend verworfen und startet von Vorne. Das Ergebnis: Eine Bildqualität für ein Upscaling, die Tatsächlich besser als je zuvor aussieht. Wir haben uns die Details... [mehr] -
UPMEM: DDR4-DIMMs bekommen integrierte AI-Prozessoren
Für AI-Anwendungen ist es wichtig, den Speicher so nahe wie möglich an den verarbeitenden Prozessor zu bringen. Ein Unternehmen aus Frankreich namens UPMEM hat sich gedacht: "Warum den Prozessor nicht näher an den Speicher bringen?" Auf der Hotchips hat man nun einen DDR4-Speicher vorgestellt, der mit sogenannten DPUs (DRAM Processing Unit) kombiniert wird. Dabei integriert UPMEM die DPUs als Teil des DRAM-Speicherchips. Bereits in der... [mehr] -
NVIDIA-Forschungspapier beschreibt MCM-basierten AI-Beschleuniger
Derzeit deutet alles daraufhin, dass die Zukunft der Prozessoren und GPUs in einem modularen Chiplet-Design zu suchen ist. Intel hatte in der Vergangenheit bereits einige Ansätze in dieser Richtung aufgezeigt, AMD hat sie mit den Ryzen-, Ryzen-Threadripper- und EPYC-Prozessoren in vollem Umfang umgesetzt. Die Erfahrungen, die AMD bei den Zen-Prozessoren gemacht hat, will man in zukünftigen RDNA-Architekturen für die Grafikkarten offenbar... [mehr] -
ISC19: Intel sieht HPC-Markt im Wandel – neuer HPL-AI-Benchmark für mehr Klarheit
Regelmäßig zur Supercomputing im November und zur International Supercomputing Conference im Juni wird eine neue Liste der Top500-Supercomputer vorgestellt. Dies ist auch am gestrigen Tag, dem ersten der ISC19 in Frankfurt geschehen. In Gesprächen mit einigen Herstellern ist schnell zu spüren, dass die Top500-Liste zunehmend in den Hintergrund des Interesses rückt und dies hat gleich mehrere Gründe. Zudem gibt es einen Wandel in der Auslegung... [mehr] -
Intel verrät weitere Details zum Nervana NNP-L1000
Mitte Mai des vergangenen Jahres stelle Intel den Neural Network Processor (NNP) Nervana NNP L-1000 alias Spring Crest für 2019 in Aussicht. Nun hat der Chipriese auf der Linley Conference weitere Details zum Design verraten. Bereits bekannt ist, dass der NNP L-1000 ein ASIC-Design mit insgesamt 32 GB an HBM2 ist. Seine Rechenleistung soll die eines Prozessors, aber auch eines GPU-Beschleunigers in bestimmten Bereichen bei weitem... [mehr] -
Qualcomm stellt dedizierte AI-Beschleunigerhardware vor
In seinen eigenen SoCs verbaut Qualcomm schon seit geraumer Zeit dedizierte Inferencing-Hardware und beschleunigt damit beispielsweise Mechanismen zur Verbesserung von Bildern, der Spracherkennung und in weiteren Anwendungsbereichen. Doch nun scheint Qualcomm einen Schritt weiter gehen zu wollen und kündigt auf dem AI Day in San Francisco dedizierte Inferencing-Hardware für 2020 an. Qualcomm sieht in diesem Markt ein Potential von 17... [mehr] -
NVIDIA will 3D-Welten durch AI erzeugen lassen
Der Begriff prozeduales Leveldesign ist vielen sicherlich von Spielen wie No Man's Sky und Star Citizen bekannt. Dahinter verbirgt sich die prozedurale Synthese oder prozedurale Generierung von Inhalten wie Texturen, 3D-Objekten und Musik in einem vom Entwickler gesteckten Rahmen, um nicht eine zu 100 % vordefinierte Welt anfertigen zu müssen. Im Falle der beiden Weltraum-Abenteuer ist es nur so möglich hundert oder gar tausenden... [mehr] -
Neuronale Entwicklerplattform: Pohoiki Springs verwendet 768 Loihi-Chips
Auch wenn die Entwicklung neuer CPU-Architekturen bei Intel derzeit stillzustehen scheint, so macht der Chipgigant in anderen Bereichen große Fortschritte. Dazu gehört der im September 2017 vorgestellte Loihi-Chip, der aus 130.000 „Neuronen" aus Silizium besteht, die sich abhängig von der jeweiligen Anwendung selbstständig verknüpfen sollen. In einem ersten Schritt ging es für Intel darum das Potential der Hardware auszuloten und... [mehr] -
AI-Intelligenz als USB-Stick: Intels NCS 2 bietet 8fach höhere Leistung
Der Einstieg in die AI-Welt setzt nicht zwangsläufig leistungsstarke Hardware voraus. Die Zeiten, die Berechnungen auf dem Prozessor des Heim-PC ablaufen zu lassen, sind allerdings auch vorbei. Mit dem Neural Compute Stick (NCS) bietet Intel günstige Einsteigerhardware in Form eines USB-Sticks. Der NCS der ersten Generation verwendet eine Vision Processing Unit (VPU) von Movidius. Im Falle des ersten NCS war dies der Myriad 2, der... [mehr] -
Füttern der Bestie: PNY PURE AIRI verbindet HPC mit Storage und Netzwerk
Seit einigen Jahren bietet NVIDIA Systeme für das High Performance Computing und Deep-Learning-Anwendungen an. Über seine Partner wie IBM, Dell, HPE und einige andere sind entsprechende Server ebenfalls für entsprechende Anwendungen verfügbar. PNY ist seit 2003 der exklusive Partner für den Verkauf der Hardware von NVIDIA im Bereich von Quadro- und Tesla-Karten und bietet seit einiger Zeit auch auf Kundenwunsch gefertigte HPC-Server an. Dieses... [mehr] -
DeepMind AI lernt CTF-Teamplay und bekommt taktisches Verständnis
Die Google-Tochter DeepMind will Machine-Learning-Anwendungen in die verschiedensten Bereiche einbringen. Bereits seit einiger Zeit arbeitet man an ML-Netzwerken, die in Spielen ein taktisches Verständnis entwickeln sollen. Dabei gehen die Algorithmen einen Schritt weiter als Systeme, die in Brettspielen wie Schach oder Go schon längst auch die stärksten menschlichen Gegner schlagen. Für Starcraft II und Dota 2 gibt es bereits... [mehr] -
NVIDIA interpoliert per AI Frames in Slow-Motion-Aufnahmen
Für die Bildoptimierung hat NVIDIA bereits mehrfach Techniken vorgestellt, bei denen fehlende Inhalt oder Details per Machine-Learning ermittelt und in das Bild integriert werden können. Für Ray-Tracing-Anwendungen ist ein sogenanntes Denoising bereits seit dem Frühjahr 2017 im Einsatz – und wird für ein Ray-Tracing mit RTX in Echtzeit ausgeführt. Damit reduziert NVIDIA den Rechenaufwand für die Hardware. Die noch ausstehenden Bereiche der... [mehr] -
NVIDIAs HGX-2 bietet 2 PFLOPS an Rechenleistung
Zur GPU Technologies Conference im vergangenen Jahr stellte NVIDIA mit dem HGX-1 ein Serversystem vor, welches im Grunde genommen eine wassergekühlte Variante des DGX-1 und für den Einsatz in der HPC-Cloud vorgesehen ist. In diesem Jahr hat NVIDIA die Varianten der Tesla V100 mit 32 GB, also verdoppelten HBM2, vorgestellt. Auch die Quadro V100 ist seit dem Frühjahr in dieser Ausbaustufe verfügbar. Heute nun stellt NVIDIA das HGX-2 vor... [mehr]. -
Intel Xeon Scalable schlägt NVIDIAs V100-GPUs
Einmal mehr will Intel die Leistung seiner eigenen Prozessoren im Bereich des Machine Learnings unterstreichen und liefert dazu eine interessante Livedemo in Form eines Videos und eines dazugehörigen Blogposts. Google, NVIDIA und auch Intel haben bereits Optimierungen angekündigt, die TensorFlow auf der eigenen Hardware beschleunigen – lassen teilweise sogar eigene Hardware fertigen, welche entsprechende Anwendungen beschleunigen. Im... [mehr] -
Alibaba kauft C-Sky und arbeitet ein eigener Machine-Learning-Hardware
Alibaba, das chinesische Großunternehmen und die größte IT-Firmengruppe Chinas, will sich weiter von US-Unternehmen unabhängig machen. Da man sehr stark in den Bereichen Machine Learning aktiv ist, kauft man derzeit viel Hardware aus den USA – sei es von Intel oder von NVIDIA. Doch bereits seit einiger Zeit deutet sich an, dass sich Unternehmen wie Alibaba unabhängiger von US-Unternehmen machen wollen – auch weil die USA... [mehr] -
Intel und Microsoft: Mit Windows ML und Movidius Myriad X zur AI für den PC
KI, AI, ML – die Integration von künstlichen Intelligenzen schreitet immer weiter voran. Microsoft hat mit Windows ML nun die entsprechende API für das eigene Betriebssystem vorgestellt. Für die Hardware arbeitet man mit dem Chipgiganten Intel zusammen, der mit den Movidius-Myriad-X-Chips die richtige Hardware zur Hand haben will. Viele Hersteller fahren in diesem Segment zweigleisig. In der Cloud werden große Datensätze und solche... [mehr] -
Ubisoft verwendet AI um Programmierfehler in Spielen zu verhindern
Immer wieder versprechen Spieleentwickler intelligentere Computergegner und ein realistischeres Verhalten der Charaktere. Ubisoft versucht mit Hilfe von Machine Learning in nun zwei Feldern vom aktuellen AI-Trend zu profitieren. Auf der Ubisoft Developer Conference in Montreal stellte man den Commit Assistant vor. Dieser soll Fehler im Code der Spiele erkennen, bevor diese per Commit in den Entwicklungspfad gelangen. Sie... [mehr] -
NVIDIA mit neuen Partnerschaften für autonome Fahrzeuge
Neben der Vorstellung der Big Format Gaming Displays sowie einer Ausweitung der GRID-Cloudgaming-Initiative hat NVIDIA auf der Consumer Electronics Show eine Ausweitung der Partnerschaften für autonome Fahrzeuge angekündigt. Später als angekündigt werden nun die ersten Samples der Drive- Xavier-Plattform an die Partner geliefert. Mit der Massenproduktion will NVIDIA vor Jahresende beginnen. Drive Xavier soll die bisherige... [mehr] -
Effizienter als der Mensch: Googles AutoML programmiert eigene AI
Künstliche Intelligenzen, die sich selbst trainieren, gibt es bereits. Genau genommen ist genau dies die Methodik hinter Deep-Learning-Netzwerken, die nach einer kurzen Anlernphase Fotos, Videos und andere Daten selbständig analysieren und auswerten. Ein weiterer Schritt ist die Erstellung von Trainingsalgorithmen durch künstliche Intelligenzen selbst. Google hat dazu im Mai 2017 das AutoML-Projekt gestartet, welches zum Ziel hat,... [mehr] -
NVIDIA weitet TensorRT-Unterstützung auf Titan Xp und Volta-Architektur aus
NVIDIA weitet seine AI-Initiative immer weiter aus. Über die NVIDIA GPU Cloud (NGC) ist es Entwicklern nicht nur möglich, ihre Anwendungen schnell und einfach auf verschiedenen Cloud-Instanzen zu verlegen, sondern auch die Konfiguration für das Ersttraining deutlich zu vereinfachen. NVIDIA hat die Unterstützung der NGC-Container nun auf die Titan Xp ausgeweitet und auch GPU-Beschleuniger auf Basis der Volta-Architektur werden nun direkt... [mehr] -
ASIC-Produzent nutzt Bitcoin-Chips als neuronalen Prozessor
Unter Bitcoin-Minern hat sich Bitmain bereits einen Namen gemacht, denn seit einigen Jahren bietet man hier immer wieder neue AISC-Prozessoren und dazugehörige Systeme für das Mining von Bitcoins an. Mit dem BM1387 hat Bitmain den ersten ASIC aus der 16-nm-Fertigung von TSMC vorgestellt. Dieser erreicht mit 0,098 J/GH eine äußerst hohe Effizienz. Im größten System, dem Antminer S9, sind 189 solcher Chips verbaut. Eine... [mehr] -
Dank Data Management und Machine Learning – Mercedes erfolgreich in der Formel 1
Am vergangenen Wochenende ist das Formel-1-Team von Mercedes Benz, welches unter dem Namen Mercedes AMG Petronas fährt, zum vierten Mal in Folge Weltmeister geworden. Dazu haben sicherlich verschiedene Dinge beigetragen, auch wenn Fahrer, Motor, Aerodynamik und die Teamarbeit von mehr als 1.100 Mitarbeiter im Vordergrund stehen, so ist die Technik im Hintergrund längst ein ebenso entscheidender Faktor geworden. Daten sind nicht nur für Google,... [mehr] -
Intel präsentiert ersten Neural Network Processor
Nach dem ersten offiziellen Ausflug Intels in die Welt der Quantencomputer hat Intel nun auch den nach eigenen Angaben ersten Neural Network Processor angekündigt. Bereits mehrfach hat Intel sich mit dem Zukauf des Unternehmens Nervana beschäftigt, die in diesem Bereich bereits seit Jahren aktiv sind. Nun ist es offiziell: Der Neural Network Processor (NNP) soll in geringen Stückzahlen noch in diesem Jahr ausgeliefert werden. Der NNP ist auf... [mehr] -
Super Real Time: NVIDIAs AI-Netzwerke werden komplexer und dennoch schneller
Auch wenn auf der GPU Technology Conference auf deutschem Boden das Thema Automotive dominiert, so führt für NVIDIA natürlich alles durch die notwendige Rechenleitung auf die eigenen GPUs zurück. Auch auf der Keynote waren die stetig wachsenden und dennoch immer schneller werdenden Deep-Learning-Netzwerke daher ein wichtiges Thema. Bilder-Netzwerke wie das erste AlexNet wuchsen stetig an, haben mit ResNet-50 eine Tiefe von 50 Iterationen... [mehr] -
Intel stellt neuronalen Chip mit Synapsen aus Silizium vor
Natürlich ist auch Intel im Bereich der Artificial Intelligence, des Deep Learning und Machine Learning aktiv. Alle Begriffe umschreiben grundsätzlich das gleiche Verfahren, die Unternehmen interpretieren hier manches mal nur eigene Entwicklungsprozesse und Umsetzungen in Hardware in einer eigenen Form. Bisher steht die AI-Abteilung bei Intel hinsichtlich der Hardware noch auf mehreren Beinen, entwickelt sich aber genau wie bei anderen... [mehr] -
Deep Learning hilft bei der Sortierung von Legosteinen
Es ist hin und wieder erstaunlich wie sich so mache Dinge zusammenfinden. In diesem Fall geht es um eine automatische Anlage zur Sortierung von Legosteinen, die sich ein Entwickler namens Jacques Mattheij aus privater Notwendigkeit mithilfe von viel Geschick aufgebaut hat. Entstanden ist das Projekt, da Mattheij das eigene und zugekaufte Lego sortieren wollte. Manuell ist dies eine langwierige und kaum fordernde Aufgabe. Im besten Falle sollte... [mehr] -
Movidius Neural Compute Stick leistet 100 GFLOPs bei 1 W
Intel hat über seine Tochterfirma Movidius einen sogenannten Neural Compute Stick (NCS) vorgestellt. Damit soll eine möglichst leistungsstarke und auf AI-Anwendungen ausgelegte Hardware deutlicher einfacher zugänglich gemacht werden. Ein NCS kann allerdings keine große Trainings-Hardware ersetzen, sondern soll den Zugang zur dazugehörigen Software und der Methodik erleichtern. Im Movidius NCS arbeitet ein Myriad 2, eine sogenannte Vision... [mehr] -
NVIDIA investiert in Sicherheitsfirma Deep Instinct
NVIDIA hat sich am israelischen Start-Up Deep Instinct beteiligt, wie beide Unternehmen heute bekannt gaben. Deep Instinct entwickelt Sicherheitslösungen, die auf Deep Learning beruhen. Deep Instinct verwendet ein GPU-basiertes neuronales Netzwerk und CUDA um per Deep Learning böswillige Angriffe über mehrere Vektoren hinweg zu erkennen, anzupassen, und entsprechend zu reagieren. NVIDIA behauptet Deep Instinct erzielt bei Angriffen eine... [mehr] -
AMD stellt Radeon-Instinct-Serie inklusive MI25 mit Vega-GPU vor
Im Rahmen der Vorstellung der Server-Prozessoren EPYC hat AMD auch weitere Details zu den GPU-Beschleunigern der Radeon-Instinct-Serie veröffentlicht. Mit dieses richtet sich AMD ausdrücklich an Anwendungen im Bereich Deep Learning, Machine Learning, Artificial Intelligence und viele weitere Synonyme für die eigentlich nahezu identischen Anforderungen an die Hardware. Bereits im Dezember des vergangenen Jahres sprach AMD erstmals über Radeon... [mehr] -
Monsanto nutzt künstliche Intelligenz und Deep Learning für Ernteschutz
Das Unternehmen Monsanto stellt sich in Selbstpräsentationen oft geradezu altruistisch dar. Etwa heißt es in einer Selbstbeschreibung: „Monsanto hat sich verpflichtet eine große Bandbreite an Lösungen zu finden, um unsere wachsende Welt zu ernähren.“ Kritiker des amerikanischen Konzerns vergleichen das Unternehmen hingegen in Internetforen regelmäßig mit dem fiktiven Unternehmen Umbrella aus den Spielen der Reihe „Resident Evil“. So... [mehr] -
NVIDIA Tesla P100 kostet mindestens 6.300 Euro
Bereits seit Anfang des vergangenen Jahres sowie ab Sommer liefert NVIDIA die Tesla-P100-GPU-Beschleuniger direkt an seine Kunden aus. In Frage kommen dabei die SMX2-Module, die in den DGX-1-Server eingesetzt werden – weitaus endkundenfreudlicher sind aber sicherlich die PCI-Express-Varianten, die in zwei Ausführungen zur Wahl stehen. Bisher lieferte NVIDIA aber wie gesagt nicht in den freien Markt aus, sondern jede produzierte Grafikkarte... [mehr] -
Ein Blick in Google’s Tensor Processing Unit (TPU)
Themen wie Machine Learning, Deep Learning und Artificial Intelligence, die eigentlich nur Synonyme füreinander sind, spielen in der heutigen Welt eine immer wichtigere Rolle. Unternehmen wie Intel, Google und NVIDIA haben sich darauf vorbereitet und entsprechende Hardware entwickelt. Google hat dazu die Tensor Processing Unit (TPU) entwickelt, zu der es nun weitere Informationen gibt. Bei der TPU handelt es sich um einen Custom-ASIC... [mehr] -
NVIDIA Jetson TX2 mit Pascal-GPU und Denver 2 CPU-Kernen vorgestellt
NVIDIA versucht sich seit Jahren möglichst breit aufzustellen und nicht nur ein Anbieter für Spieler-GPUs zu sein. Aus diesem Grund entwickelte man vor Jahren eine zweigleisige Strategie, die auch den Compute-Bereich stärker in den Fokus nahm und inzwischen verzeichnet NVIDIA im HPC-Segment die höchste Umsatzsteigerung. Parallel zum HPC- und Deep-Learning-Pfad war man aber auch auf der Suche nach einer Anwendung für die eigenen SoCs, die in... [mehr] -
Intel FPGA bricht Rekorde für Gesichtserkennung mittels Deep Learning
In Zusammenarbeit mit ZTE wollen Intel und der Kommunikationsspezialist aus China neue Rekorde für die Gesichtserkennung mittels eines Deep-Learning-Netzwerkes gebrochen haben. Bereits auf der Supercomputing 2016 präsentierte Intel spezielle Hardware für das Training und Inferencing von Deep-Learning-Netzwerken auf Basis der Arria-10-Hardware. Die nun vorgestellte Hardware soll eine um den Faktor zehn höhere Leistung erreichen, wie dies zuvor... [mehr] -
AMD präsentiert Radeon Instinct – Machine Learning im Fokus
Auch wenn AMD den professionellen Markt durch die Vorstellung zahlreicher FirePro-Produkte, darunter die neue WX-Serie, nicht vollständig hat links liegen lassen, so spielen diese Produkte vor allem im High-End Supercomputing-Bereich nicht wirklich eine wichtige Rolle. Nun aber stellt AMD eine komplett neue Strategie in diesem Segment vor: Radeon Instinkt. Mit Radeon Instinkt will AMD ein komplettes Ökosystem für Machine Learning,... [mehr] -
GTC16EU: Keynote der GPU Technology Conference EU mit Deep-Learning-Fokus
Heute startete die erste GPU Technologie Conference auf europäischem Boden. Auf der Keynote der GTC Europe 2016 präsentierte NVIDIA die aktuelle Entwicklung im Bereich Artificial Intelligence, Cloud Computing und Deep Learning. Einmal dominierten die Deep-Learning-Netzwerke die Präsentation – in Anbetracht der aktuellen Entwicklung sicherlich keine große Überraschung. Nachdem solche Netzwerke inzwischen Daten wie Fotos, Text und Sprache... [mehr] -
NVIDIA Tesla P4 und P40 werten Daten aus Deep-Learning-Netzwerken aus
Deep-Learning-Netzwerke definieren bereits viele Bereiche unserer Aktivitäten im Netz. Unter Deep Learning werden aber auch viele Funktionen zusammengefasst, die mit künstlicher Intelligenz in einen Zusammenhang gebracht werden, der mit dem eigentlichen Begriff und der Funktion von AI wenig zu tun haben. Dennoch werden Deep-Learning-Netzwerke in Zukunft weite Bereiche der Nutzung von Daten aus dem Internet definieren und auf diesen Umstand... [mehr] -
Super Micro kündigt neue HPC-Server mit NVIDIA Tesla-P100-GPUs an
Kaum hat IBM neue Server für Deep Learning und Datenanalyse mit NVIDIAs Tesla-P100-GPUs angekündigt, zieht Super Micro Computing nach. Mehrere neue Server sind auf maschinelles Lernen ausgerichtet. Am leistungsfähigsten ist Super Micros neuer 4U SuperServer 4028GR-TR(T)2, der maximal zehn PCIe-Tesla-P100-GPUs unterstützt. Laut der Firma sollen bis zu 210 TFLOPS FP16 Rechenleistung mit GPU-Direct-RDMA-Unterstützung möglich sein. Super... [mehr] -
Microsoft und Liebherr entwickeln vernetzte Kühlschränke
Haushaltsgerätehersteller Liebherr hat sich mit Microsoft zusammengetan, um intelligente Kühlschränke zu entwickeln. Beide Firmen arbeiten an der Neuauflage von Liebherrs SmartDeviceBox, einem modularen Kommunikationssystem, mit dem bestimmte Liebherr Kühlschränke ausgerüstet werden können. Microsoft wird die SmartDevices mit Objekterkennungsalgorithmen aus der Computer Vision ausstatten. Mit der Hilfe von Deep Learning Algorithmen aus... [mehr] -
IDF16: Knights Mill für Xeon Phi soll Deep-Learning-Netzwerke beschleunigen
In einer Technical Session des Intel Developer Forums in San Francisco hat Intel seine Pläne für weitere und zukünftige Xeon-Phi-Produkte und die dazugehörigen GPU-Beschleuniger der Knights-Generationen veröffentlicht. Demnach soll der immer stärker wachsende Bedarf an Hardware für Deep-Learning-Netzwerke im kommenden Jahr mit Knights Mill bedient werden. Die Ankündigung von Knights Mill ist aber gleichzeitig auch ein Umdenken bei Intel. Denn... [mehr]