Hierofalcon: AMDs Octa-Core mit ARM-Kernen und 30 Watt TDP

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.146
<p><img src="/images/stories/logos/AMD.jpg" width="100" height="100" alt="AMD" style="margin: 10px; float: left;" />Vor fast genau einem Jahr <a href="index.php/news/hardware/prozessoren/24280-amd-wird-arm-basierende-64-bit-opteron-prozessoren-fertigen.html" target="_self">kündigte AMD für 2014 erste Prozessoren mit ARM-Architektur an</a>. Bereits 2011 lizensierte man entsprechende Designs bei ARM. Ziel dieser speziellen Prozessoren ist der Microserver-Markt, wo Baugröße und Stromverbrauch wichtiger als die reine Rechenleistung sind. Die Effizient liegt deutlich über der von üblichen x86-Prozessoren. Traditionell nutzt AMD das Intel Developer Forum in San Francisco für solche Ankündigungen, bei dem auch wir von Hardwareluxx anwesend sind. Nun hat man erste konkrete Details zu den...<br /><br /><a href="/index.php/news/hardware/prozessoren/27803-hierofalcon-amds-octa-core-mit-arm-kernen-und-30-watt-tdp.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Im Embedded-Bereich ebenfalls eine Rolle spielen diskrete Grafikkarten. Diese kommen beispielsweise dann zum Einsatz, wenn ein SoC verwendet wird, der über Keine Grafiklösung verfügt.

Da stimmt was nicht.
 
Wieso? Wenn der SoC Keine Grafiklösung hat, braucht man eine zusätzliche GPU, passt doch :X
 
Traditionell nutzt AMD das Intel Developer Forum in San Francisco für solche Ankündigungen

warum nutzten die das intel forum? haben die keine eigenen foren? wirft doch irgendwie ein schlechtes licht auf amd, so als ob die von intel abhängig sein würden :teufel:
 
AMD präsentiert auf dem IDF, da es eines der größten Halbleiter-Technologie Konferenzen ist, die halt von Intel geleitet wird. Gibt ja auch genug über ARM und Grafikkarten zu hören ;)

@M4deman: Das K wurde von why_me eingefügt, vorhin stand da nur ein "eine Grafiklösung"
 
warum nutzten die das intel forum? haben die keine eigenen foren? wirft doch irgendwie ein schlechtes licht auf amd, so als ob die von intel abhängig sein würden :teufel:
Weil sie da einen Großteil der Software Entwickler erreichen.

Und warum "dürfen" sie das bei Intel?
Weil Intel langsam auch die physikalische Grenzen erreicht und nur durch Grundsätzlich andere Programmierung, sich mehr Leistung heraus holen lässt.

Was hat das mit AMD zu tun?
Sie nutzen auch die neuen Befehlssätze. ;)
 
Wozu eine GPU, die Teile sind für Server konzipiert und die sollen halt keine bunten Bilder malen sondern ihren job machen.
10GBit Ethernet für, 4-8 Cores bei 15-30W. Ein traum für jemanden, der z.B. parallele Storage Systeme bauen will oder große Datenmengen zu verarbeiten hat.
Klingt wirklich vielversprechend für Storage-systeme. Jetzt müsste man nur noch günstig 10GBit vernetzen können ;-) vermutlich kostet ein port an einem 10GBit switch deutlich mehr als so ein SOC.
 
AMD --> APU --> HSA

Nein das ist nicht der neue Song der Fanta4... :d Eine GPU kann zu mehr dienen als zum Bilder machen, theoretischer Weise... ;)
 
warum denn nur theoretisch? praktische können GPUs dass alles schon und es wird auch eingesetzt. Wäre auch blöd wenn nicht, da die schnellsten Server der Welt tausende GPUs dafür drin haben. Einzig HSA gibt es noch nicht, kommt erst ende des Jahres mit PS4/Xbox und für den PC mit Kaveri Anfang 2014.
HSA wird GPGPU nicht schneller machen, nur einfacher und etwas effizienter machen ;)
 
"Theoretisch", weil es kein Automatismus ist, es wird eine Software benötigt, die dieses nutzt und steuert. ;)
 
Also ist das ganze IT Zeitalter auch nur reine Theorie, weil überall Software benötigt wird? :wall:

Es wäre doch Theorie wenn es keine Software geben würde, die das kann. Praxis ist wenn es diese Software gibt und sie eingesetzt wird. Was hat das denn mit Automatismus zu tun?

Also nur weil du zumindest Theoretisch in der lage wärst, für GPGPU zu programmieren, es aber praktisch nicht kannst(?) musst du das dann praktisch nicht auf die ganze welt übertragen.... so oder so ähnlich :p
 
Also ist das ganze IT Zeitalter auch nur reine Theorie, weil überall Software benötigt wird? :wall:

Es wäre doch Theorie wenn es keine Software geben würde, die das kann. Praxis ist wenn es diese Software gibt und sie eingesetzt wird. Was hat das denn mit Automatismus zu tun?

Also nur weil du zumindest Theoretisch in der lage wärst, für GPGPU zu programmieren, es aber praktisch nicht kannst(?) musst du das dann praktisch nicht auf die ganze welt übertragen.... so oder so ähnlich :p

Ich habe mal das entscheidende Wort fett markiert. Setzt einer die Software nicht ein, ist es halt essig, dann kann die GPU theoretisch immer noch mehr, aber es wird nicht abgerufen. Die Auslagerung auf die GPU passiert momentan weder auf Hardware-Ebene noch auf BS-Ebene, es ist abhängig von der Anwendungssoftware. Also ist der Zusatznutzen erstmal theoretisch.
 
Zuletzt bearbeitet:
Also sind nach deiner Theorie viele Supercomputer der Welt z.B. Titan Mit ~19k Tesla GPUs ziemlich teure und großer Wasserkocher da die GPUs heutzutage nur zur bilddarstellung genutzt werden könne, da es in der praxis keine Software gibt...

Das wenn ist also schon längst erreicht ;) Auch für den Hausgebrauch gibt es immer mehr Programme die von GPGPU profitieren, Rendern, Zip-programme, CUDA, Physik berechnungen,..... das benutzt paktischerweise ja niemand.
 
Du drehst ihm irgendwie jedes Wort schon im Hals um oder?

Er hat überhaupt nicht gesagt das es entsprechende Software nicht gibt - er hat lediglich gesagt das Software benötigt wird die die GPUs zur Rate zieht und das nur so funktioniert da es noch nicht auf Hardwareebene funktioniert.


Was war da schwer zu verstehen? :confused:
 
Du willst es nicht verstehen oder? Solange etwas nicht praktisch umgesetzt/eingesetzt wird ist es theoretischer Natur. SMT bringt theoretisch auch 25% Leistungsplus, praktisch beschleunigt es aber viele Programme nicht. Nach deiner Logik bringt SMT dann allerdings praktisch grundsätzlich 25%, weil es ja Software gibt wo dies so ist und es deswegen niemals theoretisch sein kann... :shot:
 
Zuletzt bearbeitet:
Du drehst ihm irgendwie jedes Wort schon im Hals um oder?

Er hat überhaupt nicht gesagt das es entsprechende Software nicht gibt - er hat lediglich gesagt das Software benötigt wird die die GPUs zur Rate zieht und das nur so funktioniert da es noch nicht auf Hardwareebene funktioniert.


Was war da schwer zu verstehen? :confused:

Naja sein erstes Statement war, dass GPGU eine Theorie ist, was sie je de facto nicht ist.

Da ist es doch egal, ob das über das Betriebssystem, Treiber, in Hardware oder sonst wie abläuft. Letzteres (in Hardware) wird es übrigens nie geben, da die Komplexität des Codes darüber entscheidet, was von der GPU beschleunigt wird und was nicht (Parallelisierbarkeit und Art der Aufgabe)

Du willst es nicht verstehen oder? Solange etwas nicht praktisch umgesetzt/eingesetzt wird ist es theoretischer Natur. SMT bringt theoretisch auch 25% Leistungsplus, praktisch beschleunigt es aber viele Programme nicht. Nach deiner Logik bringt SMT dann allerdings praktisch grundsätzlich 25%, weil es ja Software gibt wo dies so ist und es deswegen niemals theoretisch sein kann... :shot:

GPGPU wird aber praktisch eingesetzt, hab ja oben auch Beispiele genannt, also ist es keine Theorie. Das es nicht jeder immer und überall mit jeder Zeile Code (Software) einsetzt und Otto normal Verbraucher erst recht nicht, ändert daran nichts.

Und über einen Leistungsplus durch GPGPU oder SMT hab ich doch gar nichts gesagt, also bitte ...
 
Ich habe außerhalb von HPC Rechnungen noch keine klassische "Serveranwendung" gesehen, die GPGPU genutzt hat.
Und ob die kleinen ARMs sich für den HPC bereich eignen werden wird sich noch zeigen müssen.
Und selbst wenn man GPGPU für HPC Rechnungen benutzt, sind das in der Regel seperate Karten mit ausreichend Recheneinheiten und Speicher und keine kleinen integrierten Grafiklösungen die in CPU oder chipsatz integreiert sind.
In relation zu den 15-30W SOCs spielen die auch in einer anderen TDP Klasse.

Geringe TDP, keine Grafik, 10GBit dank Cortex-A57 64Bit genug adressierbarer Speicher, für ARM verhältnisse ordentlich I/O optionen, das ist wirklich verdammt interessant für kleine Server, die keine GPUs brauchen. Auch wenn man irgendwie Fälle konstruieren könnte in denen andere Server von Grafikkarten profitieren.
 
Bleibt aber noch die Frage, wie effizient das A57-Design letztlich wird. Cortex-A15 ist da doch relativ enttäuschend und nur auf einem ähnlichen Niveau wie AMDs Jaguar, beide wiederum liegen hinter Qualcomms Krait. Und wenn man sieht, was Silvermont leistet, wird die Situation für ARM-basierte Serverchips nicht gerade leichter. Zumal der A57 wohl schon fast gegen 14nm-Atoms antreten muss.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh