NVIDIA präsentiert den Tegra X1 mit Maxwell-GPU - erster SoC mit 1 TFLOP Rechenleistung (Update)

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.220
NVIDIA präsentiert den Tegra X1 mit Maxwell-GPU - erster SoC mit 1 TFLOP Rechenleistung (Update)

<p><img src="/images/stories/logos-2013/nvidia_2013.jpg" width="100" height="100" alt="nvidia 2013" style="margin: 10px; float: left;" />In guter alter Tradition stand auf der Pressekonferenz von NVIDIA die Vorstellung einer neuen Tegra-Generation an. Bereits im Frühjahr 2014 <a href="index.php/news/hardware/prozessoren/30359-gtc-2014-naechster-tegra-heisst-erista-und-kommt-mit-maxwell-gpu.html" target="_self">wurden auf der hauseigenen Messe GTC 2014 die Weichen für Erista gestellt</a>. Dabei sollte es sich um einen SoC handeln, der wie der Tegra K1 ein GPU-Cluster der Desktop-Architektur verwendet, dabei aber auf die neue "Maxwell"-Generation setzt. Der letztendliche Produktname Tegra X1 lässt anders als der Tegra K1 aber nichts von der "Maxwell"-Architektur durchscheinen und es wird...<br /><br /><a href="/index.php/news/hardware/prozessoren/33788-nvidia-praesentiert-den-tegra-x1-mit-maxwell-gpu-erster-soc-mit-1-tflop-rechenleistung.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Technisch sehr interessant und bemerkenswert, aber will gar nicht wissen wieviel R&D in Tegra gesteckt wird, mit mäßigem Erfolg der Endprodukte...trotzdem sehr nett, auch wenn der 10W Verbrauch für einen Laien wie mich bezüglich Tablets hoch klingen? Oder nicht?
 
Zuletzt bearbeitet:
Für mich klingt das auch sehr hoch, eig. nahm ich an 5W sind bei Tablets so die normale "Verbrauchsgröße"
 
Einige Passagend es texts lesen sich sehr beeindruckend! Statt den Vergleichen mit uralten Superrechnern hätte ich mir eher einen mit einem aktuellen Intel Atom oder CoreM (Grund und Turbotakt) gewünscht. Weiss jemand zufällig wieviel TFlops die schaffen?
 
Die 10 Watt beschreiben einen Peak-Verbrauch und sicherlich ist das nicht gerade wenig, auch nicht für ein Tablet. Mal sehen ob und wann die Programme davon auch wirklich Gebrauch machen.
 
1TFlop peak mit 16 Bit floats über die Grafikeinheit. Klingt irgendwie weniger spektakulär weil man das schon von Grafikkarten kennt.
Also 4 FP16 oder 2FP32 Operationen pro Shader Einheit pro Takt.
Über die Leistungsfähigkeit der ARM Kerne erfährt man weniger.
 
Die 10 Watt beschreiben einen Peak-Verbrauch und sicherlich ist das nicht gerade wenig, auch nicht für ein Tablet. Mal sehen ob und wann die Programme davon auch wirklich Gebrauch machen.

Gibt es schon Ankündigungen seitens Hersteller die Tegra X1 nutzen, bzw. Software dafür entwickeln wollen?
Wie wird wohl die Konkurrenz reagieren?

Hab mir die Präsentation angeschaut und bin schon recht fasziniert wie klein und süß dieser Chip ist, aber im Innern ein Vulkan brennt ... :)
 
Also 4 FP16 oder 2FP32 Operationen pro Shader Einheit pro Takt.
Naja, theoretisch, praktisch kann es ja nicht pausenlos bei jedem Takt rechnen sondern muss die Daten auch mal bewegen oder auf Daten warten. Außerdem glaube ich kaum das der Supercomputer vor 15 Jahren auch nur mit 16 Bit breiten Zahlen gerechnet hat, der Vergleich ist also spektakulär, hinkt aber wohl gewaltig.
 
ich frag mich grad warum nvidia auf das LITTLE.big konzept umsteigt, ich fand das 4(+1 companion-core) des 32 bit K1 (bzw. 2+1 vom 64 bit)besser, warum 4 sparsamme cores wenns einer auch macht? oder hab ich was übersehen
 
weil es effizienter ist, so wird die last auf mehrere noch schwächere cores aufgeteilt, die insgessamt aber stärker und energiesparender sind als ein einzelner kern.
Lieber mehrere kleine kerne nutzen, statt einen stärkeren, ist wie in der natur, lieber mehrere kleine dinge als ein großes nutzen(darum haben z. B. Bäume nicht nur ein großes blatt sondern mehrere kleine blätter, oder darum haben menschen auch zwei nieren oder zwei lungenflügel, anstatt nur einem... Einfach energieeffizienter)
 
klar, aber der zusatzkern is doch auf energiesparen ausgelegt, aber eben nur einer und nich glei 4
 
Einige Passagend es texts lesen sich sehr beeindruckend! Statt den Vergleichen mit uralten Superrechnern hätte ich mir eher einen mit einem aktuellen Intel Atom oder CoreM (Grund und Turbotakt) gewünscht. Weiss jemand zufällig wieviel TFlops die schaffen?

Ein Core M-5Y70 macht auf dem Papier 346 FP32-GFLOPS bei 900 MHz GPU-Peak. Mit 300 MHz Basistakt ein Drittel ...
 
Zuletzt bearbeitet:
ich frag mich grad warum nvidia auf das LITTLE.big konzept umsteigt, ich fand das 4(+1 companion-core) des 32 bit K1 (bzw. 2+1 vom 64 bit)besser, warum 4 sparsamme cores wenns einer auch macht? oder hab ich was übersehen

Im Gegensatz zu Big.Little können hier ja alle 8 Kerne gleichzeitig genutzt werden. Steht oben im Update mit drin. 4 Kerne können außerdem unter Umständen bei deutlich höherer Rechenleistung weniger Strom verbrauchen. Hängt aber natürlich von der Aufgabe ab.
 
Das alle 8 kerne genutz werden können macht dann natürlich sinn. Das wären dann 3 leistungsstufen, 4 schwache, 4 starke oder alle gemeinsam wenn mal eng wird. Das gefällt natürlich.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh