Startup will zehnmal schnelleren Prozessor entwickelt haben

Thread Starter
Mitglied seit
06.03.2017
Beiträge
114.153
tachyum.jpg
Das 2016 gegründete Startup Tachyum aus dem Silicon Valley will unter dem Codenamen Prodigy einen Prozessor entwickelt haben, der eine rund zehnmal höhere Rechenleistung im Vergleich zu aktuell üblichen Prozessoren haben soll. Gründer und CEO des Unternehmens, Radoslav Danilak, gründete das Speicherunternehmen Skyera, welches 2014 von Western Digital gekauft wurde. Zuvor war er bei SandForce aktiv.Die Entwickler von Prodigy sprechen von einem Potenzial von 10 Milliarden US-Dollar für den Prozessor, der auch als Artificial Intelligence HPC Chip bezeichnet wird. 2020 sollen damit Echtzeit-Simulationen eines Gehirns durch neuronale Netze möglich sein. Dazu wird aber kein...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Einer von Sandfurz also? Na dann klappt das mit dem 10-mal-so-schnell wohl nur bei komprimierbaren Daten :lol:
 
Skynet!!!!


Ne mal im ernst klingt irgendwie zu gut um wahr zu sein, aber mal sehen. Für Endnutzer eh erstmal für ne weile uninteressant.
 
Die Marketingfolien sind der Brüller. Die CPU auf der Skala ist aus Google ein Intel Core oder Xeon kopiert, Text ersetzt und fertig.
Genauso das DELL Rack.
Ich bin mal gespannt. Solche Versprechen sieht man zu allen Techniken regelmässig. Akkus, Autos, CPUs, ...
 
Hört sich an wie Science Fiction. Vor allem mit dem Neural CPU Verbund (Cixin Liu, Der dunkle Wald).
 
But can it run Crysis?

Mal im Ernst das klingt schon fast zu gut um wahr zu sein. Die zehnfache Leistung bei nur einem Prozent Platzbedarf und zehn Prozent Leistungsaufnahme?

Sollte das nicht nur eine "Ente" sein wäre das ein echt großer Wurf!
 
Könnte vermutlich jeder andere CPU Hersteller ebenso, nur was bringt mehr Geld, direkt 1 mal 1000% Leistung verkaufen oder 10 mal 100% Leistung verkaufen? Der Kunde wird halt gemolken, merkt man auch am lächerlichen Fortschritt.
 
1% der Fläche bei 10% der Leistungsaufnahme bedeutet : zehnfache Leistungsaufnahme pro Fläche im Vergleich zu konventionellen Lösungen. Der Wärmeübergang bei konventionellen Lösungen ist schon ausgereizt, wie soll das mit der zehnfachen abzuführenden Leistung funktionieren? Das ganze hört sich nicht nur zu gut an um wahr zu sein, sondern auch schlicht falsch...
 
Die zehnfache Leistung bei nur einem Prozent Platzbedarf und zehn Prozent Leistungsaufnahme?
Solche Werte sind normalerweise als entweder-oder gemeint:
- Zehnfache Leistung bei gleicher Leistungsaufnahme.
- Oder: Zehn Prozent Leistungsaufnahme und ein Prozent Platzbedarf bei gleicher Leistung.
Letzteres klingt eh als wenn es auf einen Prozessorcluster/ganzen Supercomputer bezogen wäre, während ersteres auf die einzelne CPU bezogen ist.

Schlecht gemachte Präsentationsfolien bei übertriebenem Marketinggeschreie, abwarten bis belastbare Daten kommen.
 
Könnte vermutlich jeder andere CPU Hersteller ebenso, nur was bringt mehr Geld, direkt 1 mal 1000% Leistung verkaufen oder 10 mal 100% Leistung verkaufen? Der Kunde wird halt gemolken, merkt man auch am lächerlichen Fortschritt.

Das kann nur jemand sagen, der keine Ahnung von der Branche hat und gerne Sachen nachplappert, die ihm ins Gefühl passen.

Eine moderne Rechnerarchitektur ist ein hochkomplexes Optimierungsproblem, das an den Grenzen der Physik kratzt.
Und natürlich an Budget, Techologie etc.

Ein gelunges Produkt ist heute eines, das gerade so viel bietet, wie der Kunde an Funktionalität braucht, bei möglichst geringer Verlustleistung und für den Hersteller bezahlbaren Forschungs und Herstellungskosten.
Die Technologien, die man noch verbessern könnte, um einen aktuellen Chip zu verbessern werden zunehmend immer aufwändiger.


Die obige Vorstellung wirkt ziemlich unseriös, das sind in erster Linie Allgemeinposten, das was gezeigt wird, ist auf keinen Fall so weit, um 2020 in einem großen Data-Center eingesetzt werden zu können. In dem Fall müsste demnächst schon Software-Unterstützung dafür auftauchen, gemeint: ein Deep-Learning Framework mit Unterstützung dieser Architektur.

Das Potential bei neuromorphen Architekuren ist zweifellos extrem groß, und bei bestimmten Aufgaben kann man sich da eine wesentlich höhere Leistung als sie momentan vorhanden ist, erwarten.

Klingt hier so, als würde dieses Unternehmen entweder gerne gekauft werden, damit sich jemand die Patente angeln kann (weil man es nicht wirklich mit dem Budged hinbekommen wird) oder man sucht händerringend nach Investorengeldern.

Aber gut, vielleicht will sich ja mal jemand die Patente des Unternehmens ansehen, müssten ja öffentlich einsehbar sein.
 
Mir fällt nur das dabei ein:
 
... Das alles klingt wie der feuchte Traum eines Scientology Sekten Anhängers.. Wahrscheinlich ist Tom Cruise der Chefdesigner.. und die Technik stammt von der Galaktischen Föderation des Lichts..als Energiequelle wird Freie Energie angezapft..

Und schon Morgen kommen die mit dem Durchbruch der Laserschwertentwicklung ... :d
 
Zuletzt bearbeitet:
Diese News fällt unter die Rubrik:

Dinge die wir auch in 10 Jahren so nicht sehen werden und alles nur Gelabb war.
 
Allgemein sagt man ja oft dass alteingesessene Unternehmen festgefahren sind und dem Verbesserungsprozess verfallen sind - also darum keinen Blick für Alternativen und bahnbrechenden Ideen haben. Das sind dann perfekte Chancen für StartUps.

In einigen Branchen hat sich das auch bestätigt. Vieleicht wird es also Zeit dass es auch bei CPUs/Mikrochips passiert.
Inzwischen haben viele Universitäten chipfertigungen. Also Gelegenheit ist da.

Neuheiten wurden grade dann gefunden wenn Herstellungstechnologie weiter verbreitet wurde.
 
Zuletzt bearbeitet:
Wollte bald mal so richtig aufrüsten, jetzt warte ich besser erst nochmal ab … :d
 
Es ist doch so, daß die Entwickler von Prozessoren sicher schon einiges im Köcher haben, aber dem Endkunden, ob jetzt im privaten oder kommerziellen Umfeld immer nur den den nächsten Step verkaufen. Dazu kommt noch, daß der Kunde meist eine Kompatiblität voraussetzt, was keine großartigen Veränderungen in der "Denkweise" eines Prozessors erlaubt. So gehen die Firmen den Weg, aus der vorhandenen Architektur das Maximale am Rande des physikalischen Möglichen herauszuholen. Ich könnte mir schon vorstellen, daß mit einer neuen Prozessorarchitektur, gepaart mit einer neuen Art von Betriebssystem, einiges an Mehrleistung möglich ist.
 
Und morgen schenkt die Zentralbank jedem 1Mrd€ und die da oben entscheiden dann, dass es doch keine Inflation gibt. Wirklich!
 
Es geht bei denen doch hauptsächlich um cloud storage. Die entwickeln Chips für ganz spezielle Anwendungen und hier wird gleich wieder die Sau durchs Dorf getrieben.
 
Irgendwie langweilig, ich wäre deutlich enthusiastischer wenn das ein Chip für alle wäre, also für Notebooks, Tablets, PCs, Handys, TVs usw.
Aber ich glaube sowieso nicht daran das dies realisiert wird, in den letzten 20Jahren haben so viele derart viel Müll in die Welt geschrien was bald realisiert werden kann was niemals kam, das man damit Bücher füllen könnte.
Vor allem US Firmen glaube ich schon mal gar nichts mehr, übertreiben gehört bei denen zum einfachen 1mal1 der Geldbeschaffung und zum stabilisieren des Börsenwerts :coffee:
 
Gähn. Noch so ein Kommentar. Jedem, der sich über das Tesla- und das SpaceX Programm lustig gemacht hat, bleibt inzwischen das Lachen im Halse stecken. Hier wird was Neues entwickelt und viele haben Probleme damit, einfach mal abzuwarten.

Du stellst hier den Hang zur Übertreibung als typisch amerikanisch dar. Lass dir gesagt sein, nach deinen Gesichtspunkten bist du typisch deutsch. Immer ist alles schlecht.
 
Zuletzt bearbeitet:
Das ist so eine typische Meldung die man sich, zumindest solange der Informationsgehalt so spärlich ist, einfach sparen sollte. Die Meldung ist im Endeffekt völlig inhaltsleer und ohne vernünftige Anhaltspunkte, um was es denn nun eigentlich geht und was die Innovation eigentlich sein soll. Ein Chip der zehnmal schneller ist als was? Und dieses "hätte, wäre, wenn, -Geschwafel" über irgendwelche aus TFlop-Werte bei denen es sich aber vllt. um 8bit Integer-Berechnungen handelt (was ja an sich schon mal kompletter Unsinn ist - entweder FLOP oder INT) ist doch nichts anderes als dummes Gelaber ohne jeglichen Informationsinhalt. Das zeigt entweder, dass der Verbreiter dieser Meldung keine Ahnung hat, oder dass es redaktionell nicht begriffen wurde, oder aber beides.

Dass man Chips mit Leistungsvorsprüngen um den Faktor 10 (oder mehr) gegenüber üblichen universell nutzbaren Architekturen bauen kann ist ja kein Geheimnis und es wird auch ständig getan - aber eben auf sehr spezielle Anwendungen bezogen. Bestimmte RISC-CPUs und die meisten Mining-ASICs übertreffen beim abarbeiten ihrer speziellen Aufgabe die jeweilige Konkurrenz universell nutzbarer Chips aus dem PC-Bereich (CPUs und GPUs) auch locker um dem Faktor 10 oder mehr und sind für den gleichen Output auch locker um eine Größenordnung oder noch sparsamer. Das ist also nun wirklich kein Durchbruch oder eine große Neuheit. Damit kann man aber für allgemeine Aufgaben herzlich wenig anfangen.

Wenn man etwas zwischen den Zeilen liest und den allenfalls hauchdünnen Informationsgehalt ein wenig interpretiert, geht es hier ja ebenfalls um einen ASIC-Chip, der nun eben statt z. B. für Mining-Algorithmen auf die Abbildung künstlicher neuronaler Netzwerke ausgerichtet ist. Das ist meines Wissens zwar auch nichts wirklich neues, aber vllt. wurden in diesem Bereich ja nun tatsächlich ein paar Fortschritte erzielt.
Ein neuronales Netz arbeitet aber völlig anderes als eine klassische CPU oder GPU und dementsprechend ist ein Chip der so etwas nachbildet eben auch etwas vollkommen anderes als das was eine klassische x86er CISC-CPU oder eine GPU in einem PC darstellt. Das kann man daher auch nicht ansatzweise miteinander vergleichen. Für die Aufgaben die eine übliche CPU oder eine GPU in einem PC verrichtet dürfte dieser Chip vollkommen ungeeignet sein und wäre dementsprechend auch nicht schneller. Vermutlich kann man im Sinne normaler PC-Aufgaben mit dem Chip überhaupt nichts anfangen.

OT - @"Fortschritts"-Jünger:
Leute die heutzutage die Entwicklung einer Elektrokarre oder den bemannten Raumflug als Innovation wahrnehmen, haben imho irgendwie das letzte Jahrhundert vergessen. Die Frage, ob eine technische Errungenschaft (wirkliche Innovationen sind´s ja selten) oder eine Kombination von technischen Lösungen von kommerzieller Seite (im Fall der Elektroautos war das im Übrigen auch vor ihrem ersten Aussterben Anfang des letzten Jahrhunderts der Fall) oder von staatlicher Seite umgesetzt wird, ändert absolut nichts am Wert der jeweils dahinter stehenden Basis-Innovationen und im Sinne der Technik ist es vollkommen belanglos wer sie umsetzt - auch wenn es heut zu Tage überall so hingestellt wird, als wäre just die Tatsache der eigentliche Fortschritt, dass sich heute öfter privatwirtschaftlich mit solchen verhältnismäßig unwichtigen Dingen beschäftigt wird, die seit Jahrzehnten gebetsmühlenartig als der große "Fortschritt" hingestellt werden. Kommerzialisierung ist per se kein Fortschritt, sondern allenfalls eine Verschiebung von Machtverhältnissen. Besondere Innovationskraft scheint sie ebenfalls nicht hervorzubringen - eher im Gegenteil. Die Ideen die heute häufig mehr schlecht als recht umgesetzt werden, sind in der Regel schon viel früher da gewesen und falls es nicht bereits eine frühere Umsetzung gab, scheiterte sie damals oft nicht an fehlenden Möglichkeiten, sondern einfach daran, dass sie sinnbefreit war. Heute hat man jedoch durch die jahrzehntelange Konditionierung der Massen den Nährboden geschaffen, dass sich sogar für völlig nutzlosen Müll stets ein großer Markt findet, weil man einfach nur eine sog. "Innovation" verkünden muss und die "Fortschritts"-Jünger einem die Bude einrennen, um sich ein neues unsinniges Spielzeug an den Hals reißen zu können. Auf die Idee mal scharf darüber nachzudenken, ob es überhaupt etwas Neues ist, oder ob es unter den gegebenen Voraussetzungen überhaupt Sinn hat und nachhaltig ist, kommt irgendwie niemand mehr.
Aber um auf den Ausgangspunkt zurückzukommen: Was sich zwischenzeitlich z. B. bei Elektroantrieben und Akkus, oder auch bei Raketenantrieben und dem nötigen Drumherum getan hat, sind jedenfalls keine großen Innovationen, sondern ist allenfalls handwerkliche Weiterentwicklung bestehender Technik - und das nicht mal besonders zügig und manchmal dreht man sich da sogar ziemlich im Kreis.
Die letzte Basisinnovation im technischen Bereich war das Internet und wenn man´s ganz streng nimmt eigentlich der Laser (und das ist nun auch schon mehr als ein halbes Jahrhundert her). Seit dem kam effektiv nichts mehr im technisch-physikalischen Bereich, dem man ohne zu zögern das Prädikat "Basisinnovation" aufprägen könnte. Alle sog. Innovationen die danach kamen, waren mehr oder weniger Kombinationen alter Technik oder Weiterentwicklungen.
Kalten Kaffee aufwärmen oder ihn mit Schaumkrönchen verzieren ist aber keine besonders innovative Leistung. Der Einfluss der allumfassenden Kommerzialisierung ändert daran absolut nichts. Auch wenn sich mit Wiedergekäutem immer wieder Geld aus den Taschen der "Fortschritts"-Jünger leiern lässt, es ist und bleibt Wiedergekäutes.

Die meiner Ansicht nach richtige Definition des sog. "Fortschritts", wie er heute überall gepriesen wird, ist leider die Folgende:

"Fortschritt ist die fortschreitende, sich beschleunigende Umwandlung von Energie, Rohstoffen und menschlicher Arbeitskraft in Müll."
 
Zuletzt bearbeitet:
Immer noch mehr als dein Genörgel...
 
Und was hast du schon konstruktives zum Thema beigetragen? Ausser rektalem Husten hab ich nichts bemerkt.
 
@elcrack0r: Du scheinst ja einer derjenigen zu sein, die überhaupt keine Ahnung haben.
Lass es entweder dabei und halt den Rand, oder lerne dazu und trage etwas Vernünftiges bei.
 
Zuletzt bearbeitet:
Lass dir deine Erhabenheit von jemand anderem huldigen. Ich lach mich gerade über deinen Spoiler kaputt. Hast du die Weisheit mit Löffeln gefressen oder ist das Stand Up Comedy?
 
Was soll denn der aggressive Ton? Zu viel Haftbefehl gehört?

Oder liegts daran, dass deine Eltern diese Pfingstferien mit dir zu Hause geblieben sind?
 
Zuletzt bearbeitet:
@elcrack0r: Wenn es etwas in der Art wäre, dann keine Comedy, sondern Kabarett ;).
Aber auch wenn es dich zum lachen anregt, ist es leider überhaupt nicht lustig und damit auch kein Kabarett, sondern lediglich eine Beschreibung meiner Sichtweise auf den sog. "Fortschritt" und damit auch auf Leute wie dich, die in Sachen Fortschrittsgläubigkeit offenbar den Schuss nicht gehört haben. Da du in dieser Sichtweise sicher nicht mit mir übereinstimmst, sei dir das unbenommen, aber behellige mich bitte nicht weiter mit deiner Dünnbrettbohrerei, sondern argumentiere entweder vernünftig oder lass es bleiben und zieh dich wieder in deine Fortschrittsphantasienwelt zurück.

-> btt:
Es wäre u. A. interessant zu erfahren, wie die folgende Aussage zu interpertieren ist:
"Tachyum’s architecture overcomes the limitations of semiconductor device physics, which were thought to be insolvable. Tachyum in essence solved the performance problem of connecting very fast transistors with very slow wires – a standard processor design that has stifled semiconductor innovation for years, and stymied Silicon Valley engineers, even though nanometer-sized transistors in use today are far faster than in the past."

Dies wäre, wenn die Meldung mehr als reines Marketing sein soll, der springende Punkt, an dem evtl. tatsächlich eine gewisse Weiterentwicklung stattgefunden haben könnte. Leider bleibt man aber derart schwammig, dass man es eigentlich nur als Werbegrütze verstehen kann.

Copper-Interconnects wurden ja schon vor vielen vielen Jahren in der Chipfertigung eingeführt und auch stetig verbessert. Was bei hohen Frequenzen bzw. Schaltgeschwindigkeiten aber tatsächlich nach wie vor eine gewisse Beschränkung der Signalgeschwindigkeit in den Leiterbahnen darstellt, ist der Verkürzungsfaktor der die Signallaufzeit beschreibt. Er wird bei metallischen Leitern durch der Kehrwert aus der die Wurzel aus effektiver Permitivitätszahl multipliziert mit der Permeabilitätszahl des Ausbreitungsmediums (bei Kupfer ≈1) beschreiben. Man kann ihn auch als Kehrwert des komplexen Brechungsindex sehen. Bei hohen Frequenzen (also schnell schaltenden Transistoren) hat man hier also Stellschrauben beim Material der Interconnects über µr und die dielektrischen Eigenschaften (εr, btw. komplex: ε1 + iε2), aber auch bei deren Geometrie. Meines Wissens wurden da schon sehr viel ausprobiert, aber die Verbesserungen waren bislang nicht so dramatisch. Grundlegend wäre das dann der bekannten Entwicklung in Richtung Ultra-Low-K-Dielektrika zuzuordnen ("Low-K" weil die Amis die Permittivität mit κ und nicht mit ε bezeichnen wie bei uns).
Mal angenommen es geht nicht nur um´s reine Säbelrasseln, könnte denen hier aber möglicherweise tatsächlich ein kleiner Durchbruch in Sachen Ultra-Low-K gelungen sein, oder es wurde tatsächlich ein workaround entwickelt, um diesen Flaschenhals bei hohen Frequenzen anders zu umgehen. Letzteres wäre natürlich besonders interessant.
Das wäre dann auch etwas, was u. U. nicht nur für spezialisierte Chips Verbesserungen in Punkto Taktfrequenzen mit sich bringen könnte - sofern es nicht originär vom speziellen Design dieses ASICs abhängt und daher keine technische Umsetzung in komplexeren Chipdesigns erlaubt.

Mal rein spekulativ meinerseits:
Mit der Lichtgeschwindigkeit des Vakkums oder eines optischen Trägermediums, also rein mit optischer Signalübertragung, wird es nicht gehen, denn es muss ja Ladung transportiert werden. Da wir aber langsam in Größenbereiche kommen in denen Quantenffekte eine Rolle zu spielen beginnen, nutzt man vllt. sehr dünne Barrieren statt Leiterbahnen und erzeugt damit Tunnelströme, wie man sie beim Rastertunnelmikroskop misst, zum schalten. Das geht afaik instantan und würde damit des Signallaufzeitproblem bei hohen Frequenzen tatsächlich umgehen. Ob das zum direkten Schalten von Transistoren reicht weiß ich allerdings nicht. In dem Fall müssten dann aber auch rein geometrisch die Leiterbahnen eigentlich nicht mehr existent sein bzw. auf ein absolutes Minimum reduziert sein, was für eine andere als eine die üblichen, vorwiegend planaren Strukturen sprechen würde. Was ich mir daher nicht so recht vorstellen kann, sind Struktur und Fertigung eines solchen Schaltwerks. Möglicherweise ist das aber der Grund warum, man da mit einem ASIC für künstliche neuronale Netze gute Karten hat, weil die vermutlich eine komplett andere Struktur als normale Chips haben dürften, da ja alle künstlichen Synapsen ebenfalls möglichst direkt miteinander verbunden sein müssen.

Vielleicht ist es aber auch was ganz anderes, oder nur ein kleiner Weiterentwicklungssprung nach klassischer Manier. Rein von der Machart der Meldung spricht aber ohnehin das meiste für eine klassische Presse-Ente mit nichts dahinter außer lautem Geklapper.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh