Extrem effiziente Chips dank Ungenauigkeit

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Quelle schrieb:
Denkbare Anwendungen für „geprunte“ Chips wären zum Beispiel Hörhilfen, Kameras und andere elektronischen Geräte.

Denke genau da macht es auch Sinn.
 
Wobei ich bei den Kameras eher wieder bedenken hätte. Wer kauft sich eine teure dslr um dannach die Bildquali wieder durch einen effizienten Chip herab zu setzen.


Sent from my iPhone using Hardwareluxx app
 
Ja nicht in der dslr, aber wenn du plötzlich in einem Handy einen Wahnsinns Chip drinnen hättest, der gepruntet auch wesentlich weniger Energie verbrät und so der Betrieb in einem Handy überhaupt erst möglich wäre, ist schon eine Ansage. Es ist ja nicht die Rede davon, dass solche Chips iwann mal in Profigeräte kommen. Außerdem sieht man es ja laut Artikel bis 0,54% Fehlertoleranz nicht bei normaler Kompression. Hört sich für mich klassisch nach einem kostengünstigen, effizienten und da unbemerkt nicht störenden Prozess an.

Über so was Ähnliches hatten wir in Physik auf der Uni mal eine Vorlesung.
 
bei Grafikchips könnte ich mir das auch vorstellen, wenn 0,54% der Pixel fehlerhaft sind fällt das kaum auf, vor allen wäre das ja wohl in jeden Einzelbild immer andere Pixel,

muss man nur mit alten Filmen vergleichen wenn man da auf Standbild geht sind die verrauscht wie nicht Sau, solange der Film läuft bemerkt man das fasst nicht,

zu Vermeiden sind dann nur zu Helle Pixel deren auf blitzen würde dann wohl doch stören.
 
Hmm, bei GPGPU kann ich mir das aber nicht vorstellen. Ich kann mir eigentlich nirgendens das so richtig vorstellen. Die Prozessoren sind ja jetzt schon sehr schnell. Oder will man damit den Stromverbrauch senken, um den Prozessor zu verkleinern.?
 
Zuletzt bearbeitet:
nachher zahlen wir nicht mehr für die modelle nach takt sondern nach fehlerquote :fresse:
 
@CyLord: Lies doch mal den Text! Es geht nicht wirklich um deinen heimischen Desktop oder den "normalen" Rechner.
Es geht darum, dass unsere heutigen Chips immer 100% genau rechnen sollen. dh bis auf die letzte Kommastelle. Wenn du angenommen in einer kleinen Gerät nicht bis auf die letzte Nachkommastelle rechnen müsstest, sondern lediglich bis zur 10. würde das eine Menge Zeit und Energie sparen und das Ergebnis wäre fast das gleiche. Einsatz finden soll so eine Technik vorallem in Bereichen, in denen man diesen "Rundungsfehler" garnicht wahrnimmt, da es von unseren Sinnen nicht erfasst werden kann, oder wo es für das Ergebnis egal ist. Je nachdem wie hoch die Fehlertoleranz ist, was idealerweise davon anhängig ist wann wir einen Fehler feststellen können, kann man den Arbeitsaufwand z.B. halbieren, dies senkt die Zeit der Berechnung und die dafür nötige Energie.
 
Ich meine auch nicht den heimischen Rechner. Aber es hatte jemand etwas von Grafikchips geschrieben.
 
Axo dachte er meinte damit Grafikchips in Kameras. ^^ Sry! Falls er es nicht doch meint. :d
 
Ganz interessant wird es, wenn man das per Software steuern könnte. Also könnte man beispielsweise doch eine GPU nehmen und sie in Games ungenau rechnen lassen, wird damit gerendert, veranlasst die Software den Chip dazu, wieder genau zu rechnen.

Wie wird das eigentlich gemacht, werden da einfach Zyklen ausgelassen oder werden die Chips einfach so gebaut, dass sagen wir mal 4+4 machnmal 8 und manchmal 7 ergeben?
Oder wäre es denkbar das sie den Transen einfach so wenig Strom zur Verfügung stellen, dass sie manchmal schalten und manchmal nicht?
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh