HWL News Bot
News
Thread Starter
- Mitglied seit
- 06.03.2017
- Beiträge
- 113.960
... weiterlesen
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Im text stsht dass das bild nachbearbeitet werden musste. Villeicht sehen wir hier ja das machbearbeitete bild.Warum nicht mit einem CT, dann spart man sich das aufwändige präparieren. Ist ja nicht so als wenn diese Geräte nicht bereits fürs Reverse Engineering eingesetzt werden würden. So könnte man dann auch mehrlagige ROMs auslesen. Das hier gezeigte automatisieren halte ich auch nicht für besonders anspruchsvoll. Das Stammbild ist sehr eindeutig und kontrastreich. Das erkennt ja jeder von uns sofort was Hi und was Low ist. Anhand des Kontrastes in einem einfachen 2D Raster den Wert auf größer oder kleiner als abgefragt und das war es dann schon fast. Man muss halt nur einmal die Randbedingungen definieren und wenn das der Mensch tut und nicht die Maschine selbst, dann ist das eine bessere Fingerübung für jeden Informatikstudent.
Wer glaubt das alles sicher ist, der irrt sich gewaltigFür die Ungeduldigen: Ab Minute 18.
Das Bild ist definitiv nachbearbeitet, das ist ja auch unumgänglich und macht jeder bei einem Die-Shot. Die Frage (oder eine Frage) wäre jetzt, ist das Bild maschinell oder per Hand nachbearbeitet worden? Ich denke der Kontext legt es eindeutig nahe, das es von einem Menschen gemacht wurde. Nun kann das aber sicherlich Photoshop und Konsorten auch mit heutigen Boardmitteln automatisch, so ein Bild aus den Rohdaten zu generieren, das ist letztlich auch nicht so schwer. Gute Lichtmikroskope haben entsprechende Bildanpassungen bereits in der Capturesoftware integriert. Aber noch mal, es so wie hier gezeigt per Hand zu tun ist eben keine Herausforderung. Diesen einen Schritt des "Durchzählens" zu automatisieren ist leicht, wenn die Eingangsdaten so wie hier vorliegen.Im text stsht dass das bild nachbearbeitet werden musste. Villeicht sehen wir hier ja das machbearbeitete bild.
Ich kenne eine Reihe aktuell kaufbarer, sicherheitsrelevanter (Teil einer Zugangskontrolle) Produkte welche besagten Atmega einsetzt. Ganz so "egal" ist das Gezeigte damit nicht.aber noch einmal: 1,7 kB sind bei weitem nicht die Komplexität, wie wir sie von modernen Chips kennen.
Naaaja, kann man jetzt so oder so sehen. Ich sag mal so, das ist ja jetzt kein Ding der Unmöglichkeit eine Art Suchmechanismus zu implementieren, die für dich das Justieren auf die jeweilige Quelle vornimmt. Das ist komplett automatisierbar. Warum das hier nicht gemacht wurde, liegt doch auch auf der Hand, es handelt sich hier um eine privat Person, die das quasi als Hobby zu machen scheint. Er nutzt dabei existierende Tools. Es geht dabei wohl eher um Fun anstatt einer Massenabfertigung. Wozu einer Autoerkennung wenn man das eh nicht braucht? Die Zeitersparnis wäre hier wohl quasi nicht vorhanden. Denn die Masse der Zeit geht für das Vorbereiten der Chips drauf - und am Ende für die Auswertung des Binärcodes, nicht für das Suchen der richtigen Bildparameter.Es handelt sich also in keiner Weise, wie von einigen (auch mir) gehofft, um eine automatische Erkennung, sondern nur um eine automatisch unterstützte auslese Hilfe.
Ja ok einverstanden, "hoffen" ist vllt. das falsch Wort. Ich meinte hoffen hier eher im Sinn von erwarten. Also bei der Überschrift hatte ich jetzt durchaus an maschinelles lernen gedacht, oder eben das professionelle Reverse Engineering Also Mechanismen, die wir schon kennen zusammen geführt. Also CT Durchleuchtungen mittels AI interpretieren lassen, wie wir es bei Gehirntumoren schon kennen z.B.. Ob es das braucht und wenn ja wozu steht auf einem anderen Blatt und würde den Rahmen sprengen.Was ich mich allerdings frage - "von einigen gehofft" -> wieso gehofft? Hoffen klingt wie, als wäre es eine Notwendigkeit, dass es sowas gibt, was bis jetzt noch keiner erfunden hat und man hoffte jetzt darauf, dass so eine Arbeit den Durchbruch für das Thema findet? Aber wieso hoffen??