HWL News Bot
News
Thread Starter
- Mitglied seit
- 06.03.2017
- Beiträge
- 113.951
... weiterlesen
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Wenn man die Photographie als Kunstform begreifen möchte, sollte man sie viellicht nicht mit dem Smartphone betreiben. Mit ISOCELL gehts um das schnapp schießen. In dem Format wird das nichtmal in den semi professionellen Systemen eingesetzt werden, zumal Samsung die Abteilung vor Jahren ja eh getötet hat.Das ist nun nicht unbedingt meine Vorstellung von Fotografie, schließlich spielt dann die Software die Hauptrolle und nicht die Optik, aber OK...
Durch dieses sogenannte Pixel Binning wird eine bessere Bildqualität erreicht! Beispiel: Vier Pixel zusammengefasst sind besser als ein Pixel alleine!Das liest sich jetzt in schriftlicher Form bestimmt blöd und sicherlich missverständlich, aber ich versuche es dennoch:
Die Entwicklung dreht sich mittlerweile scheinbar nicht mehr darum, Hardware zu entwickeln, welche "direkt" ein brauchbares Bild produziert, sondern um möglichst viele Pixel, welche möglichst große Datenmengen an "irgendwas" (durchaus auch Rauschen, etc.) sammeln, damit eine AI dann etwas daraus macht.
Das wäre mir neu.Durch dieses sogenannte Pixel Binning wird eine bessere Bildqualität erreicht! Beispiel: Vier Pixel zusammengefasst sind besser als ein Pixel alleine!
Wir reden einander vorbei! Ich meinte es ein wenig anders!Das wäre mir neu. ... .
Bei meinen DSLRs verhält es sich...
Sicher keine Pixel verarbeiten.Und was denkst Du denn macht dein Kopf mit den Bildern Deiner Augen?
Mhh, keine Pixel aber ein Bild das auf dem Kopf steht, einen recht grossen blinden Fleck hat sowie von Venen der Netzhaut durchzogen ist, verarbeiten (von einer Kontrastanhebung ganz zu schweigen)Sicher keine Pixel verarbeiten.
Das würde ich aber dann schon umgekehrt bezeichnen DLSS versucht noch unbeholfen und primitiv die Natur nachzuahmen. Bis der gesamte KI-Kram halbwegs was taugt dauert es noch einige Jahre..
Unser Gehirn wendet sogar eine Form von DLSS an um die empfundene Bildqualität anhand von (extrapolierter) Bewegungsinformation zu verbessern. Aus dem Grund funktionieren zahlreiche optische Illusionen.
Man kann in so kleinen Dinger halt keine Spiegelreflexkamera mit 8 Fach optisch reinquetschen...Das liest sich jetzt in schriftlicher Form bestimmt blöd und sicherlich missverständlich, aber ich versuche es dennoch:
Die Entwicklung dreht sich mittlerweile scheinbar nicht mehr darum, Hardware zu entwickeln, welche "direkt" ein brauchbares Bild produziert, sondern um möglichst viele Pixel, welche möglichst große Datenmengen an "irgendwas" (durchaus auch Rauschen, etc.) sammeln, damit eine AI dann etwas daraus macht.
Das ist nun nicht unbedingt meine Vorstellung von Fotografie, schließlich spielt dann die Software die Hauptrolle und nicht die Optik, aber OK...
Kommt darauf an wo man schaut. Was Klassifizierung angeht sind solche Systeme schon sehr beeindruckend. Also Bilderkennung und Spracherkennung. Letzteres kann man sogar sagen ist besser als viele Menschen, denn nur wenige können 8 Sprachen verstehen wie z.B Alexa.Bis der gesamte KI-Kram halbwegs was taugt dauert es noch einige Jahre
Ehrlich gesagt ist das falsch.Sicher keine Pixel verarbeiten.