Samsung stellt Kamerasensor mit 200 Megapixeln vor

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.959
samsung.jpg
Samsung hat einen weiteren Kamerasensor vorgestellt, der in zukünftigen High-End-Smartphones zum Einsatz kommen wird. Der ISOCELL HP1 soll dabei eine Auflösung von bis zu 200 Megapixeln erreichen. Auf ein 4:3-Format heruntergerechnet ergäbe dies eine theoretische Auflösung von 16.384 x 12.288 Pixel, die hier verarbeitet werden. Der bislang angebotene Sensor von Samsung mit der höchsten Auflösung erreichte 108 Megapixel.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das liest sich jetzt in schriftlicher Form bestimmt blöd und sicherlich missverständlich, aber ich versuche es dennoch:
Die Entwicklung dreht sich mittlerweile scheinbar nicht mehr darum, Hardware zu entwickeln, welche "direkt" ein brauchbares Bild produziert, sondern um möglichst viele Pixel, welche möglichst große Datenmengen an "irgendwas" (durchaus auch Rauschen, etc.) sammeln, damit eine AI dann etwas daraus macht.

Das ist nun nicht unbedingt meine Vorstellung von Fotografie, schließlich spielt dann die Software die Hauptrolle und nicht die Optik, aber OK...
 
Das ist nun nicht unbedingt meine Vorstellung von Fotografie, schließlich spielt dann die Software die Hauptrolle und nicht die Optik, aber OK...
Wenn man die Photographie als Kunstform begreifen möchte, sollte man sie viellicht nicht mit dem Smartphone betreiben. Mit ISOCELL gehts um das schnapp schießen. In dem Format wird das nichtmal in den semi professionellen Systemen eingesetzt werden, zumal Samsung die Abteilung vor Jahren ja eh getötet hat.
 
Zuletzt bearbeitet:
Das liest sich jetzt in schriftlicher Form bestimmt blöd und sicherlich missverständlich, aber ich versuche es dennoch:
Die Entwicklung dreht sich mittlerweile scheinbar nicht mehr darum, Hardware zu entwickeln, welche "direkt" ein brauchbares Bild produziert, sondern um möglichst viele Pixel, welche möglichst große Datenmengen an "irgendwas" (durchaus auch Rauschen, etc.) sammeln, damit eine AI dann etwas daraus macht.
Durch dieses sogenannte Pixel Binning wird eine bessere Bildqualität erreicht! Beispiel: Vier Pixel zusammengefasst sind besser als ein Pixel alleine!
 
Durch dieses sogenannte Pixel Binning wird eine bessere Bildqualität erreicht! Beispiel: Vier Pixel zusammengefasst sind besser als ein Pixel alleine!
Das wäre mir neu.

Bei meinen DSLRs verhält es sich so das je höher die Auflösung desto mehr Rauschen, da die Lichtausbeute weniger wird im Verhältnis zur Sensorgröße und der Signalspannungsabstand schlechter wird.
Da nutzt das zusammen rechnen auch nichts. Natürlich hängen noch andere Faktoren wie Aufbau des Sensor davon ab die entscheiden wieviel es letztendlich Rauscht. Die Software kaschiert dann nur noch.
Und schärfer wird durch mehr Pixel auch nix weil meistens die Optik die dran ist begrenzt und dann kommt noch das Wackeln dazu die bei mehr Pixel größere Auswirkungen haben als bei kleinen.
Da braucht man noch schnellere Belichtungszeiten damit man auch was von den Pixeln hat.
Das ganze kann man natürlich auch auf den Handysensor übertragen werden, ist ja nix anderes ausser das die Sensoren da kleiner sind.

"In der Praxis bedeutet dies, je mehr Pixel beispielsweise ein APS-C-Format-Bildsensor hat, desto größer wird das Bildrauschen gegenüber anderen APS-C-Format Sensoren mit weniger Pixeln, denn mehr Pixel bedeutet zugleich einen geringeren Pixelabstand und eine geringere Pixelgröße der einzelnen Fotodioden am Bildsensor."

Nachzulesen bei:

 
Zuletzt bearbeitet:
Das wäre mir neu. ... .
Wir reden einander vorbei! Ich meinte es ein wenig anders!

Beispiel: Beim letztjährigen Samsung ISOCELL GN1 Kamerasensor beträg die Größe der Sensorpixel 1,2 Mikrometer bei 50 Megapixeln.

Die Mitbewerber boten bei ähnlichen Megapixeln 0,8 Mikrometer Sensorpixel!

Ähnliche Megapixel haben nicht unbedingt die selbe Sensorpixelgröße!

Durch das Pixel Binning werden die Bildinformationen von mehreren Sensorpixeln zu einem Pixel zusammengefügt,

mit dem Ziel trotz kleinerem Kamerasensor mindesten die Qualität der vorigen Generation zu erreichen.

Bis jetzt hat sich die Kameraqualität der Samsung Smartphones Flagschiffe von Jahr zur Jahr ein wenig verbessert.

Natürlich spielt auch die Software bzw. die KI eine Rolle und einige andere Dinge auch!
 
Bei meinen DSLRs verhält es sich...

Wow, im Ernst? Ein Golfcart hat auch einen kleineren Kofferraum als ein Passat Kombi und weniger PS als ein Porsche. So viele Kommentare, Zeit und Aufmerksamkeit gehen für Leute drauf, die immer und immer wieder Äpfel mit Birnen vergleichen müssen. Wir reden hier über eine Zusatzfunktion eines SMARTPHONES!
 
Sicher keine Pixel verarbeiten.
Mhh, keine Pixel aber ein Bild das auf dem Kopf steht, einen recht grossen blinden Fleck hat sowie von Venen der Netzhaut durchzogen ist, verarbeiten (von einer Kontrastanhebung ganz zu schweigen) :)
Unser Gehirn wendet sogar eine Form von DLSS an um die empfundene Bildqualität anhand von (extrapolierter) Bewegungsinformation zu verbessern. Aus dem Grund funktionieren zahlreiche optische Illusionen.
 
..
Unser Gehirn wendet sogar eine Form von DLSS an um die empfundene Bildqualität anhand von (extrapolierter) Bewegungsinformation zu verbessern. Aus dem Grund funktionieren zahlreiche optische Illusionen.
Das würde ich aber dann schon umgekehrt bezeichnen ;) DLSS versucht noch unbeholfen und primitiv die Natur nachzuahmen. Bis der gesamte KI-Kram halbwegs was taugt dauert es noch einige Jahre :)
 
Aller Anfang ist nunmal schwer.

Wäre auch gruselig wenn der 'KI Kram' von Anfang an besser wäre als ein Mensch.
 
Das liest sich jetzt in schriftlicher Form bestimmt blöd und sicherlich missverständlich, aber ich versuche es dennoch:
Die Entwicklung dreht sich mittlerweile scheinbar nicht mehr darum, Hardware zu entwickeln, welche "direkt" ein brauchbares Bild produziert, sondern um möglichst viele Pixel, welche möglichst große Datenmengen an "irgendwas" (durchaus auch Rauschen, etc.) sammeln, damit eine AI dann etwas daraus macht.

Das ist nun nicht unbedingt meine Vorstellung von Fotografie, schließlich spielt dann die Software die Hauptrolle und nicht die Optik, aber OK...
Man kann in so kleinen Dinger halt keine Spiegelreflexkamera mit 8 Fach optisch reinquetschen...
 
Bis der gesamte KI-Kram halbwegs was taugt dauert es noch einige Jahre :)
Kommt darauf an wo man schaut. Was Klassifizierung angeht sind solche Systeme schon sehr beeindruckend. Also Bilderkennung und Spracherkennung. Letzteres kann man sogar sagen ist besser als viele Menschen, denn nur wenige können 8 Sprachen verstehen wie z.B Alexa.
 
Naja, was helfen viele Megapixel, wenn die Optik nichts taugt.

Vor Jahren gabs mal eine Test von Kompaktkameras:
8 Megapixel-Chip verbaut, aber die eff. Auflösung lag bei ca. 5 Megapixel.
Denn das verbaute Objektiv war zu schlecht.
Mit hoher Megapixelzahl kann man Geräte verkaufen, mit guter/sehr guter Objektivgüte dagegen kaum.
Denn die meisten Leute sind nur geil nach möglichst großen Zahlen.
Und hinzu kommt, das viele Megapixel billiger sind als eine hochwertige Optik vor dem Bildchip.

Und bei Smartphones bekommt man auch das native Bild direkt vom Chip auch gar nicht zu sehen.
Jedes Smartphone bearbeitet die Bilder in irgendeiner Weise nicht abschaltbar nach.
 
Naja wenn man sich ansieht wie die Komplexität dieser Objektive selbst in Smartphones angestiegen ist, würde ich sagen dass die Hersteller nicht untätig waren.
Die Tatsache dass inzwischen 3 oder gar 4 sepwrate Kameras verbaut werden zeigt auch dass es die Physik ist welche begrenzt und nicht der Unwille oder gar der Geiz.
 
Sicher keine Pixel verarbeiten.
Ehrlich gesagt ist das falsch.
Deine Zäpfchen und Stäbchen sind nichts anderes als deine "Pixel"
Deine menschliche Kamera entspricht einer recht Schlechten sogar. Realistisch nutzbar hast Du ca. 2,5kx1.8k Auflösung, also ca. 4,5 mio Pixel.
Lediglich die Flexibilität ist der heutigen technischen überlegen. Scharfstellen, Stitching der Bilder durch minimale Augenbewegung, aktive unschärfe etc.
Diese Flexibilität führt ja eben auf der technischen Seite zu diesen Mehrfachkameras der Handy. Flexibilität ist recht kompliziert herzustellen.

Grundsätzlich muss auch gesagt sein, das man so oder so keine Pixel sieht, sondern lediglich die Ladungsemission durch das auftretende Licht einer spezifischen Wellenlänge auf die Rezeptoren.
Ähnlich wie beim "Temperatur fühlen", fühlt man nicht die Temperatur selbst, sondern nur den Wäremeenergieübergang des Mediums in oder gegen Deine bestehende Körperwärme.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh