Warum ich es kaum erwarten kann, dass Google Selfie-Kameras unter den Bildschirm von Pixel-Telefonen bringt
HeimHeim > Blog > Warum ich es kaum erwarten kann, dass Google Selfie-Kameras unter den Bildschirm von Pixel-Telefonen bringt

Warum ich es kaum erwarten kann, dass Google Selfie-Kameras unter den Bildschirm von Pixel-Telefonen bringt

Jul 06, 2023

Die iPhone 15-Serie wird uns dem Traum eines All-Screen-Telefons noch näher bringen, indem die Ränder dank eines neuen OLED-Panels noch kleiner werden. Nur die Pro-Modelle erhalten die kleineren Rahmen und verfügen weiterhin über die Dynamic Island an der Oberseite. Aber Apple kommt der Platzierung der Selfie-Kamera unter dem Bildschirm näher, um ein perfektes All-Screen-Telefondesign zu erzielen.

Melden Sie sich an, um die interessantesten Technik- und Unterhaltungsnachrichten zu erhalten.

Mit der Anmeldung stimme ich den Nutzungsbedingungen zu und habe die Datenschutzerklärung gelesen.

Es überrascht nicht, dass auch Google an dieser Technologie arbeitet und wir könnten in naher Zukunft Pixel-Telefone mit Kameras unter dem Display sehen. Auch wenn es unwahrscheinlich ist, dass ich in absehbarer Zeit von einem iPhone auf ein Pixel-Telefon umsteige, freue ich mich, dass Google dieses Upgrade vorantreibt.

Wenn Apple und Google ihre Under-Screen-Kamera-Technologie vorstellen, werden sie nicht die Ersten sein, die dies tun. ZTE hat es vor Jahren mit einem herkömmlichen Telefon geschafft. Dann hat Samsung dem Galaxy Z Fold eine Under Display Camera (UDC) verpasst. Auch andere Anbieter forschen seit Jahren an der Technologie.

Das Problem bei Under-Display-Kameras besteht darin, dass wir zusätzliche technische Innovationen benötigen, damit sie sich durchsetzen können. Es gibt einen Grund, warum Samsung für seine Galaxy-S-Serie keine UDC-Selfie-Cams verwendet. Beim Fold ist die UDC-Selfie-Kamera ein Backup. Sie haben zwei weitere Möglichkeiten, Selfies aufzunehmen, sodass Sie sich keine Sorgen um die Kameraqualität machen müssen.

Wenn Sie die Kamera unter mehreren Materialschichten platzieren, wird die Bildqualität beeinträchtigt. Nicht nur das Glas, das die Linse bedeckt, sondern auch der OLED-Bildschirm muss transparent sein.

Allerdings erhält man keine perfekte Transparenz, da der OLED-Bildschirmbereich, der die Kamera abdeckt, als Display fungieren muss. Um anständige Selfie-Fotos zu erstellen, sind zusätzlich zu den Fähigkeiten der Kamera Algorithmen erforderlich. Und das Selfie ist ein wichtiger Teil unseres Smartphone-Erlebnisses.

Es wird nun erwartet, dass Under-Panel Face ID aufgrund von Sensorproblemen um mindestens ein Jahr auf 2025 oder später verschoben wird.

– Ross Young (@DSCCRoss) 9. März 2023

Google Pixel-Telefone sind nicht unbedingt die besten iPhone-Alternativen, aber Pixel sind fantastische Kameras. Und das ist der Grund, warum ich gespannt bin, dass Google an der Technologie für Unterbildschirmkameras arbeitet. Google kann die Art von Kamerainnovationen liefern, die andere versuchen zu reproduzieren. Und es könnte Druck auf Samsung und Apple ausüben. Vorausgesetzt, dass die Unterbildschirmkamera von Google hervorragende Leistungen erbringen kann.

Es ist unklar, wann Google ein solches Pixel auf den Markt bringen wird. Beim Pixel 8 passiert das nicht. Wenn überhaupt, könnte Google Apples iPhone den Vortritt lassen, da Googles Strategie darin besteht, Apple zu kopieren und gleichzeitig das iPhone zu kritisieren. Und Gerüchte besagen, dass wir nicht allzu weit von iPhones mit Selfie-Kameras unter dem Bildschirm entfernt sind.

Google untersucht diese Technologie und Forbes hat eine Patentanmeldung mit dem Titel „System And Apparatus Of Under-Display Camera“ gefunden.

Die Patentanmeldung erzählt die halbe Geschichte der Pixel-Telefone mit Kameras unter dem Display. Der Schwerpunkt liegt darauf, dass das Pixel qualitativ hochwertige Selfies produziert, indem es nicht nur eine, sondern zwei unterschiedliche Kameras unter dem Bildschirm mit unterschiedlichen Fähigkeiten zur Erfassung von Bilddaten verwendet.

Ein Objektiv könnte monochrom sein, während das zweite ein Farbsensor wäre. Jeder Sensor verfügt über Displayabdeckungen mit speziellen lichtblockierenden Elementen. Eine der Kameras könnte sich auf eine bestimmte Eigenschaft konzentrieren, zum Beispiel die Schärfe für den Monochrom-Sensor und die Farben für den RGB-Sensor:

In einer beispielhaften Implementierung kann die Kamera 165 einen RGB-Sensor umfassen und der erste Anzeigebereich 160 kann eine kreisförmige LED- oder Transistor-Layoutstruktur aufweisen.

Darüber hinaus kann die Kamera 175 einen Monochromsensor umfassen und der zweite Anzeigebereich 170 kann eine rechteckige LED- oder Transistor-Layoutstruktur aufweisen. Die Kombination eines RGB-Sensors und einer kreisförmigen Layoutstruktur kann Signale erzeugen, die dazu führen, dass ein Bild basierend auf Lichtverzerrung und Kameraempfindlichkeit eine oder mehrere erste Eigenschaften (z. B. Qualität, Schärfe, Verzerrung und dergleichen) aufweist. Die Kombination eines monochromen Sensors und einer rechteckigen Layoutstruktur kann Signale erzeugen, die dazu führen können, dass ein Bild basierend auf Lichtverzerrung und Kameraempfindlichkeit eine oder mehrere zweite Eigenschaften (z. B. Qualität, Schärfe, Verzerrung und dergleichen) aufweist.

Beispielsweise lässt die rechteckige Layoutstruktur mehr Licht durch und erzeugt zudem Bilder mit besserer Schärfe, und der Monochromsensor eignet sich besser als der RGB-Sensor, um diese Eigenschaften zu erfassen. Insgesamt können die erste Anzeige-Sensor-Kombination und die zweite Anzeige-Sensor-Kombination dazu ausgelegt sein, zueinander komplementäre erste und zweite Eigenschaften zu erfassen. Die beiden Bilder können anschließend fusioniert werden, sodass das resultierende Bild beide komplementären Eigenschaften aufweist.

Die Software würde dann die beiden Bilder zusammenführen und das bestmögliche Selfie liefern. Ein Foto mit großer Schärfe und Farbtreue, wobei die Informationen aus zwei verschiedenen Bildern stammen.

Aktuelle Under-Display-Kameras verwenden nur einen Kamerasensor, der unter dem Display platziert ist.

Es ist jedoch nicht abzusehen, ob Google diese Idee weiterverfolgen wird. Dies könnte nur ein Patent sein, das dem Unternehmen hilft, alle seine Grundlagen abzudecken. Außerdem bedeutet die Platzierung von zwei Kameras unter dem Display, dass Google sich darum kümmern muss, dass zwei verschiedene Teile des OLED-Bildschirms als nahtlose Displays fungieren, wenn die Kameras nicht verwendet werden. Vermutlich würde eine separate Patentanmeldung diese Technologie abdecken.

Außerdem ist, wie bei jeder anderen Technologie, die in Patenten und Patentanmeldungen auftaucht, nicht abzusehen, ob sie jemals ein Verbraucherprodukt erreichen wird. Oder wie lange es dauern wird, bis das passiert.

Unabhängig davon frage ich mich, ob die Platzierung von zwei Kameras unter dem Bildschirm eines Pixel-Telefons eine 3D-Gesichtserkennung wie die Face ID des iPhones ermöglichen würde.

In der Zwischenzeit werden wir im Oktober eine Pixel-8-Serie bekommen, die ihren Vorgängern sehr ähnlich sein wird, einschließlich des gelochten Kameradesigns.

Chris Smith berichtet über Unterhaltungselektronik, seit das iPhone 2008 die Branche revolutionierte. Wenn er nicht gerade über die neuesten Technologienachrichten für BGR schreibt, bringt er seine Unterhaltungskompetenz in Marvels Cinematic Universe und andere Blockbuster-Franchises ein.

Außerhalb der Arbeit können Sie ihn dabei beobachten, wie er fast jeden neuen Film und jede neue Fernsehsendung streamt, sobald sie verfügbar ist.

Nicht verpassen: