United States Brazil Russia France Germany China Korea Japan

Artificial Intelligence driven Marketing Communications

 
Oct 23, 2019 2:16 AM ET

Kann das Pixel 4 Googles Kamerakrone zurückgewinnen?


iCrowd Newswire - Oct 23, 2019

Foto: Vjeran Pavic / The Verge

Nach Apples iPhone 11-Event bemerkte ich, dass das Unternehmen zwar Features wie Ultrawide und Nachtmodus aufholte, aber unklar war, ob es in der Lage sein würde, in Bezug auf die grundlegende Bildqualität auf das Pixel-Niveau zu kommen. Im Laufe unseres Überprüfungsprozesses wurde deutlich, dass Apple dies tatsächlich erreicht hatte. Apple sagt, dass es jedes Jahr eine klassenführende Kamera hat, aber dieses Mal tut es es tatsächlich.

Die nächste Frage ist also, wie groß der Sprung mit Googles neuem Pixel 4 sein wird. Wir können das noch nicht beantworten, genauso wie wir am Tag nach seiner Ankündigung nicht wussten, wie gut das iPhone 11 war. (Sie können einige schnelle Vergleiche hier sehen, aber bleiben Sie auf dem Laufenden für die vollständige Bewertung.) Wir können jedoch viel von dem nehmen, was Google gestern auf der Bühne getan hat – und was nicht.

“Wir haben die Kamera nicht vergessen”, sagte Sabrina Ellis von Google kurz vor Ende der Präsentation. “Mit Pixel 4 heben wir die Messlatte noch einmal an, und alles beginnt mit diesem kleinen Quadrat.” “Little” ist vielleicht eine wohltätige Beschreibung der auffälligen Kamerabeule des Pixel 4, aber diese Beule beherbergt natürlich das, was die größte Änderung an der Pixel-Kamera sein sollte.

Lassen Sie uns das einfach aus dem Weg zu bekommen: Es ist seltsam, dass Google für ein Teleobjektiv als zweite Option ging. “Weitwinkel kann Spaß machen, aber wir denken, dass Telefoto wichtiger ist”, sagte der Leiter der Computerfotografie, Marc Levoy, auf der Bühne. Das ist keine unzumutbare Position – Apple hat in den letzten drei Jahren sicherlich zugestimmt, dass es Dual-Kamera-Handys ausdemgemacht hat, bevor es mit dem iPhone 11 ultraweit umschaltete. Aber Google hat letztes Jahr viel Zeit damit verbracht, seine Super Res Zoom-Funktion anzupouten, die Multiframe-Algorithmen verwendet, um die Qualität des traditionellen digitalen Zooms zu verbessern. Es war natürlich nicht besser als ein optisches Teleobjektiv, aber es war besser als nichts, und Google verwendet es weiterhin für den erweiterten Zoombereich des Pixel 4.

Ein ultrabreites Objektiv hingegen kann in der Software nicht gefälscht werden. Der Grund, einen aufzunehmen, ist, weil es der einzige Weg ist, diese Perspektive zu erreichen. Warum sollte Google, wenn es sich schließlich entschließt, nach Jahren, in denen man darauf besteht, dass es nicht notwendig ist, glas wählen, das ein Problem löst, für das es bereits eine passable Lösung hatte, anstatt etwas, das völlig neue Arten von Fotos ermöglicht?

Oder, und hören Sie mich hier, warum nicht einfach ein ultrabreites und ein Telefoto hinzufügen? Das sind teure Telefone. Das ist eine große Kamerabeule. Jeder einzelne Konkurrent von Google im Premium-Markt verkauft jetzt Handys mit Dreifach-Kamera-Setups – es ist nicht mehr so exotisch. Ich bin sicher, dass wir es auf dem Pixel 5 sehen werden.

Foto: Vjeran Pavic / The Verge

Insgesamt hatte Google über die Kamerahardware des Pixel 4 auf der Bühne fast nichts zu sagen, über die Bestätigung des zweiten Objektivs hinaus. Es stellt sich heraus, dass das Hauptobjektiv eine leichte Blendenerhöhung erhalten hat, die von f/1.8 auf f/1.7 geht, während der Sensor 12 Megapixel bleibt und vermutlich die gleiche Größe wie zuvor hat.

“Aber die Hardware ist nicht das, was unsere Kamera so viel besser macht”, fuhr Ellis fort. “Die spezielle Soße, die unsere Pixel-Kamera einzigartig macht, ist die Computerfotografie.” Das ist sicherlich wahr, und was folgte, war eine mitreißende Präsentation von Levoy über die Funktionsweise des Pixels. Oder, wie er es in einem wütenden Wisch bei Apple beschrieb: “Es ist keine verrückte Wissenschaft, es ist nur einfache Physik.”

Nach der Erläuterung der Grundprinzipien von HDR, Levoy detailliert vier neue Rechner-Ergänzungen der Pixel 4 Kamera. Die erste war Live HDR , die maschinelles Lernen verwendet, um HDR in Echtzeit zu berechnen, so dass Sie es im Sucher sehen können. Dies ermöglicht es Ihnen auch, die Belichtung der Kamera mit Schiebereglern für Helligkeit und Schatten zu steuern, was es viel einfacher machen könnte, die gewünschten Ergebnisse zu sperren.

Andernorts verwendet das Pixel 4 nun maschinelles Lernen für den Weißabgleich in allen Modi, anstatt nur Night Sight – die Beispiele, die Levoy verwendete, beinhalteten eine Schneeszene, die traditionelle Kameras die ganze Zeit aufnimmt. Der Pixel 4-Hochformatmodus verwendet das Teleobjektiv, um eine bessere Tiefenkarte zu erstellen und mit einer breiteren Palette von Motiven zu arbeiten. Und Night Sight hat jetzt eine Astrofotografie-Funktion, die Bilder über vierminütige Belichtungen hinweg zusammenführt, um pinscharfe Fotos von Sternen zu erzeugen.

All diese Funktionen klingen cool, und ich könnte Marc Levoy stundenlang dabei zusehen, wie er über HDR-Algorithmen spricht. Aber es ist schwer zu wissen, ob die Ankündigungen zu einer signifikanten, spürbaren Verbesserung der reinen Bildqualität für die Arten von Fotos, die wir jeden Tag machen, führen werden. Ich freue mich darauf, Bilder von Sternen auf meinem Handy zu machen, aber ich weiß nicht, ob es ein Verkaufsargument ist. Entscheidend ist, inwieweit es Google gelungen ist, seine fotografischen Kernergebnisse voranzutreiben.

Das ist im Grunde das, was ich über das iPhone 11 nach seiner Einführung dachte, natürlich, und es stellte sich heraus, dass es der größte Sprung für Apple in mehreren Jahren trotz der scheinbar nahezu identischen Hardware war. Wir werden nicht wissen, wie gut die Pixel 4 Kamera wirklich ist, bis wir mehr Zeit damit verbracht haben. Aber die Pixel 3 Kamera ist immer noch eine der besten der Welt, so gibt es keinen Grund, etwas weniger als Größe zu erwarten.

Wir wundern uns nur, dass das ultraweit fehlt.

Contact Information:

Sam Byford



Tags:    German, News, United States, Wire