So funktioniert die KI-Szenenoptimierung auf der Kamera Ihres Telefons

So funktioniert die KI-Szenenoptimierung auf der Kamera Ihres Telefons
Wenn Sie ein Flaggschiff-Kamerahandy besitzen, fragen Sie sich wahrscheinlich, wie es so tolle Fotos macht. Telefone hellen Schatten auf, verdünnen Hintergründe für DSLR-ähnliche Porträts, bringen Farben zum Vorschein und verleihen Bildern im Allgemeinen eine Würze, die bei herkömmlichen Kameras nicht möglich ist. Ein großer Teil dieses Prozesses besteht darin, die KI-Szene zu optimieren, die Sie heutzutage in gewissem Maße in den meisten Smartphones finden, in ihrer besten Form auf den besten Smartphones auf dem Markt. Kamerahandys sind intelligent; Schließlich handelt es sich um Minicomputer. Der Chip, der Ihr Telefon antreibt, liefert eine Rechenleistung, von der wir vor Jahrzehnten nicht zu träumen gewagt hätten. Smartphone-Hersteller kombinieren diese Intelligenz mit dem winzigen Kameramodul auf der Rückseite Ihres Telefons, um Ihnen künstliche Augen zu verleihen. Mit diesen Augen kann Ihr Telefon verstehen, was Sie aufnehmen, bestimmen, was optimiert werden muss, und Ihre endgültige Instagram-Aufnahme ohne stundenlanges Retuschieren vorbereiten. Am beeindruckendsten; In bestimmten Szenen kann eine Smartphone-Kamera eine DSLR um mehr als XNUMX US-Dollar übertreffen, dank all der Intelligenz und Rechenleistung in ihrem Prozessor und cleveren HDR-Effekten. Kurz gesagt, es ist eine Geschichte darüber, wie Frustration (winzige Smartphone-Sensoren) die nächste Evolutionsstufe in der Computerfotografie hervorbrachte.

Was ist KI-Szenenoptimierung?

Der Hinweis liegt im Namen. Bei der AI-Szenenoptimierung handelt es sich um den Prozess, mit dem Ihr Telefon ein aufgenommenes Foto abhängig von der aufgenommenen Szene optimiert. Wenn Sie beim Fotografieren sprechen und Ihr Fotohandy auf ein Motiv richten, dringt Licht durch das Objektiv und fällt auf den Sensor. Dieses Licht wird vom Image Signal Processor (ISP) als Bild verarbeitet, der normalerweise Teil des Chips Ihres Smartphones ist, egal ob es sich um einen Qualcomm Snapdragon 11 oder einen Apple AXNUMX Bionic handelt. ISPs sind nicht neu. Sie verwenden seit Jahren Digitalkameras und machen die gleichen grundlegenden Dinge auf Smartphones. Zu seinen Aufgaben gehört es, Ihnen ein Bild zur Vorschau bereitzustellen, Rauschen zu reduzieren, die Belichtung anzupassen, Weißtöne zu zählen usw. Die Sache mit Smartphones heutzutage ist, wie intelligent diese ISPs sind. Erstens können Kamerahandy-ISPs dank verbesserter Rechenkapazitäten besser verstehen, was Sie aufzeichnen. Während Sie mit einer alten DSLR oder kompakten Digitalkamera arbeiteten, mussten Sie Ihre Szene möglicherweise manuell anpassen. Jetzt können Smartphones das selbstständig erledigen. Allerdings kratzt es nur an der Oberfläche.

Samsung galaxy s21

(Bildnachweis: Samsung) Mit der aktuellen KI-Szenenoptimierung kann ein Kamerahandy mehrere Elemente Ihres Bildes verstehen und die Verarbeitung jedes einzelnen auf ganz bestimmte Weise anpassen. Wenn Sie beispielsweise eine Person vor einem Grasfeld mit einem blauen Himmel im Bild fotografieren, beleuchtet der ISP Ihres Telefons möglicherweise deren Gesicht, da dies wahrscheinlich das Motiv ist, und verstärkt die Grüntöne im Bild. Lassen Sie sie satter aussehen und heben Sie die Blautöne des Himmels separat hervor. Abhängig von Ihrem Telefon können Sie den Hintergrund möglicherweise sogar etwas weicher machen, um das Motiv scharf zu stellen. Heutzutage gehen viele Smartphones sogar noch weiter. Die High-End-Smartphones von Sony verfügen beispielsweise über Pet-Eye-Tracking, während Huawei-Smartphones über eine automatische Nachterkennung verfügen, die bei Flaggschiffen so gut funktioniert, dass sie eine fast dunkle Szene ausleuchten kann, sodass sie wie Nacht in Tag wirkt Diese Technologie ist auf iPhones verfügbar, beispielsweise im perfekten Porträtmodus, der maximale Kontrolle über Hintergrundunschärfe und Lichteffekte beim Fotografieren einer Person ermöglicht, und die Pixel-Telefone von Google sind für ihre Astrofotografie bekannt. Obwohl es nicht KI-fähig ist, blickt es beim Einschalten in den Nachthimmel und beurteilt intelligent, wie lange der digitale Verschluss geöffnet bleiben sollte, damit es Sterne und sogar Galaxien einfangen kann. Smartphones sollten also im Vergleich zu DSLRs wahrscheinlich in der KI-Fotografie verblassen? In Wahrheit tun sie das nicht. Interessanterweise lernen Kamerahersteller von Kamerahandy-Ingenieuren zwei Dinge über die Fotoverarbeitung.

iPhone 13 Pro max

(Bildnachweis: LaComparacion)

kleine Sensoren; smarte Lösungen

Wenn Sie vor zehn Jahren zurückdenken, brachte Nokia Smartphones mit großen, leistungsstarken Xenon-Blitzen auf den Markt, wie das Nokia XNUMX Pureview. Es musste die Hardware-Spezifikationen seiner Kamerahandys erhöhen, da die mit den meisten Handys nachts aufgenommenen Fotos wie ein unerträgliches, körniges Durcheinander aussahen. Sogar ein Telefon wie das Nokia Pureview konnte in einigen wirklich schwierigen Szenen keinen Abbruch tun. Der Grund, warum mobile Kameras so viel diskutiert werden, liegt darin, dass Telefone in unsere Handflächen und Taschen passen und daher klein sein müssen. Smartphones müssen auch viele andere Elemente haben: Bildschirme, Lautsprecher, Batterien, Antennen usw. Zwergbewegungsmelder mit Zwerglinsen haben es schwer, viel Licht durchzulassen. Mehr Licht bedeutet ein besseres Bild, und hier liegt das Problem: kleine Sensoren, begrenzte Lichtfangfähigkeit, schlechte Bildqualität. Diese Einschränkungen für mobile Kameras haben die Telefonhersteller dazu gezwungen, das Problem nicht mehr mit besserer, teurer, großer und batteriefressender Hardware zu beheben, sondern sich stattdessen der Software zuzuwenden. Eine der Premieren hatte bereits große Erfolge erzielt, da Google sozusagen das Pixel ansteuerte, ein Telefon ohne Bildstabilisierungsoptik, aber mit einer guten elektronischen Stabilisierung, die einen großen Teil der Konkurrenz übertraf . Das Pixel und das Pixel XNUMX zeigten dann erstaunliche Fotoverarbeitungsfunktionen, die Fotos direkt vor Ihren Augen von mittelmäßig in atemberaubend verwandelten, sobald Sie die Szene erkannten. Dies führte dann dazu, dass Marken wie Huawei neuronale Verarbeitungseinheiten in Chipsätze einführten, das Mate XNUMX über eine KI-Szenenerkennung verfügte und die Funktion in Telefonen anderer Smartphone-Hersteller einsetzte, wobei Samsung-Telefone vor XNUMX Szenen warnten.

Huawei Gehilfe für 40

(Bildnachweis: Huawei)

Was kann die KI-Szenenerkennung nicht?

Und so haben die klugen Leute, die eine fotografische Herausforderung gelöst haben, mithilfe von Software und Bewegungserkennung etwas möglich gemacht, was mit Hardware allein unmöglich zu bewältigen war (hochwertige Smartphone-Fotografie bei allen Lichtverhältnissen). Szenen durch KI. Die nächste Grenze ist die KI-Szenenerkennung in Videos. Die ultraintelligenten Nachtfotografiefunktionen, die Apple, Google (Night Sight) und Huawei in der Fotografie verwenden, sind zwar bereits zu einem gewissen Grad verfügbar, wurden jedoch nicht für saubere Nachtvideos freigegeben. Ein Video hat mindestens XNUMX Bilder pro Sekunde, das ist also eine weitere Stufe der Rechenleistung. Da Prozessoren immer leistungsfähiger werden, die KI-Entwicklung neue Höhen erreicht und Smartphone-Sensoren trotz ihrer geringen Größe besser in der Lage sind, Licht einzufangen, scheint sich die KI-Szenenerkennung weiter zu verändern. Das Gesicht der Fotografie für jedermann.

TechRadar hat diesen Inhalt im Rahmen einer bezahlten Partnerschaft mit Huawei erstellt. Der Inhalt dieses Artikels ist völlig unabhängig und spiegelt ausschließlich die redaktionelle Meinung von TechRadar wider.