Как Google улучшает портретный режим в Pixel 3?

Google рассказала, как она улучшает портретный режим в своих смартфонах, продолжая использовать всего одну камеру. Ранее компания полагалась на технологию фокусировки Dual Pixel, где каждый пиксель матрицы камеры разделен на два субпикселя, что позволяет «видеть» картинку под двумя углами. Время этот метод работал некорректно, за что фон мог размываться частично. Поэтому, в Pixel 3 и Pixel 3 XL поисковый гигант решил применять машинное обучение.

На картинке ниже наглядно показано, что при использовании одной лишь информации из субпікселів задний фон за человеком размывается неравномерно, а некоторые области и вовсе остаются в фокусе. При активации машинного обучения проблема исправлена.

Читайте еще :  Психологи назвали главные причины ссор у молодоженов

Для улучшения портретного режима в Pixel 3 компания Google создала нейронную сеть, написанную в TensorFlow, которая анализирует полученную с матрицы информацию и учится прогнозировать глубину изображения. Так как системе нужно «скормить» большое количество данных, чтобы научить ее, инженеры Google придумали конструкцию под названием Frankenphone, что объединяет пять смартфонов Pixel 3 в один. Использование связи по Wi-Fi позволяет одновременно делать снимок объекта из всех пяти устройств с максимально допустимой задержкой 2 миллисекунды. Нейронная сеть анализирует полученные кадры, определяя фон, который нужно размыть.

Читайте еще :  Выходные в феврале 2020 - как отдыхаем

Для инженеров Google было важно, чтобы нейронная сеть научилась работать с динамичными сценами, как представлено на примере ниже. Кроме того, установка Frankenphone создавалась таким образом, чтобы она была мобильной и ее можно было носить с собой на улицу, делая фотографии, которые снимают в повседневной жизни обычные пользователи смартфонов.

«Оценка глубины с использованием машинного обучения должна выполняться быстро на Pixel 3, чтобы людям не приходилось слишком долго ждать снимков, сделанных в портретном режиме. Однако, для качественной оценки глубины, которая использует тонкое дефокусировки и эффект параллакса, мы должны передавать нейронной сети PDAF-изображение в полном расширении. Для обеспечения быстрой обработки мы применяем TensorFlow Lite – кросплатформинне решение для запуска моделей машинного обучения на мобильных и подключенных к интернету устройств – и мощный графический процессор Pixel 3, чтобы вычислить глубину быстро, несмотря на наши аномально большие входные данные. Затем мы объединяем полученную оценку глубины с масками с нашей персонализированной нейронной сети для достижения желаемого результата в портретном режиме», – говорится в сообщении Google.

Как Google улучшает портретный режим в Pixel 3?