Google Camera 5.2.019, работающее на Android Oreo 8.1 на Google Pixel 2 | |
Разработчик (и) | Google, Google Research |
---|---|
Первоначальный выпуск | 16 апреля 2014 г.; 6 лет назад (2014-04-16) |
Стабильный выпуск | 7.5.108 / 23 октября 2020 г.; 1 день назад (2020-10-23) |
Операционная система | Android |
Тип | Камера |
Лицензия | Собственная |
Камера Google (Gcam) - это приложение камеры телефона, разработанное Google для Android. Разработка Google Camera началась в 2011 году X под руководством Марка Левоя, разработавшего технологию объединения изображений для Google Glass. Первоначально он поддерживался на всех устройствах под управлением Android 4.4 KitKat и выше, но теперь официально поддерживается только на устройствах Google Pixel. Он был публично выпущен для Android 4.4 + в Google Play Store 16 апреля 2014 года.
Google Камера содержит ряд функций, которые можно активировать либо на странице настроек, либо в ряду значков в верхней части приложения.
Начиная с устройств Pixel, приложение камеры оснащено аппаратными ускорителями для обработки изображений. Первое поколение телефонов Pixel использовало Qualcomm Hexagon DSP и графические процессоры Adreno для ускорения обработки изображений. Pixel 2 и Pixel 3 (но не Pixel 3a ) включают в себя Pixel Visual Core для помощи при обработке изображений. Pixel 4 представил Pixel Neural Core.
В отличие от более ранних версий изображений с расширенным динамическим диапазоном (HDR), HDR +, а также известная как HDR + on, использует методы вычислительной фотографии для достижения более высокого динамического диапазона. HDR + делает серийные снимки с короткой выдержкой. При нажатии кнопки затвора последние 5–15 кадров анализируются для выбора наиболее резких снимков (с использованием lucky imaging ), которые выборочно выравниваются и комбинируются с усреднением изображения. HDR + также использует семантическую сегментацию для обнаружения лиц, чтобы сделать их ярче с помощью синтетической заполняющей вспышки, а также затемнить и удалить небо. HDR + также снижает шум и улучшает цвета, избегая при этом размытия светлых участков и размытия при движении. HDR + был представлен на Nexus 6 и возвращен в Nexus 5.
В отличие от HDR + / HDR + On, в режиме «HDR + Enhanced» не используется Zero Shutter. Лаг (ZSL). Как и Night Sight, HDR + расширенные функции положительной задержки срабатывания затвора (PSL): он делает снимки после нажатия на кнопку затвора. Расширенный HDR + аналогичен HDR + в Nexus 5, Nexus 6, Nexus 5X и Nexus 6P. Считается, что используются недоэкспонированные и переэкспонированные кадры, например, от Apple. Расширенные снимки HDR + увеличивают динамический диапазон по сравнению с включенным HDR +. HDR +, улучшенный на Pixel 3, использует основанный на обучении алгоритм AWB от Night Sight.
Начиная с Pixel 4, Live HDR + заменил HDR + на WYSIWYG видоискатель с предварительным просмотром HDR + в реальном времени. HDR + live использует основанный на обучении алгоритм AWB от Night Sight и усредняет до девяти недоэкспонированных изображений.
В режиме Live HDR + используются элементы управления двойной экспозицией с отдельными ползунками для регулировки яркости (экспозиция захвата ) и для теней (отображение тонов ). Эта функция была доступна для Pixel 4 и не была модернизирована на более старых устройствах Pixel из-за аппаратных ограничений.
Режим съемки движущихся фотографий Google Camera аналогичен HTC Зои и iOS Live Photo. Если этот параметр включен, короткий беззвучный видеоклип относительно низкого разрешения сочетается с исходной фотографией. Если RAW включен, создается только файл DNG 0,8 МП, а не файл DNG 12,2 МП без движения. Движущиеся фото были представлены на Pixel 2. Движущееся фото отключено в расширенном режиме HDR +.
Объединенная стабилизация видео, метод, сочетающий оптическую стабилизацию изображения и Электронная / цифровая стабилизация изображения, может быть включена для значительно более плавного видео. Этот метод также устраняет искажение «скользящего затвора» и «Дыхание фокусировки», среди множества других проблем. Fused Video Stabilization была представлена на Pixel 2.
Super Res Zoom - это метод многокадрового сверхвысокого разрешения, представленный в Pixel 3, который сдвигает датчик изображения для достижения более высокого разрешения, которое, по утверждению Google, эквивалентно 2-3x оптическому зуму. Это похоже на обработку изображения моросящий дождь. Super Res Zoom также можно использовать с телеобъективом, например, Google утверждает, что Pixel 4 может захватывать 8-кратное увеличение с качеством, близким к оптическому.
Smartburst активируется при удерживании кнопки спуска затвора. Пока кнопка удерживается нажатой, делается до 10 кадров в секунду. После выпуска лучшие снимки автоматически выделяются.
Из захваченных изображений можно создавать различные «творения»:
Когда включен режим «Видео», Top Shot анализирует до 90 дополнительных кадров за 1,5 секунды до и после нажатия кнопки затвора. Pixel Visual Core используется для ускорения анализа с использованием методов компьютерного зрения и ранжирует их на основе движения объекта, размытия движения, автоматической экспозиции, автофокуса и автоматического баланса белого. Сохраняется около десяти дополнительных фотографий, включая дополнительную фотографию HDR + до 3 МП. Top Shot был представлен на Pixel 3.
Местоположение - информация о местоположении, полученная с помощью GPS и / или службы определения местоположения Google, может быть добавлена к изображениям и видео при включении.
Как и большинство приложений камеры, Google Camera предлагает различные режимы использования, позволяющие пользователю снимать различные типы фото или видео.
Замедленное движение видео можно снимать в Google Camera со скоростью 120 или, на поддерживаемых устройствах, 240 кадров в секунду.
Панорамная фотография также возможна с Google Camera. Поддерживаются четыре типа панорамного фото; По горизонтали, вертикали, широкоугольный и рыбий глаз. После выбора функции панорамы можно выбрать один из этих четырех режимов одновременно из ряда значков в верхней части экрана.
Google Camera позволяет пользователю создать «Photo Sphere», панораму на 360 градусов, изначально добавленную в Android 4.2 в 2012 году. Эти фотографии затем можно встроить в веб-страницу с помощью специального HTML-кода или загрузить в различные службы Google.
Портретный режим (который до выпуска линейки Pixel назывался Lens Blur) предлагает пользователям простой способ делать «селфи» или портреты с эффектом Боке., в котором объект фотографии находится в фокусе, а фон слегка размыт. Этот эффект достигается за счет информации параллакса от двухпиксельных датчиков, если они доступны (например, Pixel 2 и Pixel 3), и применения машинного обучения для определения того, что следует сохранить. в фокусе и что следует размыть. Портретный режим был представлен на Pixel 2.
Кроме того, можно активировать функцию «ретуширования лица», которая убирает пятна и другие недостатки с кожи объекта.
Pixel 4 имеет улучшенную функцию. В портретном режиме алгоритм машинного обучения использует информацию о параллаксе от телеобъектива и двойных пикселей, а также разницу между телеобъективом и широкоугольной камерой для создания более точных карт глубины. Для фронтальной камеры используется информация параллакса от фронтальной камеры и ИК-камер. Эффект размытия применяется на этапе Raw перед этапом тонального отображения для более реалистичного эффекта боке, подобного SLR.
В конце 2017 года, с дебютом Pixel 2 и Pixel 2 XL, компания Google представила стикеры AR - функцию, которая с использованием новой платформы Google ARCore позволяла пользователю накладывать анимированные объекты дополненной реальности на свои фотографии и видео.. С выпуском Pixel 3 стикеры AR были переименованы в Playground.
Камера предлагает функции, основанные на Google Lens, которые позволяют камере копировать текст, который он видит, идентифицировать продукты, книги и фильмы и искать похожие, идентифицировать животных и растения, а также сканировать штрих-коды и QR-коды, среди прочего.
Режим Photobooth позволяет пользователю автоматизировать съемку селфи. AI способен обнаруживать улыбку пользователя или смешные лица и снимать изображение в наилучшее время без каких-либо действий со стороны пользователя, подобно Google Clips. В этом режиме также есть двухуровневая AI-обработка лица объекта, которую можно включить или отключить, чтобы смягчить его кожу. Функциональные возможности Motion Photos также доступны в этом режиме. Баланс белого также регулируется для определенных предустановок. В октябре 2019 года Photobooth был удален как отдельный режим, став параметром «Авто» в параметрах затвора, а позже был полностью удален.
Night Sight основан на аналогичном принципе для суммирования экспозиции, используемого в астрофотографии. Night Sight использует модифицированные алгоритмы HDR + или Super Res Zoom. После того, как пользователь нажимает на спусковой крючок, делается несколько снимков с длительной выдержкой, до 15x 1/15 секунды или 6x с выдержкой 1 секунда, чтобы создать экспозицию до 6 секунд. Замер движения и обработка изображения на основе мозаики позволяют уменьшить, если не отменить, дрожание камеры, в результате чего получается четкий и правильно экспонированный снимок. Google утверждает, что он может обрабатывать до ~ 8% смещения от кадра к кадру. И каждый кадр разбит примерно на 12 000 плиток. Он также представил основанный на обучении алгоритм AWB для более точного баланса белого при слабом освещении.
Night Sight также хорошо работает при дневном свете, улучшая баланс белого, детализацию и резкость. Как и HDR +, Night Sight имеет положительную задержку срабатывания затвора (PSL). Night Sight также поддерживает таймер задержки, а также вспомогательный селектор для фокусировки с тремя вариантами (далеко, близко и автофокус). Night Sight был представлен с Pixel 3, все старые телефоны Pixel были обновлены с поддержкой.
Режим астрофотографии активируется автоматически, когда включен режим Night Sight и телефон обнаруживает, что он находится в стабильном состоянии. поддержка, например штатив. В этом режиме камера в среднем делает до пятнадцати 16-секундных экспозиций, чтобы создать 4-минутную экспозицию и значительно снизить дробовой шум. Разделив снимок на несколько более коротких экспозиций, камере удается добиться захвата света при длительной экспозиции без необходимости иметь дело со следами звёзд , которые в противном случае потребовали бы экваториальной монтировки. Режим астрофотографии также включает улучшенные алгоритмы удаления горячих пикселей и теплых пикселей, вызванных темновым током, и сверточной нейронной сетью для обнаружения неба на предмет специфического для неба шума. сокращение. Режим астрофотографии был введен с Pixel 4 и перенесен на Pixel 3 и Pixel 3a.
Многие разработчики выпустили неофициальные порты, которые позволяют их использовать в телефонах сторонних производителей или реализуйте его премиум-функции на старых телефонах Google. Эти неофициальные приложения часто работают с отсутствием определенных аппаратных функций, присутствующих в устройствах верхнего уровня Google, а иногда даже доходят до включения функций, не предоставляемых официальной версией приложения. Существует множество различных версий, ориентированных на разные телефоны Android.
Хотя многие функции доступны в перенесенных версиях, нередко некоторые функции недоступны или работают неправильно на телефонах без надлежащая поддержка API или несовместимое оборудование. Службы Google Play или их замена, например microG, также необходимы для работы приложения.
В 2016 году в модифицированной версии появилась функция HDR + Zero Shutter Lag (ZSL) на задней панели Nexus 5X и Nexus 6P. В середине 2017 года была создана модифицированная версия Google Camera для любого смартфона, оснащенного процессором Snapdragon 820, 821 или 835. В 2018 году разработчики выпустили модифицированные версии, поддерживающие Night Sight на телефонах, отличных от Pixel. В августе 2020 года был представлен новый способ доступа к дополнительным камерам, устраняющий необходимость использования root на телефонах, которые не открывают все камеры или сторонние приложения.