Революционная фотокамера светового поля поступила в продажу
19 октября в США дан старт продажам фотоаппарата, который позволяет менять фокусировку, глубину резкости и другие настройки кадра после съёмки.
О камере Lytro и разработавшей её одноимённой компании мы подробно рассказывали в июне. Правда, на тот момент были неизвестны не только цены, но и внешний вид аппарата. Теперь ясно всё.
Первая Light Field Camera вышла на рынок в трёх вариантах, отличающихся объёмом встроенной флэш-памяти и цветом корпуса. Самый дорогой аппарат – Lytro Red Hot, красный с 16 гигабайтами «на борту» – хранит 750 фотографий и стоит $499. Серенькая Graphite и голубая Electric Blue оценены в $399 и имеют 8 Гб для 350 фото.
Все камеры обладают габаритами 41 x 41 x 112 мм, весом 214 граммов и литиево-ионным аккумулятором. Аппараты работают под Mac OS (Windows-версия в разработке), наделены восьмикратным оптическим зумом и ЖК-дисплеем диагональю 1,46 дюйма.
Увы, сделать себе подарок на Новый год не получится — принимаемые сейчас заказы будут выполнены только в 2012-м.
Так что Вы уж простите, но это ещё не 3D. 8D
Поскольку «Камера Lytro сохраняет раздельную информацию о лучах света, пришедших в объектив с разного расстояния и под разными углами», то это уже подразумевает возможность 3D пусть и с небольшой глубиной (максимум паралакса равен диаметру наружной линзы). Другой вопрос — станет ли кто-нибудь выуживать программно из картинки светового поля информацию для полноценной стереопары.
11 миллионов, что ли?
Конечно никто не запрещает им выпустить утилиту печатающую из лучей без конвертации, но люди уже привыкли к метрике пикселов.
... выбрали в компьютере нужный фокус, экспортировали в жпег с нужными параметрами и вуаля
100 баксов за дополнительные 8 Гб...
В 16 Гб версии выходит память стоит чуть ли не половину устройства.
И на рекламном ролике сто раз меняют фокус на одной и той же картинке, надеюсь это не обозначает, что интересные кадры сделать трудно...
С помощью обычного можно... Но снимки будут разнесены по времени, если снимать замерших людей, то это без разницы, а если люди бегают и прыгают, то разница будет. Обычным просто не выйдет.
Волна на снимке с серфингистом?
Опросить. И что? Вы же говорите, что поэтому, дескать, на снимках Lytro статичные объекты. Я и указываю: нет, не только.
Hey... wait a second...))
Либо объект резкий, либо нет. Подозреваю, что проблему глубины они не решили, потому что в их картинной галерее подобраны снимки, ориентированные по горизонтали. А если я, например, снимаю уходящий вдаль трубопровод? Или рельсы? Да к тому же в утренней зимней дымке? Как они будут выглядеть? Неясно. Единственный снимок, организованный в глубину — мужик с копьём, но и там копьё, по сути, два объекта — наконечник и древко. Либо — либо. Снимок с серфингистом тоже состоит из двух объектов, причём добиться разной резкости на ближней и дальней волнах нельзя. В общем, неясно мне, где в этой технологии недостаток — то ли в физике, то ли в математике. Если первое, то недостаток принципиальный и сводит камеру к продвинутым мыльницам, если второе, то есть шанс на революцию. Надо только хорошенько выпороть программеров.:)
Представьте кадр, в котором диапазон резкости идёт вглубь сцены по диагонали от объектива! Или их вообще два: резко то, что рядом с камерой и что на заднем плане, а посерёдке размыто. Или три зоны резкости, или семнадцать...
А что мешает (если, повторяю, проблема не в оптике) играть с освещением в этих зонах? Или с геометрией?
Может оказаться, что эта штука уничтожит всю современную фотографию, а заодно уж и кино. :)
Это фича в софте не реализована, но технически нет никаких проблем.
А не реализована она вот почему. Рыночная ниша данного устройства — игрушка для молодёжи. Обратите внимание на форм-фактор, конкурирующий с мобильником. Реализовывать подобную фичу, чтобы позволить молодёжи получать обычные чёткие снимки, как на обычном телефоне — экономическое самоубийство. Тогда устойство неизбежно будут сравнивать с мобильником, и сравнение будет отнюдь не в пользу первого. Сейчас на устройстве можно получить кадр, который невозможно получить на обычном мобильнике (на фотографии есть глубина резкости). При этом разрешение столь низко, что практически использовать эти фотографии никак нельзя. Внимание целевой аудитории следует заострять на плюсах и не позволять ей задуматься о минусах.
Откуда это известно? Мне, например, совсем не очевидно, что проблем нет. Наоборот. Резкость — не свойство объекта (как освещённость, скажем). Это некое представление о нём. В обычной камере его формирует оптика и в этом смысле оно объективно; три фигуры на расстоянии в два, пять и семь метров от фотографа резкие по-разному из-за свойств оптики. Если они начнут перемещаться, их резкость будет меняться сама собой. Пространство моделируется независимо от свойств глаза или там особенностей психики. Это «объективная необъективность» :). Здесь же её придётся имитировать. Lytro делает действительно объективную модельку пространства; значит, ей надо будет как-то объяснить, что такое «близко», «ближе», «дальше, чем». Научить сопоставлять объекты (а вначале — просто понять, что такое «объект») и т.д. По-моему, проблемы только начинаются.
А маркетинг-менеджмент-товаринг-рекламинг-впаринг немного из другой оперы.
Вот первая попавшаяся картинка, попробуйте представить, что вы двигаете плоскость фокусировки (вертикальную линию, пересекающую лучи):
bsfp.media-security.ru/school15/images/Image5753.gif
Объектив имеет конечную разрешающую способность, матрица имеет конечный размер пикселя, монитор (бумага) так же имеет конечный размер точки, глаз имеет конечную угловую разрешающую способность. Пока кружок — проекция светового конуса будет примерно меньше либо сравним с максимальным значением из того, что перечислено, точка кажется резкой. Проверить это просто: откройте в просмотрщике фотографию с постепенно убывающей резкостью, и попробуйте уменьшать ее. Глубина резкости будет как будто увеличиваться.
Далее, очевидно, что для объектов на разном расстоянии от объектива плоскость фокусировки будет разная, так как угол лучей разный. Теперь мы берем, и вместо просто матрицы ставим набор блоков микролинз, которые в зависимости от угла падения луча будут собирать свет на разные пиксели матрицы, которая будет стоять после блока микролинз. Получится, что для объектов на разном расстоянии от объектива в каждом блоке пикселей будет содержаться пиксели, соответствующие разным углам падения лучей на объектив. Выбирая один пиксель из этого блока, мы виртуально меняем плоскость фокусировки. Выбирая в соответствии с определенным матаном по одному пикселю из каждого блока, мы получаем фотографию с возможностью рефокусировки.
Кстати, диссер изобретателя этого всего лежит в открытом виде у них же на сайте:
www.lytro.com/renng-thesis.pdf
Так что получается, что разрешение конечного изображения равно количеству микролинз, а количество пикселей в матрицы определяет лишь диапазон резкости, в котором потом можно выбрать нужную.
Например, если матрица 10 МП, и 100 точек «дальности», то фото будет размером SQRT(10 000 000/100) = 316x316 точек.
В обычной камере лучи света
К чему этот ликбез? Что такое фотография, я знаю. Вопрос-то в другом: «выбирая в соответствии с определенным матаном по одному пикселю...» — вот в этом самом «определённом матане». В камере уже есть информация о всех расстояниях до всех объектов. Как научить камеру соотносить эти объекты, т.е. как строить виртуальный фокус в отсутствие реального?
если матрица 10 МП, и 100 точек «дальности», то фото будет размером SQRT(10 000 000/100) = 316x316 точек
О, вот это интересно, спасибо.
>>К чему этот ликбез? Что такое фотография, я знаю.
Ну извините.
>> Как научить камеру соотносить эти объекты, т.е. как строить виртуальный фокус в отсутствие реального?
Матан присутствует в разделе 5.3.3 диссертации по теме (ссылка где-то выше). Правда,он непростой и на буржуйском.
>>Можно упростить все это, а заодно уменьшить ресурсы для расчетов и вообще сделать автофокус на все предметы сразу...
Как?
То есть, я понимаю, что можно например получить снимок с ГРИП от минимума до бесконечности, и отдельно карту глубины (допустим полученную другим способом), а потом добавить эффект ГРИП в соответствии с картой глубины, но это будет уже не оптическая ГРИП.
причем от последних двух пунктов она зависит оттого, что лучи идут с объектива под разными углами, и одно нивелирует другое (то есть по сути ГРИП зависит от масштаба снимка).
Примем, то что размеры матрицы, аппертура и фокусное расстояние = const. Как присваивать разную ГРИП?
Безусловно. Это и делает пользователь мышкой в нынешнем интерфейсе. Возможна (но не реализована) так же фича «сделать весь кадр чётким». То, что фича возможна, следует из общих соображений — для каждого луча обсуждаемая камера пытается записать направление, откуда он пришёл.
Это совершенно не соотвествует действительности.
Сложность задачи и ориентировочную стоимость реализации в программировании можно грубо оценить по количеству строк кода. Я видел обсуждаемый в статье софт, и считаю, что там мы имеем порядка тысячи строк. Реализация фичи «сделать весь кадр чётким» займёт порядка сотни строк. Разница в цене создания софта приблизительно на 10%. И вы не забывайте, что маркетинг софта обходится в 7-10 раз дороже создания этого софта. То есть, в структуре цены конечного программного продукта разница будет составлять, может быть, 1%.
Собственно, эта фича («сделать весь кадр чётким») настолько проста, что я близок к тому, чтобы написать это просто так, по приколу. К сожалению, тoпик уже старый, и моих потугов никто не увидит. Но там действитеьно не о чем говорить.
В этой задаче (как и в подавляющем большинстве задач в программировании), самая трудоёмкая часть — написание интерфейса. Именно интерфейс диктует выбор языка программирования. Реализация собственно алгоритма здесь (как и везде) — задача вторичная, мелкая, и вынужденная подстраиваться под основную задачу — создание интерфейса.
Андрей Лобанов: кроме того нужно будет найти формулы по которым рассчитывать
Здесь вы делаете определённую логическую ошибку. Из того факта, что обсуждаемую задачу можно описать в виде математических формул (и даже какой-то чувак, по собственным словам, умудрился составить из них целый диссер) вы делаете вывод, что формулы в этой задаче применяются, используются и вообще нужны. А это не так. Это с точностью, да наоборот.
Собственно, это нормальная ситуация в программировании. Возьмём например задачу о ввзаимном притяжении трёх тел. Решить такую задачу численно — проблема для третьеклассника, но если начать писать формулы, для их понимания очень скоро потребуется нобелевский лауреат. Общего аналитического решения задача не имеет; существуют решения некоторых частных случаев, и сложность приемняемой в них высшей математики быстро устремляется в бесконечность (наглядно это можно увидеть, например, в книжке «Очерки движения небесных тел»). Вы спросите, почему после этого формулы вообще кто-то пишет — отвечу, что иногда, очень очень редко, можно записать задачу в виде формулы и увидеть, что формулу можно упростить. Тогда выигрыш в производительности, в экономии времени программиста перекрывает всё. Но такое бывает предельно редко. Кроме того, формулы более читабельные, чем исходник программы — они используются в документации.
В данном случае никакие математические формулы вообще не нужны.
Это игрушка без конкретной сферы применения. Разрешение — 240х240 точек (и это число будет расти пропорционально корню четвертой степени из количества мегапикселей, то есть даже переход на 100 MP матрицу ничего не даст).
Я знаю только один способ кардинально улучшить обсуждаемое устройство — взять вместо него мобильник.
Квадратик со стороной 5.4 миллиметра.
Это для лазерного принтера разрешением 1200 dpi. Недогорой домашний струйный принтер имеет разрешениее порядка 600 dpi, соответственно на нём снимок обсуждаемой камеры будет иметь размеры примерно сантиметр на сантиметр. Но фотографии с таким разрешением получаются некрасиво — заметна некоторая размытость.
Родное разрешение обсуждаемой камеры — 240х240 пикселей. Программное обеспечение пытается немного увеличить этот размер, примерно вдвое, но получается плоховато. Чтобы вернуть чёткость, картинку приходится сжимать обратно до размера 240х240.
https://www.lytro.com/living-pictures/282
Что такое фокусирование? Фокусирование это когда пучок лучей преломляется специальным образом чтобы попасть на сенсор камеры. Поскольку за раз можно сфокусировать лучи пришедшие с только определенного расстояния (ГРИП), то в результате мы получаем какую-то часть картинки четкую, а какую-то размытую. Поскольку информации о направлении лучей на снимке не сохраняется мы не можем «перефокусировать» снимок постфактум.
Но эта камера записывает эту информацию! И на основе этого она может пересчитать фокус снимка. В этом-то и заключается вся прелесть технологии. Фокус как таковой не нужен. Достаточно сщелкнуть кадр и потом можно сколько угодно фокусировать, потому что вся информация для этого хранится в снимке.
Далее, по поводу 3D. Имея информацию о направлении лучах можно «сдвинуть» точку зрения кадра (конечно придется кропнуть) и получить два правильно сфокусированных снимка из одного. Сейчас эта фича не реализована в софте, но они обещают её в следующем году.
Вот так-то.
Строго говоря, это тоже неправильное описание механизма ГРИП.
максимум что этой камере пока светит это уровень мыльниц, для неопытных..
— В ваших словах зеркалка звучит как фетиш, хотя это просто конструкция затвора. Что мешает поместить перед сенсором стандартной зеркалки эту матрицу из микролинз и сменить ей мозги?
Кстати, от этой камеры никто не ждёт наведения на резкость на все предметы сразу — снимок, где чётко выглдядит абсолютно всё, не так интересен, как снимок, в котором можно область резкости произвольно перемещать.
P.S. Обкатают технологию на первом этом аппарате, возьмут потом матрицу с большим разрешением, софт подтянут — и будет красота. Нишевая, но красота.
«а я предлагаю гораздо проще»
Куда делся Асташкин? Давно его не видно... [противным голосом Иванвасилича Бунши] Меня терзают смутные сомнения!!!
Конечно теоретически можно все, но на данный момент автофокуса нет, а есть картинка разрешением ниже чем 640Х480, при больших потерях электроэнергии и места на процессор.
Прожорливость не прожорливость, но для составления формул расчета ушел не один год. Я не против возможности редактирования фокуса, я за упрощение формул и принципов по которым рассчитывается расстояние до объекта. Представьте, что после автофокуса вы можете смазать ненужные объекты одним лишь кликом мышки. Или выставить неполный автофокус а лишь на лица одной лишь функцией в фотоаппарате.
Совершенно верно, пусть сначала научатся нырять, а потом мы им воду нальём.
Вы держали в руках трёхсоткилопиксельные камеры? Я держал — году так в девяносто шестом или седьмом, что ли. Тоже думал, что ни фига это не революция.
Сдаётся мне, что серьёзные устройства на этой технологии появятся году к пятнадцатому, если за дело возьмутся мейджоры типа Кэнона. Если они начнут воевать с новинкой, то к семнадцатому, когда неизбежно проиграют.
Изменение фокуса должно производиться, судя по заявлениям на самом снимке, а не на камере.
Может кто обладает этой информацией?