Учёные впервые извлекли кино из мыслей подопытных

Вверху вы видите кадры из роликов, а внизу — они же, но извлечённые из головы наблюдателя (фото University of California, Berkeley/ Shinji Nishimoto).

Нейробиологи воссоздали динамические зрительные образы, возникавшие в голове во время просмотра случайно отобранных видеороликов. В будущем такая технология поможет медикам наблюдать на экране галлюцинации пациентов, а богатым чудакам — выкладывать свои сны на YouTube.

Фантастический результат получен в Калифорнийском университете в Беркли: испытуемым показывали разные ролики с YouTube (фрагменты кинолент, трейлеры и прочее), в то время как магнитно-резонансный томограф детально записывал активность клеток в различных частях зрительной коры. По этой информации учёные сумели реконструировать просмотренные кадры в цвете и динамике (смотрите впечатляющий ролик в конце материала).

Качество этих восстановленных роликов может кому-то показаться неважным, но это несравненно лучше и точнее, чем то, что удалось получить «из головы» человека в первом эксперименте такого типа.

Учёные, создавшие новую программу распознавания мысленных образов, сами поочерёдно выступали в роли подопытных, поскольку им приходилось проводить внутри томографа по многу часов за раз, передаёт MedicalXpress.

Для начала исследователи записали картину мозговой активности при просмотре ряда трейлеров голливудских фильмов. Биологи построили трёхмерную компьютерную модель мозга с группами клеток (вокселями) и записали, как каждый воксель реагирует на изменение форм и движение предметов на экране. Так удалось получить грубое соответствие визуальной информации и процесса её обработки в коре мозга.

Для тестирования и доводки алгоритма учёные скормили ему тысячи часов от миллионов случайно взятых роликов со всё того же сервиса YouTube, получив на выходе обратный результат — смоделированную активность мозга, которая наблюдалась бы, если человек просматривал бы эти ролики.

Наконец, алгоритм снова обратили. При просмотре людьми в томографе тестового видео компьютер подбирал из Сети 100 роликов, которые с наибольшей вероятностью должны были вызвать именно такую картину активности клеток. Далее секунда за секундой программа смешивала кадры из этих роликов, получая размытое результирующее кино, неплохо совпадавшее с тем, что человек наблюдал в реальности.

(Подробности опыта можно найти в статье в Current Biology и преcс-релизе университета.)

«Так мы открываем окно в кино, идущее в нашем сознании», — говорит один из авторов работы Джек Галлант (Jack Gallant). Кстати, Галлант известен нам по опыту с распознаванием при помощи сканирования мозга увиденных фотографий.

Учёные объясняют, почему распознавание мыслей при помощи магнитной томографии трудно реализовать. Одна из проблем — сканер регистрирует изменения в кровотоке через кору, а они происходят гораздо медленнее, чем меняются нервные сигналы.

Потому-то ранее такой трюк удавалось проворачивать лишь со статичными картинками. «Мы решили эту проблему, создав двухступенчатую модель, которая описывает отдельно нервные клетки и сигналы кровотока», — говорит Синдзи Нисимото (Shinji Nishimoto), ведущий автор исследования.

До практического применения новой технологии может пройти десятилетие. Но уже в таком, сыром виде она способна помочь нейрофизиологам лучше разобраться, что происходит в голове человека.



Определён предсказывающий будущее регион мозга

24 августа 2011

Биологи раскрыли секрет миелинизации аксонов

11 августа 2011

Биологи научились включать гибернацию у сусликов

27 июля 2011

Учёные поселили в мозгу крыс электронную память

23 июня 2011

Учёные создали иллюзию увеличившегося мира

31 мая 2011
  • Павел Яковлев  23 сентября, 12:58
    О, как интересно, образ снятый МРТ отличается от исходного ролика то есть, образы возникали ассоциативные.
    ОтветитьНравится
  • Леонид Попов  23 сентября, 13:01
    Нет, это вовсе не ассоциации. Читайте внимательнее!
    В голове, конечно, человек видит то, что видит. Но учёные не могут напрямую перевести сигналы клеток в изображение. Им приходиться перебором выбирать сто роликов, наиболее похожих по «библиотечной» картине активности клеток, и потом, покадрово, секунда за секундой гибридизировать эту сотню, для получения кадра, наиболее близкого к тому, что видит человек в томографе в данный момент времени.
    ОтветитьНравится
  • Кирилл Руков  23 сентября, 13:05
    Именно по этому, давайте будем честными, что это вовсе и не так фантастично и революционно). Если бы информацию брали только исходную, которая образовывается в мозгу, и именно из неё создавали бы изображение, пусть и плохого качества...
    ОтветитьНравится
  • Леонид Попов  23 сентября, 13:10
    Кирилл. Фактически они и воссоздают по исходной инфе из мозга. Просто при поиске соответствия мозговой деятельности образам используют алгоритм опирающийся на обширную библиотеку совпадений. А то, о чём вы говорите — пока не реально, если оно вообще возможно.
    ОтветитьНравится
  • Павел Яковлев  23 сентября, 14:12
    Прошу прощенеия, перечитал. Предыдущий комментарий неверен, зато теперь я сомневаюсь в логике эксперимента.

    Снятую с томографа картину сравнивали с роликами ютуба... А спрашивается, зачем? Может правильнее было бы подержать испытуемых месяц без визуализации, затем сделать последовательный показ 100 роликов и уже после этого снимать данные томографа (что бы потом с этими роликами их и сравнивать)?

    ОтветитьНравится
  • Леонид Попов  23 сентября, 14:19
    Нет Павел. 100 роликов тут ни причём. Комп ведь не ищет один ролик из известных ста (типа — а на что только посмотрел человек). Они показывают какой-то отвлечённый ролик. А программа видит не его, а активность мозга и перебирает она похожие паттерны не среди сотни, а вообще по всему ютубу. Она переводит, как я понял случайный ютубовский ролик в нейронную активность — сопоставляет с реальной, отбрасывает или откладывает и так отбирает сотню близких по мозговому ответу и уже тогда из них компилирует итог.
    ОтветитьНравится
  • Павел Яковлев  23 сентября, 15:19
    Ну так а смысл эксперимента в чем? Исследовать возможности модуля сравнения программы? Тогда зачем было с томографом заморачиваться?

    Мне казалось, что визуализация мысленных образов, вот что интересно. Выше я указал схему (очень приблизительную) эксперимента, который был бы направлен именно на это, а не на то как правильно софт из Сети подберет ролик (при том, что ролики он неправильно подбирал).

    ОтветитьНравится
  • Леонид Попов  23 сентября, 15:25
    Павел, вам не всё равно, каким путём достигается результат. Что все на роликах из сети зациклились. Это лишь кубики для программы. Главное — вы узнаёте о чём думает человек (в данном случае — что видит перед собой). Убирая томограф вы превращаете замысел в глупость. Ежу ведь понятно, что программы умеют сопоставлять изображения и искать ролики, похожие на заданный. Но программа-то не ролики сопоставляет между собой. У неё в исходных данных не ролик — а то, как клетки реагируют. А там — изображения «слона» то нет.
    ОтветитьНравится
  • Павел Яковлев  24 сентября, 00:33
    Леонид, я это все понял и (по видео во всяком случае) эксперимент имеет сомнительные результаты. Посути выдувание «сенсации» из ничего. То есть что-то сделано конечно, но как сказал бы наш зав. кафедры(до этого внимательно выслушав доклад и вопросы): «мммм... А это зачем вообще нужно было...?»
    ОтветитьНравится
  • Андрей Данилейко  24 сентября, 02:29
    Согласен с Павлом, мне кажется что эксперимент хоть и интересный, но не очень полезный. Надо стараться восстановить картинку, которую видит человек, а не подобрать похожую. И чем точнее алгоритмы восстановления, тем ближе они к визуализации мыслей
    ОтветитьНравится
  • Сергей Скалба  24 сентября, 22:50
    И это уже хорошо. Потому что если по восстановленной таким образом информации, другой человек может понять, о чем думает тестируемый, у них образуется как бы один внутренний мир на двоих.
    ОтветитьНравится
  • виталий савченко  12 ноября, 15:15
    http://www.youtube.com/watch?v=LJ4ZDiBavMc&feature=related
    ОтветитьНравится
  • Евгений Бортников  23 сентября, 12:59
    Круто!
    ОтветитьНравится
  • Руслан Ахметшин  23 сентября, 13:50
    Так получается просто ухудшенное видео с ютуба, на выходе.
    Это как снимать живых актеров, и затем обрабатывать видео так, что бы они стали похожи на 3Д-модели.
    ОтветитьНравится
  • Леонид Попов  23 сентября, 14:04
    Не совсем. Понимаете, если бы они просто брали исходный ролик, который смотрит человек и, имея его перед собой, подбирали похожие, а потом из них что компилировали... Но они то, создавая видео, как бы не знают — что смотрит человек. А берут они только активность его нейронов и по ней вычисляют увиденное.
    Фактически это и есть реконструкция зрительных образов, но только в программе их декодировки задействован алгоритм, сопоставлений картину с найденными ранее корреляциями между динамикой пятен и активностью групп клеток в мозге.
    ОтветитьНравится
  • Леонид Попов  23 сентября, 14:05
    «сопоставляющий картину..»
    ОтветитьНравится
  • Семён Есилевский  23 сентября, 14:39
    Пардон, но это никак не «декодирование». Это программа, которая тупо находит соответствие между грубым паттерном на МРТ и роликами с ютуба. Декодирование — это если бы программа «раскрутила» в обратную сторону кодирование информации глазом и мозгом и выдала картинку без референсной библиотеки.
    ОтветитьНравится
  • Андрей Мезенов  23 сентября, 14:13
    Я даже больше скажу, направление в этой области поможет раскрывать убийства в будущем, т.к даже после смерти мозг сохраняет память и информацию в себе до разложения, считай и «трупы начнут говорить))», просто информацию эту надо ещё научиться извлекать из головного мозга пусть даже и мёртвого. Так что у убийц будущего 2 варианта: 1) либо уничтожать головной мозг трупа, 2) либо надёжно прятать, пока мозг трупа не разложится. Простите меня дорогие убийцы за подсказку вам.
    ОтветитьНравится
  • Леонид Попов  23 сентября, 14:22
    В трупе нет кровотока и мозговой активности. Неясно — чего вы намерены измерять? А вот подозреваемых по похожей технологии уже разоблачали. Вы читали про мозговые «отпечатки пальцев»? www.membrana.ru/particle/2585
    ОтветитьНравится
  • Андрей Мезенов  23 сентября, 14:31
    причём здесь кровоток и мозговая активность? Кора головного мозга сохраняет память даже после смерти — всё что делал человек за всю жизнь, и в принципе память можно считать на электронный носитель и воспроизвести, это будет как фильм, только реальный фильм из реальной жизни человека, всё что он видел, ощущал, ну и конечно все его смертные грехи=) и разумеется как он умер.
    ОтветитьНравится
  • Семён Есилевский  23 сентября, 14:41
    Фантастики вы перечитались, уважаемый
    ОтветитьНравится
  • Андрей Мезенов  23 сентября, 14:46
    я фантастику не читаю, вы люди — находитесь на примитивном уровне развития, мне даже общаться с вами не хочется.
    ОтветитьНравится
  • Qwerty Ujikol  23 сентября, 14:48
    жалкие людишки, бу-га-га))))))))))
    ОтветитьНравится
  • Семён Есилевский  23 сентября, 14:48
    Я бы на вашем месте сначала закончил школу, а потом туту троллил
    ОтветитьНравится
  • Андрей Мезенов  23 сентября, 14:58
    разве я занимаюсь троллингом и школьник? обижаете.
    ОтветитьНравится
  • Алексей Ковалёв  23 сентября, 16:27
    Вы пожалуй путаете мозг с примитивным чипом памяти, на который подал напряжение и считал состояния ячеек памяти. Боюсь, что «запитать» мёртвый мозг получится ещё не скоро...
    ОтветитьНравится
  • Алексей Заикин  23 сентября, 22:11
    Вроде как мозг начинает разрушаться (а информация из него соответственно исчезать) уже через три минуты без кислорода и питания. Так что ничего не выйдет.
    ОтветитьНравится
  • Семён Есилевский  23 сентября, 23:26
    Если ты еще даже в школу не ходишь, то искренне восхищен твоим интеллектом, мальчик :)
    ОтветитьНравится
  • Ольга Добрая  23 сентября, 23:33
    я думаю это не фантастика. Это сериалы. а сериалы разрушают мозг.
    ОтветитьНравится
  • Егор Лукоянычев  25 сентября, 23:12
    чтобы «записать» увиденное в хим связях нужно большое количество времени (часы), а так информация крутится в «оперативной памяти» — по нейро-цепям
    ОтветитьНравится
  • Qwerty Ujikol  23 сентября, 14:28
    Насколько я понимаю, речь в статье идет о фМРТ? МРТ — по сути, сканирование структуры мозга, здесь же по потреблению глюкозы измеряется функциональная активность нейронов.
    ОтветитьНравится
  • Qwerty Ujikol  23 сентября, 14:47
    Пардон — почитал прес-релиз — точно фМРТ!
    Но возник другой вопрос — сканировали определенный участок мозга, пусть и наиболее связанный со зрением. Интересно, где они проводили границу между довольно-таки сложной зрительной корой и другими частями мозга? Может, если сканировать больше мозга и качество картинки будет не таким размытым (ну это уже так, в порядке бреда)...
    ОтветитьНравится
  • Семён Есилевский  23 сентября, 14:31
    Ну хорошо, они натаскали программу на сопоставление томограмм с набором видероликов. Но если человеку покажут видео, которое не имеет близких аналогов на ютубе, то вообще ничего не получится. Заметно же, что «говорящая голова» диктора воспроизводится на порядок лучше чем слон. Оно и понятно — роликов с диктором на ютубе дофига, а слонов мало. Сколько-нибудь приемлемой детализации таким способом никогда не добиться. Например, они никогда не воспроизведут произвольный текст, который человек видит на бумаге. Так что практической ценности не особо видно даже в перспективе, а тем более никакие сны записать не выйдет — во снах такой сюр как правило, что никакой ютуб не поможет :)
    ОтветитьНравится
  • Леонид Попов  23 сентября, 15:16
    Текст то как раз вопроизвели японцы предыдущем похожем исследовании (ссылка есть в статье). Опять-таки — они не ищут «слонов», программа вообще не знает — слон это или не слон, она ищет (через паттерны активности клеток) изображения с похожей динамикой и похожим распределением цветов. Так что видео не обязано иметь близкие аналоги на ютубе — миллион роликов уже даёт невероятную базу для всевозможных вариантов полос, бликов, теней, цветов и их передвижений. а картинка итоговая — не один ролик, а усреднение по сотне. Это означает, что даже с таким подходом можно поднять разрешение реконструкции, нужно только уменьшить «пикселизацию» сканера, добывающего картину активности клеток мозга и, может быть, но не обязательно, нарастиь базу знаний сопоставляющей программы.
    ОтветитьНравится
  • Алексей Ковалёв  23 сентября, 16:30
    лиха беда начало... Теоретически, библиотеку можно расширить до неузнаваемости при нынешних технологиях...
    А пока — это пробный шар, так сказать, «бюджетный»
    ОтветитьНравится
  • Семён Есилевский  23 сентября, 23:19
    Вот работа японцев как-раз выглядит намного серьезнее, а эта больше смахивает на демонстрацию для рекламы
    ОтветитьНравится
  • Семён Есилевский  23 сентября, 23:25
    Скорее надо элементы изображения искать — линии, контуры, паттерны какие-то. Наверняка мозг «режет» картинку на определенные элементарные составляющие (контуры, заливки, точки, линии). Вот если их выделят — будет действительно прорыв.
    Тут видимо тот же прикол что с распознаванием символов программами — старые искали целые буквы (и не особо точно работали), а новые ищут элементы их начертания.
    ОтветитьНравится
  • Александр Горев  23 сентября, 14:47
    Я так понимаю, что для каждого человека алгоритмы сопоставления будут свои? Т.е. научившись боле-менее «просматривать» зрительные образы одного человека, этими же алгоритмами нельзя будет «залезть» в мозг к другому?
    ОтветитьНравится
  • Владимир Королёв  23 сентября, 16:20
    Скорее всего что очень долго настроив аппарат на одного человека, сопоставив все пиксели всем задействованным нейронам, перенеся на другого bs не добьемся вообще ничего. если конечно они не в строго определенных местах.
    ОтветитьНравится
  • Леонид Попов  23 сентября, 16:50
    Точно не скажу, но подозреваю, что в реакции на образы есть как индивидуальные особенности, так и общие закономерности. Так что единая программа будет работать со всеми, но с разной точностью. Но главное не это — мы видим только начало пути — главное, что авторы опыта оказали принципиальную осуществимость такого метода извлечения образов из головы.
    ОтветитьНравится
  • Руслан Ахметшин  23 сентября, 15:00
    Ну вот допустим я представил себе слона, подобная система найдет видео со слоном на ютубе?
    ОтветитьНравится
  • Леонид Попов  23 сентября, 15:19
    Нет. Система не знает, что это слон. Она дробит мозговые паттерны по пикселям и ищет — какие цвета блики и в каких местах вызывют такой отклик. Потому она может синтезировать «вашего» слона, ну грубо говоря, из проезжающего автомобиля, пролетающего самолёта и человека, держащего на вытянутой руке книгу.
    ОтветитьНравится
  • Алексей Ковалёв  23 сентября, 16:31
    этта песня хороша, начинай сначала.......... :)
    ОтветитьНравится
  • Владимир Королёв  23 сентября, 16:36
    Если ставить на паузу, например на слоне, то на картинке из мозга видны четкие логотипы. И для пущей убедительности надо было бы конечно чтобы комп из мозга читал логотип youtube.
    ОтветитьНравится
  • Сергей Шляхтов  23 сентября, 17:25
    Если ставить на паузу, то все может быть (мозг вообще может перестать воспринимать слона), поскольку клетки реагируют на изменение! Поэтому статичную картинку мозг должен более индивидуально обрабатывать. Поэтому проще в динамике.
    ОтветитьНравится
  • Андрей Балаев  23 сентября, 17:12
    Я как понял, то, что мы не увидели слона, то может вовсе не потому, что разрешения недостаточно и слонов мало, а клетки мозга не копируют на 100% видео, и томограф получает результат воздействия картинки на мозг, т.е. впечатление от просмотренного, поэтому слон — не слон, а то, какое он производит впечатление. Может я не прав.
    ОтветитьНравится
  • Андрей Балаев  23 сентября, 17:15
    Явно надо увеличить разрешение, разбить образы на мелкие составляющие, но это непонятно как — в воображении пикселей нет.
    ОтветитьНравится
  • Алекс Мендельсон  23 сентября, 21:25
    Станислав Леэм помнится мечтал о таком приборе, который сможет воссоздавать образы из мозга человека и позволит писателям создавать визуально свои произведения...
    ОтветитьНравится
  • Владимир Королёв  23 сентября, 21:39
    лет через двадцать у каждого второго в затылке будет AV IN AV OUT
    ОтветитьНравится
  • Ваня Крейцер  23 сентября, 22:14
    Мне такие безумные сны снятся иногда... Я боюсь этой технологии: если кто-нибудь посмотрит, что снится мне, меня упекут в психушку.
    ОтветитьНравится
  • Семён Есилевский  23 сентября, 23:20
    Скорее станете звездой ютуба :)
    ОтветитьНравится
  • Врэж Багратуни  29 сентября, 00:46
    Ваши сны будут покупать оптом по наивысшему коэфициенту. Может даже за них Оскара вам вручат. Плсрамите и Параджанова и Тарковского и Сокурова.
    ОтветитьНравится
  • Ваня Крейцер  5 октября, 21:42
    Да хоть бы и нобелевскую премию. Мне-то что с того, если я буду изолирован от общества в соответствующем заведении?
    ОтветитьНравится
  • Врэж Багратуни  6 октября, 07:23
    А вы не будете существовать в единственном числе. В Виртуальной ипостаси (а сны это чистой воды виртуальность) вы будете иметь МНОЖЕСТВО воплощений. Хотя бы одно из ваших воплощений сохранит свободу. Даже если несколько ваших воплощений будут терзать и насиловать маньяки и сладостранники. Не удивитесь, если некоторым пленёным вашим «Я» удастся дорватся до телефона и позвонить вам с истощными воплями о помощи. :)
    ОтветитьНравится
  • Вероятно это лишь верхушка айсберга. На самом деле заинтересованные в результатах всякие спецслужбы наверняка у себя ушли уже ох как далеко. Где то читал, что стимулирование определенных частей мозга вызывает то или иное воспоминание. Вывод прост — стимулируй и смотри... Лет через десять все может дойти и до неких полицейских центров... поймал, просмотрел запись в голове у подозреваемого... и в суд.
    ОтветитьНравится
  • Леонид Попов  24 сентября, 23:32
    Мне кажется, вы просто насмотрелись голливудского кино, про секретные лаборатории с безумными учёными, прикованными наручниками к томографам с энецефалографами. На деле сами спецслужбы наукой не занимаются. И то, что происходит на переднем крае науки — так или иначе всплывает всегда. Никаких сверхзакрытых правительственных комплексов, где в тайне от всех «давно уже научились мысли читать, сквозь стены ходить и на антигравитационных тарелках летать» — нет. Это всё былички XX — XXI века.
    А вот по второму вопросу — тут есть некторое рациональное зерно. И даже вполне открытаяработа с похожей идеей www.membrana.ru/particle/2585
    ОтветитьНравится
  • Андрей Ересько  24 сентября, 23:03
    А в домашних условиях это как-нибудь повторить можно?
    Пусть со в сто раз худшей детализацией.
    ОтветитьНравится
  • Александр Морозов.  24 сентября, 23:03
    ну если дома есть томограф, то можно.
    хотя детализация хуже некуда и так
    ОтветитьНравится
  • Владимир Мазевич  26 сентября, 10:53
    Не пойму, зачем столько сложностей. Раньше ведь на обезьянах четко находили кратинку в зрительной зоне коры головного мозга, оставленную при восприятии изображения — элементарно, убивали обезьяну в момент разглядывания картинки, красили мозг особыми красителями — картина в зрительной зоне позволяла увидеть довольно четкую проекцию изображения на зрительную кору.
    Аналогично можно просто попытаться создать метод регистрации нейронной активности, позволяющий видеть картину работы мозга в реальном времени без всякого перебора фильмов, сравнения и прочего.
    А потом создать алгоритм преобразования картины в зрительной коре в синтезированное изображение.
    ОтветитьНравится
  • Егор Лукоянычев  26 сентября, 20:17
    Точно Владимир! Давайте также с подозреваемыми )
    ОтветитьНравится
  • Олег Апарцев  26 сентября, 13:28
    Не большой знаток нейро-лингвистических премудростей, однако, как человек с много раз использовавший различные интерфейсы могу утверждать: процесс считывания, а именно расшифровки, для каждого интерфейса, специфичен и весьма индивидуален. Описываемые здесь методы никогда не будут инструментами массового применения.
    ОтветитьНравится
  • Михаил Тоцких  28 сентября, 13:16
    Хорошо когда у следствия может быть одна причина... Плохо когда таких причин тысячи. А тут вообще угадайка какая-то.
    ОтветитьНравится
  • Юрий Богдашкин  28 сентября, 16:01
    Непонятно, почему это поможет наблюдать сны и галлюцинации.
    Речь идёт о регистрации активности зрительных нейронов, которые во сне скорее всего отдыхают, работает память, причём долговременная, которая там по определению не может находиться, иначе эти нейроны не смогли бы регистрировать новые впечатления с частотой 24 кадра в секунду
    ОтветитьНравится