Поддержите The Moscow Times

Подписывайтесь на Русскую службу The Moscow Times в Telegram

Подписаться

Роскомнадзор поручил разработать систему выявления фейков на видео

Игорь Иванко / Агентство «Москва»

Роскомнадзор решил выявлять ложь и манипуляции в видеозаписях выступлений с помощью специального сервиса на основе искусственного интеллекта. Для этого подведомственный Роскомнадзору Главный радиочастотный центр заказал разработку подобного сервиса у Национального центра когнитивных разработок (НЦКР) ИТМО, пишет «Коммерсант» со ссылкой на источники.

Первый прототип сервиса Expert Роскомнадзору представили в июле этого года в присутствии его главы Андрея Липова, которого решение очень заинтересовало. «Он попросил как можно скорее передать его ведомству на тестирование», – говорит источник.

Предварительно систему протестировали перед выборами в Сенат США. «Мы проанализировали опубликованные на YouTube интервью шести кандидатов на предмет противоречивости, агрессии и уверенности в себе», – рассказал руководитель научно-исследовательской лаборатории «Когнитивная невербалика» НЦКР ИТМО Олег Басов. В итоге у троих была выявлена агрессия, а одного из кандидатов программа уличила во лжи.

В ИТМО поясняют принцип работы сервиса: в ходе анализа видео или аудио он оценивает уверенность, уровень агрессии внутренней и внешней, конгруэнтность (уровень согласованности информации, которая передается вербальным и невербальным способом), а также противоречивость. Кроме этого программа дает возможность сравнить слова выступающего с научными статьями и высказываниями других специалистов.

Сейчас сервис «заточен на работу» с английским языком. Но такие показатели, как уверенность, агрессивность и конгруэнтность можно получать на любом языке, заверяет Басов. Английский, по его словам, разработчики выбрали как самый распространенный язык в мире. Он отметил, что в ближайших планах доработка системы для получения текста из речи на русском языке.

То, что в ИТМО выбрали английский язык как основной для программы, объясняется открытыми зарубежными библиотеками и дата-сетами для их обучения, говорит топ-менеджер профильной IT-компании. «Для переобучения под русский потребуется большой массив данных и затраты», – говорит он.

При этом ничего нового разработчики не открыли – точно такие же разработки велись на Западе. К примеру, в 2017 году в Университете Мэриленда и Дартмутском колледже создали нейросеть, которая должна была распознавать ложь. Также распознаванием лжи в суде с помощью ИИ занималась американская компания Innocence Project. Однако качество работы нейросети оценивается в плоскости теории вероятности, говорит представитель IT-рынка.

«Когда такая разработка дойдет даже до пилотной эксплуатации, вероятность ложных срабатываний будет достаточно высока, и потребуются годы, чтобы проект начал приносить пользу», – поясняет собеседник. При этом Кирилл Ляхманов из «ЭБР» напоминает, что любые попытки установить «правду» или «ложь» по косвенным признакам не выдерживают критики, а «детекторы лжи» не признаются в качестве доказательства в судах.

читать еще

Подпишитесь на нашу рассылку