Российским студентам необходимо запретить использовать искусственный интеллект (ИИ) при написании рефератов, курсовых и дипломных работ, поскольку эта технология была разработана на Западе и продвигает чуждую России идеологию, заявил глава Совета по правам человека (СПЧ) при президенте Валерий Фадеев. «Массив данных, массив текстов, с которыми работают нейросети, он гигантский. Наша доля там минимальна. Вот в чем проблема — массив в основном западный», — пояснил он. По словам главы СПЧ, он вместе с коллегами запросил у нейросетей информацию по Крыму, Донбассу и Югославии, но получил только «идеологизированные западные тексты».
При этом, согласно опросу Ассоциации организаторов студенческих олимпиад, на который сослался Фадеев, 85% российских студентов пользуются нейросетями, из них 43% — для написания эссе, рефератов, курсовых и дипломных работ. «Я считаю, что мы стоим на пороге информационного, идеологического бедствия. Российское общество пока, как я считаю, недооценивает эту опасность (внедрения ИИ в образование и социальную жизнь. — ТМТ)», — отметил глава СПЧ. Он добавил, что запрещать нейросети студентам должны преподаватели, однако признал, что они не всегда могут выявить текст, написанный ИИ.
До этого Фадеев заявлял, что нейросети противоречат статье 29 Конституции РФ, в которой говорится о свободе мысли и слова и недопустимости цензуры. «Фактически, когда мы пользуемся нейросетями, мы пользуемся уже оцензурированной информацией. И говорить о свободе получения информации здесь, пожалуй, неразумно, нерационально… Вся информация, почти вся, западного типа», — отмечал глава СПЧ.
Ранее в России подготовили законопроект, ограничивающий разработку и использование продуктов с искусственным интеллектом (ИИ), которые могут нести в себе риски для общества и государства. Документ, который обсуждают в Госдуме, предполагает разделение систем ИИ на группы по уровню рисков: минимальному, ограниченному, высокому и неприемлемому. Предлагается запретить разработку и эксплуатацию продуктов из категории с неприемлемым уровнем риска. В свою очередь системы с высоким уровнем риска должны будут в обязательном порядке проходить госрегистрацию и сертификацию. Кроме того, инициатива предлагает ввести ответственность для разработчиков систем ИИ за причинение вреда жизни, здоровью или имуществу, а также обязательно страхование ответственности операторов систем ИИ с высоким уровнем риска.