Поддержите The Moscow Times

Подписывайтесь на Русскую службу The Moscow Times в Telegram

Подписаться

В России предложили ввести госконтроль за нейросетями, чтобы ограничить передачу запросов россиян в ФБР и Пентагон

Александр Авилов / Агентство «Москва»

В России необходимо установить государственный контроль за нейросетями, поскольку они передают данные «врагам» и «разрушают» суверенитет страны. К такому выводу пришли участники сессии «Измерение социального воздействия искусственного интеллекта (ИИ)» на Восточном экономическом форуме (ВЭФ), пишут «Осторожно, новости».

Один из спикеров мероприятия — первый зампред комиссии Общественной палаты Москвы по развитию гражданского общества Александр Асафов отметил, что американская компания OpenAI, которой принадлежит ChatGPT, «автоматически» передает ФБР все запросы на русском языке, «включая полный цифровой отпечаток аккаунта: кто спрашивает, что спрашивает, зачем». Также, по его словам, в этом году все главы компаний, занимающихся развитием платформ ИИ — Anthropic, Google и других, — «получили звания офицеров Пентагона». «Это новый фронт», — подчеркнул Асафов.

Представителя Общественной палаты Москвы поддержал директор фонда «Региональная политика» Евгений Забродин. По его словам, на сегодняшний день «лучшим другом человеку является государство», поэтому ему нужно предоставить право контролировать использование нейросетей. Забродин также отметил, что ИИ создает для человека информационный пузырь, который может ему навредить.

Член Совета при президенте РФ по развитию гражданского общества Элина Сидоренко добавила, что с развитием ИИ формируется «цифровой пролетариат», который вынужден обслуживать нейросети за небольшую зарплату. «Со временем таких людей станет еще больше», — предупредила Сидоренко. Также она заявила о необходимости защитить россиян от цифрового мошенничества. «Россия должна продвигать выработку стандартов и определение сфер деятельности, где использование ИИ и дипфейков должно быть недопустимо — например, в образовании», — отметила она.

Ранее в России разработали законопроект, ограничивающий разработку и использование продуктов с ИИ, которые могут нести в себе риски для общества и государства. Документ, который обсуждают в Госдуме, предполагает разделение систем ИИ на группы по уровню рисков: минимальному, ограниченному, высокому и неприемлемому. Предлагается запретить разработку и эксплуатацию продуктов из категории с неприемлемым уровнем риска.

В свою очередь системы с высоким уровнем риска должны будут в обязательном порядке проходить госрегистрацию и сертификацию. Кроме того, инициатива предлагает ввести ответственность для разработчиков систем ИИ за причинение вреда жизни, здоровью или имуществу, а также обязательно страхование ответственности операторов систем ИИ с высоким уровнем риска.

читать еще

Подпишитесь на нашу рассылку