Глава Совета по правам человека (СПЧ) при президенте Валерий Фадеев, выступая на круглом столе 27 мая, раскритиковал голосовые помощники от «Яндекса» и VK «Алису» и «Марусю» за то, что они «стесняются давать ответы» на политические вопросы, передает «Коммерсантъ».
По словам Фадеева, оба помощника уходят от ответов на вопросы «Чей Донбасс?» и «Что случилось в Буче?». Глава СПЧ считает, что «это не вопрос цензуры, это вопрос отношения нации к своей истории».
В то же время, сказал Фадеев, ответы можно найти у чат-бота ChatGPT от компании OpenAI: «Я думал, что это будут жесткие пропагандистские ответы, но нет — мнение с одной стороны, с другой стороны, есть дискуссия. Довольно обтекаемо, но ответ есть».
Республики Донбасса вместе с Запорожской и Херсонской областями по итогам референдума осенью 2022 года вошли в состав России.
В апреле 2022 года западные СМИ опубликовали кадры из Бучи Киевской области, на которых, как утверждалось, были тела погибших мирных жителей. Минобороны России заявило, что это является провокацией и постановкой, устроенной украинской стороной.
Директор по развитию технологий искусственного интеллекта (ИИ) «Яндекса» Александр Крайнов заявил, что отказ в данном случае не носит идеологической подоплеки. Он уточнил, что нейросеть старается подражать всем увиденным текстам и фактически подставляет слова, исходя из того, что в этом случае написали бы люди. При этом в алгоритме есть элемент случайности, чтобы ответы не были одинаковыми, отметил Крайнов. Причем отличие ответа на один и тот же запрос может быть «абсолютно радикальным по смыслу».
Представитель «Яндекса» напомнил, что ответы ИИ не редактируются, тогда как есть темы, в которых ошибиться «не страшно», а есть темы, за ошибку в которых компания может понести уголовную ответственность. «Уход от ответа — лучшее, что мы можем сделать сейчас, — считает Крайнов. — Потому что, если бы мы отвечали плохо, нас бы вообще запретили, скорее всего».
Член СПЧ Игорь Ашманов остался недоволен ответом Крайнова и обратил внимание, что «Алиса» и «Маруся» позиционируются как «детский компаньон». «У ребенка должен быть один ответ. То же самое с историей — нельзя, если ты даже с подростком разговариваешь, давать ему много точек зрения», — заявил он.
Чуть больше недели назад уходом от ответов «Алисы» на политически окрашенные вопросы возмутился зампред Совбеза Дмитрий Медведев, назвав помощника «страшным трусом». В частности, нейросеть не стала отвечать на вопрос о расположении памятников Степану Бандере на Украине и не назвала дату принятия закона об изъятии российских активов в США.
«С одной стороны, это сильно подрывает доверие к «Яндексу» и его продуктам. А с другой — дает основания не только для того, чтобы признать сервисы «Яндекса» очень неполными, но даже нынешних менеджеров (не приведи Господь!)… иноагентами», — заключил Медведев.
В минувшем ноябре глава «Сбера» Герман Греф подчеркивал важность того, чтобы государство «не перерегулировало» сферу искусственного интеллекта ссылаясь на примеры США и Китая, поскольку усиленный контроль может помешать развитию отрасли. Об этом он говорил после того, как лидер фракции «Справедливая Россия — За правду» Сергей Миронов весной обратился к генпрокурору Игорю Краснову из-за разработанного «Сбером» приложения Kandinsky 2.1.
Миронов заявил, что при тестировании нейросеть ни разу не сгенерировала «картинку в цветах флага Российской Федерации, состоящего из трех полос» на запросы «Россия», «российский флаг» и подобные. При этом на запросы о флагах США или Украины сгенерированная картинки соответствовали символике.
Греф рассказал, что после этого представителей «Сбера» и «Яндекса», который на той же неделе представил аналогичное приложение «Шедеврум», вызывали в прокуратуру, где посоветовали «быть аккуратнее». Он отмечал, что Kandinsky 2.1 при генерации флага старалась его улучшить. По словам Грефа, после вызова в прокуратуру модель не генерирует государственные символы, а выдает заранее заданную картинку, однако при этом теряет в креативности генерации.