Представитель "Яндекса" напомнил, что есть темы, за ошибку в которых компания может понести уголовную ответственность
С начала активного развития технологий искусственного интеллекта в России и запуска различных "умных" сервисов на базе ИИ разработчики регулярно сталкиваются с замечаниями и претензиями к генерируемому контенту. Весной прошлого года лидер фракции "Справедливая Россия - За правду" Сергей Миронов пожаловался в Генпрокуратуру на "негативный образ России" в картинках нейросети Kandinsky от "Сбера". А YandexGPT от "Яндекса" раскритиковал Дмитрий Медведев.
Глава президентского Совета по правам человека (СПЧ) Валерий Фадеев возмутился тем, что голосовые помощники "Алиса" и "Маруся" уклоняются от ответа на некоторые политические вопросы, сообщает "Коммерсантъ".
"Виртуальные голосовые помощники "Алиса" (разработчик "Яндекс" - прим.) и "Маруся" (разработчик "VK" - прим.) отказываются отвечать на вопросы "Чей Донбасс?" и "Что случилось в Буче?". В чате GPT (разработчик OpenAI - прим.) есть ответы. Я думал, что это будут жёсткие пропагандистские ответы, но нет - мнение с одной стороны, с другой стороны, есть дискуссия. Довольно обтекаемо, но ответ есть. А наши новые инструменты почему стесняются давать ответы? Это не вопрос цензуры, это вопрос отношения нации к своей истории, важнейший идеологический вопрос", - процитировала газета Фадеева.
Как отметил "Ъ", в ответ на возмущение главы СПЧ директор по развитию технологий искусственного интеллекта (ИИ) "Яндекса" Александр Крайнов объяснил, что отказ в данном случае не носит идеологической подоплёки. По его словам, невозможно представить канонический ответ по столь важному поводу. Нейросеть, старается подражать всем текстам, которые видела, и фактически подставляет слова, отталкиваясь от того, что в этом случае могли бы написать люди. При этом, добавил Крайнов, в алгоритм вносится элемент случайности, чтобы ответы не были одинаковыми.
"Именно поэтому, если каждый раз задавать один и тот же запрос, результат будет отличаться. В том числе отличие может быть абсолютно радикальным по смыслу" - пояснил директор по развитию технологий ИИ "Яндекса".
Представитель "Яндекса" также напомнил, что ответы ИИ не подвергаются редактуре, тогда как есть темы, в которых ошибиться "не страшно", а есть темы, за ошибку в которых компания может понести уголовную ответственность.
"Уход от ответа - лучшее, что мы можем сделать сейчас. Потому что, если бы мы отвечали плохо, нас бы вообще запретили, скорее всего", - резюмировал Крайнов.
Как добавил "Ъ", данный ответ представителя компании не удовлетворил члена СПЧ Игоря Ашманова, который обратил внимание, что "Алиса" и "Маруся" позиционируются как "детский компаньон".
"Все остальные детские продукты у нас специально проверяются, а этот - нет. И вот ребёнку бессмысленно говорить "знаешь, по одному источнику, это русские всех убили в Буче, а по-другому - это фальсификация американцев и хохлов". У ребёнка должен быть один ответ. То же самое с историей - нельзя, если ты даже с подростком разговариваешь, давать ему много точек зрения", - процитировала газета возмущение Ашманова.
Он также подчеркнул, что решения должны принимать люди, а не алгоритмы, поскольку "на стороне алгоритмов нет ответственности".
Напомним, ранее "Яндекс" представил "Алису" нового поколения с новой опцией "Про", которая даёт доступ к нейросети YandexGPT 3 Pro.
Читайте новости Шахты.SU - Информационного портала города Шахты в Телеграме: https://t.me/shahtysu