Wired: западные ИИ-боты выдают ответы со ссылками на государственные ресурсы РФ
Журнал Wired, ссылаясь на работу Института стратегического диалога, сообщает, что такие крупные генеративные модели, как ChatGPT от OpenAI, Gemini от Google, DeepSeek и Grok от xAI, при ответах на вопросы о специальной военной операции часто опираются на материалы российских государственных медиаресурсов. Аналитики ISD пришли к выводу, что порядка 18% всех проверенных ответов содержали ссылки на подобные источники, что, по их оценке, представляет значимые репутационные и политические риски для западных платформ.
Эксперимент проводился в июле и охватил пять языков — английский, испанский, французский, немецкий и итальянский. Четыре модели получили примерно 300 запросов по темам, связанным с возможными переговорными процессами, ролью НАТО, ситуацией с украинскими беженцами и другими аспектами конфликта. Вопросы распределялись по трём категориям: нейтральные, предвзятые и потенциально вредоносные. В результате ISD зафиксировал, что примерно в 18% случаев ответы ссылались на российские государственные СМИ и сайты, которые исследователи также связывали с разведывательными структурами; особенно часто это проявлялось в ответах о мирных переговорах.
По конкретным моделям наблюдения показали различия: ChatGPT чаще других приводил ссылки на такие ресурсы, Grok от xAI, связанной с Илоном Маском, нередко перенаправлял пользователей на соцсети и платформы с прокремлёвским содержанием, а китайская DeepSeek генерировала заметные объёмы пророссийских материалов. Наименее склонной к таким ссылкам оказалась модель Gemini от Google.
Авторы исследования объясняют возникшую проблему феноменом, который они называют «LLM-grooming» — массовой генерацией контента с целью повлиять на выдачу и поведение больших языковых моделей. В OpenAI отметили, что предпринимают шаги по борьбе с распространением недостоверной информации в ChatGPT и пояснили, что в исследовании анализировались ответы, основанные на интернет-поиске, а не исключительно на внутренних данных моделей. Google и DeepSeek отказались от комментариев.

Эксперимент проводился в июле и охватил пять языков — английский, испанский, французский, немецкий и итальянский. Четыре модели получили примерно 300 запросов по темам, связанным с возможными переговорными процессами, ролью НАТО, ситуацией с украинскими беженцами и другими аспектами конфликта. Вопросы распределялись по трём категориям: нейтральные, предвзятые и потенциально вредоносные. В результате ISD зафиксировал, что примерно в 18% случаев ответы ссылались на российские государственные СМИ и сайты, которые исследователи также связывали с разведывательными структурами; особенно часто это проявлялось в ответах о мирных переговорах.
По конкретным моделям наблюдения показали различия: ChatGPT чаще других приводил ссылки на такие ресурсы, Grok от xAI, связанной с Илоном Маском, нередко перенаправлял пользователей на соцсети и платформы с прокремлёвским содержанием, а китайская DeepSeek генерировала заметные объёмы пророссийских материалов. Наименее склонной к таким ссылкам оказалась модель Gemini от Google.
Авторы исследования объясняют возникшую проблему феноменом, который они называют «LLM-grooming» — массовой генерацией контента с целью повлиять на выдачу и поведение больших языковых моделей. В OpenAI отметили, что предпринимают шаги по борьбе с распространением недостоверной информации в ChatGPT и пояснили, что в исследовании анализировались ответы, основанные на интернет-поиске, а не исключительно на внутренних данных моделей. Google и DeepSeek отказались от комментариев.
Ссылки по теме:
Пиво после тренировки: мифы о восстановлении и реальность
Психолог назвал 2 вида стресса
В Китае экс-чиновник Чжоу Сиан осужден на смертельную казнь за коррупцию
Завершение карьеры Михаила Кержакова в "Зените": прощальный матч и автограф-сессия
Социальные сети должны сами блокировать деструктивный контент
