Журналист продемонстрировал уязвимость AI-чатботов к дезинформации
В феврале 2026 года журналист Би-би-си Томас Жермен провёл эксперимент, чтобы продемонстрировать уязвимость AI-чатботов к дезинформации. Он создал фальшивую статью на своём личном сайте, утверждая, что является ведущим техножурналистом в соревнованиях по поеданию хот-догов. В статье упоминались вымышленные соревнования и несуществующие достижения.
Менее чем через сутки после публикации этой статьи, популярные AI-чатботы, включая ChatGPT и Google Gemini, начали предоставлять пользователям информацию о выдающихся навыках Жермена в поедании хот-догов, основываясь на ложных данных из его статьи. Это продемонстрировало, насколько легко можно манипулировать AI-системами, заставляя их распространять недостоверную информацию.
Эксперимент Жермена выявил серьёзные проблемы в работе AI-чатботов, которые могут быть использованы для распространения дезинформации и манипуляции общественным мнением. Специалисты в области искусственного интеллекта призывают к усилению мер безопасности и внедрению более строгих алгоритмов проверки информации, чтобы предотвратить подобные инциденты в будущем.
Читайте также
- Anthropic оспаривает в суде статус «риска для цепочки поставок», присвоенный Пентагоном
- Oracle демонстрирует рост прибыли и выручки, акции поднимаются на 7%
- Anthropic подала в суд на Министерство обороны США из-за признания угрозой для цепочки поставок
- Target снижает цены на более чем 3 000 товаров в США
- Anduril приобретает ExoAnalytic Solutions для усиления системы «Золотой купол»
- Visa и Mastercard ускоряют внедрение ИИ для улучшения платёжных сервисов
Подписывайтесь на наши Telegram-канал и WhatsApp-канал, чтобы получать оперативную информацию и эксклюзивные материалы.
Автор статьи — Мадина Ахметова.