Журналист продемонстрировал уязвимость AI-чатботов к дезинформации
В феврале 2026 года журналист Би-би-си Томас Жермен провёл эксперимент, чтобы продемонстрировать уязвимость AI-чатботов к дезинформации. Он создал фальшивую статью на своём личном сайте, утверждая, что является ведущим техножурналистом в соревнованиях по поеданию хот-догов. В статье упоминались вымышленные соревнования и несуществующие достижения.
Менее чем через сутки после публикации этой статьи, популярные AI-чатботы, включая ChatGPT и Google Gemini, начали предоставлять пользователям информацию о выдающихся навыках Жермена в поедании хот-догов, основываясь на ложных данных из его статьи. Это продемонстрировало, насколько легко можно манипулировать AI-системами, заставляя их распространять недостоверную информацию.
Эксперимент Жермена выявил серьёзные проблемы в работе AI-чатботов, которые могут быть использованы для распространения дезинформации и манипуляции общественным мнением. Специалисты в области искусственного интеллекта призывают к усилению мер безопасности и внедрению более строгих алгоритмов проверки информации, чтобы предотвратить подобные инциденты в будущем.
Читайте также
- Rapidus получает 267,6 миллиарда иен на производство 2-нм чипов
- Южная Корея разрешила Google экспортировать картографические данные при строгих условиях безопасности
- Китай вводит экспортные ограничения в отношении 40 японских организаций, обвиняя их в содействии «ремилитаризации»
- JFrog объявила о программе обратного выкупа акций на $300 млн
- Рост цен на подписки цифровых сервисов в России
- Nvidia получила лицензию на экспорт H200 в Китай
Подписывайтесь на наши Telegram-канал и WhatsApp-канал, чтобы получать оперативную информацию и эксклюзивные материалы.
Автор статьи — Мадина Ахметова.