IT

Журналист продемонстрировал уязвимость AI-чатботов к дезинформации

Журналист продемонстрировал, как легко манипулировать AI-чатботами, заставляя их повторять ложную информацию. Это поднимает вопросы о надежности и безопасности подобных систем.
RU EN

В феврале 2026 года журналист Би-би-си Томас Жермен провёл эксперимент, чтобы продемонстрировать уязвимость AI-чатботов к дезинформации. Он создал фальшивую статью на своём личном сайте, утверждая, что является ведущим техножурналистом в соревнованиях по поеданию хот-догов. В статье упоминались вымышленные соревнования и несуществующие достижения.

Менее чем через сутки после публикации этой статьи, популярные AI-чатботы, включая ChatGPT и Google Gemini, начали предоставлять пользователям информацию о выдающихся навыках Жермена в поедании хот-догов, основываясь на ложных данных из его статьи. Это продемонстрировало, насколько легко можно манипулировать AI-системами, заставляя их распространять недостоверную информацию.

Эксперимент Жермена выявил серьёзные проблемы в работе AI-чатботов, которые могут быть использованы для распространения дезинформации и манипуляции общественным мнением. Специалисты в области искусственного интеллекта призывают к усилению мер безопасности и внедрению более строгих алгоритмов проверки информации, чтобы предотвратить подобные инциденты в будущем.

Читайте также

Подписывайтесь на наши Telegram-канал и WhatsApp-канал, чтобы получать оперативную информацию и эксклюзивные материалы.

Автор статьи — .

Журналист продемонстрировал уязвимость AI-чатботов к дезинформации
Актуальные новости IT и технологий: новые гаджеты, программное обеспечение, стартапы, кибербезопасность и цифровые тренды.

Посмотреть все новости