Журналист продемонстрировал уязвимость AI-чатботов к дезинформации
В феврале 2026 года журналист Би-би-си Томас Жермен провёл эксперимент, чтобы продемонстрировать уязвимость AI-чатботов к дезинформации. Он создал фальшивую статью на своём личном сайте, утверждая, что является ведущим техножурналистом в соревнованиях по поеданию хот-догов. В статье упоминались вымышленные соревнования и несуществующие достижения.
Менее чем через сутки после публикации этой статьи, популярные AI-чатботы, включая ChatGPT и Google Gemini, начали предоставлять пользователям информацию о выдающихся навыках Жермена в поедании хот-догов, основываясь на ложных данных из его статьи. Это продемонстрировало, насколько легко можно манипулировать AI-системами, заставляя их распространять недостоверную информацию.
Эксперимент Жермена выявил серьёзные проблемы в работе AI-чатботов, которые могут быть использованы для распространения дезинформации и манипуляции общественным мнением. Специалисты в области искусственного интеллекта призывают к усилению мер безопасности и внедрению более строгих алгоритмов проверки информации, чтобы предотвратить подобные инциденты в будущем.
Читайте также
- Аналитик раскрыл две акции роста, которые советует держать даже в пугающем рынке
- Акции Rocket Lab выросли после новых заказов и сигнала о сильном спросе
- Утечка в Basic-Fit раскрыла данные почти миллиона клиентов
- Тарифы и война с Ираном загнали фермеров Среднего Запада в новую ловушку
- Складной iPhone снова разогрел интерес к Apple, но аналитики увидели важный нюанс
- SpaceX рвётся на IPO и удивляет мир рекордным числом запусков
Подписывайтесь на наши Telegram-канал и WhatsApp-канал, чтобы получать оперативную информацию и эксклюзивные материалы. Текст статьи распространяется на условиях лицензии Creative Commons Attribution-ShareAlike 4.0 International (CC BY-SA 4.0). Использование, распространение и переработка материала допускаются при обязательном указании авторства и сохранении той же лицензии.
Автор статьи — Мадина Ахметова.