Amazon обнаружила сотни тысяч потенциальных материалов CSAM в данных для обучения ИИ в 2025 году
В 2025 году компания Amazon обнаружила сотни тысяч потенциальных материалов, связанных с сексуальным насилием над детьми (CSAM), в данных, используемых для обучения своих моделей искусственного интеллекта. Об этом было сообщено в Национальный центр пропавших и эксплуатируемых детей (NCMEC).
Однако представители NCMEC выразили обеспокоенность тем, что Amazon не предоставила информацию о происхождении этих данных, что затрудняет проведение расследований и принятие соответствующих мер. Отсутствие деталей о источниках данных вызывает вопросы о том, как такие материалы могли попасть в обучающие наборы данных компании.
Ситуация поднимает важные вопросы о безопасности и этике использования данных при разработке и обучении систем искусственного интеллекта. Эксперты подчеркивают необходимость строгого контроля и проверки данных, используемых в подобных целях, чтобы предотвратить использование незаконных или вредоносных материалов.
На данный момент Amazon не предоставила дополнительных комментариев по этому вопросу. Организации по защите детей продолжают призывать технологические компании к большей прозрачности и ответственности в отношении данных, используемых для обучения ИИ.
Читайте также
- Китай вводит запрет на OpenClaw в госучреждениях, но Шэньчжэнь поддерживает развитие технологии
- Эксперты выделяют перспективные технологические акции для инвесторов
- Администрация Трампа заключила соглашение с TikTok, обеспечив продолжение работы приложения в США
- Cerebras Systems и Amazon заключили соглашение о предоставлении ИИ-чипов для облачных сервисов
- Nvidia представит новые ИИ-решения на конференции GTC 2026
- Lloyds Bank устранил сбой, позволявший клиентам видеть чужие транзакции
Подписывайтесь на наши Telegram-канал и WhatsApp-канал, чтобы получать оперативную информацию и эксклюзивные материалы.
Автор статьи — Мадина Ахметова.