IT

Amazon обнаружила сотни тысяч потенциальных материалов CSAM в данных для обучения ИИ в 2025 году

В 2025 году компания Amazon сообщила о выявлении сотен тысяч потенциальных материалов, связанных с сексуальным насилием над детьми, в данных для обучения искусственного интеллекта. Однако представители организаций по защите детей отметили, что Amazon не предоставила информацию о происхождении этих данных.
RU EN

В 2025 году компания Amazon обнаружила сотни тысяч потенциальных материалов, связанных с сексуальным насилием над детьми (CSAM), в данных, используемых для обучения своих моделей искусственного интеллекта. Об этом было сообщено в Национальный центр пропавших и эксплуатируемых детей (NCMEC).

Однако представители NCMEC выразили обеспокоенность тем, что Amazon не предоставила информацию о происхождении этих данных, что затрудняет проведение расследований и принятие соответствующих мер. Отсутствие деталей о источниках данных вызывает вопросы о том, как такие материалы могли попасть в обучающие наборы данных компании.

Ситуация поднимает важные вопросы о безопасности и этике использования данных при разработке и обучении систем искусственного интеллекта. Эксперты подчеркивают необходимость строгого контроля и проверки данных, используемых в подобных целях, чтобы предотвратить использование незаконных или вредоносных материалов.

На данный момент Amazon не предоставила дополнительных комментариев по этому вопросу. Организации по защите детей продолжают призывать технологические компании к большей прозрачности и ответственности в отношении данных, используемых для обучения ИИ.

Читайте также

Подписывайтесь на наши Telegram-канал и WhatsApp-канал, чтобы получать оперативную информацию и эксклюзивные материалы.

Автор статьи — .

Amazon обнаружила сотни тысяч потенциальных материалов CSAM в данных для обучения ИИ в 2025 году
Актуальные новости IT и технологий: новые гаджеты, программное обеспечение, стартапы, кибербезопасность и цифровые тренды.