Amazon обнаружила сотни тысяч потенциальных материалов CSAM в данных для обучения ИИ в 2025 году
В 2025 году компания Amazon обнаружила сотни тысяч потенциальных материалов, связанных с сексуальным насилием над детьми (CSAM), в данных, используемых для обучения своих моделей искусственного интеллекта. Об этом было сообщено в Национальный центр пропавших и эксплуатируемых детей (NCMEC).
Однако представители NCMEC выразили обеспокоенность тем, что Amazon не предоставила информацию о происхождении этих данных, что затрудняет проведение расследований и принятие соответствующих мер. Отсутствие деталей о источниках данных вызывает вопросы о том, как такие материалы могли попасть в обучающие наборы данных компании.
Ситуация поднимает важные вопросы о безопасности и этике использования данных при разработке и обучении систем искусственного интеллекта. Эксперты подчеркивают необходимость строгого контроля и проверки данных, используемых в подобных целях, чтобы предотвратить использование незаконных или вредоносных материалов.
На данный момент Amazon не предоставила дополнительных комментариев по этому вопросу. Организации по защите детей продолжают призывать технологические компании к большей прозрачности и ответственности в отношении данных, используемых для обучения ИИ.
Читайте также
- Robinhood инвестирует в Talos, оценка компании достигла 1,5 миллиарда долларов
- Строительная отрасль США активно внедряет ИИ для повышения эффективности
- Акции Advantest достигли рекордного максимума после превышения прогнозов прибыли и повышения годового прогноза
- LinkedIn увеличил квартальную выручку на 11%, впервые превысив $5 млрд
- Adaptive6 привлекла $28 млн в серии A для оптимизации облачных расходов
- Digital Edge инвестирует 4,5 млрд долларов в центр обработки данных в Индонезии
Подписывайтесь на наши Telegram-канал и WhatsApp-канал, чтобы получать оперативную информацию и эксклюзивные материалы.
Автор статьи — Мадина Ахметова.