Amazon обнаружила сотни тысяч потенциальных материалов CSAM в данных для обучения ИИ в 2025 году
В 2025 году компания Amazon обнаружила сотни тысяч потенциальных материалов, связанных с сексуальным насилием над детьми (CSAM), в данных, используемых для обучения своих моделей искусственного интеллекта. Об этом было сообщено в Национальный центр пропавших и эксплуатируемых детей (NCMEC).
Однако представители NCMEC выразили обеспокоенность тем, что Amazon не предоставила информацию о происхождении этих данных, что затрудняет проведение расследований и принятие соответствующих мер. Отсутствие деталей о источниках данных вызывает вопросы о том, как такие материалы могли попасть в обучающие наборы данных компании.
Ситуация поднимает важные вопросы о безопасности и этике использования данных при разработке и обучении систем искусственного интеллекта. Эксперты подчеркивают необходимость строгого контроля и проверки данных, используемых в подобных целях, чтобы предотвратить использование незаконных или вредоносных материалов.
На данный момент Amazon не предоставила дополнительных комментариев по этому вопросу. Организации по защите детей продолжают призывать технологические компании к большей прозрачности и ответственности в отношении данных, используемых для обучения ИИ.
Читайте также
- Anthropic оспаривает в суде статус «риска для цепочки поставок», присвоенный Пентагоном
- Oracle демонстрирует рост прибыли и выручки, акции поднимаются на 7%
- Anthropic подала в суд на Министерство обороны США из-за признания угрозой для цепочки поставок
- Target снижает цены на более чем 3 000 товаров в США
- Anduril приобретает ExoAnalytic Solutions для усиления системы «Золотой купол»
- Visa и Mastercard ускоряют внедрение ИИ для улучшения платёжных сервисов
Подписывайтесь на наши Telegram-канал и WhatsApp-канал, чтобы получать оперативную информацию и эксклюзивные материалы.
Автор статьи — Мадина Ахметова.