Янн ЛеКун: результаты Llama 4 были «немного подправлены»
Янн ЛеКун, бывший главный научный сотрудник по искусственному интеллекту компании Meta, в интервью Financial Times сообщил, что результаты модели Llama 4 были «немного подправлены». По его словам, команда использовала различные модели для разных тестов, чтобы добиться лучших показателей.
ЛеКун отметил, что команда применяла разные версии модели для различных бенчмарков, что позволило улучшить результаты. Однако он подчеркнул, что такие методы могут вводить в заблуждение относительно реальной производительности модели.
Эти заявления вызвали дискуссии в сообществе искусственного интеллекта о прозрачности и честности в представлении результатов тестирования моделей. Специалисты подчеркивают важность использования единых стандартов и методов оценки для обеспечения объективности и достоверности данных.
Ранее ЛеКун объявил о своем уходе из Meta и планах по созданию собственного стартапа, сосредоточенного на разработке «мировых моделей» — систем, способных понимать и моделировать физический мир на основе визуальных и пространственных данных.
Читайте также
- Аризона инвестирует в подготовку кадров для растущей полупроводниковой отрасли на фоне опасений по поводу иммиграционной политики США
- Украина стала полигоном для испытаний ИИ-дронов «Шмель» от компании Эрика Шмидта, вызвав обеспокоенность в Кремле
- DeepSeek представила архитектуру mHC для эффективного обучения крупных языковых моделей
- OpenAI совершенствует аудиомодели ИИ для нового голосового устройства
- Технологические стартапы предлагают сотрудникам бесплатные никотиновые пакетики для повышения продуктивности
- Рост популярности ИИ-компаньонов: более 220 миллионов загрузок в июле 2025 года
Подписывайтесь на наш Telegram-канал @politesnews, чтобы получать оперативные новости и эксклюзивные материалы.
Автор статьи — Мадина Ахметова.