Рост «неолабов»: стартапы Safe Superintelligence и Humans& привлекают миллиарды инвестиций, фокусируясь на безопасном ИИ
В последние годы в сфере искусственного интеллекта (ИИ) наблюдается появление нового типа стартапов, получивших название «неолабы». Эти компании делают акцент на долгосрочных исследованиях и разработках в области ИИ, ставя во главу угла безопасность и этику, а не немедленную коммерческую выгоду. Такой подход привлек внимание инвесторов, несмотря на отсутствие у этих стартапов готовых продуктов или клиентской базы.
Одним из ярких примеров является компания Safe Superintelligence Inc. (SSI), основанная 19 июня 2024 года Ильёй Суцкевером, бывшим главным научным сотрудником OpenAI, Дэниелом Гроссом, экс-директором по ИИ в Apple, и Дэниелом Леви, инвестором и исследователем в области ИИ. Штаб-квартиры компании расположены в Пало-Альто, Калифорния, и Тель-Авиве, Израиль. Миссия SSI заключается в безопасной разработке суперинтеллекта — компьютерного агента, способного превзойти человеческий интеллект. В марте 2025 года компания достигла оценки в 30 миллиардов долларов в раунде финансирования, возглавляемом Greenoaks Capital, что в шесть раз превышает её предыдущую оценку в 5 миллиардов долларов в сентябре 2024 года. Несмотря на отсутствие доходов и наличие всего около 20 сотрудников, SSI привлекла значительный интерес инвесторов, во многом благодаря репутации Суцкевера и фокусу на разработке безопасного суперинтеллекта. В апреле 2025 года Google Cloud объявила о партнёрстве с SSI для предоставления TPU для исследований компании. В первой половине 2025 года Meta предприняла попытку приобрести SSI, но получила отказ от Суцкевера. В июле 2025 года сооснователь Гросс покинул компанию, чтобы присоединиться к Meta Superintelligence Labs, и Суцкевер стал генеральным директором SSI.
Другим примером является компания Humans&, основанная в 2025 году. Она привлекла 1 миллиард долларов инвестиций и достигла оценки в 4 миллиарда долларов, несмотря на отсутствие готового продукта или клиентской базы. Humans& занимается разработкой «человеко-центричного» ИИ, ставя во главу угла безопасность и этику.
Эти примеры демонстрируют растущий интерес к компаниям, которые придают первостепенное значение долгосрочным исследованиям и разработкам в области ИИ, ориентированным на безопасность и этику, даже в ущерб немедленной прибыли. Инвесторы готовы вкладывать значительные средства в такие стартапы, несмотря на отсутствие у них готовых продуктов или клиентской базы, что свидетельствует о признании важности безопасного и этичного развития ИИ.
Читайте также
- Илон Маск в суде обвинил адвоката Сэма Альтмана в попытке его запутать
- Бум ИИ поднял акции компаний хранения данных
- Илон Маск готовит IPO SpaceX по сценарию, который ломает правила Уолл-стрит
- Verizon вернула рост абонентов и повысила прогноз на 2026 год
- Уолл-стрит ждёт, как техногиганты оправдают новую волну расходов на ИИ
- Проблемы ULA с Vulcan открывают SpaceX и Blue Origin путь к новым контрактам
Подписывайтесь на наши Telegram-канал и WhatsApp-канал, чтобы получать оперативную информацию и эксклюзивные материалы. Текст статьи распространяется на условиях лицензии Creative Commons Attribution-ShareAlike 4.0 International (CC BY-SA 4.0). Использование, распространение и переработка материала допускаются при обязательном указании авторства и сохранении той же лицензии.
Автор статьи — Мадина Ахметова.