- Категория
- IT и Телеком
- Дата публикации
- Переключить язык
- Читати українською
Стартап SSI привлек $1 миллиард для создания безопасных систем искусственного интеллекта
Стартам Safe Superintelligence (SSI), основанный бывшим главным научным сотрудником OpenAI Ильей Сутскевером, привлек 1 миллиард долларов инвестиций. SSI сосредоточена на разработке безопасных систем искусственного интеллекта, которые не только превышают человеческие возможности, но помогают избежать рисков и опасностей, связанных с использованием этой технологии. Об этом сообщает Reuters.
SSI насчитывает 10 сотрудников и планирует направить привлеченные средства на приобретение вычислительной мощности и поиск талантливых специалистов. Компания сосредоточится на формировании небольшой команды исследователей и инженеров, работающих в Пало-Альто (Калифорния) и Тель-Авиве (Израиль).
Стартап пока не раскрывает свою оценку, однако по данным близких к делу источников стоимость компании оценивается в 5 миллиардов долларов.
Несмотря на всеобщее снижение интереса к финансированию стартапов в сфере искусственного интеллекта, SSI привлекла ведущих инвесторов, таких как Andreessen Horowitz, Sequoia Capital, DST Global и SV Angel. Среди инвесторов также есть инвестиционное партнерство NFDG, которым руководят Нат Фридман и исполнительный директор SSI Дэниел Гросс.
Подписывайтесь на Telegram-канал delo.uaКак пояснил исполнительный директор SSI Дэниел Гросс, стартап планирует потратить несколько лет на разработку продукта, прежде чем выводить его на рынок. Основной целью является разработка решений, которые помогут внедрить искусственный интеллект в разные сферы жизни без рисков и опасностей.
Кроме того, SSI также планирует сотрудничать с провайдерами облачных технологий и производящими чипы компаниями для обеспечения своих потребностей в вычислительных мощностях, но конкретных партнеров еще не определила.
Добавим, что вопрос безопасности ИИ становится все более актуальным на фоне опасений, что неконтролируемый искусственный интеллект может действовать вопреки интересам людей или даже представлять угрозу их существованию.
Вместе с тем, безопасность искусственного интеллекта является одной из главных тем обсуждения, особенно в контексте новых законодательных инициатив, таких как калифорнийский законопроект о регулировании ИИ. Компании, такие как OpenAI и Google, выступают против этого законопроекта, в то время как другие, такие как xAI Anthropic и предприятия Илона Маска, его поддерживают.