Проект посвящён разработке безопасного суперинтеллекта
Оставайтесь в курсе последних событий! Подписывайтесь на наш канал в Telegram.
Сооснователь компании OpenAI Илья Суцкевер запустил новый стартап под названием Safe Superintelligence (SSI). Проект позиционируется как «первая в мире лаборатория» для создания безопасного суперинтеллекта. Об этом сообщает Financial Times.
Кроме Суцкевера, соучредителями стартапа стали бывший сотрудник OpenAI Дэниел Леви и предприниматель, инвестор в ИИ Дэниел Гросс. Ранее Гросс работал партнёром в Y Combinator, стартап-инкубаторе Кремниевой долины, которым до 2019 года руководил глава OpenAI Сэм Альтман.
На сайте своего стартапа партнёры пояснили, что единственная цель компании — разработка безопасного суперинтеллекта. Такой тип машинного интеллекта может превзойти когнитивные способности человека. Основатели SSI подчеркнули, что новая компания не обременена требованиями инвесторов о доходах.
Напомним, месяц назад Суцкевер ушёл из OpenAI. Он занимал должность научного руководителя компании. Тогда отмечалось, что Суцкевер займётся новым проектом, который представит позже. Его место в OpenAI занял директор по научным исследованиям Якуб Пачоцки.В 2015 году Альтман и Суцкевер вместе с Илоном Маском и Питером Тилем запустили OpenAI. Спустя три года Маск покинул совет директоров, чтобы избежать конфликта интересов с Tesla, которая использует машинное обучение в своих беспилотных автомобилях.
Интересно, что изначально у OpenAI была схожая с SSI миссия. Компания создавалась как некоммерческая исследовательская лаборатория для разработки сверхразумного ИИ, который принёс бы пользу людям. Хотя Альтман настаивает на том, что такая миссия — по-прежнему главный принцип OpenAI, стало очевидно, под его руководством компания трансформировалась в быстрорастущий бизнес, констатирует FT.
Эта рассылка с самыми интересными материалами с нашего сайта. Она приходит к вам на e-mail каждый день по утрам.