Почему новатор в области ИИ Илья Суцкевер покинул OpenAI, чтобы сосредоточиться на безопасности, и роль Израиля в его новой миссии

У доктора Ильи Суцкевера есть видение. Это не типичное видение высокотехнологичных и предпринимателей в области искусственного интеллекта (ИИ), направленное на разработку продуктов, которые изменят мир и как можно скорее выйдут на рынок. И это не неявное видение создания бизнеса, который принесет им миллиарды, или, по крайней мере, сделает его миллионером. Это другой тип видения, который в наши дни не часто встречается в мире технологий: создание продукта, в случае его новой компании — общего искусственного интеллекта, который будет в первую очередь безопасным, даже если для этого потребуется время, чтобы выйти на рынок.

В интервью Bloomberg он заявил, что первым продуктом его новой компании будет безопасный суперкомпьютер, и компания не будет фокусироваться ни на чем другом, пока этого не достигнет. Есть причины скептически относиться к такому заявлению, учитывая прошлый опыт. Однако есть и основания поверить Суцкеверу. В своей предыдущей роли сооснователя, директора и главного ученого OpenAI он рискнул всем, чтобы возглавить попытку сместить основателя и генерального директора Сэма Альтмана из-за обеспокоенности тем, что компания недостаточно инвестирует в безопасность и предотвращение рисков в своих продуктах. Эта попытка в итоге провалилась.

Около месяца назад, осознав, что в компании ничего не изменится к лучшему в этом отношении, он вновь рискнул всем и оставил свою стабильную позицию в OpenAI ради нового предприятия — компании под названием Safe Superintelligence (SSI). Эта компания стремится создавать искусственный интеллект так, как не могут другие компании, работающие на капиталистической основе. Он отметил, что компания будет полностью защищена от внешнего давления, связанного с разработкой большого, сложного продукта и участием в конкурентной гонке.

Ожидается, что компания будет иметь тесные связи с Тель-Авивом. Суцкевер иммигрировал в Израиль в возрасте 5 лет и жил там до переезда в Торонто для учебы, хотя начал учиться на бакалавра в Открытом университете. Один из его партнеров по созданию SSI, Даниэль Гросс, родился в Иерусалиме. Третий партнер, Даниэль Леви, не является израильтянином. Кроме того, SSI объявила, что помимо центра в Пало-Альто откроет также центр в Тель-Авиве и уже набирает сотрудников.

Суцкевер, один из основателей OpenAI и главный ученый компании, объявил о своем уходе в мае, всего через шесть месяцев после неудачной попытки сместить Альтмана. Несколько часов спустя другой руководитель компании, Ян Лейке, объявил о своей отставке. Через два дня OpenAI объявила о расформировании команды, занимающейся рисками ИИ, созданной и возглавляемой Суцкевером и Лейке.

На прошлой неделе Суцкевер представил свое новое предприятие — компанию искусственного интеллекта под названием Safe Superintelligence, которая будет структурирована таким образом, чтобы ее деятельность подчеркивала безопасные разработки в этой области. «Создание безопасного сверхинтеллекта (SSI) — самая важная техническая задача нашего времени», — говорится в заявлении новой компании. «Мы создали первую в мире лабораторию прямого действия для создания SSI с одной целью и одним продуктом: безопасный сверхинтеллект. Это называется Safe Superintelligence. SSI — это наша миссия, наше имя и весь наш план развития продукта, потому что это наш единственный фокус. Наша команда, инвесторы и бизнес-модель все направлены на достижение SSI».

«Мы рассматриваем безопасность и возможности как технические задачи, которые нужно решать с помощью революционных инженерных и научных достижений. Мы планируем развивать возможности как можно быстрее, при этом обеспечивая, чтобы наша безопасность всегда оставалась впереди», — говорится в заявлении. «Таким образом, мы можем масштабироваться в мире. Наш единый фокус означает отсутствие отвлечений на управленческие задачи или циклы продуктов, а наша бизнес-модель означает, что безопасность, защита и прогресс изолированы от краткосрочного коммерческого давления».

В интервью Bloomberg Суцкевер отказался уточнить имена инвесторов компании и объем ее финансирования. Он также кратко изложил детали того, как SSI будет определять, что делает системы ИИ безопасными, заявив, что компания постарается достичь этого с помощью инженерных прорывов, которые позволят встроить безопасность в систему ИИ, а не встраивать защитные меры в технологию по мере ее работы.

Суцкевер сравнил безопасность, к которой они стремятся, с ядерной безопасностью, а не с концепцией «доверия и безопасности», признавая, что это сравнение может быть не особенно успокаивающим, учитывая несколько серьезных ядерных катастроф, таких как Чернобыль или Фукусима. Он добавил, что на самом базовом уровне безопасный сверхинтеллект должен быть создан так, чтобы он не вредил человечеству в больших масштабах. После этого он может стать силой для положительных изменений. Некоторые из ценностей, которые они рассматривают, могут быть теми, которые были успешными за последние сто лет и лежат в основе либеральных обществ, такие как свобода и демократия.

Леви, который тесно работал с Суцкевером в OpenAI, добавил, что он считает, что сейчас самое подходящее время для такого проекта, как SSI. Его видение совпадает с видением Суцкевера: небольшая и квалифицированная команда, полностью сосредоточенная на одной цели — безопасном сверхинтеллекте.

Для Суцкевера это вторая попытка создать корпоративную структуру для безопасного развития искусственного интеллекта. Это была идея, лежащая в основе OpenAI, которая начинала свой путь как некоммерческая организация с заявленной целью разработки продуктов ИИ в изоляции от соображений и давления традиционной капиталистической корпорации. Однако необходимость привлечения больших сумм денег, миллиардов долларов, и тесное деловое партнерство с Microsoft привели к изменению корпоративной структуры OpenAI и созданию коммерческого субъекта.

Неудачная попытка импичмента Альтмана в конце 2023 года стала последним гвоздем в крышку гроба старого видения. В результате совет директоров, состоявший исключительно из директоров, не имеющих коммерческих интересов в компании, был заменен. Помимо Альтмана и Суцкевера, в него входили видные независимые ученые и исследователи в этой области. В результате OpenAI теперь является гораздо более традиционной стартап-компанией, с сильным генеральным директором в лице Альтмана и обязательством перед инвесторами создавать продукты, приносящие прибыль, оставляя позади любое видение разработки, ориентированное на безопасность.

Главный вопрос о SSI заключается в том, усвоил ли Суцкевер уроки OpenAI и смог ли создать организацию, которая будет освобождена от обычного капиталистического давления и сможет действительно приоритетить безопасность перед доходами и прибылью на протяжении длительного времени. Значительная часть ответа зависит от личности инвесторов и их готовности вкладывать в разработку, которая может не приносить никакой отдачи в течение длительного времени, если вообще принесет. Это означает инвесторов, которые рассматривают свои взносы скорее как филантропию, чем как инвестицию, и готовы придерживаться этого филантропического подхода с течением времени.

Несмотря на эти ограничения, оценки, основанные на личности основателей и их положении в индустрии, предполагают, что SSI не будет иметь трудностей с привлечением значительных сумм. Гросс сказал Bloomberg, что привлечение капитала не будет одной из их проблем.

Источник Calcalist

Телеграм канал Радио Хамсин >>

  • Омер Кабир

    Другие посты

    «Израильские технологии доказывают миру — и самим себе — что их невозможно остановить»

    Быстрое восстановление израильского технологического сектора в 2024 году удивило многих, но не Сарит Фирон. Опытный инвестор, стоящий за крупнейшими выходами Team8 Capital, объясняет, почему основатели, сотрудники и международные инвесторы продолжают делать ставку на Израиль — даже в самые сложные времена.

    Читать

    Не пропустите

    Конечно, они не знали, что ХАМАС запрещён. Откуда им было знать?

    Конечно, они не знали, что ХАМАС запрещён. Откуда им было знать?

    Кто такая Стефани Эллер, представительница Красного Креста на сцене рядом с ХАМАСом?

    Кто такая Стефани Эллер, представительница Красного Креста на сцене рядом с ХАМАСом?

    Египет и Иордания несут ответственность за кризис в Газе

    Египет и Иордания несут ответственность за кризис в Газе

    Манипуляции прессой: игра в одни ворота

    Манипуляции прессой: игра в одни ворота

    Почему ХАМАС выбрал Джабалию в качестве фона для освобождения заложников

    Почему ХАМАС выбрал Джабалию в качестве фона для освобождения заложников

    Фундаменталистский ислам: угроза западному миру

    Фундаменталистский ислам: угроза западному миру