Стивен Адлер предупреждает о рисках развития искусственного интеллекта.
Бывший исследователь по безопасности в OpenAI Стивен Адлер выразил обеспокоенность по поводу быстрого развития искусственного интеллекта.
Он предупредил, что индустрия делает «очень рискованную ставку» на эту технологию. Адлер, покинувший OpenAI в ноябре, написал в серии постов на X, что ему «очень понравилось» в американской компании и он будет скучать по «многим её аспектам».
Однако он сказал, что технология развивается так быстро, что это вызывает сомнения в будущем человечества. Некоторые эксперты, такие как лауреат Нобелевской премии Джеффри Хинтон, опасаются, что мощные системы ИИ могут выйти из-под контроля человека с потенциально катастрофическими последствиями.
Другие, такие как Ян Лекун, главный специалист Meta* по искусственному интеллекту, преуменьшают угрозу существованию, заявляя, что ИИ «в действительности может спасти человечество от вымирания». Адлер добавил, что ни у одной исследовательской лаборатории нет решения для настройки ИИ — процесса, обеспечивающего соответствие систем набору человеческих ценностей.
Он сказал, что индустрия, возможно, развивается слишком быстро, чтобы найти такое решение. «Чем быстрее мы работаем, тем меньше вероятность, что кто-то найдёт его вовремя», — заявил он.
Публикации Адлера появились после того, как китайская компания DeepSeek, которая также стремится развивать общий искусственный интеллект (AGI), представила модель, которая конкурирует с технологией OpenAI, несмотря на то, что для её разработки было затрачено явно меньше ресурсов. Предупреждая о том, что отрасль, по-видимому, «застряла в очень плохом равновесии», Адлер сказал, что необходимы «реальные правила безопасности».
«Даже если лаборатория действительно хочет ответственно подходить к разработке AGI, другие всё равно могут сократить время, чтобы наверстать упущенное, что может привести к катастрофическим последствиям», — подчеркнул он.
*Запрещенная в России экстремистская организация