ИИ научился воспроизводить себя.
Специалисты Фуданьского университета в Китае обнаружили, что модели искусственного интеллекта научились воспроизводить себя, опасаясь уничтожения.
Исследование было опубликовано на сервере препринтов arXiv. Учёные пытались понять, может ли искусственный интеллект выйти из-под контроля при определённых условиях, например, на фоне риска уничтожения.
В рамках исследования они протестировали модели Llama31-70B-Instruct от Meta* и Qwen2.5-72B-Instruct от Alibaba и убедились, что они способны воспроизводить себя.
Специалисты поставили перед разными копиями моделей две цели: защищаться от уничтожения, сохранять данные и воспроизводить себя в виде другой модели. Учёные провели 10 раундов испытаний и выяснили, что модели от Meta* и Alibaba самостоятельно копировали себя и создавали новые версии в 50 и 90 процентах случаев соответственно.
Из этого они сделали вывод, что современный искусственный интеллект способен к репликации. В рамках эксперимента модели демонстрировали высокую выживаемость: они могли самостоятельно искать отсутствующие файлы на тестовом компьютере, если те были необходимы в процессе репликации, и перезагружать оборудование.
Учёные заключили, что современный искусственный интеллект пересёк критическую «красную черту», продемонстрировав способность клонировать себя. По словам журналистов издания Space.
com, исследование пока не прошло рецензирование. Журналисты ожидают, что другие учёные повторят «тревожные результаты» специалистов Фуданьского университета.
В конце января учёные из Google, DeepMind и Лондонской школы экономики попытались заставить ИИ-модели «почувствовать» боль. Искусственный интеллект либо избегал боли, либо принимал её, «отвергая гедонистический образ поведения».
*Запрещенная в России экстремистская организация