Специалисты оценили риски ИИ.
Специалисты корпорации Microsoft провели исследование, в котором оценили риски безопасности, связанные с использованием искусственного интеллекта (ИИ).
Результаты исследования были опубликованы на сервере препринтов arXiv. Учёные проанализировали более 100 инструментов генеративного ИИ и оценили связанные с ними риски.
Они пришли к выводу, что ИИ «никогда не будет полностью безопасным». Поэтому важно контролировать, на основе чего обучаются языковые модели (LLM), и предупреждать ошибки.
Специалисты отметили, что большие языковые модели (LLM) усиливают существующие риски безопасности и создают новые. Если обучать LLM на основе ошибочных или конфиденциальных данных, то модель будет распространять эту информацию среди пользователей.
Они также назвали потенциальный вред от ИИ труднооценимым. Чтобы повысить безопасность от использования ИИ, специалисты предложили контролировать каждый этап обучения LLM.
В качестве одного из выводов исследования они отметили, что человеческий фактор в процессе обучения ИИ всегда будет решающим. Также в работе с искусственным интеллектом необходимы предметная экспертиза, культурная компетентность и эмоциональный интеллект.
В начале января швейцарские учёные связали частое использование инструментов ИИ со снижением навыков критического мышления. Они предсказали, что в долгосрочной перспективе ИИ будет неизбежно влиять на снижение когнитивных функций в обществе.