Будущее искусственного интеллекта: вызовы, риски и новые горизонты
В рамках XXV Ясинской (Апрельской) международной научной конференции прошла сессия «Будущее искусственного интеллекта». Ведущие эксперты из разных стран обсудили возможности и ограничения ИИ — от рабочих задач до глобальных вызовов.
Научный руководитель НИУ ВШЭ Ярослав Кузьминов и старший преподаватель Екатерина Кручинская открыли сессию и представили результаты исследования, посвящённого возможностям применения больших языковых моделей (LLM) для решения профессиональных задач. Оказалось, что даже самый продвинутый ИИ — например, чат GPT или GigaChat — отвечает правильно лишь на 40–55% вопросов. Более половины компаний осознают эти риски, а кроме того, отмечают проблемы с кибербезопасностью. Однако лишь 30% организаций работают над снижением этих рисков.
Исследователи разработали собственный бенчмарк — систему оценки уровня профессионализма ИИ по четырем критериям: прикладные знания, когнитивная гибкость, валидация экспертами, способность к логическому рассуждению.
Ярослав Кузьминов
«По этим критериям мы проверили три гипотезы, объясняющие ошибки ИИ. Выяснилось, что сложность и тип задач не сильно влияют на точность ответов моделей. Нейросеть пока не может стабильно отвечать на профессиональные вопросы. Однако у нас есть предложения, как улучшить ситуацию. Во-первых, необходимо создать ядро знаний — область, где модель не допускает ошибок. Во-вторых — разработать адекватные метрики эффективности для рабочих задач, от рутинных до сложных. И наконец, важно тестировать ИИ в различных контекстах. Профессионалы часто вынуждены принимать решения в условиях неопределенности, такой стресс-тест нужен и искусственному интеллекту».
Каэтано Пенна, аналитик Центра стратегических исследований и управления в области науки, технологий и инноваций Бразилии, рассматривает ИИ с точки зрения глобальной политики и экономики. По его мнению, государства всё больше стремятся к технологическому суверенитету, регулируют ИИ и участвуют в формировании цифровых стандартов. С наступлением новой технологической революции государствам предстоит не только инвестировать в искусственный интеллект, но и защищать общество от возможных негативных последствий цифровизации — неравенства, утраты конфиденциальности и других социальных и этических проблем. «Государства должны балансировать между инновациями и защитой общества, чтобы избежать кризисов и обеспечить устойчивое развитие», — подчеркнул докладчик.
Олеся Майбах, заведующая отделом методологии и организации форсайт-исследований Форсайт-центра ИСИЭЗ НИУ ВШЭ, представила результаты совместной работы со Сбером и Координационным центром Правительства РФ. Эксперты провели комплексный анализ структуры областей, связанных с искусственным интеллектом, и сформировали повестку перспективных фундаментальных исследований. В фокусе будущего — безопасность, этика, работа с данными, новые архитектуры и интерфейсы для взаимодействия с ИИ, а также интерпретируемость моделей.
Олеся Майбах
«Кроме того, среди потенциально новых исследовательских задач можно выделить развитие так называемых AI scientists — интеллектуальных систем, способных автономно проводить научные исследования и эффективно решать комплексные междисциплинарные задачи».
Продолжая дискуссию о будущем ИИ, особенно в контексте вопросов этики и безопасности, Оздчан Саритас, профессор ИСИЭЗ НИУ ВШЭ и директор по прогнозированию будущего в Рочестерском технологическом институте в ОАЭ, рассказал о применении искусственного интеллекта в правоохранительной сфере на примере полиции Дубая.
Оздчан Саритас
«ИИ уже сегодня помогает предотвращать преступления, управлять дронами и повышать уровень кибербезопасности. Однако по мере развития ИИ все большее значение приобретают вопросы конфиденциальности и ответственного подхода к использованию технологий».
Эксперты заключили, что будущее искусственного интеллекта зависит не только от технологических достижений, но и от способности общества обеспечить его этичное, безопасное и ответственное внедрение.