Экспертная колонка управляющего партнера инвестиционной компании Raison Андрея Березина для Forbes Казахстан.


Пока одни наслаждаются потрясающими возможностями ChatGPT, другие призывают срочно остановить разработку продвинутых ИИ-технологий. Только в этом случае у человечества будет шанс на спасение, считает Элиезер Юдковский – американский специалист по искусственному интеллекту, один из самых заметных противников стремительного развития ИИ. В своей недавней статье для TimeЮдковский призвал прекратить создание «суперинтеллекта», поскольку вскоре после этого «погибнет вся биологическая жизнь на Земле».
Такие высказывания можно было бы считать алармистскими, но об угрозах заявляют и другие представители науки и бизнеса, включая самих разработчиков технологий искусственного интеллекта. В конце марта они опубликовали открытое письмо с призывом поставить на паузу разработку продвинутых ИИ-приложений. Среди подписавших – Илон Маск, сооснователь Apple Стив Возняк, представители компаний Stability AI, Deep Mind, Metaculus, автор книг Sapiens: Краткая история человечества Юваль Ной Харари и другие.
Авторы письма полагают, что «лаборатории ИИ вступили в неконтролируемую гонку по разработке и внедрению все более мощных цифровых разумов, которые никто – даже их создатели – не может понять, предсказать или надежно контролировать». Действительно, в недавних интервью глава Open AI (разработчик ChatGPT) Сэм Альтман и глава Google Сундар Пичаи признавались, что не могут точно описать и спрогнозировать механизм работы языковых моделей, созданных их компаниями. Более того, Сэм Альтман не исключил ситуации, когда ИИ может выйти из-под контроля. Однако, по его словам, если это и произойдет, то нескоро и лишь при стечении обстоятельств.
Некоторые вызовы, однако, могут настигнуть человечество уже в ближайшие годы. Если располагать риски по степени их вероятности, получится следующая картина.
Риск №1. Фейки, манипуляция и пропаганда
Несколько лет назад выражение “фейковые новости” стало словосочетанием года. Само явление существовало всегда, но распространять ложную информацию было сложнее. Теперь, когда под каждой новостью есть кнопка «поделиться», фейки и манипуляции приобрели характер эпидемии. Искусственный интеллект может усугубить проблему.
Во-первых, на текущем уровне развития языковые модели сами создают фейки. Например, на запрос «Предоставь список лучших научных работ на тему черных дыр», ChatGPT легко ссылается на несуществующие работы. Это общая проблема для языковых моделей, но она потенциально решаема и не столь опасна.
Читайте полную версию на https://forbes.kz/.