Новости о том, что автоматизация рано или поздно начнет массово лишать людей их работы и оставит за забором социальной полезности, вряд ли вызовут положительные эмоции у человека, с перспективой смотрящего в будущее. Масла в огонь подливают такие шоу, как «Терминатор» или, например, свежий «Мир Дикого запада», которые тоже вносят свой вклад в общую копилку опасений, но уже с точки зрения разработки «недружелюбного» искусственного интеллекта.
Имеют ли эти страхи под собой реальную основу? Возможно. А возможно, это всего лишь надуманная истерия. Но как бы там ни было, Институт инженеров электротехники и электроники (IEEE) уверен в том, что развитие ИИ и автоматизационных систем должно «согласовываться с полным учетом и соответствием человеческим моральным ценностям и этическим принципам».
Свои идеи институт представил в виде 136-страничного документа с названием «Ethically Aligned Design», являющегося своего рода «стандартом» для разработок, производства и развития роботов и искусственного интеллекта. Документ разработан при содействии более 100 мировых экспертов в сфере ИИ, законов, этики, философии и политики. Другими словами, при участии самых видных академиков, ученых и представителей правительственного сектора.
«Благодаря обеспечению экспертов и разработчиков практическими рекомендациями для создания автоматизированных и интеллектуальных продуктов, сервисов и систем с учетом соблюдения выработанных этических человеческих принципов мы сможем справиться с нашими страхами, связанными с этими технологиями и сосредоточить свое внимание на тех преимуществах, которые эти технологии смогут принести человечеству не только в будущем, но уже и сегодня», — говорится в заявлении Константиноса Карачалиоса, управляющего директора ассоциации по вопросам стандартизации в IEEE.
В IEEE отмечают, что инициатива является полностью открытой и они готовы к предложениям и обсуждениям интересующих вопросов со стороны инженеров, разработчиков и дизайнеров систем автоматизации и развития ИИ. При этом они готовы вести полноценный диалог, так как обратная связь в этом вопросе является одним из важнейших аспектов в выработке обсуждаемых стандартов.
Что касается предложений, описанных в самом документе, то в них включены соображения по вопросам методологии проведения исследований и разработок; описываются опасения по поводу создания «черных ящиков». Другими словами, документ предостерегает сферу ИИ и автоматизации от проведения закрытых разработок.
С более фундаментальной точки зрения то, что предлагает IEEE, приводит к появлению сразу нескольких интересных вопросов, важнейшим из которых, пожалуй, является следующий: а можно ли вообще запрограммировать мораль? Возможно ли на самом деле подстроить технологии ИИ и автоматизации под те «стандарты и человеческие и социальные ценности», о которых говорится в документе IEEE?
Однако IEEE настаивает на своем и говорит о важности и необходимости стандартов. Ведь благодаря им мы сможем быть уверены в том, что при создании и развитии новых технологий в конечном итоге не пострадают люди.
«Стандарты смогут обеспечить производственный контроль интеллектуальных и автономных технологий. Интеллектуальные системы становятся все сложнее и потому их незапрограммированное поведение может стать опасным. Для решения этого вопроса необходим надзор за процедурой разработки интеллектуальных и автономных систем».
«Исследователям и разработчикам, занимающимся развитием и внедрением автономных и интеллектуальных систем, придется столкнуться с более прогрессивным и сложным набором мер соответствия по вопросам моральной и технической безопасности. Следовательно, к своей работе им придется подходить более ответственно».
Если смотреть на ситуацию в целом, то IEEE сделала очень важный и действительно необходимый шаг на пути к «очеловечиванию» автономных и интеллектуальных систем.