Угроза искусственного интеллекта

18 апр’ 2015 | 07:36
alex24658



Человек всегда боится того, что не может понять и осознать, особенно радикальных изменений будущего, и так было всегда. То ли это переход от лошадей к автомобилям, от свечей к электричеству, то ли отсутствие связи с всемирной паутиной под названием интернет. Наступила новая эпоха развития современных технологий и их потребления человечеством. Мобильная связь, Viber, Skype, социальные сети и прочие элементы виртуальной связи уже давно стали для нас привычными вещами.

Что нас ждет в ближайшие десятилетия? Успешное создание искусственного интеллекта? К сожалению, это событие может оказаться последним, если человечество не научится избегать рисков. В будущем может случиться так, что никто и ничто не сможет остановить машины с искусственным интеллектом от самосовершенствования. А это запустит процесс так называемой технологической сингулярности - чрезвычайно быстрого технологического развития. Искусственный интеллект сможет превзойти человека и начнет управлять финансовыми рынками, научными исследованиями, людьми, разработкой оружия... Краткосрочный эффект искусственного интеллекта зависит от того, кто им управляет, а долгосрочный — от того, можно ли будет им управлять вообще.

Искусственный интеллект давно притягивает ученых и одновременно пугает. Идея о переносе сознания человека на электронный носитель не является новой или уникальной. Много раз мы «наблюдали искусственный интеллект в действии»: Скайнет, уничтоживший человечество в «Терминаторе», Архитектор, поработивший мир в «Матрице»… Человечество планомерно приучается к угрозе искусственного интеллекта.

Так что же произойдет, если действительно появится кто-то или что-то, способное превзойти нас? И что будет преобладать у искусственного интеллекта - человек или искусственный поток информации, сознание или чип?



Меня впечатлил фильм «Превосходство» с участием Джонни Деппа. Вопросы, поднятые в картине, могут стать более чем актуальными не в гипотетически обозримом будущем, а в любой момент настоящего, ведь работы по созданию искусственного интеллекта становятся всё более сложными, а сам искусственный интеллект — независимым и самостоятельным. К каким необратимым последствиям может привести желание обессмертить человеческую природу за счёт объединения живого организма с компьютерным разумом?

Фильм «Превосходство»- рассказ об эволюции. Выдающийся исследователь в области изучения искусственного интеллекта доктор Уилл Кастер (Джонни Депп) работает над созданием компьютера, который сможет собрать в себе все знания и опыт, накопленные человечеством. Эксперименты, проводимые Уиллом, сделали его основной целью анти технологической группировки. Однако в своих попытках уничтожить Уилла радикалы добиваются обратного и становятся участниками становления абсолютного превосходства искусственного интеллекта. Оцифрованное сознание Уилла Кастера копирует себя на каждое электронное устройство с выходом в интернет. Уилл Кастер, по сути, обрёл силу бога. Но он не стремился к мировому господству. Он хотел создать совершенный мир, без войн, голода и разрухи. Но человечество оказалось не готовым к таким переменам. Герой Джонни Деппа доказывает, что даже будучи оцифрованным, руководствуясь благими намерениями по спасению мира и человечества, можно быть не понятым, убитым и проигравшим.

Мы подсознательно настроены на отказ от новых технологий, если есть риск, что их использование приведёт к гибели человечества, мы инстинктивно боимся перешагнуть точку невозврата — когда не сумеем справиться с последствиями спровоцированных цивилизацией глобальных изменений. Но что, если точка невозврата уже пройдена? Компьютеры подчиняются закону Мура: их скорость и сложность удваиваются каждые 18 месяцев. Этот рост будет продолжаться, пока компьютеры, по сложности устройства, не сравняются с человеческим мозгом. Опасность, что они смогут разработать искусственный интеллект и захватить мир, реальна. Как сказал Мичио Каку: «от того, как мы справимся с вызовами и возможностями начавшегося века, будет зависеть, окончательная траектория дальнейшего движения человеческой расы».



Фильм «Превосходство» не оставил равнодушным самого известного ученого планеты Стивена Хокинга. В статье для Independent ученый предупреждает, что вполне вероятны негативные последствия от создания совершенного искусственного интеллекта. Хокинг считает создание искусственного интеллекта, «возможно, худшей ошибкой в истории».

«Заглядывая в будущее, существенных ограничений нет: не существует физического закона, который бы не давал частицам переупорядочить себя таким образом, чтобы выполнять даже более сложные операции, чем те, что доступны человеческому мозгу», — предупреждает Стивен Хокинг.
Личные ассистенты - Siri и Cortana, умный транспорт Google, автопилоты — всё это, по мнению учёного, только первый шаг к созданию искусственного интеллекта, который пока представляется плодом буйного воображения писателей-фантастов. Однако уже следующий этап обещает быть менее мирным и пушистым:

«В самое ближайшее время военные планируют начать разработку автономных систем вооружения, которые смогут выбирать и уничтожать цели. ООН и Организация по правам человека уже настаивают на заключении договора, запрещающего подобное оружие».
Новая голливудская картина «Превосходство» по словам Стивена Хокинга, не столько очередной научно-фантастический фильм, сколько один из возможных сценариев развития будущего человечества.

Успех в создании искусственного интеллекта станет по-настоящему величайшим событием в истории человечества. Но в то же время данная разработка может стать и последним событием в истории, если не просчитать все потенциальные риски и опасности.



В начале фильма, на пресс-конференции доктора Уилла Кастера один из террористов задал важный вопрос: «то есть вы хотите создать бога?». Ответ ученого не понял никто, ни простой люд, ни собратья ученые. И именно в этом непонимании кроется главная проблема - люди с радостью поклоняются отсутствующим богам, но в страхе разбегаются и пытаются уничтожить реально существующий высший разум.

Так может быть, вначале нужно понять этот мир, прежде чем стремится его изменить, создавая «компьютерного бога»?

Сотни ведущих ученых и предпринимателей мира призывают вновь обратить внимание на безопасность и этику, связанные с развитием искусственного интеллекта, чтобы предотвратить всякую угрозу для общества.

Открытое письмо было подписано известным физиком Стивеном Хокингом, соучредителем Skype Яаном Таллинном, генеральным директором SpaceX Элоном Маском и другими светилами науки из лучших университетов мира: Гарвардского, Стэнфордского, Массачусетского, Кэмбриджского, Оксфордского; также к письму присоединились такие компании, как Google, Microsoft и IBM.

Письмо обращается ко всем возможным проблемам, которые находятся на стыке искусственного и естественного интеллекта: как предупредить появление автоматического оружия, которое может убивать без разбора; кого винить в том, что автоматический транспорт теряет контроль над управлением и т. п.

Мозг состоит примерно из ста миллиардов нейронов, которые имеют триллионы разных по силе связей и поэтому образуют сложную трёхмерную структуру, — это минимальные параметры, которые должны быть учтены при копировании. Допустим, мозг всё-таки аналогичен компьютеру, и, значит, теоретически возможно скопировать его содержимое на внешний носитель. Но что именно подразумевается под этим «копированием»? Надо ли воспроизводить содержимое каждой клетки? При копировании есть опасность, что на выходе получится «философский зомби» — существо, ведущее себя как обычный человек, но не обладающее при этом ничем похожим на сознание или чувства.

http://zhitanska.com/

Комментарии:

Нет комментариев

Оставлять комментарии могут только зарегистрированные пользователи.
Зарегистрируйтесь и авторизуйтесь на сайте.