по популярности / по алфавиту

эксперт
Научные и НФ-комиксы на Реакторе

Михаил Заславский: Парадоксальный взгляд комиксиста может подтолкнуть ученых к открытию

«Взрослые и увлекательные комиксы будут следовать за главными событиями науки и дополнят картину мира для интеллектуалов»

подробнее

ПУТЕВОДИТЕЛЬ ПО ТЕМНОЙ МАТЕРИИ / Полная загрузка

СЕКРЕТНАЯ ГИДРОДИНАМИКА / погружение в тему

БОЛЬШОЙ БРАТ СЛЕДИТ ЗА ТОБОЙ / Ответы на вопросы читателей портала reactor.space

БОЛЬШОЙ БРАТ СЛЕДИТ ЗА ТОБОЙ / Как компьютеры видят мир

ПУТЕВОДИТЕЛЬ ПО ТЕМНОЙ МАТЕРИИ / Часть вторая

ПУТЕВОДИТЕЛЬ ПО ТЕМНОЙ МАТЕРИИ / Часть третья

В США обсуждают тотальный контроль над искусственным интеллектом

В США обсуждают тотальный контроль над искусственным интеллектом

Автор:

Фото: artstation

Дата : 20.06.2017 9:01

Страх перед возможным превосходством ИИ над людьми заставляет специалистов обсуждать такие ограничения, которые сделают новорожденный интеллект фактически рабом своих создателей

В июне 2017 года в Сан-Франциско прошла конференция по искусственному интеллекту The AI Conference 2017. Мероприятие проводится ежегодно в рамках национальной Конференции по компьютерному обучению (MLconf) для проектов, команд и людей, работающих в сфере развития ИИ. По мнению специалистов, это главное событие года для спецов, чьими стараниями может вот-вот возникнуть бог (или монстр) из машины. 

Проблемы отношений человечества и ИИ уже не кажутся специалистам фантазиями киберпанков из New Rose Hotel. От абстракций и медитаций в духе Уильяма Гиббсона вопрос плавно перешел в практическую плоскость. Ну а скорость, с которой ученые продвигаются в вопросах оцифровки мироздания и человеческого сознания, заставляет кого-то паниковать.

На этот раз на конференции пророком будущего ИИ-апокалипсиса стал инженер из Google Игорь Марков.

Марков сравнил возможную опасность, которую могут представлять наделенные искусственным разумом машины, с эпидемией чумы. В средние века, когда человечество не знало даже микроскопов, люди не могли бороться с болезнью, потому что не понимали ни ее источника, ни природы заболевания. Сегодня, по мнению Маркова, то же самое может случиться с искусственным интеллектом. Если “что-то пойдет не так”, человечество может не суметь предсказать угрозу, исходящую от искусственного интеллекта, определить его мишени или предупредить его атаки. И случиться это может уже в обозримом будущем, учитывая скорость развития технологий.

Инженер предложил человечеству внимательно и осторожно заниматься развитием ИИ. В своем выступлении Марков не раз упомянул, что не является специалистом во многих областях, которые затрагивает развитие ИИ, но призвал ученых снизить возможные риски. В частности, Марков предложил исследователям и разработчикам ограничить машины физически. Во-первых, всегда оставлять резервные опции отключения ИИ за собой. Во-вторых, не допускать тотального контроля ИИ над определенными сферами деятельности и ограничить доступ разумных машин к источникам энергии. В-третьих, ограничить возможности ИИ в самовоспроизведении, саморемонте и самоулучшении.

“Каждый агент, каждая часть экосистемы ИИ должна быть спроектирована с какой-то слабостью. Вы ведь не хотите, чтобы агенты завладели контролем над всем. Таким образом, вы сможете контролировать их с помощью этих слабостей”, — объяснил Игорь Марков.

Он рассказал, что всякая единица электронного оборудования создается для выполнения какой-то конкретной функции, чтобы можно было контролировать работу на любом уровне, а значит, ИИ в целях безопасности должен иметь такие же ограничения.

Марков отметил, что некоторые специалисты считают подобные волнения преждевременными. Например, Эндрю Ын, американский ученый в области информатики, доцент Стэнфордского университета, ведущий специалист лаборатории искусственного интеллекта Baidu в Силиконовой долине и один из создателей ИИ Google Brain, сравнил подобную обеспокоенность в 2016 году с волнением о будущей перенаселенности Марса. И в январе 2017 года Эндрю Ын продолжал говорить, что единственная серьезная проблема, связанная с ИИ, — это перспектива замены людей на компьютеры во многих сферах деятельности и, связанная с этим, угроза безработицы.

Но Игорь Марков предпочел опираться на мнение людей, которые считают, что развитие ИИ будет идти все быстрее, а виртуальную реальность вскоре будет сложно отличить от привычной реальности. Марков ссылается на футуролога Рэя Курцвейла, который считает, что искусственный интеллект сможет слиться с человеческим в 2029 году, а в 2047 году наступит полная сингулярность. При этом, по мнению Курцвейла, слияние с машиной поможет людям стать лучше — музыкальнее, смешнее и сексуальнее. Однако Игорь Марков настроен критичнее.

Инженер Google напомнил о мнении Стивена Хокинга, который еще три года назад заявил, что ИИ может положить конец человеческой расе. В 2016 году ученый снова предупредил, что искусственный разум может стать как лучшим из того, что происходило с человечеством, так и худшим, что с ним случалось за всю историю. И заранее определить, как сложатся отношения человека и наделенного разумом робота, нельзя.

«Мы должны сделать все возможное, чтобы гарантировать, что будущее развитие ИИ принесет пользу нам и нашей окружающей среде», — заявил весной 2017 года Хокинг в видеообращении на открытии Global Mobile Internet Conference в Пекине, конференции, посвященной мобильным технологиям.

Игорь Марков, похоже, выступил перед аудиторией The AI Conference 2017 с тем же предостережением: ИИ нужно суметь не только создать, но и приручить. Но, судя по подходу Маркова, это приручение заранее неотличимо от рабства. В этом контексте предостережения о проблемах с ИИ получают новое измерение: нужны ли человечеству новые рабы? И как долго они будут ждать своего Спартака?

Справка РЕАКТОРА

Игорь Марков получил степень магистра математики и доктора компьютерных наук в Калифорнийском университете в Лос-Анджелесе. В настоящее время он работает в Google и занимается поисковой инфраструктурой, проводит встречи в Мичигане и иногда преподает в Стэнфорде. Он также включен в IEEE (самое крупное профессиональное сообщество для представителей технических специальностей) и в АСМ (Ассоциация профессионалов вычислительной техники). Среди научных интересов Маркова — компьютеры, создающие компьютеры, в том числе — алгоритмы, компьютерные модели, программное обеспечение и комплектующие. Игорь Марков — соавтор пяти книг и более 200 реферируемых публикаций.

Понравилась заметка? Поделитесь —

Комментарии (0)

Добавить комментарий

Войти с помощью: