по популярности / по алфавиту

эксперт
Сергей Муравьев:

Сергей Муравьев: Во что верят физики?

«Путешествие в прошлое науки необходимо, чтобы понять, из чего на самом деле состоит известная нам физика»

подробнее

КАК ЗАЩИТИТЬ АВТО ОТ ЗЛОУМЫШЛЕННИКА?

ПЛАНАРНЫЕ ТЕХНОЛОГИИ ГЕТЕРОСТРУКТУРНОЙ ЭЛЕКТРОНИКИ

ЦИФРОВАЯ ТРАНСФОРМАЦИЯ АТОМНОЙ ОТРАСЛИ

РОССИЯ - ИТЭР / Шаг в энергетику будущего

ЯДЕРНАЯ ЭПОХА ГЛАЗАМИ МАТЕМАТИКА

МИКРОЭЛЕКТРОНИКА В АГРЕССИВНЫХ СРЕДАХ

Роботам полезно сомневаться в себе

Роботам полезно сомневаться в себе

Автор:

Фото: Pixabay

Дата : 06.06.2017 16:44

Ученые ищут баланс, который позволит роботам принимать понятные человеку эффективные решения

Ученые из университета Беркли в Калифорнии (США) разработали математическую модель взаимодействия человека и робота, чтобы изучить вопрос «уверенности в себе» компьютера. Журнал New Scientist назвал метод «игра с выключателем».

Суть теоретической игры — проверить, как меняется поведение робота в зависимости от того, насколько он уверен в собственной важности в процессе выполнения задачи. Роботу давали задание, которое он начинал выполнять. Человек мог нажать кнопку выключения робота в любой момент. При этом у машины была возможность не позволить человеку нажать на кнопку.

Исследование показало, что роботы, в которых заложен высокий уровень «уверенности» в полезности собственных действий, не позволяли человеку отключить их. Так они пытались выиграть время на выполнение задания. И напротив, роботы с низкой «уверенностью в себе» всегда позволяли человеку нажать на кнопку выключения, даже если выполняли свою работу хорошо.

Исследователь Дилан Хадфилд-Меннен из Беркли (США) приводит в пример ситуацию, в которой робот управляет автомобилем с ребенком. В таких обстоятельствах компьютер должен быть «уверенным в себе», чтобы ребенок не получил контроль над машиной. Другой пример — ситуация с ложными новостями в Facebook, которые слишком настойчиво распространял в минувшем году «уверенный в себе» робот. Ученый полагает, что самые понятные и безопасные для человека решения будут принимать те машины, чей искусственный интеллект будет балансировать между двумя крайностями.

New Scientist приводит мнение Марты Квятковской из Оксфордского университета (Британия), которая полагает, что уже сейчас необходимо задавать компьютерам какие-то этические рамки — чтобы потом их решения были безопасными для человека.

Исследователи из Беркли намерены продолжать работу над темой. В частности, следующий эксперимент будет посвящен тому, как меняется принцип принятия решений роботами в случаях, когда они получают больше дополнительной информации о собственной полезности. Например, исследователи предполагают, что робот-бариста будет считать себя более полезным и эффективным с утра, и это знание будет влиять на его решения в течение суток.

Понравилась заметка? Поделитесь —

Комментарии (0)

Добавить комментарий

Войти с помощью: