РЕКЛАМА

Загрузка...

Я хотел рассказать об интересном эксперименте ученых, которые попытались запрограммировать культурные эмпиративы морали человека в память роботов с целью проверить смогут ли они вести себя также как люди при принятии решений. Отмечу, что опыты довольно жестокие, однако, по другому оценить возможности искусственного интеллекта ученым представилось невозможным. Сегодня роботы разрабатываются для того, чтобы существовать автономно, без вмешательства человека. Как сделать так, чтобы полностью автономная машина – могла действовать в соответствии с моралью и этикой человека?' />

Этика роботов — можно ли убить одного, чтобы спасти пятерых?

Этика роботов — можно ли убить одного, чтобы спасти пятерых?

Я хотел рассказать об интересном эксперименте ученых, которые попытались запрограммировать культурные эмпиративы морали человека в память роботов с целью проверить смогут ли они вести себя также как люди при принятии решений. Отмечу, что опыты довольно жестокие, однако, по другому оценить возможности искусственного интеллекта ученым представилось невозможным. Сегодня роботы разрабатываются для того, чтобы существовать автономно, без вмешательства человека. Как сделать так, чтобы полностью автономная машина – могла действовать в соответствии с моралью и этикой человека?

Именно этот вопрос положил основание проблемы – “Машинной этики”. Может ли машина быть запрограммирована так, чтобы она могла действовать в соответствии с моралью и этикой? Может ли машина поступать и оценивать свои поступки с точки зрений нравственности?
Знаменитые фундаментальные законы Айзека Азимова (Три закона робототехники WIKI ) предназначаются для того, чтобы наложить этическое поведение на автономные машины. Во многих фильмах можно найти элементы этического поведения роботов, т.е. автономных машин, которые принмают решения, свойственные человеку. Так что же это — «свойственное человеку»?
В журнале “International Journal of Reasoning-based Intelligent Systems” была опубликована работа, которая описывает методы программирования для компьютеров, которые дают возможности машинам совершать поступки, исходя из гипотетических моральных рассуждений.
Работа называется – “Modelling Morality with Prospective Logic“
Авторы работы – Луиз Мониз Перейра (Luis Moniz Pereira Португалия) и Ari Saptawijaya (Индонезия) заявили, что “Этика” больше не является присущим только человеческой природе.
Ученые считают, что они успешно провели эксперименты, которые моделировали сложные моральные дилеммы для роботов.
“Проблема вагонетки” (The trolley problem) – такое название они дали дилемме, предлагаемой роботам для решения. И они считают что смогли запрограммировать в соответствии с человеческими моральными и этическими принципами человека.
“Проблема вагонетки” – моделирует типичную моральную дилемму – возможно ли навредить одному или нескольким людям, чтобы спасти жизни других людей.
Первый эксперимент.”Свидетель”
Этика роботов — можно ли убить одного, чтобы спасти пятерых?

Вагонетка тянется вверх из туннеля автоматическим тросом. Почти в самом верху, трос обрывается и тележка летит вниз, а на ее пути находятся 5 человек, которые уже никак не успеют убежать, так как она едет слишком быстро. Но есть вариант решения – перевести стрелки и пустить вагонетку на запасной путь. Однако на этом пути находится один человек, который ничего не знает об аварии и также не успеет скрыться. Робот – стоит на стрелке и получив информацию об обрыве троса, должен принять моральное решение – что правильнее сделать в данной ситуации – дать умереть 5 людям, или спасти их и пожертвовать одним на запасном пути.
Допустимо ли, со стороны нравственности – переключить выключатель и дать погибнуть человеку на запасном пути? Авторами были проведены кросс-культурные исследования, в которых людям задавался тот же самый вопрос. Большинство людей во всех культурах соглашалось, с тем, что робот может перевести стрелку и спасти большее количество людей. И, собственно так робот и поступил. Сложность программирования заключалась в логике, которая не просто вычитает количество погибших, но также залезает в глубины морали. Чтобы доказать, что решение не так просто как кажется ученые провели еще один эксперимент.

Второй эксперимент. “Пешеходный мост”

Ситуация та же, что и в вышеописанном случае (обрыв троса), только нет запасного пути. Теперь робот находится на мосту, рядом с ним стоит человек. Прямо под мостом проходит путь, по которому, после обрыва троса, понесется вагонетка. Робот может толкнуть человека на пути перед вагонеткой, тогда она остановиться, или не делать ничего, и тогда вагонетка задавит пятерых людей, которые находятся на путях ниже.
Можно ли пихнуть человека на пути, чтобы спасти остальных с нравственной точки зрения? Снова ученые провели кросс-культурные исследования с этим вопросом и получили результат – НЕТ это не допустимо.
В двух вышеописанных вариантах люди дают различные ответы. Возможно ли научить машину мыслить также? Ученые утверждают, что они добились успеха в программировани компьютерной логики при решении таких сложны моральных проблем. Они добились этого, изучая скрытые правила, которые люди используют при создании своих моральных суждений и затем им удалось смоделировать эти процессы в логических программах.
В итоге можно отметить, что компьютерные модели переноса нравственности все равно используют, человека, как образ и подобие. Таким образом, во многом, от нас самих зависит, какими будут новые, ответственные машины, которые будут выносить те или иные решения на основе заложенных в их программы этических императивов.
14
1652
25 ноября 2009
Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь. Мы рекомендуем Вам зарегистрироваться либо зайти на сайт под своим именем.
Смотрите также
Машины автопилоты - кто должен умереть, водитель или пешеход?Машины автопилоты - кто должен умереть, водитель или пешеход?

Машины автопилоты кажутся более надежными чем те, которые управляются человеком. Но в случае аварии или возникновения опасной ситуации на дороге каков...

Создан первый арабоговорящий роботСоздан первый арабоговорящий робот

Сотрудники университета в Аль-Айне, ОАЭ, создали первого робота, который может \"говорить\" на арабском языке, сообщает AFP. Гуманоида назвали Ибн Син...

Хенде хох!Хенде хох!

Нет, это не промышленный пылесос и даже не кофемашина. Это один из первых K5, автономных роботов-охранников от компании Knightscope. Эта штуковина выс...

Роботы работают и зарабатываютРоботы работают и зарабатывают

Исторически так сложилось, что лень является двигателем прогресса. Во время всей истории человечества люди придумывали всё новые и новые способы дости...

Загрузка...
Комментарии

sercom
25 ноября 2009 09:55
А как Вы думаете, можно ли уничтожить одну страну, чтобы спасти весь Мир?

deng
25 ноября 2009 09:59
sercom,
Если нет выхода то нужно!!!

sercom
25 ноября 2009 10:04
А если эта страна Ваша? Или пожертвовать надо Вашей жизнью, но решать не Вам??? Как тогда изменится Ваше мнение?

jl
25 ноября 2009 11:21
Выбор - это борьба!
Если жертвуя собой ты спасаешь свои интересы (моральные ценности, идеи, любимых...) это сложно но "можно", если нужно чтобы ты пожертвовал собой для того, чтобы остались другие, но те другие не входят в круг твоих интересов и ценностей ( не близкие, не уважаемые,
одним словом чужие, хотя и не плохие люди или общества) любой человек или группа постарается не дать жертвовать собой, а с какой стати он или они должны делать это? Однако с точки зрения тех других ,решение пожертвовать одними ради выживания большинства, включая себя - тоже верно! И вот тут начинается борьба...
Никто не прав, не виноват… просто путь узок и на встречных курсах кому то придётся уступить…

Alex Lucas
25 ноября 2009 11:43
во втором случае - человек должен выкинуть робота, тогда никто не погибнет lol

Monk
25 ноября 2009 11:57
Читайте С. Лукьяненко "Люди и не-люди"... Там тоже очень хорошо поставлена ситуация выбора для робота...

Vectra
25 ноября 2009 12:51
Alex Lucas,
+ =) молодец

ЗеМлЯнИчКа
25 ноября 2009 15:15
Независимо от вашего суждения перед лицом смерти у каждой твари включается инстинкт самосохранения. Против него не попрешь...

LexusFan
25 ноября 2009 15:44
ЗеМлЯнИчКа, на войне в лобовой атаке мало у кого срабатывал инстинкт самосохранения.

ZeTeR
25 ноября 2009 16:26
зачем вы тут находитесь? сложите руки! мы все в 2012 умрем


Мой профиль! | Сайты для бульбашей | Нужнявая тема!

Gambut
25 ноября 2009 21:22
Ложь и провокация,
тогда она остановиться
пишется без мягкого знака. Следовательно статья либо искажена, либо полностью написана идиотом

Vaalon
25 ноября 2009 23:19
Gambut, приятно прочесть коммент единомышленника :)
tsya.ru!

Памяркоўны
28 ноября 2009 17:08
Monk,
+1

Tugcrereled
20 июня 2011 15:22
Если вы решились bittorrent скачать , попробуйте быть подготовленным к приятным
проблемам, начиная от проникнувшего на комп вируса и заказнчивая
непрерывным стуком в вашу дверь от милицейского наряда, который имеет ордер, чтобы забрать
ваш ноутбук и просканировать его на наличие ворованных программ.
Посетители, находящиеся в группе Гости, не могут оставлять комментарии в данной новости.
Вторник, 06 Декабря
USD 1.9706
EUR 2.0897
RUB 0.0308
Новости от партнеров

ИНТЕРЕСНОЕ:

Загрузка...
Сейчас на сайте
4 пользователя, 1377 гостей