egovoru: (Default)
[personal profile] egovoru

В отличие от Ника Бострома, бестселлер которого мы здесь уже обсуждали, Стюарт Рассел – не философ, а bona fide компьютерщик, разработчик ИИ, и знает дело из первых рук. Уважаемый [livejournal.com profile] 109 отыскал его книжку, предназначенную для чайников широкой аудитории, и она понравилась мне больше, чем трактат Бострома, вышедший за пять лет до этого.


Основная ее тема та же: как нам обезопасить себя от ИИ? Но, в отличие от Бострома, Рассел сначала кратко излагает историю попыток создания ИИ. Со времен Аристотеля золотым стандартом мышления считали логику и сначала пытались воспроизвести в железе именно ее. К 1980-м пришло понимание (Рассел связывает его с работами Джуды Перла), что логики тут недостаточно: она требует определенности, а в реальном мире мы имеем дело лишь с вероятностями. А чтобы избежать любимых фантастами апокалипсических сценариев вроде превращения всей планеты в скрепки, компьютерам начали предписывать многомерную «функцию полезности» (utility function) вместо одной фиксированной цели (goal).

Но и такую функцию невозможно задать раз и навсегда: наши приоритеты постоянно меняются непредсказуемым образом, в зависимости от непредсказуемых обстоятельств. Порой мы даже сами их не осознаем – как же мы можем задать их компьютеру? Используя «обучение с обратным подкреплением» (inverse reinforcement learning), отвечает Рассел, то есть, позволив компьютеру анализировать наши поступки и самому выявлять наши предпочтения.


Схема inverse reinforcement learning для самоходных автомобилей
(с сайта Shimosaka Research Group)

А чтобы обезопасить нас от «восстания машин», Рассел предлагает свои «три закона робототехники», предназначенные, однако, не роботам, как азимовские, а разработчикам ИИ:

1) Единственной задачей ИИ должна быть максимальная реализация наших, человеческих, предпочтений;
2) Исходно машина не должна знать, в чем заключаются эти предпочтения;
3) Источником знаний машины о наших предпочтениях должно служить наше поведение.

Увы, пишет Рассел, пока что компьютерные алгоритмы очень плохо умеют анализировать человеческое поведение. К тому же нас ведь уже восемь миллиардов, и предпочтения у всех разные – а порой и противоположные, как же быть? У Рассела нет ответа на этот вопрос: решения, которые он рассматривает, не кажутся эффективными даже ему самому.

На мой взгляд, в самой идее предоставления машинам права решать за нас есть нечто очень, очень сомнительное. Акт волеизъявления, возможность поступать так, как ты, а не кто-то другой, считаешь нужным – основа человеческой психики. Даже если эта возможность – иллюзия, как полагают некоторые, ее утрату мы воспринимаем очень болезненно. В сложном сегодняшнем мире нам и так постоянно приходится обращаться за помощью к экспертам. Не приведет ли распространение ИИ к тому, что у нас вообще не останется возможностей для проявления собственной воли?

Date: 2022-02-07 11:52 pm (UTC)
From: [identity profile] egovoru.livejournal.com
Мне кажется, в своем новом посте (который выйдет в среду) мне удалось более или менее внятно изложить свое понимание этой проблемы - полагаю, что и Вы с ним согласитесь.

Date: 2022-02-07 11:57 pm (UTC)
From: [identity profile] 109.livejournal.com
Буду ждать с нетерпением!

Но ответьте мне — вы согласны, что тут как минимум два разных вопроса? Согласны ли вы с моими формулировками этих вопросов?

Date: 2022-02-08 02:57 am (UTC)
From: [identity profile] egovoru.livejournal.com
Что касается субъективного ощущения свободы воли, то тут вопроса нет, поскольку никто из нас вроде бы не сомневается в этом ощущении.

Date: 2022-02-08 04:54 am (UTC)
From: [identity profile] 109.livejournal.com
Боюсь, что мой пойнт не дошел :(

Profile

egovoru: (Default)
egovoru

May 2026

S M T W T F S
     12
345 6789
10111213141516
17181920212223
24252627282930
31      

Style Credit

Expand Cut Tags

No cut tags
Page generated May. 9th, 2026 02:55 pm
Powered by Dreamwidth Studios