Ну, а нам-то, нам-то среди роботов
Jan. 26th, 2022 09:00 amОсновная ее тема та же: как нам обезопасить себя от ИИ? Но, в отличие от Бострома, Рассел сначала кратко излагает историю попыток создания ИИ. Со времен Аристотеля золотым стандартом мышления считали логику и сначала пытались воспроизвести в железе именно ее. К 1980-м пришло понимание (Рассел связывает его с работами Джуды Перла), что логики тут недостаточно: она требует определенности, а в реальном мире мы имеем дело лишь с вероятностями. А чтобы избежать любимых фантастами апокалипсических сценариев вроде превращения всей планеты в скрепки, компьютерам начали предписывать многомерную «функцию полезности» (utility function) вместо одной фиксированной цели (goal).
Но и такую функцию невозможно задать раз и навсегда: наши приоритеты постоянно меняются непредсказуемым образом, в зависимости от непредсказуемых обстоятельств. Порой мы даже сами их не осознаем – как же мы можем задать их компьютеру? Используя «обучение с обратным подкреплением» (inverse reinforcement learning), отвечает Рассел, то есть, позволив компьютеру анализировать наши поступки и самому выявлять наши предпочтения.

(с сайта Shimosaka Research Group)
А чтобы обезопасить нас от «восстания машин», Рассел предлагает свои «три закона робототехники», предназначенные, однако, не роботам, как азимовские, а разработчикам ИИ:
1) Единственной задачей ИИ должна быть максимальная реализация наших, человеческих, предпочтений;
2) Исходно машина не должна знать, в чем заключаются эти предпочтения;
3) Источником знаний машины о наших предпочтениях должно служить наше поведение.
Увы, пишет Рассел, пока что компьютерные алгоритмы очень плохо умеют анализировать человеческое поведение. К тому же нас ведь уже восемь миллиардов, и предпочтения у всех разные – а порой и противоположные, как же быть? У Рассела нет ответа на этот вопрос: решения, которые он рассматривает, не кажутся эффективными даже ему самому.
На мой взгляд, в самой идее предоставления машинам права решать за нас есть нечто очень, очень сомнительное. Акт волеизъявления, возможность поступать так, как ты, а не кто-то другой, считаешь нужным – основа человеческой психики. Даже если эта возможность – иллюзия, как полагают некоторые, ее утрату мы воспринимаем очень болезненно. В сложном сегодняшнем мире нам и так постоянно приходится обращаться за помощью к экспертам. Не приведет ли распространение ИИ к тому, что у нас вообще не останется возможностей для проявления собственной воли?
no subject
Date: 2022-01-26 03:02 pm (UTC)LiveJournal categorization system detected that your entry belongs to the category: Технологии (https://www.livejournal.com/category/tehnologii?utm_source=frank_comment).
If you think that this choice was wrong please reply this comment. Your feedback will help us improve system.
Frank,
LJ Team
no subject
Date: 2022-01-26 03:04 pm (UTC)no subject
Date: 2022-01-26 03:19 pm (UTC)no subject
Date: 2022-01-26 03:24 pm (UTC)То же самое, по-видимому, будет скоро с беспилотными автомобилями. Они будут сами выбирать скоростной режим (как на картинке в посте), и большинство пассажиров (бывших водителей) это будет устраивать. Своего рода развитый "круиз-контроль". А те, кого не устраивает, будут давить на педали сами.
Будет сначала выделена одна полоса для беспилотников, потом всё больше, в конце-концов оставят одну для машин с водителями.
no subject
Date: 2022-01-26 03:33 pm (UTC)no subject
Date: 2022-01-26 03:57 pm (UTC)no subject
Date: 2022-01-26 04:01 pm (UTC)no subject
Date: 2022-01-26 04:51 pm (UTC)Разве сегодня этих возможностей так уж много?
Чем выбор между ИИ-продукцией различных производителей будет принципиально отличаться между сегодняшним выбором между Тойотой и Теслой или между Пфайзером и Модерной?
no subject
Date: 2022-01-26 05:19 pm (UTC)no subject
Date: 2022-01-26 05:42 pm (UTC)И пока мы не упорядочим всю реальность, у него, конечно же, будет куда расти и развиваться.
no subject
Date: 2022-01-26 08:25 pm (UTC)no subject
Date: 2022-01-26 08:26 pm (UTC)no subject
Date: 2022-01-26 08:26 pm (UTC)no subject
Date: 2022-01-26 08:32 pm (UTC)no subject
Date: 2022-01-26 08:37 pm (UTC)no subject
Date: 2022-01-26 08:38 pm (UTC)хотя конечно все попытки залезть в мозг и "читать мысли напрямую" сильно усложняют утаивание от искусственного интеллекта своих реальных намерений, но тем не меннее — вранье остается практически тем единственным что можно противопоставить ИИ
no subject
Date: 2022-01-26 08:38 pm (UTC)no subject
Date: 2022-01-26 08:40 pm (UTC)no subject
Date: 2022-01-26 08:44 pm (UTC)"К сожалению, оптимизм всемирно известного фантаста многие ученые не разделяют. Так, три закона робототехники тщательно изучали и aнализировали два теоретика ИИ: Бен Герцель (Аидия Холдингс) и Луи Хельм (Институт MIRI). И они совершенно уверены, что положения наверняка не осилят препорученную миссию. Согласно их докладу, Айзека Азимова законы робототехники имеют три ключевых недостатка:
обладают состязательной сущностью;
базируются на неактуальной сегодня этической теории (деонтологии);
удивительно, но и во вселенной фантаста роботы не способны надлежаще реализовывать собственное предназначение.
Несмотря на все свои изъяны, законы робототехники Азимова стали первой честной попыткой охватить огромную технологическую сферу, положив начало долгому пути поисков и исследований. К примеру, не так давно Google опубликовал свое видение безопасного ИИ, сформулировав свои пять законов робототехнических механизмов."
Про законы Гугла я не слышала - а Вам они не попадались?
no subject
Date: 2022-01-26 08:49 pm (UTC)no subject
Date: 2022-01-26 08:54 pm (UTC)no subject
Date: 2022-01-26 08:55 pm (UTC)no subject
Date: 2022-01-26 09:04 pm (UTC)Но ведутся ведь и разработки некоего general artificial intelligence, который якобы должен быть способен "решать любые задачи, которые способен решить человек". Мне такая формулировка кажется совершенно бессмысленной, поскольку мы едва ли можем перечислить все такие задачи - ведь новые задачи все время появляются, и мы их все время решаем.
no subject
Date: 2022-01-26 09:09 pm (UTC)no subject
Date: 2022-01-26 09:32 pm (UTC)Рекомендации, данные ИИ, в этом плане мало чем отличаются от человеческих рекомендаций. И являются таким же потребительским товаром, как автомобиль или вакцина. Нас ничто не обязывает покупать тот или иной автомобиль или следовать рекомендациям того или иного эксперта
Другое дело, что когда речь идет о выборе вакцины или автомобиля, наш естественный выбор ограничивается десятком брендов, поскольку мы вряд ли выберем товар, не пользующийся популярностью у других потребителей. С выбором эксперта в той или иной сфере ситуация обстоит примерно так же: мы изучим отзывы других людей и обратимся к помощи экспертов, пользующихся наибольшим доверием, чтобы, сравнив их рекомендации, выбрать наилучшую на наш взгляд. В этом смысле наша свобода воли и выбора хотя и безгранична теоретически, но довольно сильно ограничена на практике
Ситуация с выбором ИИ-эксперта в той или иной сфере мало чем будет принципиально отличаться от описанной выше