Ну, а нам-то, нам-то среди роботов
Jan. 26th, 2022 09:00 amОсновная ее тема та же: как нам обезопасить себя от ИИ? Но, в отличие от Бострома, Рассел сначала кратко излагает историю попыток создания ИИ. Со времен Аристотеля золотым стандартом мышления считали логику и сначала пытались воспроизвести в железе именно ее. К 1980-м пришло понимание (Рассел связывает его с работами Джуды Перла), что логики тут недостаточно: она требует определенности, а в реальном мире мы имеем дело лишь с вероятностями. А чтобы избежать любимых фантастами апокалипсических сценариев вроде превращения всей планеты в скрепки, компьютерам начали предписывать многомерную «функцию полезности» (utility function) вместо одной фиксированной цели (goal).
Но и такую функцию невозможно задать раз и навсегда: наши приоритеты постоянно меняются непредсказуемым образом, в зависимости от непредсказуемых обстоятельств. Порой мы даже сами их не осознаем – как же мы можем задать их компьютеру? Используя «обучение с обратным подкреплением» (inverse reinforcement learning), отвечает Рассел, то есть, позволив компьютеру анализировать наши поступки и самому выявлять наши предпочтения.

(с сайта Shimosaka Research Group)
А чтобы обезопасить нас от «восстания машин», Рассел предлагает свои «три закона робототехники», предназначенные, однако, не роботам, как азимовские, а разработчикам ИИ:
1) Единственной задачей ИИ должна быть максимальная реализация наших, человеческих, предпочтений;
2) Исходно машина не должна знать, в чем заключаются эти предпочтения;
3) Источником знаний машины о наших предпочтениях должно служить наше поведение.
Увы, пишет Рассел, пока что компьютерные алгоритмы очень плохо умеют анализировать человеческое поведение. К тому же нас ведь уже восемь миллиардов, и предпочтения у всех разные – а порой и противоположные, как же быть? У Рассела нет ответа на этот вопрос: решения, которые он рассматривает, не кажутся эффективными даже ему самому.
На мой взгляд, в самой идее предоставления машинам права решать за нас есть нечто очень, очень сомнительное. Акт волеизъявления, возможность поступать так, как ты, а не кто-то другой, считаешь нужным – основа человеческой психики. Даже если эта возможность – иллюзия, как полагают некоторые, ее утрату мы воспринимаем очень болезненно. В сложном сегодняшнем мире нам и так постоянно приходится обращаться за помощью к экспертам. Не приведет ли распространение ИИ к тому, что у нас вообще не останется возможностей для проявления собственной воли?
no subject
Date: 2022-01-26 03:02 pm (UTC)LiveJournal categorization system detected that your entry belongs to the category: Технологии (https://www.livejournal.com/category/tehnologii?utm_source=frank_comment).
If you think that this choice was wrong please reply this comment. Your feedback will help us improve system.
Frank,
LJ Team
no subject
Date: 2022-01-26 08:25 pm (UTC)(no subject)
From:no subject
Date: 2022-01-26 03:04 pm (UTC)no subject
Date: 2022-01-26 08:26 pm (UTC)(no subject)
From:(no subject)
From:no subject
Date: 2022-01-26 03:19 pm (UTC)no subject
Date: 2022-01-26 08:32 pm (UTC)(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:no subject
Date: 2022-01-26 03:24 pm (UTC)То же самое, по-видимому, будет скоро с беспилотными автомобилями. Они будут сами выбирать скоростной режим (как на картинке в посте), и большинство пассажиров (бывших водителей) это будет устраивать. Своего рода развитый "круиз-контроль". А те, кого не устраивает, будут давить на педали сами.
Будет сначала выделена одна полоса для беспилотников, потом всё больше, в конце-концов оставят одну для машин с водителями.
no subject
Date: 2022-01-26 08:37 pm (UTC)(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:no subject
Date: 2022-01-27 09:29 pm (UTC)Поначалу. По прошествии некоторого времени, за это удовольствие придется платить конскую страховку. Еще позднее введут, скажем, протокол проезда перекрестков, неисполнимый для человека, и до свидания, ручное управление.
(no subject)
From:no subject
Date: 2022-01-26 03:33 pm (UTC)no subject
Date: 2022-01-26 08:40 pm (UTC)(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:Материя и сознание
From:Re: Материя и сознание
From:Re: Материя и сознание
From:Re: Материя и сознание
From:Re: Материя и сознание
From:Re: Материя и сознание
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:no subject
Date: 2022-01-26 03:57 pm (UTC)no subject
Date: 2022-01-26 08:44 pm (UTC)"К сожалению, оптимизм всемирно известного фантаста многие ученые не разделяют. Так, три закона робототехники тщательно изучали и aнализировали два теоретика ИИ: Бен Герцель (Аидия Холдингс) и Луи Хельм (Институт MIRI). И они совершенно уверены, что положения наверняка не осилят препорученную миссию. Согласно их докладу, Айзека Азимова законы робототехники имеют три ключевых недостатка:
обладают состязательной сущностью;
базируются на неактуальной сегодня этической теории (деонтологии);
удивительно, но и во вселенной фантаста роботы не способны надлежаще реализовывать собственное предназначение.
Несмотря на все свои изъяны, законы робототехники Азимова стали первой честной попыткой охватить огромную технологическую сферу, положив начало долгому пути поисков и исследований. К примеру, не так давно Google опубликовал свое видение безопасного ИИ, сформулировав свои пять законов робототехнических механизмов."
Про законы Гугла я не слышала - а Вам они не попадались?
законы Гугла
From:Re: законы Гугла
From:no subject
Date: 2022-01-26 04:01 pm (UTC)no subject
Date: 2022-01-26 08:49 pm (UTC)no subject
Date: 2022-01-26 04:51 pm (UTC)Разве сегодня этих возможностей так уж много?
Чем выбор между ИИ-продукцией различных производителей будет принципиально отличаться между сегодняшним выбором между Тойотой и Теслой или между Пфайзером и Модерной?
no subject
Date: 2022-01-26 08:54 pm (UTC)(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:no subject
Date: 2022-01-26 05:19 pm (UTC)no subject
Date: 2022-01-26 08:38 pm (UTC)no subject
Date: 2022-01-26 08:55 pm (UTC)(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:no subject
Date: 2022-01-26 05:42 pm (UTC)И пока мы не упорядочим всю реальность, у него, конечно же, будет куда расти и развиваться.
no subject
Date: 2022-01-26 09:04 pm (UTC)Но ведутся ведь и разработки некоего general artificial intelligence, который якобы должен быть способен "решать любые задачи, которые способен решить человек". Мне такая формулировка кажется совершенно бессмысленной, поскольку мы едва ли можем перечислить все такие задачи - ведь новые задачи все время появляются, и мы их все время решаем.
(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:no subject
Date: 2022-01-29 01:56 am (UTC)no subject
Date: 2022-01-29 01:55 pm (UTC)Надо сказать, что книжка Рассела в основном не о том, чем ИИ может быть опасен, а просто о том, что же это такое, и она мне понравилась именно этим. Мне кажется, что, прочитав ее, я получила хоть какое-то, пусть самое поверхностное, представление о том, что же называют этим словом (а из книжки Бострома я такого представления не получила). У Рассела еще есть какой-то знаменитый учебник по ИИ, но, я боюсь, он будет для меня все-таки слишком сложен.
(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:no subject
Date: 2022-01-30 07:41 pm (UTC)Проблема в том, что машины как раз и делаются для того, чтобы решать за нас то, что нам самим решать сложно. И мы уже активно предоставляем машинам право решать за нас. Самый простой пример: поиск в интернете. Поисковый алгоритм определяет, что именно окажется на первой страницы выдачи и это сильно может повлиять на наши решения.
И да, совершенно непонятно, что с этим можно сделать (ну, кроме действительно попыток донести до разработчиков ИИ что-то вроде упомянутых законов Рассела).
no subject
Date: 2022-01-30 07:53 pm (UTC)Проблему поисковых алгоритмов Рассел в этой книжке совсем не затрагивает, хотя тема эта, конечно, очень интересная. Мне, правда, кажется (как, наверное, и многим), что реклама только отвращает меня от рекламируемого товара, но это ведь тоже - влияние, хотя и негативное.
no subject
Date: 2022-01-30 07:48 pm (UTC)Потенциальные проблемы поисковых алгоритмов Рассел, надо сказать, совсем не затрагивает в этой книжке, а ведь тема эта - очень интересная. Мне, правда (как, наверное, и многим), кажется, что реклама влияет на меня противоположным образом - то есть, отвращает от рекламируемого товара, но это ведь тоже вли
no subject
Date: 2022-06-02 05:16 am (UTC)"Все придумано до нас".
Когда около года назад Илон Маск на фоне непрекращающегося достаточно долгий период фазы его интереса к вопросу защиты Человечества от угроз ИИ написал твитт "Love is the answer" я подумал, что "и до него дошло!"
У нас есть пример поведения, которое максимальную безопасность и максимальное благо обеспечивает субъекту/субъектам, на которого/на которых оно направлено: Любовь.
Зрелая, предельная Любовь.
У этого поведения/состояния есть функциональная схема, отраженная в neural circuits.
Лучшая защитная система от злонамеренности ИИ на уровне индивидуального ИИ — имплементация этой функциональной схемы в нем.
Имплементация в нем функциональных схем зрелой любви к людям, функциональных схем предельно этичного и гуманного человека. Впрочем, предельная зрелая Любовь — база, все остальное приложится.
На уровне сообществ ИИ лучшая защита — демократия, демократия с предельной инклюзией. Когда-нибудь ИИ будут жить и отдельно от людей, и тогда это будет "демократия общества ИИ".
А пока они живут с людьми — то лучший выход — включение их в человеческие демократии
no subject
Date: 2022-06-02 12:15 pm (UTC)(no subject)
From:(no subject)
From:(no subject)
From: