Ну, а нам-то, нам-то среди роботов
Jan. 26th, 2022 09:00 amОсновная ее тема та же: как нам обезопасить себя от ИИ? Но, в отличие от Бострома, Рассел сначала кратко излагает историю попыток создания ИИ. Со времен Аристотеля золотым стандартом мышления считали логику и сначала пытались воспроизвести в железе именно ее. К 1980-м пришло понимание (Рассел связывает его с работами Джуды Перла), что логики тут недостаточно: она требует определенности, а в реальном мире мы имеем дело лишь с вероятностями. А чтобы избежать любимых фантастами апокалипсических сценариев вроде превращения всей планеты в скрепки, компьютерам начали предписывать многомерную «функцию полезности» (utility function) вместо одной фиксированной цели (goal).
Но и такую функцию невозможно задать раз и навсегда: наши приоритеты постоянно меняются непредсказуемым образом, в зависимости от непредсказуемых обстоятельств. Порой мы даже сами их не осознаем – как же мы можем задать их компьютеру? Используя «обучение с обратным подкреплением» (inverse reinforcement learning), отвечает Рассел, то есть, позволив компьютеру анализировать наши поступки и самому выявлять наши предпочтения.

(с сайта Shimosaka Research Group)
А чтобы обезопасить нас от «восстания машин», Рассел предлагает свои «три закона робототехники», предназначенные, однако, не роботам, как азимовские, а разработчикам ИИ:
1) Единственной задачей ИИ должна быть максимальная реализация наших, человеческих, предпочтений;
2) Исходно машина не должна знать, в чем заключаются эти предпочтения;
3) Источником знаний машины о наших предпочтениях должно служить наше поведение.
Увы, пишет Рассел, пока что компьютерные алгоритмы очень плохо умеют анализировать человеческое поведение. К тому же нас ведь уже восемь миллиардов, и предпочтения у всех разные – а порой и противоположные, как же быть? У Рассела нет ответа на этот вопрос: решения, которые он рассматривает, не кажутся эффективными даже ему самому.
На мой взгляд, в самой идее предоставления машинам права решать за нас есть нечто очень, очень сомнительное. Акт волеизъявления, возможность поступать так, как ты, а не кто-то другой, считаешь нужным – основа человеческой психики. Даже если эта возможность – иллюзия, как полагают некоторые, ее утрату мы воспринимаем очень болезненно. В сложном сегодняшнем мире нам и так постоянно приходится обращаться за помощью к экспертам. Не приведет ли распространение ИИ к тому, что у нас вообще не останется возможностей для проявления собственной воли?
no subject
Date: 2022-02-02 11:45 pm (UTC)no subject
Date: 2022-02-03 03:35 am (UTC)В вашем тексте — извините заранее, не хочу обидеть — мало смысла. Вы используете плохо определенные понятия, чтобы задать вопрос. Ответ зависит от того, что вы вкладываете в слова "наши собственные волевые усилия".
Вообще, ваше рассуждение напоминает аргумент про китайскую комнату, или рассуждение 18 или 19 века о том, почему машина никогда не сможет играть в шахматы. Не встречали такое? Очень логично, очень смешно, и немножко обидно, что половина наших рассуждений сегодня будет так же смотреться лет через 50.
no subject
Date: 2022-02-03 12:34 pm (UTC)Меня занимает то субъективное ощущение трудности, которое у нас возникает, когда мы заставляем себя делать то, что нам делать не хочется, но мы считаем, что делать нужно. Чтобы лежать на диване, волевого усилия не нужно, а вот чтобы встать и пойти на работу - да. Какова природа этого усилия, откуда оно берется?
no subject
Date: 2022-02-05 08:09 pm (UTC)На одном — это instrumental goal (о которых Бостром тоже пишет), возникающая при оптимизации over long time horizon. Если учитывать только короткий горизонт, такой цели нет. "Трудность" — это feedback from short-term systems.
Некоторые животные, попавшие в капкан, отгрызают себе ногу. Там short-term systems вообще взрываются от отрицательного фидбэка, а вот поди ж ты. Это я специально привожу extreme example, чтобы континуум очертить.
Ответ на другом уровне похож на ответ, что ощущение consciousness — это просто byproduct работы супервайзора.
ЛеКун explicitly упоминает и неправильно заданные вопросы, и китайскую комнату. Жаль, что вы не нашли.
no subject
Date: 2022-02-06 12:01 pm (UTC)"ощущение consciousness — это просто byproduct работы супервайзора"
А объясните, пожалуйста, подробнее, что же представляет собой этот "супервайзор", а то мне кажется, что это тот самый гомункулюс, о котором я писала в предыдущем комментарии? На всякий случай поясню, что условный "интегратор", упомянутый выше - это механизм, просто подводящий баланс, он не способен к волеизъявлению (то есть, принятию произвольного решения). Вопрос в том, есть ли в мозгу что-то, что к нему способно, и если да, то каков механизм его действия?
no subject
Date: 2022-02-07 08:29 am (UTC)also вот тут, https://youtu.be/rK7ux_JhHM4?t=8133, Joscha говорит примерно то же, что и я
no subject
Date: 2022-02-07 12:16 pm (UTC)no subject
Date: 2022-02-07 05:04 pm (UTC)Ну и плюс мы тут с вами по кругу в основном ходим. Чтобы был прогресс, нам обоим нужно прилагать усилия — в частности, в форме ознакомления с тем, что по этому поводу думают ведущие мыслители.
И я прямо трепещу от предвкушения, как вы послушаете Джошу Баха и перескажете своими словами. Это должно быть феерически интересно.
no subject
Date: 2022-02-07 11:23 pm (UTC)no subject
Date: 2022-02-07 11:52 pm (UTC)Так сделайте же это! И Вам польза, и мне удовольствие.
Я вас отправляю к первоисточникам, потому что они лучше меня отвечают на ваши вопросы, и уж точно более детально. У меня физически нет времени пересказывать здесь двухчасовые видео, сколько бы раз вы ни просили меня это сделать. Лучшее, что я могу сделать, это послать вас к первоисточнику, уж не взыщите.
no subject
Date: 2022-02-07 11:54 pm (UTC)no subject
Date: 2022-02-07 09:09 am (UTC)Я повторяться сейчас буду, потому что я уже отвечал, а вы игнорируете, а потом спрашиваете опять.
Если бы вы не игнорировали, то вам бы пришлось или другой вопрос задать, или переформулировать, а вы просто повторяете. Поэтому я предлагаю сначала подумать, что вас не устраивает в следующих ответах:
Свобода воли — это ощущение, возникающее тогда, когда до супервайзора доходят конфликтующие сигналы от разных подсистем о том, как действовать дальше, и ему приходится совершать выбор. Заметьте, что это редкий случай, огромное количество действий совершается без участия супервайзора.
Абсолютная произвольность решения — это самообман. Количество вариантов действий, из которых супервайзор выбирает, обычно очень мало. "Спрятаться, напасть, или убежать" — вот типичный выбор, супервайзор этот выбор совершает, и мы ощущаем это как свободу воли. "Я сам решил дать ему в морду, и несу за это полную ответственность"
no subject
Date: 2022-02-07 12:24 pm (UTC)Мало или много возможных вариантов решений - совершенно не важно: если их хотя бы два, уже приходится выбирать.
no subject
Date: 2022-02-07 05:23 pm (UTC)А как alpha zero выбирает, какой следующий ход в го сделать, понятно?
no subject
Date: 2022-02-07 10:07 pm (UTC)no subject
Date: 2022-02-07 11:44 pm (UTC)Вы упорно задаёте один вопрос там, где должно быть два или даже три разных.
Волновая функция всей вселенной, раз задана, развивается совершенно детерминистическим образом. Где тут свобода воли? У меня есть несколько вариантов ответа, ни один из них меня не удовлетворяет полностью. Вот этот вопрос не надо тащить в нейронные сети, пожалуйста, it has nothing to do with neural nets, как очевидно из такой его формулировки.
Почему, когда "мы" принимаем "решения", это ощущается определенным образом, который мы называем "ощущение свободы воли", или whatever. Это другой вопрос, ответ на который лежит примерно там же, где ответ, почему orangeness апельсина ощущается именно так, а не по-другому как-нибудь.
no subject
Date: 2022-02-07 11:52 pm (UTC)no subject
Date: 2022-02-07 11:57 pm (UTC)Но ответьте мне — вы согласны, что тут как минимум два разных вопроса? Согласны ли вы с моими формулировками этих вопросов?
no subject
Date: 2022-02-08 02:57 am (UTC)no subject
Date: 2022-02-08 04:54 am (UTC)no subject
Date: 2022-06-02 04:27 am (UTC)Превенция — основная функция наказания. Ваш вопрос выглядит как вопрос из логики "основная функция — возмездие". Это не так. Точнее реальная функция того, что людьми/ прочими животными ощущается как месть/ восстановление справедливости — именно превенция (иногда и в предельной форме, "убить обидчика", "изолировать от меня", или в более гуманистической ("перевоспитать, изменить")), но шире — именно снижение риска повтора такого "от всех".