На одно возникшее у меня замечание к этой схеме автор отвечает тут же в тексте: да, нашу способность протезировать собственные зубы и сердечные клапаны можно назвать «Жизнью 2.1». Но остается другое, более существенное. Верно, что освоение, например, иностранного языка не требует изменений в нашей ДНК. Но разве только ДНК составляет наше «железо»? А где же в этой схеме учитываются те – вполне физические – изменения числа и структуры синапсов, которыми сопровождается приобретение нового навыка? Так что освоение иностранного языка никак нельзя назвать переписыванием только программы. Другое дело, что, как и в случае с зубными протезами, связанные с ним изменения в структуре мозга не слишком радикальны – но и радикальные изменения, о которых мечтает Тегмарк, не были бы какой-то принципиально новой ступенью.
Столь же проблематична и предложенная Тегмарком классификация мнений об искусственом интеллекте, но по другой причине. Заметьте, речь идет именно об «общем интеллекте», не о способности решать узкий класс конкретных задач. Ну, а как же выяснить, превосходит ли ИИ в этом отношении человеческий разум или нет, если возможных задач – бесконечное множество? На любую задачу, которую ИИ решит успешнее человека, найдется новая задача, для которой он может оказаться непригодным. А раз так, то вся эта схема (как и генерализованный тест Тьюринга, кстати), летит к чертям.

Слева – три версии жизни, справа – классификация мнений об ИИ
К счастью, ни одна из этих картинок не важна для основного содержания книжки Тегмарка, посвященной проблеме безопасности ИИ. Я совершенно согласна с автором, что предпринимать шаги для обеспечения этой безопасности нам нужно уже сейчас, независимо от того, насколько далеко нам удастся продвинуться в усовершенствовании ИИ.
no subject
Date: 2021-06-03 11:38 am (UTC)no subject
Date: 2021-06-03 02:00 pm (UTC)Если же ИИ есть "просто" быстрее думающий компьютер, то качественного скачка не вижу — возрастают только количественные показатели того, что уже есть сейчас. Собственно, в инженерии уже спокойно называют ИИ системы, использующиеся в практике — та же Тесла, например.
no subject
Date: 2021-06-04 12:37 pm (UTC)Другое дело - принятие автономных решений в строго заданных условиях. С этим отлично справляется и термостат: он ведь "сам" "принимает решение" выключить нагреватель, когда температура превосходит заранее заданный уровень. Чем это отличается (и отличается ли?) от нашей человеческой свободы воли - вопрос очень философский. А что Вы об этом думаете?
no subject
Date: 2021-06-04 03:29 pm (UTC)Другое дело (и качество)когда нужно принимать решение при неограниченном количестве условий (данных) — тогда без воли не обойтись.
no subject
Date: 2021-06-05 11:23 am (UTC)no subject
Date: 2021-06-05 12:52 pm (UTC)Мы волевым усилием перестаем перебирать безграничное количество вариантов и условий, чтобы принять решение. Прикрывая иногда для себя этот волюнтаризм дедукцией.
no subject
Date: 2021-06-05 01:08 pm (UTC)Может быть, Вы имеете в виду то, что, столкнувшись со слишком большим числом факторов, которые мы не в состоянии рационально (сознательно) проанализировать за отпущенное для принятия решения время, мы полагаемся на интуицию - то есть, бессознательный механизм принятия решений? Но такой механизм принятия решений ведь есть и у других животных - более того, у некоторых из них только он и есть? Что же, нам следует и их считать сознательными?
no subject
Date: 2021-06-05 01:20 pm (UTC)В логике (см. Логика) термин «индукция» используется как синоним более точного, но более громоздкого, термина «индуктивное рассуждение» и понимается в более узком смысле: как умозаключение, в котором общий вывод строится на основе частных посылок. При этом посылки могут подтверждать или подразумевать истину, но не гарантируют её получения. Этим индукция принципиально отличается от дедукции (см. Дедукция), посредством которой из истинных посылок при соблюдении правил логического вывода всегда получаются истинные заключения
Т.е. при слишком большом объеме данных мы делаем обобщения, прекращая перебор волевым, не всегда сознательным, усилием.
Да, у высших животных есть нечто подобное, ведь мы эту способность не получили свыше, а развили.
А вот есть ли такое у компьютера — вопрос открытый.
no subject
Date: 2021-06-05 01:58 pm (UTC)"прекращая перебор волевым, не всегда сознательным, усилием"
Это как же волевое усилие может быть бессознательным? Ведь, если бессознательное, то это уж никак не волевое?
"у высших животных есть нечто подобное, ведь мы эту способность не получили свыше, а развили"
Мне кажется, уж скорее наоборот: у низших животных все решения принимаются автоматически, бессознательно, а вот появление разума и сознания означает, что мы как бы задерживаем некоторые решения в уме для более детального рассмотрения всех влияющих на них факторов. Разве нет?
no subject
Date: 2021-06-05 03:52 pm (UTC)Но распространяется и на неисследованные и неисчислимые объекты - просто по нашему мнению и желанию.
Волевое усилие запросто может быть несознательным — когда натренировано и становится навыком. Мы же не говорим себе каждый раз: " Стоп. А теперь я буду обобщение делать.", мы просто делаем его автоматически.
для более детального рассмотрения всех влияющих на них факторов
Вариант, когда мы (и животные) имеем в распоряжении все факторы, очень и очень редок в реальном мире, а не его модели — даже исчезающе ничтожен.
no subject
Date: 2021-06-06 04:11 pm (UTC)Да, индукционный переход означает, что мы относим те же свойства к любому из объектов данной совокупности. Правда, я бы не назвала это "по желанию", потому что мы же считаем эту операцию способом рационального рассуждения!
"Волевое усилие запросто может быть несознательным — когда натренировано и становится навыком"
Насколько я понимаю, такую ситуацию называют "выработкой условного рефлекса". Да, убедившись в целесообразности неких действий в некоей ситуации, мы передаем их контроль бессознательным механизмам нашего мозга - потому что они действуют быстрее и экономнее, чем сознательные. Но, когда наша реакция становится автоматической (бессознательной), к воле это уже перестает иметь отношение.
"Вариант, когда мы (и животные) имеем в распоряжении все факторы, очень и очень редок в реальном мире, а не его модели — даже исчезающе ничтожен"
Разумеется, мы рассматриваем только осознаваемые нами факторы.
no subject
Date: 2021-06-06 05:38 pm (UTC)Вопрос же, как будет делать ИИ такие обобщения, не обладая волей для остановки себя в рассмотрении всего множества данных, остается для меня открытым.
no subject
Date: 2021-06-06 06:17 pm (UTC)Фактор ведь только и становится фактором, когда мы - сознательным усилием - выделяем его из фона и называем "фактором". Таким образом, число факторов - всегда конечное. Разумеется, в мире все на все влияет, но мы и не пытаемся учитывать все возможные влияния - мы выделяем только наиболее существенные из них. А бесконечное число факторов возможно только в математических моделях.
"Вопрос же, как будет делать ИИ такие обобщения, не обладая волей для остановки себя в рассмотрении всего множества данных, остается для меня открытым"
Мне кажется, тут нет никакой проблемы: мы просто зададим ИИ конечное время для принятия решения. Собственно, то же самое происходит и с нами: у нас ведь всегда имеется только вполне определенное время для принятия решения, и это-то и спасает нас от превращения в буридановых ослов :) Интересно, что, когда выбор вариантов слишком велик, мы просто перестаем рационально искать лучший, а выбираем первый попавшийся - это показано в многочисленных экспериментах.
no subject
Date: 2021-06-06 08:14 pm (UTC)Можно ли этому же научить компьютер, для которого нет проблемы конечности времени в принципе? Он должен осознать свою конечность - именно осознать, т.е. отрефлексировать и раздвоиться в себе самом, оставаясь собой. Эта способность и есть первый признак разума.
"Просто перестать перебирать данные" — есть волевой акт, даже если он делается автоматически.
Фактор ведь только и становится фактором, когда мы - сознательным усилием - выделяем его из фона и называем "фактором"
"Человек есть мера всех вещей — существующих что они существуют, несуществующих что они не существуют."
Вот когда то же самое сможет делать компьютер, тогда у него и будет разум.
no subject
Date: 2021-06-06 09:10 pm (UTC)У нас есть множество других ограничителей по времени: например, водитель за рулем автомобиля, увидевший внезапно выскочившего на проезжую часть пешехода, должен принять решение нажать на тормоз за считанные доли секунды - иначе уже будет слишком поздно пить боржоми. То же ограничение по времени, естественно, относится и к автономному (беспилотному) транспортному устройству.
"Вот когда то же самое сможет делать компьютер, тогда у него и будет разум"
Боюсь, я не уловила - что именно делать?
no subject
Date: 2021-06-06 09:44 pm (UTC)Именно. Каждую секунду нашей жизни мы сталкиваемся с этим, и это нас формирует. И как это все засунуть в компьютер, чтобы у него возникло такое же, по большей части неосознанное понимание — мне не представить.
что именно делать?
Раздвоиться в себе самом, оставшись единым. Только через это возможно самосознание и разум. Даже для того, чтобы вывести упомянутое вами множество ограничителей и из них получить конечность отпущенного времени, нужно уметь рефлексировать: я за рулем и я, делающий вывод о конечности времени на основании произошедшего.
И еще из этой модельки: с какого перепугу для компьютера ценность жизни и здоровья пешехода должна быть выше чем усилие по изменению траектории своего пути? Нужны:
а. ценность человека
б. воля по определению этой ценности как высшей по отношению к цели своей поездки.
no subject
Date: 2021-06-07 12:11 pm (UTC)Тем не менее, беспилотные автомобили уже собираются выпускать на улицы. Думаю, проблема решается так, как я описала выше: задается ограниченное время на принятие решения.
"для того, чтобы вывести упомянутое вами множество ограничителей и из них получить конечность отпущенного времени"
Временное ограничение можно задать просто извне - вовсе не обязательно добиваться, чтобы компьютер его сам выводил из других данных.
"с какого перепугу для компьютера ценность жизни и здоровья пешехода должна быть выше чем усилие по изменению траектории своего пути"
Уже Азимов сформулировал три закона робототехники, помните? "Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред" и т.д. Все это можно тоже исходно запрограммировать. Другое дело, что в программе всегда может случиться сбой. Как собираются учитывать это, я не знаю. На сбои в нашей человеческой "программе" мы реагируем либо клиникой, либо тюрьмой - но робота ведь в тюрьму не посадишь? Что ли, будут сдавать в переплавку?
no subject
Date: 2021-06-07 01:35 pm (UTC)И опасность, о которой вы говорите, уже тоже осуществлена — компьютеры доступны каждому.
(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:беспилотные автомобили
From:Re: беспилотные автомобили
From:Re: беспилотные автомобили
From:Re: беспилотные автомобили
From:Re: беспилотные автомобили
From:Re: беспилотные автомобили
From:Re: беспилотные автомобили
From:Re: беспилотные автомобили
From:Re: беспилотные автомобили
From:no subject
Date: 2021-06-06 04:10 pm (UTC)no subject
Date: 2021-06-06 04:15 pm (UTC)За исключением того, что, когда решение принимает человек, то на него влияют эмоции, а вот о попытках создать эмоции у машины я еще не слышала. Интересно, почему? Потому ли, что мы считаем, что эмоции обычно мешают принимать нам верное решение, а не помогают?
no subject
Date: 2021-06-06 05:41 pm (UTC)А если не успокоимся, то спросим себя: если кто-то вовне отводит время для пересчета, то является ли тот, кто пересчитывает, разумным?
no subject
Date: 2021-06-06 09:51 pm (UTC)Мы все оперируем в рамках каких-то ограничений.
no subject
Date: 2021-06-07 01:00 am (UTC)no subject
Date: 2024-07-25 03:19 pm (UTC)Муравей(таракан) вполне умеет принимать решения при любых условиях и данных. У него есть свобода воли?
no subject
Date: 2024-07-25 03:38 pm (UTC)