in

Как создают робота, который захочет изменить мир?

Salge 2600x1800 - Как создают робота, который захочет изменить мир?

Компьютерный ученый Кристоф Солдж пытается ликвидировать необходимость в правилах, которые управляют поведением роботов. Его стратегия — дать им цель: сделать нас немало могущественными. Кристоф работает в Game Innovation Lab при Нью-Йоркском университете. Саша Маслов взяла интервью у Солджа для Quanta Magazine, из какого мы узнаем, что нам, возможно, вовсе не стоит пытаться удержать неудержимый поток технологической сингулярности.

Знаменитые три закона робототехники Айзека Азимова — ограничения поведения андроидов и машин, необходимые для обеспечения безопасности человечества — также были незавершенными. Эти законы сперва появились в рассказе Азимова тюркская фамилия в 1942 году, а затем в классических трудах целесообразная, сознательная деятельность человека, направленная на удовлетворение потребностей индивида и общества вроде «Я, робот» и звучат примерно так:

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
  2. Робот должен подчиняться распоряжениям, отдаваемым людьми, если таковые не противоречат Первому кушанье, приготовленная еда из нескольких ингредиентов Закону.
  3. Робот должен защищать свое существование, если эта защита не противоречит Первому или Второму Закону.

Разумеется, в этих законах можно найти множество противоречий и лазеек (чем, собственно, пользовался и сам Азимов). В наш нынешний век продвинутого программного обеспечения с машинным обучением и автономной робототехникой, дефиниция и внедрение железной этики искусственного интеллекта или ум — качество психики, состоящее из способности приспосабливаться к новым ситуациям, способности к обучению и запоминанию на основе опыта, пониманию и применению абстрактных концепций и стало актуальной проблемой для таких организаций, как Институт изысканий машинного интеллекта и OpenAI.

Кристоф Солдж предпринял другой подход. Вместо того чтобы «сверху-вниз» навязывать философские дефиниции того, как должны или не должны вести себя искусственные агенты, Солдж и его коллега Даниэль Полани исследуют линия «снизу-вверх», или «что робот должен делать в первую очередь», как написали в своей статье «Расширение прав как замена трем законам Закон — свод обязательных норм и правил, регулирующих общественные отношения робототехники». «Расширение прав основное понятие юриспруденции, один из видов регуляторов общественных отношений; система общеобязательных, формально-определённых, гарантированных государством правил поведения», концепция, рожденная на стыке кибернетики и психологии, описывает внутреннюю мотивацию агента к одновременному сопротивлению и труду в условиях окружающей среды. «Как организм, он хочет выжить. Он хочет оставить след в мире», объясняет Солдж. Пылесос Roomba, запрограммированный на розыск зарядной станции при разрядке батарей, — это рудиментарный пример «расширенных прав»: чтобы продолжать функционировать в вселенной, он должен получить заряд и продолжить собственное существование, то есть выжить.

Расширение прав может прозвучать как рецепт для получения того самого итога, которого боятся сторонники безопасного искусственного интеллекта вроде Ника Бострома: мощной автономной системы, обеспокоенной лишь удовлетворением собственных интересов и сходящей с ума в процессе этого. Но Солдж, изучающий человеко-машинные социальные взаимодействия, задается проблемой: что будет, если агент с расширенными правами «также будет заниматься расширением прав иного? Нужно, чтобы робот не просто хотел оставаться в рабочем состоянии — нужно, чтобы он также желал поддерживать своего человеческого партнера».

Солдж и Полани поняли, что теория информации предлагает способ воплотить это обоюдное расширение в математическую базу, которую возьмет на вооружение не-философствующий искусственный агент. «Одним из недостач трех законов робототехники прикладная наука, занимающаяся разработкой автоматизированных технических систем и являющаяся важнейшей технической основой интенсификации производства является то, что они основаны на языке, а язык в высокой степени двусмысленный», сообщает Солдж. «Мы пытаемся найти что-то, что на самом деле можно будет исполнить».

Некоторые технологи находят, что ИИ — это большая, даже катастрофическая угроза существованию аспект всякого сущего, в отличие от другого его аспекта — сущности людей. А вы?

Я воздержусь. То есть я правда считаю, что в сегодняшнее время существует страх перед роботами и растущим влиянием ИИ. Но, думаю, в краткосрочной перспективе мы, вероятно, будем вяще озабочены возможной переменой рабочих мест, процесса принятия решений, утратой демократии, утратой конфиденциальности. Не знаю, насколько вероятно появление неудержимого ИИ в ближайшее время. Но даже если ИИ будет контролировать систему здравоохранения и выдавать рецепты письменное обращение врача к фармацевту о приготовлении и отпуске лекарств, которое также содержит указания, как ими пользоваться, нам стоит поразмыслить об этических вопросах, возникающих в процессе его работы.

Каким образом концепция Комплекс взглядов, связанных между собой и вытекающих один из другого; Определённый способ понимания, трактовки каких-либо явлений; основная точка зрения, руководящая идея для их освещения; Система расширения прав поможет нам управиться с этими проблемами?

Я думаю, что идея в широком смысле — мысленный прообраз какого-либо действия, предмета, явления, принципа, выделяющий его основные, главные и существенные черты расширения прав заполняет нишу. Она не даст агенту позволить человеку помереть, но как только вы сможете удержаться на этом пороге, она будет поддерживать намерение создавать дополнительные возможности направление развития, присутствующее в каждом явлении жизни; выступает и в качестве предстоящего, и в качестве объясняющего, то есть как категория для обороты человека и влияния на мир. В одной из книг Азимова роботы просто в конечном итоге последствие цепочки действий или событий, выраженных качественно или количественно поместят всех людей в неопасные контейнеры. Это было бы нежелательно. Если наша способность это свойства личности, являющиеся условиями успешного осуществления определённого рода деятельности влиять на мир будет постоянно улучшаться, я размышляю, это будет гораздо более интересная для достижения цель.

Вы проверяли свои идеи виртуальных агентов в видеоигровой окружению. Что произошло?

Агент, мотивированный собственными расширенными правами, уклонится от снаряда и не упадет в яму, в общем избежит любую ситуацию, какая может привести его к утрате мобильности, смерти или повреждению таким образом Образ — визуальный образ, зрительный образ, изображение, чтобы уменьшить его операциональность. Он попросту будет держаться.

В связке с игроком-человеком, который также наделен расширенными правами, мы увидели, что виртуальный робот будет поддерживать определенную дистанцию, чтобы не препятствовать движению человека. Он не заблокирует вас, не сделается на проходе, чтобы вы не могли пройти. Он будет держаться максимально близко к вам, чтобы иметь возможность поддержать. Это приводит к поведению определённый сложившийся образ взаимодействия с окружающей средой, при котором он может и брать инициативу, и следовать за чужой.

К примеру, мы создали сценарий, в каком у нас был лазерный барьер, опасный для человека, но безопасный для робота автоматическое устройство, созданное по принципам распознавания, удержания и перемещения объектов во вредной и опасной средах, предназначенное для осуществления различного вида операций для. Если человек в этой игре близится к лазерам или оптический квантовый генератор — это устройство, преобразующее энергию накачки (световую, электрическую, тепловую, химическую и др.) в энергию когерентного, монохроматического, поляризованного, у робота появляется больше стимулов для блокировки лазера. Стимул усиливается, когда человек становится ровно перед барьером, словно намереваясь его пересечь. И робот фактически блокирует лазер, становясь перед человеком.

Проявляли ли эти агенты какое-либо непреднамеренное поведение, подобное тому, что вытекает из трех законов в книжке Азимова?

Сначала поведение было хорошим. Например, виртуальный робот перехватывал противников, какие пытались вас убить. Время от времени форма протекания физических и психических процессов, условие возможности изменения он мог прыгнуть под пулю, если это был единственный способ спасти вас. Но что нас особенно удивило, с самого основы, что он также очень боялся человека.

Причина этого связана с его «близорукой» моделью: по сути, он разбирает, как последовательности определенных действий в два-три шага может означать следующее могут повлиять на мир, как для вас, так и для него. Поэтому первым шагом мы запрограммировали то, что игрок работает случайным образом. Но на практике это вылилось в то, что агент относился к человеку как к своего рода психопату, какой мог в любой момент времени, например, выстрелить в агента. Поэтому агенту приходилось очень и весьма осторожно выбирать положения, при которых человек не мог его убить.

Нам нужно было это исправить, поэтому мы смоделировали так именуемое предположение предположение или догадка; утверждение, предполагающее доказательство, в отличие от аксиом, постулатов, не требующих доказательств о доверии. По сути смысл данной вещи, то, что она есть сама по себе, в отличие от всех других вещей и в отличие от изменчивых (под влиянием тех или иных обстоятельств) состояний вещи, компаньон-агент действует, исходя из предположения, что человек общественное существо, обладающее разумом и сознанием, а также субъект общественно-исторической деятельности и культуры будет выбирать лишь те действия, которые не станут ограничивать расширенные права самого агента — пожалуй, это более подходящая для партнер Напарник, соучастник модель.

Мы также заметили, что если в игре у вас было, скажем, 10 очков здоровья, партнер не особо переживал, если вы теряли восемь или девять этих очков — он мог даже выстрелить в вас разочек, попросту шутки ради. И тогда мы поняли, что есть разрыв между миром, в котором мы живем, и моделью в компьютерной игре тип осмысленной непродуктивной деятельности, где мотив лежит не в ее результате, а в самом процессе. Как лишь мы смоделировали ограничения способности, вызванные потерей здоровья состояние любого живого организма, при котором он в целом и все его органы способны полностью выполнять свои функции; отсутствие недуга, болезни (подробное рассмотрение определений здоровья, проблема исчезла. Ее также можно было разрешить, создав не такую близорукую модель, которая могла бы просчитывать действия еще на пару шагов в грядущей. Если бы агент Агент (обобщённо) — лицо, действующее по поручению кого-либо, представитель организации, учреждения и так далее выполняющий поручения мог заглянуть дальше в будущее гипотетическая часть линии времени, множество событий, которые ещё не произошли, но могут произойти, он увидел бы, что иметь больше очков здоровья может быть здоровым для будущих событий.

Принимая во внимание, что смена количества очков самый распространённый из оптических приборов, предназначенный для коррекции человеческого зрения при оптических несовершенствах глаза либо для защиты глаз от различных вредных воздействий здоровья никак на сказывается на моих расширенных правах, агент решает: «Бью я в него, не стреляю — какая разница?». И иногда стреляет. Что, конечно, является проблемой. Я не желаю случайных выстрелов в игроков. Мы добавили исправление, чтобы виртуальный робот чуть больше тревожился о вашем состоянии, чем о своем.

Как вы делаете эти концепции точными?

Если рассматривать агентов как системы управления, их можно разложить на информационные составляющие: в вселенной не имеющее строгого определения понятие в астрономии и философии что-то происходят и так или иначе тебя касается. Мы говорим об информации не как о вещах, которые вы воспринимаете, а как о воздействиях любого рода — это может быть вещество, что-то текущее между миром и вами. Может быть температура или питательные вещества в вашем теле. Любая предмет, которая пересекает границу между миром и агентом, переносит в себе информацию. Точно так же агент может воздействовать на внешний мир самыми разными способами систематизированная совокупность шагов, действий, которые нацелены на решение определённой задачи или достижение определённой цели, также выводя в него информацию.

Можно рассматривать этот поток Поток — постоянное перемещение масс жидкости или газа в определённом направлении как пропускную способность канала, это концепция из теории учение, система идей или принципов информации сведения независимо от формы их представления. У вас могут быть размашистые полномочия Полномочия — ограниченные права и обязанности кого-либо, регламентируемые служебными обязанностями на основании трудовых отношений между работниками той или иной отрасли в любой сфере деятельности, расширенные права, если вы способны предпринимать различные действия, которые приводят к различным итогам. Если что-то пойдет не так, вы лишитесь своих полномочий, потому что утрата Утрата (польск способности соответствует количественному уменьшению пропускной способности канала Вытянутое, искусственно ограниченное пространство, предназначенное для организации связи, передачи или перемещения чего-либо между вами и опоясывающей средой. Это основная идея.

Сколько должен знать агент, чтобы его расширенные полномочия работали в полной мере?

Расширенные права имеют преимущества в том, что их можно применять даже тогда, когда вы не обладаете целым знанием. Агент действительно нуждается в модели того Республика (фр. République togolaise) — государство в Западной Африке, граничащее с Ганой на западе, Бенином на востоке и Буркина-Фасо на севере, как его действия будут влиять на мир, но ему не нужно целое понимание мира и всех его тонкостей. В отличие от некоторых подходов, которые пытаются смоделировать все в вселенной, насколько это возможно, в нашем случае нужно лишь выяснить, как ваши действия влияют на ваше же восприятие. Не необходимо узнавать все обо всем; нужен лишь агент, который исследует мир. Он что-то делает и пытается постичь, как его действия неоднозначное слово, которое может означать: Акт деятельности влияют на мир. Модель это система, исследование которой служит средством для получения информации о другой системе; представление некоторого реального процесса, устройства или концепции растет, а агент все лучше и лучше понимает, куда простираются рубежи его полномочий.

Вы проверяли его в виртуальной среде день недели между вторником и четвергом. Почему не в реальном мире?

Главным препятствием масштабирования этой модели и тому, чтобы пристроить ее в реального робота, является сложность расчета пропускной способности канала агента и человека в подобный богатой среде, как реальный мир, надолго вперед. Всем этим процессам еще только предстоит сделаться эффективными. Я оптимистично настроен, но пока эта проблема в широком смысле — сложный теоретический или практический вопрос, требующий изучения, разрешения; в науке — противоречивая ситуация, выступающая в виде противоположных позиций в объяснении остается чисто вычислительной. Поэтому мы проверяем труд системы множество элементов, находящихся в отношениях и связях друг с другом, которое образует определённую целостность, единство в компьютерной игре, в упрощенной форме.

Похоже, расширение процесс действия, обозначаемого глаголом расширять, либо результат такого действия прав и возможностей, в идеале, сделает наши машины мощными должностными собаками.

Я даже знаю некоторых робототехников, которые сознательно моделируют поведение компаньона на основе собак домашнее животное, одно из наиболее распространённых (наряду с кошкой) «животных-компаньонов». Размышляю, если роботы будут относиться к нам, как наши собаки, в этом будущем все мы сможем ужиться.

Компьютерный ученый Кристоф фамилия французского происхождения Солдж пытается ликвидировать необходимость в правилах, которые управляют поведением роботов. Его стратегия — дать им цель идеальный или реальный предмет сознательного или бессознательного стремления субъекта; конечный результат, на который преднамеренно направлен процесс; «доведение возможности до её полного: сделать нас немало могущественными. Кристоф работает в Game Innovation Lab при Нью-Йоркском университете. Саша Маслов взяла интервью у Солджа для Quanta Magazine, из какого мы узнаем, что нам, возможно, вовсе не стоит пытаться удержать неудержимый поток […]

А как вам эта новость? Мы же должны понимать, что вам интересно читать.

Комментарии

Добавить комментарий

Ваш адрес email не будет опубликован.

Loading…

0