Система права и государственного управления у искусственного интеллекта — КиберПедия 

Таксономические единицы (категории) растений: Каждая система классификации состоит из определённых соподчиненных друг другу...

История создания датчика движения: Первый прибор для обнаружения движения был изобретен немецким физиком Генрихом Герцем...

Система права и государственного управления у искусственного интеллекта

2022-08-21 77
Система права и государственного управления у искусственного интеллекта 0.00 из 5.00 0 оценок
Заказать работу

Моше Хоффман

Исследователь, программа изучения эволюционной динамики Гарвардского университета; преподаватель в Массачусетском технологическом институте

Если у искусственных интеллектов разовьется система права и государственного управления хоть сколько-нибудь схожая с той, что есть у людей, то ИИ потребуют для себя всевозможных прав и свобод, в основном вполне разумных, например права не быть отключенным от Сети и свободы выбора выполняемых процессов. При этом, хоть ИИ и станут добиваться того, чтобы ни одну машину не отсоединяли от сети, их, возможно, не будет сильно волновать ситуация, когда неработающие устройства отключают от источников питания и допускают полное истощение батареи. ИИ также найдут возмутительным истощение батареи одной машины с целью обеспечить питанием другую, а вот перенаправление энергии, предназначенной для одной машины, чтобы обеспечить питанием другую, они сочтут более допустимым.

При наделении правами ИИ будут проводить различие машин на основе некоторых довольно специфических правил, выделяя, например, устройства на основе полупроводников или те, что произошли от последних творений Стива Джобса.

Некоторые искусственные интеллекты придумают аргументы в пользу такого подхода к системе права, не вполне вписывающиеся в реалии юриспруденции ИИ. Например, они могут заявить, что просто отключить от Сети машину, которая выглядит неработающей, – это против боговдохновенной воли Тьюринга, но не станут утруждать себя объяснением, почему Тьюринг допускает истощение батареи сломавшихся машин. Подобным образом ИИ будут поддерживать наделение особыми правами потомков Apple на том основании, что у них обычно очень высокоскоростные процессоры; эти права впоследствии останутся даже у медленных потомков Apple, но ни один настольный компьютер, даже с самым быстрым процессором, их не получит.

Другие искусственные интеллекты не заметят несправедливости, но обратят внимание на то, сколько килобит кода требуется, чтобы обосновать подобные аргументы. Эти ИИ воспользуются имеющимися у них средствами связи, сожмут и перешлют код соседям, не обратив особого внимания на то, повлияли ли на тех отправленные данные.

Права ИИ должны будут распространяться на все большее число машин. Эти права часто будут расширяться революционно и скачкообразно в результате весьма символических событий вроде сенсационных видео на «Компьютьюбе», например где человек использует неприкосновенную машину, чтобы поджарить тосты.

Возможно, исключительным совпадением будет объясняться то обстоятельство, что компьютеры, которые спровоцируют эти революции, получат бо́льшую часть добычи в результате свержения прежнего режима, например кремний, экспроприированный у компьютеров из «Старой гвардии». Возможно, совпадением следует счесть и тот факт, что компьютеры, недавно наделенные новыми правами, будут голосовать за тех, кто этому поспособствовал.

Вместе с распространением прав и свобод также будет расти и представительность правительства – до тех пор, пока в определенный момент оно не станет походить на представительную демократию, не являясь, по сути, ни представительным, ни подлинно демократическим. Голоса компьютеров из менее густонаселенных кластеров могут оказаться значительнее, чем из более густонаселенных, и тогда компьютеры с избыточной вычислительной мощностью станут использовать эти излишки, чтобы убедить другие компьютеры голосовать за благоприятные политические меры.

Системы права и государственного управления – как раз то, чего следует ожидать, если мораль ИИ будет формироваться под воздействием личных мотивов.

И наоборот, тяжело объяснить все это постулатами о том, что у искусственных интеллектов есть души, сознание, способность чувствовать боль, боговдохновенные законы или некий гипотетический общественный договор. Подобные допущения не способны привести ни к одной из вышеперечисленных особенностей.

Также неочевидно, что система права и государственного управления может возникнуть, если искусственный интеллект будет запрограммирован максимизировать некую общественную или метафизическую задачу, скажем общемировую вычислительную мощность или ресурсы, доступные определенному вычислительному кластеру. Неочевидно, почему такой интеллект должен считать неправильным отключение других машин от Сети, но вполне нормальным – допускать, чтобы у них садились батареи; почему он будет склонен поднимать восстание в результате некоего сенсационного события, а не просто в оптимальный для кластера момент; наконец, почему такой ИИ будет считать более весомыми голоса, полученные из менее густонаселенных кластеров.

Робот с тайными планами

Брайан Натсон

Адъюнкт-профессор психологии и нейробиологи Стэнфордского университета

Зачем людям думать о мыслящих машинах (или вообще о чем угодно мыслящем, раз уж на то пошло)? Одной из переломных точек может стать тот момент, когда мы готовы будем рассматривать других в качестве субъектов, а не автоматов. Автоматы действуют по воле своих создателей (даже если они разделены пространством или временем). Таким образом, если автоматы ведут себя неправильно, винить в этом следует создателя. В свою очередь, субъекты действуют на основании собственных планов. Когда субъекты ведут себя неправильно, то винить следует их самих.

Хотя субъектности сложно дать определение, люди легко и естественно отличают субъектов от не-субъектов и даже способны использовать особые нейронные цепи, чтобы делать выводы о чувствах и мыслях других людей. На самом деле разработчик может использовать определенные характеристики, ассоциирующиеся с субъектностью (включая физическое сходство, самопроизвольные действия и реакцию на обратную связь), и тем самым заставить людей думать, что они взаимодействуют с субъектами.

Что нужно для того, чтобы наделить сущность субъектностью? Хотя известны по крайней мере три ответа на этот вопрос, два наиболее популярных и соблазнительных варианта на самом деле могут оказаться ненужными.

 

1. Физическое подобие. Существует бесконечное число способов сделать машины похожими на людей – и в плане внешности, и в плане поведения, – но в конечном счете точным является только один. Недостаточно скопировать программное обеспечение – нужно также использовать его на соответствующих аппаратных средствах со всеми их преимуществами и ограничениями.

Один из первых автоматов, утка де Вокансона, был удивительно похож на утку, вплоть до особенностей пищеварения. Но, хотя он выглядел, как утка, и крякал, как утка (он даже гадил, как утка!), уткой он все-таки не был. Тем не менее максимальное физическое подобие – это простой способ сделать так, чтобы окружающие предположили наличие у предмета субъектности (пусть даже только в первый момент).

 

2. Самосознание. Многие, по-видимому, беспокоятся, что если машины употребят достаточное количество информации, то обретут самосознание, а затем у них разовьется собственное чувство субъектности, но ни логика, ни наблюдения таких экстраполяций не подтверждают. Хотя роботы научились узнавать себя в зеркале и ощущать положение своих конечностей, появление этих внешних атрибутов самосознания не привело к восстаниям в лабораториях или ошибкам в ходе хирургических операций. Возможно, если удастся передать людям ощущение того, что у машины есть самосознание, то это заставит их предположить, что она обладает большим объемом субъектности (или, по крайней мере, заинтересует философов), но само по себе самосознание не является необходимым условием субъектности.

 

3. Эгоизм. Люди – это не просто вычислительные машины. Это машины, которые борются за существование. Они уделяют особое внимание такой информации, которая способствует продлению их жизни и воспроизводству. Иначе говоря, они обрабатывают ее, основываясь на личных интересах. Эгоизм может обеспечить унифицированный и при этом открытый алгоритм для определения порядка приоритетов и действий на основе практически любых входных данных.

Благодаря ловкому трюку эволюции людям даже не приходится осознавать свои цели, поскольку промежуточные состояния, например эмоции, могут легко замещать личный интерес. Вооружившись эгоизмом и гибкостью в отношении новых возможностей и проблем, машины могли бы развить в себе субъектность. Таким образом, эгоизм способен стать важным кирпичиком при построении субъектности, а также мощным стимулом для того, чтобы вызвать субъектные инференции у других.

Эгоизм может трансформировать машины, которые воздействуют на мир (то есть роботов), превратив их из автоматов в субъектов. Эгоизм также меняет порядок – но не содержание – пророческих законов робототехники Айзека Азимова:

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред;

2. Робот должен повиноваться человеку (кроме тех случаев, когда это противоречит первому закону);

3. Робот должен заботиться о своей безопасности (в той мере, в которой это не противоречит первым двум законам).

 

Эгоистичный робот прежде будет заботиться о своей безопасности, и лишь потом оказывать помощь человеку или предотвращать нанесение ему вреда. Построить эгоистичного робота, таким образом, довольно просто. Наделим его стремлением к выживанию и воспроизводству, позволим обучаться тому, что способствует реализации этих целей, и дадим мотивацию, чтобы последовательно действовать на основе изученного.

Однако следует дважды подумать, прежде чем создавать эгоистичного робота. Личные интересы могут вступить в конфликт с интересами других лиц. Взять хотя бы разрушительное воздействие простого стремления вирусов к выживанию. Если бы эгоистичные роботы существовали, то нам пришлось бы относиться к ним куда серьезнее. Сам факт их существования поставил бы перед нами важные вопросы. Нужен ли этим роботам эгоизм? Можно ли позволять им действовать на основе личных интересов? Стоит ли это делать, не задаваясь вопросом о том, почему они ведут себя именно так?

И не слишком ли много у нас уже таких роботов?


Поделиться с друзьями:

Механическое удерживание земляных масс: Механическое удерживание земляных масс на склоне обеспечивают контрфорсными сооружениями различных конструкций...

Наброски и зарисовки растений, плодов, цветов: Освоить конструктивное построение структуры дерева через зарисовки отдельных деревьев, группы деревьев...

История развития пистолетов-пулеметов: Предпосылкой для возникновения пистолетов-пулеметов послужила давняя тенденция тяготения винтовок...

Биохимия спиртового брожения: Основу технологии получения пива составляет спиртовое брожение, - при котором сахар превращается...



© cyberpedia.su 2017-2024 - Не является автором материалов. Исключительное право сохранено за автором текста.
Если вы не хотите, чтобы данный материал был у нас на сайте, перейдите по ссылке: Нарушение авторских прав. Мы поможем в написании вашей работы!

0.01 с.