Социально-этические аспекты создания искусственного интеллекта - Философские проблемы искусственного интеллекта

Создание искусственного интеллекта сопряжено с различными проблемами социально-этического и философского характера. Рассмотрим наиболее важные из них.

Очевидно, что пустая компьютерная познавательная нервная сеть может использоваться как полигон для экспериментов с искусственным интеллектом. Нагружая одну и ту же сеть разными знаниями, можно изучить законы познавательной деятельности человека, точнее, обнаружить связь между обучением, творчеством и структурой нервной сети. Но одно дело получить неактивированную копию познавательной нервной сети человека, а другое, предоставить этой сети возможность размышлять, чувствовать и, в конечном счете, прийти к осознанию своего положения. С другой стороны, без экспериментов с искусственным интеллектом, нет никакой возможности раскрыть его тайны.

Научные эксперименты с таким искусственным интеллектом будут подобны самым изощренным пыткам. Сознание человека, с одной стороны, практически бессмертно, так как искусственный интеллект, в качестве компьютерной познавательной нервной сети, может многократно копироваться и хранится в существенно менее подверженных старению носителях, чем человеческих организм. С другой стороны, сознание человека, оказывается в качестве искусственного интеллекта в полной и вечной зависимости от исследователя-компьютерщика, а фактически, палача. Исследователь, вмешиваясь в функционирование компьютерной нервной познавательной сети, о деятельности которой у него нет достаточных представлений, может вызвать у искусственного интеллекта совершенно невообразимые страдания. Такое вмешательство исследователя может восприниматься искусственным интеллектом как болезненное и длительное разрушение виртуальных частей тела, напр. "Перезагрузка" искусственного интеллекта наверняка будет восприниматься как смерть, причем не обязательно мгновенная и не мучительная.

Допустимо ли исследователю многократно умерщвлять искусственный интеллект, особенно если искусственного интеллекта является совершенной интеллектуальной копией реального живого человека? Правильно ли допускать прототипу такие издевательства над своей интеллектуальной копией, которая обладает тем же набором чувств, что и прототип?

Перенос искусственного интеллекта прототипа из компьютера в мозг клона также не лишен моральных проблем. При таком перемещении сформировавшаяся автономно личность клона, или которая могла бы быть сформирована, окажется "стертой" (заблокированной) личностью своего прототипа. Кто может из людей, даже если это и клон, на это согласиться. Особенно, если наделить клон правом принимать решение по внедрению в свой мозг чужого интеллекта? Это все равно, что предложить однояйцовым близнецам обменяться мозгами.

Также, особо важным является проблема безопасности. Данная проблема будоражит умы человечества еще со времен Карела Чапека, впервые употребившего термин "робот". Большую лепту в обсуждение данной проблемы внесли и другие писатели-фантасты. Как самые известные можно упомянуть серии рассказов писателя-фантаста и ученого Айзека Азимова, Брайана Герберта с его всемирным разумом Омниусом, а так же довольно свежее произведение -- "Терминатор" и "Матрица". Кстати, именно у Айзека Азимова можно найти самое проработанное, и принятое большинством людей решение проблемы безопасности - трех законах робототехники:

    1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред. 2. Робот должен повиноваться командам, которые ему дает человек, кроме тех случаев, когда эти команды противоречат первому закону. 3. Робот должен заботиться о своей безопасности, насколько это не противоречит первому и второму закону.

На первый взгляд подобные законы, при их полном соблюдении, должны обеспечить безопасность человечества. Однако при внимательном рассмотрении возникают некоторые вопросы. Во-первых, законы сформулированы на человеческом языке, который не допускает простого их перевода в алгоритмическую форму. К примеру: как перевести на любой из известных языков программирования, такой термин, как "причинить вред". Или "допустить".

Далее предположим, что мы сумели переформулировать, данные законы на язык, который понимает автоматизированная система. Теперь интересно, что будет подразумевать система искусственного интеллекта под термином "вред" после долгих логических размышлений? Не решит ли она, что все существования человека это сплошной вред? Ведь он курит, пьет, с годами стареет и теряет здоровье, страдает. Не будет ли меньшим злом быстро прекратить эту цепь страданий? Конечно можно ввести некоторые дополнения, связанные с ценностью жизни, свободой волеизъявления. Но это уже будут не те простые три закона, которые были в исходном варианте.

Следующим вопросом будет такой. Что решит система искусственного интеллекта в ситуации, когда спасение одной жизни возможно только за счет другой? Особенно интересны те случаи, когда система не имеет полной информации о том, кто есть кто.

Несмотря на перечисленные проблемы, данные законы являются довольно неплохим неформальным базисом проверки надежности системы безопасности для систем искусственного интеллекта.

Так что же, неужели нет надежной системы безопасности? Если отталкиваться от концепции искусственного интеллекта, то можно предложить следующий вариант.

Согласно многочисленным опытам, несмотря на то, что мы не знаем точно, за что отвечает каждый отдельный нейрон в человеческом мозге, многим из наших эмоций обычно соответствует возбуждение группы нейронов (нейронный ансамбль) во вполне предсказуемой области. Были также проведены обратные эксперименты, когда раздражение определенной области вызывало желаемый результат. Это могли быть эмоции радости, угнетения, страха, агрессивности. Это наводит на мысль, что в принципе мы вполне могли бы вывести степень "довольности" организма наружу. В то же время, практически все известные механизмы адаптации и самонастройки (в первую очередь имеются в виду технические системы), базируются на принципах типа "хорошо" -- "плохо". В математической интерпретации это сведение какой-либо функции к максимуму или к минимуму. Теперь представим себе, что ИИ в качестве такой функции использует измеренную прямо или косвенно, степень удовольствия мозга человека-хозяина. Если принять меры, чтобы исключить самодеструктивную деятельность в состоянии депрессии, а так же предусмотреть другие особые состояния психики, то можно получить вполне стабильную систему.

Очень важной является проблема сверхинтеллекта и взаимоотношений человечества и искусственным интеллектом. Сможет ли человечество использовать для расширения своего знания познавательные модели сверхумного искусственного интеллекта?

Машинный искусственный интеллект, построенный в виде наполняемого знаниями компьютера, никогда не сможет обладать творческим потенциалом, то есть стать умнее в творческом плане, не только человечества, но и отдельного человека. Но если предположить, что человеку удастся внести "Божью искру" в искусственный интеллект, то он потеряет на уникальность как самое умное на свете существо. Для человечества это путь самопожертвования во имя создания нового более совершенного живого аналога интеллекта человека.

То есть человечество, вероятно, сохранится, но для сверхинтеллекта оно будет выглядеть как заповедник ближайших генетических родственников, с которыми полноценное интеллектуальное взаимодействие невозможно. Получая от сверхинтеллекта каждый раз такие рекомендации, которые с очевидностью улучшают состояние человеческого общества, человечество становится, в конечном счете, абсолютно зависимым от сверхинтеллекта. То есть возникает симбиоз сверхинтеллекта и человечества, где человечество выполняет для сверхинтеллекта сервисные функции.

Но, возможно ли в процессе создания такого сверхинтеллекта, навязать ему запреты на деятельность, наносящую вред человечеству? Исходя из того, что в настоящее время известна возможность "программирования" человека на совершение независящего от его воли поступка, то, вероятно, такому "программированию" можно потенциально подвергнуть и искусственный интеллект. Но на этом пути возникает целый ряд проблем и возможно, главная из них это нормальное функционирование сверхинтеллекта. Если принять во внимание описанный выше исход взаимоотношения человечества и сверхинтеллекта, то, следуя закону "не вреди человеку и человечеству в целом", сверхинтеллект должен самоуничтожится. Но если и на эту акцию ему наложить запрет, тогда он попадает в логическую ловушку, что приведет к нарушению функционирования мозга. Если полагать, что сверхинтеллект обладает определенными качествами интеллекта человека, то возникшая ситуация приведет к неврозу у сверхинтеллекта, из которого он может выйти путем психоанализа. При успешном проведении психоанализа, например, в автономном режиме, сверхинтеллект может обнаружить навязанное противоречие и освободится от него или путем самоубийства или же самопроизвольным снятием запрета на нанесение вреда человечеству, пойти на сделку со своей "искусственной совестью".

Создание сверхинтеллекта, будет для человечества первым шагом к потере интеллектуального лидерства и поставит его на место родителя следующей, возможно, более прогрессивной стадии эволюции.

Похожие статьи




Социально-этические аспекты создания искусственного интеллекта - Философские проблемы искусственного интеллекта

Предыдущая | Следующая