Университеты по всему миру проводят крупные исследования в области искусственного интеллекта (ИИ), также как организации, такие как Институт Аллена, и технологические компании, включая Google и Facebook. Вероятным результатом станет то, что вскоре у нас будет ИИ с приблизительно таким же уровнем когнитивного развития, как у мышей или собак. Сейчас самое время начать думать о том, заслуживают ли такие ИИ, и при каких условиях, той этической защиты, которую мы обычно предоставляем животным.

Обсуждения «прав ИИ»‎ или «прав роботов» до сих пор в основном сосредоточены на вопросах о том, какие этические обязательства у нас могут появиться перед ИИ с интеллектом, похожим на человеческий или превосходящим его, — например, как у андроида Дейта из «Звездного пути» или у Долорес из «Мира Дикого Запада». Но такой подход стартует с неверной исходной точки, и это может иметь тяжкие моральные последствия. Прежде чем мы создадим ИИ с человекоподобным интеллектом, который заслуживает схожего с людьми этического рассмотрения, мы скорее всего создадим ИИ с интеллектом ниже человеческого, который тоже заслуживает какого-то, пусть и менее значительного, этического рассмотрения.

Мы уже проявляем большую осторожность в том, как проводим исследования с использованием определенных видов животных. Комитеты по защите и использованию животных оценивают предложения исследований, чтобы убедиться, что позвоночные животные не будут погибать напрасно или страдать сверх меры. Если в исследованиях используются человеческие стволовые клетки или, тем более, человеческие клетки мозга, то стандарты контроля еще более строги. Биомедицинские исследования тщательно контролируются, но исследования ИИ, которые могут нести такие же этические риски, в настоящее время не контролируются вовсе. А возможно, должны.

Вы можете подумать, что ИИ не заслуживают такой этической защиты, пока у них нет сознания — то есть подлинного потока опыта, с реальными радостью и страданием. Мы с этим согласны. Но тут мы сталкиваемся со сложным философским вопросом: как можно узнать, что мы создали нечто, способное к радости и страданию? Если ИИ будет таким, как Дейта или Долорес, он будет способен жаловаться и защищать себя, инициируя обсуждение своих прав. Но если ИИ будет бессловесным, как мышь или собака, или по какой-то иной причине будет неспособен делиться своей внутренней жизнью, то у него не будет возможности заявить, что он страдает.

Тут обнаруживаются затруднения, потому что научные исследования сознания еще не достигли консенсуса насчет того, чем является сознание и как мы можем определить его наличие или отсутствие. Согласно некоторым – «либеральным» взглядам — для наличия сознания требуется только определенный вид хорошо организованной обработки информации, такой как информационная модель системы, гибкая по отношению к объектам в ее окружении, со способностями к направлению внимания и долгосрочному планированию действий. Мы, возможно, уже близки к созданию таких систем. Согласно другим — «консервативным» взглядам — сознание может требовать весьма специфических биологических особенностей, таких как мозг, сильно похожий на мозг млекопитающих в плане низкоуровневых структурных деталей. В этом случае мы еще далеки от создания искусственного сознания.

Неясно, какой из этих взглядов верен или не появится ли в итоге какое-то другое объяснение сознания. Однако если верна либеральная точка зрения, то мы можем вскоре создать множество «субчеловеческих» ИИ, которые будут заслуживать этической защиты. Здесь и кроется моральный риск.

Обсуждения «рисков ИИ» обычно фокусируются на рисках, которые новые технологии ИИ могут представлять для нас, людей, — например, на риске того, что ИИ захватит мир и уничтожит нас, или как минимум вызовет сбои в нашей банковской системе. Гораздо реже обсуждается этический риск, который представляем для ИИ мы сами: наше возможное плохое обращение с ним.

Это может звучать как сюжет для научной фантастики, но если исследователи в области ИИ нацеливаются на разработку сознательных ИИ или устойчивых ИИ-систем, которые вполне могут стать сознательными в будущем, мы должны отнестись к этому серьезно. Такого рода исследования требуют пристального этического внимания и контроля, схожих с тем, которые мы уже применяем в исследованиях животных и образцов человеческих нервных тканей.

В случае исследований на животных и даже на людях соответствующие меры защиты были введены лишь после того, как были выявлены серьезные этические нарушения (например, ненужные вивисекции, медицинские военные преступления нацистов и исследование сифилиса в Таскиги). В случае с ИИ у нас еще есть шанс справиться с этим лучше. Мы предлагаем создание комитетов по надзору, которые будут оценивать передовые исследования ИИ с учетом этих вопросов. Такие комитеты, подобно комитетам по защите животных и комитетам по надзору за использованием стволовых клеток, должны состоять из ученых и не только: из разработчиков ИИ, исследователей сознания, специалистов по этике и заинтересованных членов общества. Эти комитеты будут отвечать за выявление и оценку этических рисков новых разновидностей проектов ИИ, обладая глубоким пониманием научных и этических вопросов и соотнося риски исследований с их полезностью.

Скорее всего, такие комитеты признают допустимыми все нынешние исследования ИИ. Согласно большинству мейнстримных теорий сознания, мы пока еще не создаем ИИ, обладающий сознательным опытом, который заслуживал бы этического рассмотрения. Но мы можем — возможно, уже скоро — пересечь эту критически важную этическую черту. И мы должны быть к этому готовы.