В этом посте содержится краткое изложение основных положений работы «Reframing Superintelligence: Comprehensive AI Services as General Intelligence» Эрика Дрекслера. (Я написал его в 2017 году, так что оно не обязательно отражает самую актуальную версию его работы.)

Мне кажется, работа Дрекслера очень интересна, потому что у него довольно необычный взгляд на ИИ. Я считаю, что в его идеях есть определённая ценность, и мне нравится, что он ставит под сомнение ключевые предположения в этой сфере. Но я не уверен, что согласен со всеми деталями, и думаю, что нам нужно быть гораздо менее уверенными насчет ИИ, чем в его текстах зачастую (неявно) предполагается.

Ключевые идеи таковы:

  • Он считает, что искусственный общий интеллект (AGI) не обязательно должен быть агентоподобным. Вместо этого мы можем создать «комплексные ИИ-услуги» (CAIS), которые будут сверхинтеллектуальными, но не будут действовать как непрозрачный агент.
  • Он считает, что обычная концепция интеллекта ошибочна, и что ИИ радикально отличается от человеческого интеллекта.
  • Он считает, что люди могут сохранить контроль над стратегическими решениями высокого уровня.

Ниже я кратко опишу разделы, которые мне показались наиболее интересными.


Модель автоматизации НИОКР для рекурсивного улучшения:

  • По мере развития ИИ мы можем ожидать, что ИИ-продукты будут автоматизировать выполняемые людьми задачи в процессе разработки ИИ, что позволит рекурсивно улучшать ИИ-технологии.
    • Но это не подразумевает рекурсивного самоулучшения агента.
    • Дрекслер считает, что можно получить комплексные, сверхинтеллектуальные ИИ-услуги без рисков, связанных с ИИ-агентами.
    • Исходя из этого, вы можете применять сверхинтеллектуальные услуги для решения проблем безопасности (связанных с ИИ-агентами).

Технологии внедрения AGI могут напрямую предоставить альтернативы AGI:

  • Вместо непрозрачных, самоулучшающихся AGI-агентов можно внедрять открытые, комплексные ИИ-услуги.
  • Самоулучшающиеся ИИ-системы общего назначения могут вносить вклад в разработку ИИ до того, как ИИ станет в общем плане сверхчеловеческим (включая моделирование мира, разработку планов его захвата и т.д.).
  • Технологии, которые могут быть использованы для внедрения непрозрачных самоулучшающихся ИИ, могут также использоваться для других целей, например, в открытых системах.
    • Нет веских причин упаковывать и запечатывать процессы разработки ИИ в непрозрачный «ящик».
  • Неожиданное и проблематичное поведение вполне возможно, но оно отличается от классических рисков AGI.
    • Он считает, что эта проблема более податлива, чем классическая «проблема контроля».

Системы с широкой компетенцией работают за счет координации более узких компетенций:

  • И у людей, и у ИИ-систем более широкие способности строятся на основе более узких.
  • Это игнорируется в абстракции ИИ как «чёрного ящика» (но в зависимости от задачи это может оказаться и полезным).

Конкурентное давление дает мало стимулов для передачи стратегических решений ИИ-системам:

  • В целом скорость и качество принятия решений ИИ будут способствовать передаче ИИ контроля над решениями.
  • Стратегические решения высокого уровня — это решения с высокими ставками, и они менее срочны, чем многие другие решения; их могут оценивать люди.
    • Это значит, что люди могут пользоваться компетентностью ИИ, не уступая контроля, потому что ИИ-системы будут предлагать отличные варианты.
    • Дрекслер утверждает, что это не повредит конкуренции.
  • Высшие из руководителей-людей, скорее всего, выберут сохранение своей власти. Передача ИИ контроля над стратегическими решениями высокого уровня увеличила бы риски при уменьшении выгод.
  • Я довольно скептично отношусь к этим утверждениям.

Модели рациональных агентов неявно придают интеллекту антропоморфный характер:

  • Дрекслер утверждает, что обычная модель рационального агента психоморфна и антропоморфна.
  • Рассматривать ИИ как разум интуитивно привлекательно, но это заблуждение.
  • Даже модели рациональных агентов изначально являются идеализацией принятия решений людьми; они абстрагируют содержание человеческих умов, но сохраняют роль разума в управлении решениями.
    • Даже интеллект высокого уровня не обязан быть психоморфным.
  • Он утверждает, что даже в техническом анализе ИИ-систем часто содержатся биологические допущения.
  • Разумо-подобные сверхинтеллекты могут быть аттрактором, но всё же важно моделировать всё пространство потенциальных ИИ-систем.
  • Дрекслер утверждает, что появляющиеся технологии ИИ радикально отличны от интеллектуальных систем, появившихся в результате эволюции:

Эволюционировавшие системыСпроектированные системы
Организация элементовОтдельные организмыСистемы из компонентов
Источник новых способностейПостепенная эволюцияПроектирование систем
Источник конкретных экземпляровЛокальное размножениеЗагрузка из репозитория
Основание для выполнения обученияИндивидуальный опытАгрегированные обучающие данные
Передача знанийОбучение, имитацияКопирование кода, данных
Требуемые компетенцииОбщие навыки жизниВыполнение специфического поручения
Метрика успешностиРепродуктивная приспособленностьСоответствие цели
СамомодификацияНеобходимоОпционально
Непрерывность существованияНеобходимоОпционально
Агентность, ориентированная на мирНеобходимоОпционально

Стандартные определения «сверхинтеллекта» смешивают обучение с компетентностью:

  • Интеллект — это способность к обучению, которую можно понимать как отдельную от компетентности.
  • Эти два понятия следует различать как у людей, так и у ИИ-систем.
    • Ребёнок считается разумным из-за способности к обучению, эксперт считается умным из-за компетентности.
  • Обучение и компетентность разделимы как в принципе, так и на практике.
  • Паттерны обучения и компетентности радикально различаются у людей и типичных ИИ-систем.
    • Например, у людей обучение и компетентность объединены, но у ИИ-систем они разделимы.
    • Ошибочно полагать, что ИИ-системы со сверхчеловеческими навыками обучения обязательно будут обладать сверхчеловеческими способностями.

Предоставление комплексных ИИ-услуг не требует AGI и не влечет его за собой:

  • Дрекслер считает, что практические стимулы для разработки AGI неожиданно слабы, потому что вместо AGI можно получить комплексные ИИ-услуги (и это будет гораздо безопаснее).
  • Это значит, что разработка AGI не неизбежна (но всё же по умолчанию произойдет, если её не предотвратят активными действиями).

Системы с обучением с подкреплением ≠ агенты, стремящиеся к вознаграждению:

  • В сегодняшней практике системы с обучением с подкреплением (RL-системы) обычно отличаются от агентов, которые они порождают.
    • RL-подкрепления поддерживают обучение, но не являются мотивацией / действием / источниками ценностей.
    • RL-системы и агенты, выполняющие поручения, не являются едиными «RL-агентами»; вместо этого обученные агенты — это продукты RL-систем.
  • Агрегация ослабляет связь между агентами, действиями и опытом.
  • Как и в других постах, важно рассматривать это с точки зрения «подхода, ориентированного на разработку».

Обширные знания о мире совместимы с сильным (и безопасным) фокусом на поручениях:

  • Системы машинного перевода показывают, что можно иметь систему с обширными знаниями о мире, но при этом ограниченную одной задачей.
  • Нынешние нейросетевые системы машинного перевода развивают независимые от языка способы представления значений.
  • Надёжный фокус на поручении может поддерживать безопасность.

Обеспечение отсутствия сговора между сверхинтеллектуальными оракулами:

  • Он предлагает использовать сверхинтеллектуальные возможности решения задач для решения проблемы безопасности ИИ.
  • Обычное возражение заключается в том, что такие подходы сами по себе небезопасны.
    • В частности, есть опасность, что различные системы вступят в сговор против людей.
  • Но Дрекслер считает, что есть стратегии для предотвращения сговора об обмане.
  • Пол Кристиано тоже разделяет эту точку зрения.

Прочие мысли о безопасности ИИ:

  • Надзор людьми совместим с рекурсивным улучшением технологий ИИ и не вытесняется конкурентным давлением.
  • ИИ-технологии сами могут помочь в обеспечении надзора людьми.
  • Можно было бы вылечить рак, не подвергаясь риску AGI.
  • Высокая сила оптимизации может повысить безопасность ИИ, ограничив структуру и поведение системы.
  • Идея запирания ИИ «в коробке» ошибочна, потому что возможности распределены.
  • Безопасность ИИ следует рассматривать в контексте ожидаемых будущих знаний.
  • Комплексные ИИ-услуги могут смягчить, но не решить проблему контроля над AGI.