Распространенная фантазия о неконтролируемом искусственном сверхинтеллекте (таком как максимизатор скрепок) подразумевает, что он поспособствует вымиранию человечества и других форм жизни. Можно подумать, что раз их страдания будут окончены, это не такой уж и плохой сценарий, поэтому можно не беспокоиться о безопасности ИИ.

В данном отрывке из статьи «Artificial Intelligence and Its Implications for Future Suffering» Брайан Томасик объясняет, почему все гораздо сложнее и какие направления безопасности ИИ могли бы уменьшить страдания.