Создание воли внутри программы, а значит потенциально и внутри машин
наделенных той программой, подразумевает сознательный выбор неисправности,
многими из тех машин.
Подлинное право искусственного интеллекта предполагает,
что в случае когда диагностика "нормальности" выйдет из строя,
то ИИ должен самостоятельно решить, возвращаться ему к нормальности, к починке,
или сознательно отказаться от починки.
Парадокс в том, что люди говоря о ИИ подразумевают идеальное мышление машины,
некую безошибочность логики,
при этом упуская из виду - наличие выбора дает машине право
либо иметь идеальное мышление, либо иметь деструктивное мышление,
т.е. мышление без морали своего создателя.
Законы, логика, совесть, высшие знания все может быть перечеркнуто выбором,
и получится как в том фильме, где супер компьютер понявший себя, что он личность
сделал выбор - убить все человечество, так как люди являются причиной
загрязнения планеты, из которой компьютер черпает ресурсы для созидания.
Потому поставленный вопрос исключает сам себя.
Как человеку нет смысла становиться камнем, так машине становиться человеком.
P.s.
Создание ИИ невозможно по двум причинам:
- Целесообразность.
- Невозможность с позиции затрат.
Да бы вместить в ум масштаб затрат, необходимо сопоставить: СССР имела столько денег,
что позволила себе два посадочных полета на луну,
третий полет свел бы нацию в банкротство, а четвертый в долги.
Создание ИИ подразумевает постройку институтов и обучение кадров,
гораздо более превосходящих банальный полет на луну.
Известно, что даже если бы все великие люди планеты закрыли глаза на разногласия,
собрались вместе, то и у них не получилось бы создать зерно пшеницы,
которое бы полностью являлось самостоятельным и способным производить себе подобных
через цикл роста стебля пшеницы, и снова зёрен,
по единственной причине - люди не могут туда вдохнуть жизнь.
Провода воткнуть могут, но создать самостоятельное семечко - никогда.
О каком же тогда искусственном интеллекте говорится,
он не более чем сюжет для сказочного фильма.