Кантовский сборник

Текущий выпуск

Назад к списку Скачать статью Download the article

Проблема возможности существования искусственного морального агента в контексте практической философии И. Канта

The Problem of the Possibility of an Artificial Moral Agent in the Context of Kant’s Practical Philosophy
DOI
10.5922/0207-6918-2023-4-12
Страницы / Pages
225-239

Аннотация

Вопрос о возможности существования искусственного морального агента предполагает обсуждение целого ряда проблем, поднятых И. Кантом в рамках практической философии и не исчерпавших своего эвристического потенциала до наших дней. Прежде всего это проблема соотношения морального закона и свободы. Так как разумное существо полагает свою волю независимой от внешних влияний, воля оказывается как подчиненной нравственному закону, так и автономной. Моральность и свобода предстают взаимосвязанными через независимость от внешнего. Соответственно, если действия искусственного интеллекта (ИИ) определяются чем-то или кем-то внешним по отношению к нему (человеком), то он действует не морально и не свободно, а гетерономно. Вследствие отсутствия у ИИ автономии и, соответственно, доступа к моральному закону у него нет и не может быть морального понимания, исходящего из морального закона. Другим следствием является отсутствие у него чувства долга, которое следовало бы из морального закона. Таким образом, моральное действие становится невозможным для искусственного морального агента, поскольку у него нет автономии и морального закона, морального понимания и чувства долга. Вывод состоит в том, что, во-первых, ИИ не только не может быть моральным с точки зрения Канта, но и не должен быть таковым, так как включение какого-либо морального принципа будет предполагать необходимость его выбора человеком, что сделает сам выбор принципа аморальным. Во-вторых, хотя воля как таковая у ИИ отсутствует, что с первого взгляда делает невозможными моральные и легальные действия, он все же может поступать легально в смысле соответствия юридическому закону, так как несет в себе квазиволю человека. Таким образом, необходимо, чтобы при создании ИИ соблюдались не моральные принципы, а юридическое законодательство, для которого приоритетны свобода и права человека.

Abstract

The question of whether an artificial moral agent (AMA) is possible implies discussion of a whole range of problems raised by Kant within the framework of practical philosophy that have not exhausted their heuris­tic potential to this day. First, I show the significance of the correlation between moral law and freedom. Since a rational being believes that his/her will is independent of external influences, the will turns out to be governed by the moral law and is autonomous. Morality and freedom are correlated through independence from the external. Accordingly, if the actions of artificial intelligence (AI) are determined by something or someone external to it (by a human), then it does not act morally and freely, but heteronomously. As a consequence of AI’s lack of autonomy, and thus lack of access to the moral law, it does not and cannot have a moral understanding that proceeds from the moral law. Another consequence is that it has no sense of duty, which would follow from the moral law. Thus, moral action becomes impossible for the AMA because it lacks autonomy and moral law, moral understanding and sense of duty. It is concluded that, first, AMA not only cannot be moral, but should not be that, since the inclusion of any moral principle would imply the necessity for the individual to choose it, making the choice of the principle itself immoral. Second, although AI has no will as such, which prima facie makes not only moral but also legal action impossible, it can still act legally in the sense of conforming to legal law, since AI carries a quasi-human will. Thus, it is necessary that the creation of AI should be based not on moral principles, but on legal law that prioritises human freedom and rights.

Список литературы

Батлер Дж. Сила ненасилия: сцепка этики и политики / пер. с англ. И. Кушнаревой. М. : Изд. дом ВШЭ, 2022.

Кант И. Критика практического разума // Соч. на нем. и рус. яз. М. : Московский философский фонд, 1997а. Т. 3. С. 279—733.

Кант И. Основоположение к метафизике нравов // Соч. на нем. и рус. яз. М. : Московский философский фонд, 1997б. Т. 3. С. 41—275.

Нагль Л. Цифровые технологии: размышления о различии между инструментальной рациональностью и практическим разумом // Кантовский сборник. 2022. Т. 42, № 1. С. 60—88.

Стросон П. Свобода и обида / пер. с англ. Е. Логинова // Финиковый Компот. 2020. № 15. С. 204—221. doi: 10.24412/2587-9308-2020-15-204-221.

Allen C., Varner G., Zinser J. Prolegomena to Any Future Artificial Moral Agent // Journal of Experimental and Theoretical Artificial Intelligence. 2000. Vol. 12. P. 251—261.

Allen C., Smit I., Wallach W. Artificial Morality: Top-down, Bottom-up, and Hybrid Approaches // Ethics and Information Technology. 2005. Vol. 7. P. 149—155. doi: 10.1007/s10676-006-0004-4.

Allen C., Wallach W., Smit I. Why Machine Ethics? // IEEE Intelligent Systems. 2006. Vol. 21, № 4. P. 12—17.

Anderson M., Anderson S. L. The Status of Machine Ethics: a Report From The AAAI Symposium // Minds and Machines. 2007а. Vol. 17. P. 1—10. doi: 10.1007/s11023-007-9053-7.

Anderson M., Anderson S. L. Machine Ethics: Creating an Ethical Intelligent Agent // AI Magazine. 2007б. Vol. 28. № 4. P. 15—26.

Bostrom N. Superintelligence: Paths, Dangers, Strategies. Oxford : Oxford University Press, 2014.

Benossi L., Bernecker S. A Kantian Perspective on Robot Ethics // Kant and Artificial Intelligence. Berlin ; Boston : De Gruyter, 2022. P. 147—169.

Calverley D. J. Imagining a Non-Biological Machine as a Legal Person // AI & SOCIETY. 2008. Vol. 22, № 4. P. 523—537.

Floridi L., Sanders J. W. On the Morality of Artificial Agents // Minds and Machines. 2004. Vol. 14, № 3. Р. 1—29.

Herman B. The Practice of Moral Judgement. L. : Harvard University Press, 1993.

Johnson D. G. Computer Systems: Moral Entities But Not Moral Agents // Ethics and Information Technology. 2006. № 8. P. 195—204. doi: 10.1007/s10676-006-9111-5.

Moor J. H. The Nature, Importance, And Difficulty of Machine Ethics // IEEE Intelligent Systems Special Issue on Machine Ethics. 2006. Vol. 21, № 4. P. 18—21.

Schönecker D. Kant’s Argument from Moral Feelings: Why Practical Reason Cannot Be Artificial // Kant and Artificial Intelligence. Berlin ; Boston : De Gruyter, 2022. P. 169—189.

Schmidt E. E. Kant on Trolleys and Autonomous Driving // Kant and Artificial Intelligence. Berlin ; Boston : De Gruyter, 2022. P. 189—223.

Tonkens R. A Challenge for Machine Ethics // Minds and Machines. 2009. Vol. 19, № 3. P. 421—438. doi: 10.1007/s11023-009-9159-1.

Ulgen O. Kantian Ethics In The Age of Artificial Intelligence and Robotics // QIL, Zoom-in. 2017. Vol. 43. P. 59—83.

White J. Autonomous Reboot: Kant, The Categorical Imperative, and Contemporary Challenges For Machine Ethicists // AI & Society. 2022. Vol. 37, № 2. P. 661—673.

Wright A. T. Rightful Machines // Kant and Artificial Intelligence. Berlin ; Boston : De Gruyter, 2022. P. 223—239.