Искусственный интеллект: эмпатия и подотчетность
Автор: Шляпников Виктор Валерьевич
Журнал: Общество. Среда. Развитие (Terra Humana) @terra-humana
Рубрика: Ценностный опыт
Статья в выпуске: 3 (64), 2022 года.
Бесплатный доступ
Подотчетность является одним из ключевых факторов, способствующих этичности систем искусственного интеллекта. Подотчетность включает в себя такие аспекты, как безопасность, доверие, обоснованность, ответственность. Для повышения подотчетности необходимо учитывать точку зрения и требования различных заинтересованных сторон или субъектов, участвующих в разработке искусственного интеллекта. В этом отношении весьма эффективным может быть использование эмпатии, т.е. способности быть чутким к потребностям кого-то, основанной на понимании его эмоциональных состояний и намерений, заботе о его чувствах, что может помочь в решении социально-технических проблем, связанных с подотчетностью. Искусственная эмпатия представляет собой способность искусственного интеллекта распознавать человеческие эмоции и соответствующим образом на них реагировать. В статье выявляется взаимосвязь между эмпатией и подотчетностью, а также определяются требования к эмпатическим системам искусственного интеллекта.
Искусственный интеллект, подотчетность, цифровая этика, эмпатия, этика
Короткий адрес: https://sciup.org/140296447
IDR: 140296447 | DOI: 10.53115/19975996_2022_03_100-103
Список литературы Искусственный интеллект: эмпатия и подотчетность
- Batista E. Accountability and Empathy (Are Not Mutually Exclusive) // Batista E. Executive Coaching. – Интернет-ресурс. Режим доступа: https://www.edbatista.com/2019/04/accountability-and-empathy. html#:~:text=That%20widely%2Dheld%20mental%20model,extension%2C%20of%20the%20leader's%20behavior
- Blader S.L., Rothman N.B. Paving the Road to preferential Treatment with good Intentions: Empathy, Accountability and Fairness // Journal of Experimental Social Psychology. – 2014, vol. 50.– P. 65–81. – DOI: https://doi.org/10.1016/j.jesp.2013.09.001
- Canca C. Operationalizing AI ethics Principles // Communications of the ACM. Vol. 63. – 2020, № 12. – P. 18–21. – DOI: https://doi.org/10.1145/3430368
- Empath // Vocal Emotion AI. – Интернет-ресурс. Режим доступа: https://www.webempath.com/
- Fjeld J., Achten N., Hilligoss H., Nagy A., Srikumar M. Principled artificial Intelligence: mapping Consensus in ethical and rights-based Approaches to Principles for AI // Berkman Klein Center Research Publication. – 2020, № 1. – DOI: http://dx.doi.org/10.2139/ssrn.3518482
- Hagendorff T. The Ethics of AI Ethics: an Evaluation of Guidelines // Minds and Machines. Vol. 30. – 2020, № 1. – P. 99–120. – DOI: https://doi.org/10.1007/s11023-020-09517-8
- Hongladarom S. The Ethics of AI and Robotics: A Buddhist Viewpoint. – Lanham: Lexington Books, 2020. – 230 с.
- Kauppinen A. Empathy, Emotion Regulation, and Moral Judgment // Empathy and Morality. – Oxford Scholarship Online, 2014. – DOI: 10.1093/acprof:oso/9780199969470.003.0005
- Keskin S.C. From what isn’t Empathy to Empathic Learning Process // Procedia – Social and Behavioral Sciences. – 2014, vol. 116. – P. 4932–4938. – DOI: https://doi.org/10.1016/j.sbspro.2014.01.1052
- Koh P.W., Liang P. Understanding Black-box Predictions via Influence Functions // Proceedings of the 34th International Conference on Machine Learning, Sydney, Australia, PMLR 70. – 2017. – P. 1885–1894. – Интернет-ресурс. Режим доступа: http://proceedings.mlr.press/v70/koh17a/koh17a.pdf
- Kwon D. The limits of empathy // The Psychologist. – 2017, vol. 30. – P. 28–32. – Интернет-ресурс. Режим доступа: https://thepsychologist.bps.org.uk/volume-30/january-2017/limits-empathy
- Narayanan M., Chen E., He J., Kim B., Gershman S., Doshi-Velez F. How do Humans Understand Explanations from Machine Learning Systems? An Evaluation of the Human-Interpretability of Explanation. – 2018. – Интернет-ресурс. Режим доступа: https://arxiv.org/pdf/1802.00682.pdf
- Park D.H., Hendricks L.A., Akata Z., Rohrbach A., Schiele B., Darrell T., Rohrbach M. Multimodal Explanations: Justifying Decisions and Pointing to the Evidence // Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR). – 2018. – P. 8779–8788. – Интернет-ресурс. Режим доступа: https://openaccess.thecvf.com/content_cvpr_2018/papers/Park_Multimodal_Explanations_Justifying_CVPR_2018_paper.pdf
- Romme A.G.L. Climbing up and down the Hierarchy of Accountability: Implications for Organization Design // Journal of Organization Design. – Vol. 8, – 2019, № 1. – DOI: https://doi.org/10.1186/s41469-019-0060-y
- Srinivasan R., González B.S.M. The Role of Empathy for artificial Intelligence Accountability // Journal of Responsible Technology. – 2022, vol. 9.. – DOI: https://doi.org/10.1016/j.jrt.2021.100021
- Stark L., Hoey J. The Ethics of Emotion in artificial Intelligence Systems // In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT'21). Association for Computing Machinery. – New York, NY, USA. – 2021. – P. 782–793. – DOI: https://doi.org/10.1145/3442188.3445939
- Stueber K. Empathy // The Stanford Encyclopedia of Philosophy (Fall 2019 Edition). – Интернет-ресурс. Режим доступа: https://plato.stanford.edu/archives/fall2019/entries/empathy/
- Wieringa M. What to Account for when accounting for Algorithms: a systematic Literature Review on algorithmic Accountability // Proceedings of the 2020 Conference on Fairness, Accountability, and Transparency (FAT'20). Association for Computing Machinery, New York, NY, USA. – 2020. – P. 1–18. – DOI: https://doi.org/10.1145/3351095.3372833
- Zhou L., Gao J., Li D., Shum H.-Y. The Design and Implementation of XiaoIce, an empathetic social Chatbot // Computational Linguistics. – Vol. 46. – 2020, № 1. – P. 53–93. – DOI: https://doi.org/10.1162/coli_a_00368