«Путешествие в послезавтра»: регулирование киберопераций с использованием искусственного интеллекта в контексте применения силы
https://doi.org/10.24833/0869-0049-2024-4-85-105
Аннотация
ВВЕДЕНИЕ. Искусственный интеллект (далее – ИИ) может значительно укрепить системы информационной безопасности государств, а также послужить дополнительным техническим средством совершения злонамеренных действий в так называемом киберпространстве. Стремясь получить конкурентное преимущество в цифровой сфере, государства начали инвестировать в оборонительные и наступательные автономные кибервозможности для защиты своих интересов и сдерживания потенциальных противников, что подстегнуло рост числа межгосударственных киберопераций. Статья посвящена не только проблемам применения существующих норм международного права в ситуациях злонамеренного использования ИИ государствами, но и процессу интерпретации этих норм различными субъектами и через эту интерпретацию кристаллизации общего (или, по крайней мере, сближающегося) понимания их применимости. Таким образом, в данной работе рассматривается путь к пониманию того, как нормы международного права о применении силы действуют в отношении киберопераций с использованием ИИ.
МАТЕРИАЛЫ И МЕТОДЫ. Настоящее исследование основано на работах как российских, так и зарубежных специалистов в области права международной информационной безопасности, а также на анализе документов и материалов групп правительственных экспертов под эгидой Организации Объединенных Наций и позиций государств. Помимо общенаучных методов (анализ, синтез, индукция и дедукция), в исследовании применяется теория транснационального правового процесса, которая рассматривает текущие дискуссии по соответствующим вопросам на различных площадках и в целом кооперацию различных акторов в процессе формирования правил ответственного использования ИИ государствами посредством взаимодействия, толкования и интернализации интерпретированных правовых идей и практик во внутренние правовые системы.
РЕЗУЛЬТАТЫ ИССЛЕДОВАНИЯ. Международные усилия по разработке универсального свода правил ответственного поведения государств в киберпространстве пока не увенчались успехом. Проанализированная история обсуждения допустимых действий государств в киберпространстве позволяет предположить, что дискуссия, посвященная ИИ, в обозримом будущем будет развиваться вне контекста разработки всеобъемлющего международного договора. Вместо этого правовой ландшафт применения ИИ, судя по всему, будет формироваться на основе инструментов «мягкого права» и инициатив частного сектора, что повлечет за собой фрагментацию толкования и практики государств.
ОБСУЖДЕНИЕ И ВЫВОДЫ. Усложнение межгосударственных киберопераций технологиями ИИ поднимает дополнительные вопросы о действии международного права, в частности его норм о применении силы, в отношении киберинцидентов с использованием ИИ. Поскольку государства стремятся разработать и приобрести смертоносные автономные системы вооружений для поддержания стратегического паритета, что может дестабилизировать глобальную безопасность и повысить риск эскалации конфликтов, развертывание подобных систем и участие государств в кибероперациях с использованием ИИ способно привести к очередной гонке вооружений — на этот раз с применением ИИ. Это и другие политические и этические соображения говорят о целесообразности ограничения свободы действий государств в использовании ИИ. Однако на сегодняшний день стимулы для стран НАТО, Китая и России договориться о международном юридически обязательном документе, пресекающем использование ИИ в злонамеренных целях, представляются иллюзорными. Исходя из истории дискуссий о применении международного права в киберпространстве и разработке правил ответственного поведения государств, использующих информационно-коммуникационные технологии, можно предположить, что соответствующие дискуссии об ИИ, скорее всего, будут проходить вне рамок разработки международного договора. Таким образом, дальнейший анализ развития этого вопроса потребует изучения того, как транснациональные нормы, например те, что возникают из инструментов «мягкого права», практики государств и инициатив частного сектора, будут формировать международноправовой ландшафт применения ИИ.
Об авторе
Е. А. МартыноваРоссия
Екатерина Александровна Мартынова, преподаватель департамента международного права,
факультет права
Мясницкая ул., д. 20, Москва, 101000
Список литературы
1. Anderson K., Reisner D., Waxman M. Adapting the Law of Armed Conflict to Autonomous Weapons Systems. – International Law Studies. 2014. Issue 90. P. 386-411.
2. Asaro P. On Banning Autonomous Weapon Systems: Human Rights, Automation, and the Dehumanization of Lethal Decision-Making. – International Review of the Red Cross. 2012. Vol. 94. Issue 886. P. 687-709.
3. Čerka P., Grigienė J., Sirbikytė G. Is It Possible to Grant Legal Personality to Artificial Intelligence Software Systems?’ – Computer Law & Security Review. 2017. Vol. 33. Issue 5. P. 685-699.
4. Chinen M. 2023. The International Governance of Artificial Intelligence. Edward Elgar Publishing. 2023. 338 p.
5. Chernyavsky A.G., Sibileva O.P. Avtonomnoe vysokotochnoe oruzhie kak vyzov mezhdunarodnomu gumanitarnomu pravu [Autonomous precision weapons as a challenge international humanitarian law]. – Military law. 2020. № 4. P. 229-238. (In Russ.)
6. Chesterman S. Artificial Intelligence and the Limits of Legal Personality. – International & Comparative Law Quarterly. 2020. Vol. 69. Issue 4. P. 819-844.
7. Delerue F. Cyber Operations and International Law. Cambridge University Press. 2020. 549 p.
8. Finnemore M., Hollis D.B. Beyond Naming and Shaming: Accusations and International Law in Cybersecurity. – European Journal of International Law. 2020. Vol. 31. Issue 3. P. 969-1003.
9. Garcia D. Lethal Artificial Intelligence and Change: The Future of International Peace and Security. – International Studies Review. 2018. Vol. 20. Issue 2. P. 334-341.
10. Koh H.H. Transnational Legal Process. – The Nature of International Law. Simpson G. (ed). Routledge. 2001. P. 311-338.
11. Koh H.H. Is there a “New” New Haven School of International Law? – Yale Journal of International Law. 2007. Vol 32. P. 559-573.
12. Koh H.H. Transnational Legal Process and the “New” New Haven School of International Law. – International Legal Theory. Foundations and Frontiers. Dunoff J.L. and Pollack M.A. (eds). Cambridge University Press. 2022. P. 101-132.
13. Lee J. Artificial Intelligence and International Law. Springer. 2022. 261 p.
14. Morkhat P.M. Iskusstvennyj intellekt s tochki zrenija mezhdunarodnogo gumanitarnogo prava [Artificial intelligence from the perspective of international humanitarian law]. – Law and State: Theory and Practice. 2017. № 10. P. 18-24. (In Russ.)
15. Proskurina D.S., Khokhlova M.I., Safin N.I. Smertonosnye avtonomnye sistemy vooruzhenij: budushhee voennoj industrii ili ugroza padenija mezhdunarodnogo gumanitarnogo prava? [Lethal autonomous weapons systems: the future of the military industry or the threat of the fall of international humanitarian law?]. – Eurasian Advocacy. 2020. № 6. P. 81-85. (In Russ.)
16. Roscini M. Cyber Operations and the Use of Force in International Law. Oxford University Press. 2015. 307 p.
17. Roscini M. Evidentiary Issues in International Disputes Related to State Responsibility for Cyber Operations. – Texas International Law Journal. 2015. Vol. 50. Issue 2. P. 233-275.
18. Sassòli M. Autonomous Weapons and International Humanitarian Law: Advantages, Open Technical Questions and Legal Issues to be Clarified. – International Law Studies. 2014. Vol. 90. P. 308-340.
19. Schmitt M.N. (ed.). Tallinn Manual 2.0 on the International Law Applicable to Cyber Operations. Cambridge University Press. 2017. 598 p.
20. Schmitt M.N. Autonomous Cyber Capabilities and the International Law of Sovereignty and Intervention. – International Law Studies. 2020. Vol. 96. P. 549-576.
21. Stahl B.C. Responsible Computers? A Case for Ascribing Quasi-Responsibility to Computers Independent of Personhood or Agency. – Ethics and Information Technology. 2006. Vol. 8. Issue 4. P. 205-213.
22. Stroppa M. Legal and Ethical Implications of Autonomous Cyber Capabilities: a Call for Retaining Human Control in Cyberspace. – Ethics and Information Technology. 2023. Issue 25. Paper 7. P. 1-6.
23. Taddeo M., McCutcheon T., Floridi, L. Trusting Artificial Intelligence in Cybersecurity is a Double-Edged Sword. – Nature Machine Intelligence. 2019. Issue 1. P. 557-560.
Рецензия
Для цитирования:
Мартынова Е.А. «Путешествие в послезавтра»: регулирование киберопераций с использованием искусственного интеллекта в контексте применения силы. Московский журнал международного права. 2024;(4):85-105. https://doi.org/10.24833/0869-0049-2024-4-85-105
For citation:
Martynova E.A. “Journey Beyond Tomorrow”: Navigating Regulation of AI-Powered Cyber Operations in the Realm of the Use of Force. Moscow Journal of International Law. 2024;(4):85-105. https://doi.org/10.24833/0869-0049-2024-4-85-105