Размер:
AAA
Цвет: CCC
Изображения Вкл.Выкл.
Обычная версия сайта
Ru

Искусственный интеллект в юриспруденции: сможет ли человек остаться незаменимым?


21.07.2021 | 15:48

Сегодня повсеместно внедряются современные технологии и искусственный интеллект. Юриспруденция не стала исключением: уже сейчас нейросети всё больше проникают в судебную деятельность. О том, сможет ли человек остаться незаменимым рассказала кандидат юридических наук Мария Валерьевна Боброва, доцент кафедры гражданского права Кемеровск

ого госуниверситета.


Темой искусственного интеллекта (ИИ) в юриспруденции уже никого не удивишь. Есть мнение, что большинство юристов, как и врачей, учителей, потеряет востребованность из-за внедрения современных технологий. Но вместе с тем отмечается, что виртуальные программные роботы будут брать на себя только техническую составляющую, творческая часть работы юриста останется за человеком. На этом пункте юристы обычно облегчённо выдыхают, рассчитывая, что недоступные программе человеческие качества ещё долго будут оставаться их преимуществом. Что может быть недоступно машине, выступающей в роли судьи? Она вряд ли сможет применять принципы права, во всех случаях верно толковать оценочные правовые категории (добросовестность, разумность, честность, мораль, нравственность, достоинство, существенность нарушения и другие).

Вместе с тем Российская Федерация чётко обозначила вектор на развитие ИИ. Так, например, 20 октября 2019 г. Президентом РФ был подписан Указ, которым утверждена Национальная стратегия в этой сфере на период до 2030 года. Согласно положениям Национальной стратегии, ИИ – комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека. При этом разработчики подчёркивают необходимость адаптации нормативного регулирования в части, касающейся взаимодействия человека с ИИ, и выработка соответствующих этических норм. Одной из проблем уже сейчас является проблема ответственности за вред, причинённый ИИ (как «сильным», так и «слабым»).

Несмотря на то, что этот вопрос нельзя назвать новым, практически все его аспекты являются дискуссионными. Одни авторы предлагают наделять ИИ правоспособностью, включать в число субъектов права – «электронных лиц», способных самостоятельно нести ответственность за причинённый вред. Другие – делают акцент на то, что в данном случае речь должна идти исключительно о гражданско-правовой ответственности, но не об административной или уголовной. Некоторые исследователи настаивают, что возмещение причинённого вреда могло бы осуществляться из средств специально созданной обязательной системы страхования гражданской ответственности для разработчиков и владельцев автономных «умных» роботов. Также распространено мнение о том, что за причинённый роботом вред всегда должен нести ответственность человек в виду того, что он причина и творец ИИ. В таком случае состав правонарушения будет усложнён: необходимо устанавливать противоправность поведения как в отношении робота, так и в отношении разработчика алгоритма; поставщика информации; тренера; пользователя ИИ и т. п. Кроме того, потребуется разобраться с причинно-следственной связью и субъективными предпосылками противоправного поведения (виной, риском) всех действующих лиц. При этом, следует констатировать, что наука и законотворчество отстают от бурно развивающихся общественных отношений. Например, совсем недавно Минэкономразвития анонсировало выход первых беспилотных такси на дорогах Москвы, Московской области, Краснодарского края и Татарстана в 2021 году. А значит, скорее всего, в ближайшее время нам придется разбираться с тем, кто будет отвечать за причинение вреда источником повышенной опасности – автомобилем с ИИ. Уже сейчас нейросети всё больше проникают в судебную деятельность. Далее – ряд примеров. 

1. В Китае искусственный интеллект уже проводит судебные заседания онлайн по делам, касающимся электронной коммерции и авторских прав на специальной платформе в соцсети WeChat, а стороны присутствуют на них в режиме видеосвязи.

2. Там же специально для судей был придуман алгоритм, который во время заседания выводит на экраны необходимую информацию об уликах, а также фиксирует показания присутствующих. Новая «умная» технология называется «Система 206».

3. В некоторых американских судах судьи начинают использовать системы искусственного интеллекта под названием «Оценка общественной безопасности», чтобы решить, когда и на какой срок преступники должны быть заключены в тюрьму.


Вполне понятно, что цифровизация не может оставить в стороне правосудие в нашей стране. Но почему-то именно в этот момент вспоминается второй закон робототехники Азимова, согласно которому робот должен повиноваться человеку, а не наоборот. Хотя имеют ли смысл эти законы в современном мире, если они не работали даже в научной фантастике, которая их создала? Вопрос открытый.




Вверх