Кто должен нести ответственность за решения, принимаемые AI (Искусственного интеллекта)?

Кто должен нести ответственность за решения, принимаемые AI (Искусственного интеллекта)?

AI все чаще присутствует в нашей повседневной жизни. Технологические компании используют огромное количество данных, доступных им, чтобы сделать более точные прогнозы, отследить наши запросы и предложить новые услуги. Поскольку AI уже используется во всем мире, возникает вопрос, кто несет ответственность за решения, принимаемые им?

Может ли система AI подлежать уголовной ответственности за свои действия?

Кто должен нести ответственность за решения, принимаемые AI

Уголовное наказание обычно требует умысла и действий. Таким образом, к системам AI может применяться один из трех сценариев.

  • Первый сценарий
    Это когда преступление было совершено психически неуравновешенным человеком или животным. Такое преступление не относится к уголовной ответственности. Однако тот, кто проинструктировал психически неуравновешенного субъекта или животное, будет привлечен к ней. Например, владелец собаки дал команду напасть на другое лицо.
    В этом сценарии те, кто разрабатывает интеллектуальные системы, будут привлечены к ответственности, но сама система AI останется безнаказанной.
  • Второй сценарий
    Это когда обычные действия AI могут быть использованы в злоумышленных целях для совершения преступного деяния. Такой случай произошел на японском мотоциклетном заводе. Робот ошибочно определил работника как угрозу своей миссии и рассчитал, что наиболее эффективный способ устранить угрозу – это столкнуть ее на работающую поблизости машину, мгновенно убив.
    Главный вопрос звучит так: знал ли программист AI, что этот результат был вероятным следствием ее использования?
  • Третий сценарий
    Речь идет о прямой ответственности, которая требует как действия, так и намерения. Действие доказать просто: система AI предпринимает действие, которое приводит к преступному деянию, или не предпринимает никаких действий, когда должна была действовать.
    Намерение доказать гораздо труднее, но оно все равно имеет значение. Если самоуправляемый автомобиль нарушает ограничение скорости на дороге, на которой он находится, то это является преступлением, влекущим за собой строгую ответственность. Тогда будет “наказана” система AI, но не владелец транспортного средства.

Кому принадлежит идея, порожденная AI?

Если у компьютера есть идея, то кому она принадлежит? Значительное количество патентных заявок (340 000 патентов) в последние годы были связаны с AI. При этом Китай лидирует по большинству опубликованных патентов (на 2019 год – 53%).
В настоящее время ученые разрабатывают машины, способные придумывать идеи, выходящие за рамки компетенции создателей. В связи с этим возникает вопрос о том, кому принадлежит интеллектуальная собственность на изобретение, созданное искусственным интеллектом?
Проблема заключается в том, что если AI не может быть признан в качестве изобретателя, то владельцы AI будут нести ответственность за идеи, порожденных их работой. Это может отпугнуть их от дальнейшего развития. Непризнание AI в качестве изобретателя ставит под угрозу инновации.
На сегодняшний день, идеи порожденные машиной могут не вызывать у нас беспокойства. Но искусственный интеллект регулярно развивается и однажды он начнет генерировать более изощренные идеи.

По мере того как алгоритмы глубокого обучения становятся более популярными, ученые начинают все меньше понимать работу машины. Чтобы изучить результат, они создают “черные ящики”, которые, опять же, могут быть прочитаны только машиной. Такая тенденция прослеживается во многих областях. Произошел случай, когда система искусственного интеллекта, продиагностировав субъекта, смогла с большой точностью предсказать, когда он умрет. Ученые понятия не имеют, как машина пришла к такому выводу.

Другой пример – это deep fakes, где очень реалистичные изображение и звук создаются для имитации кого угодно. Эта технология вместе с социальными сетями может создать хаос. Многие люди, увидев такой продукт, могут не осознавать, что то, что они видят – это творение, созданное программой.

На видео:10 Лучших Дипфейк (Deepfake) Видео

Представьте себе последствия, если deep fakes однажды будет использован для подражания одного из мировых лидеров, объявляющего войну другой стране. Информация будет распространяться подобно лесному пожару и создаст серьезные волнения, прежде чем кто-либо поймет, что это была работа программы, созданной AI. Известно, что фондовый рынок мгновенно реагирует на новости, и deep fakes может сильно повлиять на него. Так кто же в таком случае предстанет пред судом, чтобы оправдать машинные решения?

Исхаков Максим

Руководитель информационного портала "Безопасник". Директор компании по продаже и установке систем безопасности.

Оцените автора
Портал о системах видеонаблюдения и безопасности
Добавить комментарий