Угрозы искусственного интеллекта

Автор: Любовь Степанова

Источник: Legal insight Magazine

Повсеместное развитие и использование искусственного интеллекта, делающего жизнь человека во многом более удобной, в настоящее время набирает пугающие обороты. Безусловно, использование технологий является фактором общественного прогресса, но ценой такого удобства может стать утрата конфиденциальности и пра¬ва на частную жизнь. В 2021 г. Россия сделала шаг вперед в разработке вопросов эти¬ки искусственного интеллекта: 26 октября 2021 г. в рамках международного форума «Этика искусственного интеллекта: начало доверия» ООО «Яндекс», ООО «Мэйл.Ру», ПАО «МТС», ПАО «Сбербанк», ПАО «Газпром нефть», АО «УК РФПИ», Фонд «Сколково» и другие представители цифрового рынка подписали Кодекс этики искусственного интеллекта — документ, закрепляющий базовые этические принципы использования искусственного интеллекта. Между тем границы его использования должны быть уста¬новлены на законодательном уровне с учетом опыта зарубежных стран.

Искусственный интеллект и права человека

Внедрение систем искусственного интеллекта в государственное управление в России началось с принятием Указа Президента Р Ф от 10.10.2019 № 490 «О развитии искусственного интеллекта в Российской Федерации», которым была утвер­ждена Национальная стратегия развития ис­кусственного интеллекта на период до 2030 г. В пункте 5 Стратегии установлено, что искус­ственный интеллект — это комплекс техноло­гических решений, позволяющий имитировать когнитивные функции человека (включая само­обучение и поиск решений без заранее задан­ного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые как минимум с результатами интеллектуальной деятельности человека. В качестве принципов развития и использования технологий искус­ственного интеллекта провозглашены защита прав и свобод человека, безопасность, прозрач­ность, технологический суверенитет, целостность инновационного цикла, разумная бережливость и поддержка конкуренции.

На сегодняшний день в России действует нацио­нальная программа «Цифровая экономика», реали­зация которой, по мнению разработчиков, позволит завершить переход взаимодействия граждан и ор­ганизаций с государством в электронный формат. В ходе реализации Стратегии Правительством Р Ф принимаются отдельные распоряжения, напри­мер Распоряжение от 22.10.2021 № 2998-р, которым утверждено стратегическое направление в обла­сти цифровой трансформации государственного управления. В соответствии с ним в государствен­ное управление среди прочего будут внедряться технологии искусственного интеллекта.

Сам по себе искусственный интеллект является большим достижением технического прогресса, которое, тем не менее, может стать мощнейшим оружием, направленным против человечества. В отсутствие должного правового регулирования технологии должны внедряться в государственное управление по принципу «не навреди» с учетом возможных неблагоприятных последствий. Ввиду потенциальных угроз, сопровождающих их вне­дрение, законом должны быть установлены четкие границы использования таковых.

Отсутствие этих границ неизбежно приведет к злоупотреблению и нарушению прав человека, прежде всего права на частную жизнь. Возьмем в качестве примера внедрение системы распознавания лиц и face-pay в московском метро, преподносимой как благо и удобство для горожан. В какие базы и по каким механизмам передаются биометрические данные человека, в каком порядке происходят их обработка и использование, кому предоставляется доступ к ним, сколько они хранятся в базах данных и каким образом можно исключить информацию из базы — все эти вопросы пока остаются без ответа. Получается, что при введении нового механизма оплаты проезда не обеспечивается соблюдение принципов безопасности, прозрачности и защиты прав и свобод человека, декларированных в Стратегии развития искусственного интеллекта. Содержащиеся в базе биометрические данные, история передвижения человека могут быть использованы злоумышленниками в корыстных целях.

Права человека могут затрагиваться в связи с использованием искусственного интеллекта не только государством, но и частными корпорациями. Так, в 2016 г. компания Amazon запустила алгоритм искусственного интеллекта для подбора сотрудников, чтобы система могла автоматически выбирать лучшие резюме потенциальных работников. Вскоре разработчики заметили, что механизм отдает предпочтение кандидатам-мужчинам. Впоследствии выяснилось, что искусственный интеллект обучался на базе данных, в которую входили резюме всех сотрудников компании за последние 10 лет. Мужчин в данной выборке оказалось больше, чем женщин, что и предопределило особенность отбора.

Также показательной является история с чат-ботом Тау, разработанным компанией Microsoft в 2016 г. Всего за один день чат-бот научился у пользователей Twitter ругаться и начал выкладывать оскорбительные посты, вследствие чего реализацик) данного проекта пришлось приостановить, а президент Microsoft вынужден был принести извинения.

Опыт зарубежных стран

В Российской Федерации нет четкого правового регулирования, которое устанавливало бы границы использования искусственного интеллекта. Однако США и европейские государства уже задумались о введении ограничении на его использование. В США на сегодняшний день по крайней мере 7 штатов и 20 городов ограничили использование искусственного интеллекта из-за опасений по поводу нарушения гражданских прав и вторжения в частную жизнь людей. Например, в Штате Иллинойс принят закон, регулирующий использование искусственного интеллекта при приеме на работу и налагающий на работодателя следующие обязанности:

  • заранее уведомить кандидата о том, что организация использует технологию искусственного интеллекта для анализа видеоинтервью;
  • объяснить ему, как работает искусственныи интеллект и какие типы характеристик он использует для оценки кандидатов;
  • заранее получить согласие на использование искусственного интеллекта;
  • ограничить распространение и совместное использование видео только теми людьми, чьи опыт и технологии необходимы для оценки пригодности кандидата на должность;
  • уничтожить видео по запросу заявителя в течение 30 дней.

Из-за опасений, связанных с распознаванием лиц, в ряде американских городов, в частности в Окленде, Беркли, Сан-Франциско, Бруклине, Кембридже, введен запрет на использование программного обеспечения для распознавания лиц полицией и всеми городскими департаментами [1].

В апреле 2021 г. Еврокомиссия внесла в Европарламент законопроект Акта об искусственном интеллекте, призванный урегулировать отношения по разработке и внедрению соответствующих систем [2]. В этом проекте предлагается ввести запрет на следующие случаи использования технологии: размещение на рынке, ввод в эксплуатацию или использование системы искусственного интеллекта, которая развертывает подсознательные методы за пределами человеческого сознания с целью существенного искажения поведения человека таким образом, который причиняет или может причинить этому либо другому лицу физический или психологический вред; размещение на рынке, ввод в эксплуатацию или использование системы искусственного интеллекта, которая использует любую из уязвимостей определенной группы лиц в силу их возраста, физической или умственной неполноценности с целью существенного искажения их поведения таким образом, который причиняет или может причинить этому либо другому лицу физический или психологический вред.

Особое внимание привлекает запрет на использование систем искусственного интеллекта государственными органами для оценки или классификации надежности физических лиц в течение определенного периода времени на основе наблюдения за их социальным поведением или распознавания известных / прогнозируемых личностных характеристик. Подобная система (так называемый «социальный рейтинг») была введена в Китае [3]. Предлагается также запретить использование систем удаленной биометрической идентификации в режиме реального времени в общедоступных местах в целях обеспечения правопорядка, если только это не является необходимым для достижения одной из следующих целей:

  • целенаправленного поиска конкретных потенциальных жертв преступлений, а также пропавших детей; предотвращения конкретной, существенной и непосредственной угрозы для жизни или физической безопасности людей, а также предотвращения террористических актов;
  • обнаружения, идентификации и преследования лица, совершившего преступление или подозреваемого в его совершении и упомянутого в ч. 2 ст. 2 Рамочного решения Совета Е С 2002/584/ПВД от 13.06.2002 и подлежащего в соответствующем государстве — члене ЕС наказанию лишением свободы срок не менее трех лет.

21 июня 2021 г. Европейский совет по защите персональных данных (European Data Protection Board, EDPB) и Европейский надзорный орган по защите персональных данных (European Data Protection Supervisor, EDPS) приняли по предложению Европейской комиссии совместное заключение по регламенту, устанавливающему гармонизированные правила в отношении искусственного интеллекта. EDPB и EDPS призвали к запрету на повсеместное использование технологий для автоматического распознания лиц, походки, отпечатков пальцев, ДНК, голоса и других биометрических данных. Также EDPB и EDPS рекомендовали запретить системы искусственного интеллекта, использующие биометрию для разделения людей на группы по этнической принадлежности, полу, политическим убеждениям, сексуальной ориентации и другим признакам, дискриминация по которым запрещена в соответствии со ст. 21 Хартии Европейского союза об основных правах. Кроме того, в заключении отмечается, что использование искусственного интеллекта для определения эмоций физического лица также должно быть запрещено.

В последнее время опасения по поводу повсеместного использования систем искусственного интеллекта высказывает и Организация Объединенных Наций. Верховный комиссар ООН по правам человека Мишель Бачелет призвала государства ввести мораторий на продажу и использование тех систем искусственного интеллекта, которые ведут к серьезному нарушению прав человека. Любые изменения в законодательстве, касающиеся правового регулирования интеллекта, должны коррелироваться с фундаментальными правами человека.

Внимание международных организаций тоже привлечено к данной проблеме. В 2019 г. ЮНЕСКО приступила к разработке глобального нормативного документа, посвященного этическим проблемам искусственного интеллекта. 24 ноября 2021 г. на 41-й сессии Генеральной конференции ЮНЕСКО утверждены Рекомендации об этических аспектах искусственного интеллекта, которыми установлен ряд принципов его использования, в частности: соразмерность и отсутствие причинения вреда, безопасность и защищенность, справедливость и отказ от дискриминации, устойчивость, подконтрольность и подчиненность человеку, соблюдение права на неприкосновенность частной жизни и защиту данных, прозрачность и осведомленность граждан об алгоритмах работы искусственного интеллекта.

[1] www.jdsupra.com/legalnews/facing-the-issue-sanfrancisco-bans-35 144/

[2] eur-lex.europa.eu/legal-content/en/ в соответствующем государстве — члене ЕС наказанию лишением свободы срок не менее трех лет.

[3] Подробнее о социальном рейтинге см.: Бажанов П. Как устроена система «социального кредита» в Китае // Legal Insight.— 2021. 6 (102).