В 2023 г. в мире произошло несколько случаев, когда люди пострадали из-за искусственного интеллекта и систем биометрической идентификации. Эти события связаны с нарушением приватности. В России также имели место подобные кейсы, но реже, поскольку, по мнению экспертов, ИИ в России пока используется не так часто.
Об этом рассказали участники международной конференции Privacy Day 2024. Они обсудили, какие проблемы принесли и могут принести технологии искусственного интеллекта (ИИ) и распознавания лиц. Также эксперты затронули тему незаконного и чрезмерного сбора персональных данных.
Александр Тюльканов, ассоциированный исследователь Центра международных исследований интеллектуальной собственности Страсбургского университета, вспомнил об ошибке искусственного интеллекта, в результате которой был арестован человек.
В декабре прошлого года Замоскворецкий суд Москвы освободил из СИЗО ученого-гидролога Александра Цветкова, которого обвиняли в нескольких убийствах. Его арест был связан с ошибкой биометрической системы: в феврале 2023 г., когда он вылетал в экспедицию, камера в аэропорту определила, что его схожесть с фотороботом разыскиваемого преступника составляет 50-60%. Александра Цветкова освободили только после того, как на дело обратил внимание президент.
Однако в целом в России искусственный интеллект пока не сильно развит и публично почти не используется в государственных информационных системах - это отметил Иван Бегтин, руководитель Open Data Armenia и АНО "Информационная культура".
"Распознавание лиц не относится к ИИ напрямую, - объяснил Иван Бегтин. - ИИ возникает, когда из распознавания образа извлекается гораздо более сложная комплексная информация. Этого пока, к сожалению или к счастью, нет. К сожалению, в тех областях, где это необходимо, - например, в медицине. Там идут эксперименты с применением алгоритмов, но достаточно осторожно. К счастью, этого еще нет в вопросах, связанных с распознаванием образов. Однако есть еще один сценарий: мы просто об этом не знаем, потому что Российское государство стало резко менее прозрачным".
Мировые кейсы
Ксения Бакина, юрист Privacy International, рассказала об опыте Великобритании в вопросе технологий распознавания лиц. "Использование этой технологии в Великобритании растет уже семь лет, с 2016 г., - рассказала Ксения Бакина. - Недавний отчет показал, что в 2021 г. проведено 19,8 тыс. ретроспективных поисков с помощью данной технологии правоохранительными органами, а в 2022 г. - уже 85 тыс. То есть мы видим большую скорость, с которой она растет".
Согласно исследованию, в котором Privacy International провела опрос 100 членов парламента Великобритании, власти страны плохо информированы о технологии распознавания лиц. Оказалось, что большинство членов парламента не знают, где используются эти технологии и какие угрозы для прав человека они несут. 70% депутатов не знают, применяются ли технологии по распознаванию лиц в их избирательном округе. Как минимум 60% депутатов либо считают, что в стране есть закон, который регулирует их использование, либо не знают об этом (на самом деле закона нет). 65% не знают об угрозах технологии для прав человека.
Другие участники конференции рассказали о кейсах, в которых из-за ИИ нарушены права людей. Анастасия Круопе, младший исследователь Human Rights Watch, привела в пример прошлогоднее исследование Human Rights Watch, в котором рассказывает, как из-за неправильных алгоритмов люди, находящиеся на пороге бедности, не получали нужные им пособия. Это случилось в Иордании в рамках программы "Такафул", которую организовали Всемирный банк и Национальный фонд помощи Иордании. "Мои коллеги обнаружили, что многие люди, которые действительно находятся на пороге бедности или очень сильно нуждаются в выплатах, оказываются за бортом. Им не предоставляются такие выплаты или они непропорциональны их потребностям", - рассказала Анастасия Круопе.
Также она рассказала о парламентских выборах в Венгрии в апреле 2022 г. Правительство собирало данные граждан, которые пользовались государственными услугами, а затем этими данными правящая партия пользовалась в ходе избирательной кампании. В рамках нее пользователи Facebook* получали таргетированную рекламу, то есть у партии было преимущество, так как оппозиционные кандидаты не располагали данными.
Бауржан Рахметов, ассистент-профессор Университета КАЗГЮУ им. М.С.Нарикбаева, рассказал о случаях с камерами Amazon Ring. Речь идет о системе интеллектуального устройства видеокамер, которая позволяет видеть, кто находится за входной дверью. Бауржан Рахметов указал, что система позиционируется как инструмент обеспечения безопасности, но при ее использовании есть угроза конфиденциальности: запись звонка проходит без согласия звонящих, а также в радиус действия устройства могут попасть проходящие мимо двери люди. По словам Бауржана Рахметова, были случаи, когда Amazon использовал в рекламе фотографии якобы правонарушителей, снятых на камеры, без согласия людей.
"Был случай, когда чрезмерно бдительные соседи, увидев звонящего в дверь афроамериканца, заявили в полицию. Позже выяснилось, что человек был риелтором и выполнял работу. Тем не менее его остановила полиция", - рассказал еще об одном инциденте Бауржан Рахметов.
"Мы знаем, что технологии могут быть использованы как для пользы общества, так и для контроля", - подытожил Бауржан Рахметов.
* Facebook принадлежит компании Meta, признанной в РФ экстремистской организацией.