






Профессор Юрий Жданов оценил объективность искусственного интеллекта в полицейских расследованиях: «Всего лишь инструмент»
Как пишет mk.ru, западные, особенно американские, полицейские пришли к шокирующему выводу. Оказывается, искусственный интеллект (ИИ) – не такой уж и интеллект. В смысле – неопровержимый авторитет, абсолютная истина во всех инстанциях. Так, он вполне может допустить ошибку в определении обвиняемого в преступлении и способствовать тому, что невиновного человека посадят в кутузку. Насколько порой бывает необъективен ИИ и как этот фактор может повлиять на дальнейшее развитие технологий, рассказал Юрий Жданов, профессор, доктор юридических наук, заведующий кафедрой еждународного права РГСУ, заслуженный юрист России.
– Юрий Николаевич, получается, что искусственный интеллект (ИИ) — вовсе не абсолютно надежнейший помощник во всех делах, в том числе криминальных, тем более — не панацея от всех проблем?
– Сразу оговоримся: искусственный интеллект – всего лишь инструмент в руках человека. Скажем, как отвертка, молоток или, допустим, дрель. При неловком движении этим инструментом можно травмировать пальцы, даже кисть руки. И кто виноват – молоток, отвертка? Может, дрель? Или все же руки, растущие не из того места? Да, согласен, грубо, даже обидно, но – справедливо и честно.
Так и тут. Есть ряд примеров, когда американские и британские полицейские, основываясь исключительно на данных записей видеорегистраторов, «пропущенных» через анализатор ИИ, задерживали невиновных людей, обвиняя их в совершении преступлений, которые они не совершали. Эти ситуации подробно описывали многие западные СМИ, в том числе The Washington Post. Это издание можно подозревать в политической ангажированности и предвзятости, но сомневаться в достоверности фактов – никогда. Там работают журналисты, не уступающие в профессионализме иным инспекторам и оперативникам полиции и ФБР.
– Что они выяснили?
– По данным The Washington Post, американские правоохранительные органы в последние 2-3 года часто прибегают к использованию ИИ-систем распознавания лиц, что нередко приводит к аресту невиновных. Журналисты из The Washington Post выяснили, что такие технологии зачастую применяются для упрощенного выявления подозреваемых без подтверждающих доказательств, что ставит под сомнение правомерность подобных действий.
The Washington Post пишет: «Согласно результатам расследования, использование программного обеспечения для распознавания лиц не всегда соответствует установленным нормам. В некоторых случаях полицейские используют этот метод как главный инструмент для идентификации подозреваемых, не опираясь на дополнительные свидетельства. Это особенно характерно для тех подразделений, которые не обязаны предоставлять отчеты о применении подобных технологий.
Проанализировав документы 23 полицейских департаментов, журналисты установили, что 15 из них, охватывающих 12 штатов, прибегали к арестам на основании совпадений, предложенных искусственным интеллектом, игнорируя необходимость проверки данных другими методами. Такая практика зачастую нарушает собственные внутренние правила этих ведомств, где прописана необходимость подтверждения выводов, сделанных с использованием ИИ.
В открытых данных упоминаются восемь случаев, когда люди оказались в заключении исключительно из-за ошибок системы распознавания лиц. Аналитики отмечают, что при использовании традиционных методов расследования эти граждане вряд ли бы стали фигурантами уголовных дел».
Расследование показало, что полиция, вероятно, могла бы исключить большинство людей из числа подозреваемых до их ареста с помощью элементарной полицейской работы, такой, как проверка алиби, сравнение татуировок или анализ ДНК и отпечатков пальцев, оставленных на месте происшествия.
– То есть полицейские полностью положились на утверждение ИИ, не проведя собственной проверки?
– Да, и это было их главной, фатальной ошибкой. Нельзя было полагаться исключительно на выводы ИИ, «опознавшего» человека, якобы совершившим преступление, по биометрическим данным без собственной проверки этого персонажа. Надо было хотя бы выяснить, где этот человек находился в момент совершения преступления. То есть было ли у него алиби. Но нет, безоговорочно поверили выводам ИИ, и многие люди безвинно оказались задержанными. Поэтому западные эксперты подчеркивают, что такие случаи демонстрируют недостаточную надежность технологий ИИ и необходимость более строгого контроля за их использованием в правоохранительной сфере.
– Вы считаете, что технология ИИ ненадежна?
– А смотря что считать надежным. Совершенству ведь, как известно, нет предела. Однако западная статистика утверждает, что пока полицейская система распознавания лиц ошибается в 81% случаев. Много! Так, согласно данным, полученным в Университете Эссекса, в руках британских полицейских технология делает ошибку при распознавании преступников 4 раза из 5, выбирая совершенно ни в чем не повинных людей.
Доходит до курьезов! Американский союз защиты гражданских свобод как-то провел эксперимент: системе распознавания лиц были предложены фотографии 535 известных политиков из США, и был поставлен вопрос, кто из них относится к категории опасных преступников. И хотя никто из этих политиков никогда не совершал преступлений, 28 из них система, тем не менее, признала особо опасными нарушителями закона.
По итогу был сделан неутешительный вывод: если подать иск по поводу обвинений, предъявленных с помощью технологии, основанной на применении ИИ, то дело, вероятнее всего, получится выиграть.
В последнее время все больше технологических гигантов ясно высказали свои опасения по поводу повсеместного использования технологии распознавания лиц. Microsoft открыто заявляет о своем стремлении к надлежащему регулированию этой сферы. Аналогичные опасения выражают Apple и Google. Как показывает отчет британских ученых, технологии еще предстоит пройти долгий путь, прежде чем ее можно будет считать действительно надежной.
– В России такое тоже случается?
– Мне известны несколько случаев. Так, в сентябре 2022 года московского призывника дважды вызывали в военкомат, поскольку система распознавания лиц приняла его за «уклониста» от частичной мобилизации. Как рассказал сам москвич, в первый раз его отпустили после того, как он предъявил справку о проблемах со зрением, освобождавшую его от призыва. Впрочем, вскоре полицейские задержали его снова, и история повторилась.
Месяц спустя в похожей ситуации оказался московский студент с отсрочкой от армии, которого камеры, подключенные к системе распознавания лиц, сочли подлежащим мобилизации. В октябре 2022 года его задержали полицейские и доставили в военкомат — там молодой человек напомнил, что ранее уже приносил справку об отсрочке из вуза. Два дня спустя ситуация повторилась — студента задержали сотрудники уже другого отдела полиции. Он рассказал им свою историю, и тогда полицейские стали звонить в военкомат. Там пояснили, что после первого задержания молодого человека почему-то не удалили из системы и камеры продолжили определять его как уклониста. После выяснения всех обстоятельств задержанного отпустили домой.
– Почему это вообще оказывается возможным? Ведь нам уже долгое время внушают абсолютное превосходство ИИ над человеческим разумом и несомненную пользу его применения во всех сферах деятельности, в том числе и правоохранительной.
– Помните, есть анекдот, когда судили портного за убийство тещи. Причем убил он ее метром, которым измерял ткани для пошива одежды. В суде он объяснил выбор орудия убийства вполне логично (с его точки зрения): теще всего лишь надо было знать меру (достала мужика). Так и в применении ИИ – надо постараться не переборщить в доверии к этой технологии. Поэтому надо объективно разобраться, почему ошибались и ошибаются системы распознавания лиц в США, Великобритании и других странах.
– Что пошло не так?
– Специалисты по ИИ утверждают, что технология распознавания лиц относится к компьютерному зрению — области ИИ, связанной со считыванием и анализом как фото-, так и видеоконтента. Саму технологию распознавания лиц специалисты считают достаточно эффективной — процент распознавания варьируется от 96 до 98%. Однако она не дает стопроцентный результат, признавая факт погрешности в несколько процентов. Кроме того, нельзя исключать ошибки этой технологии и сбои системы, при которых также возможны ошибки. Тут важен такой фактор: точность работы систем распознавания лиц во многом зависит от уровня освещенности, угла проведения съемки и наличия головных уборов на людях, попавших в кадр. Но даже при оптимальных условиях распознавания ошибки все равно могут быть.
Вот основные проблемы, которые выделяют специалисты по ИИ, в том числе Microsoft, Apple и Google: «Большинство изображений лиц собираются с помощью камер, которые не распознают лица. Это контрастирует с ситуацией с биометрическими данными по отпечаткам пальцев и радужной оболочке глаза, когда датчики позволяют точно определить тип изображения, которое следует собрать. В итоге некоторые изображения включают два лица, возможно, от кого-то на заднем плане или от рисунка футболки. Такие случаи могут подорвать узнаваемость.
Фотографии собираются без какой-либо оценки качества, полагаясь только на фотографа. Оценка качества отделена от момента получения фото. Во многих случаях фотография собирается и позже отправляется на внутренний сервер, где она оценивается по качеству. Если обнаруживается низкое качество (человеческим или автоматическим способом), повторный сбор изображений лиц начинается через несколько часов или дней и с дополнительными расходами. Случается и плохое предъявление. Основные причины неудачи в распознавании возникают из-за того, что субъекты не демонстрируют прямое, нейтральное выражение лица, с открытыми глазами, без очков, их лица не находятся в правильном положении.
Падает доверие к повышению точности распознавания лиц. Необходимо, чтобы алгоритмы распознавания лиц были тщательно исследованы, а повышение точности подтверждено документально. Тем не менее, подобных исследований в области улучшения качества изображения лица нет.
Автоматизированное и ручное распознавание лиц работают с разными типами изображений. Людям нужны фото с высоким разрешением, тогда как автоматизированные алгоритмы в основном построены на стандартизированных фронтальных видах с относительно низким разрешением.
Кроме того, все большее число исследований показывает, что точность алгоритмов падает, когда им приходится идентифицировать лица людей другой расы. Например, если сеть обучена на распознавание белых, количество ошибок для темнокожих будет выше. Еще одним вызовом для разработчиков нейросистем стало повсеместное ношение масок во время пандемии. Первыми с проблемой столкнулись владельцы iPhone, которые привыкли, что телефон разблокируется, распознавая владельца по лицу. В Сети тогда появились многочисленные инструкции, как взломать гаджет, научив его узнавать человека в маске. Сравнить человека, ровно стоящего перед камерой, с его фотографией в базе данных сегодня очень просто. Но найти человека по фотографии, на которой его плохо видно, в профиль, в маске в базе с более чем миллионом человек, — это уже вызов.
Есть и риск, связанный с активным внедрением систем распознавания лиц, — это возможность компрометации данных киберпреступниками. Если украденный пароль можно изменить, а сертификат электронной подписи отозвать или перевыпустить, то данные биометрии изменению не подлежат, поскольку у каждого человека она уникальна. Однако киберпреступник может заполучить данные биометрии, и тогда жертва станет весьма уязвима перед ним.
– Эта проблема будет рассматриваться на предстоящем форуме в Давосе?
– Надеюсь. Напомню, на ежегодной встрече 2025 года Всемирного экономического форума, которая состоится в Швейцарии с 20 по 24 января, мировые лидеры соберутся под девизом «Сотрудничество в эпоху интеллекта». Будут обсуждаться следующие приоритеты: восстановление доверия, переосмысление экономического роста, защита планеты, отрасли в эпоху интеллекта, инвестиции в людей. Полагаю, на форуме примут во внимание и мнение главы Конституционного суда РФ Валерия Зорькина, высказанное в его статье «Право и вызовы искусственного интеллекта».
– Он высказывает какие-то опасения в отношении ИИ?
– Не столько высказывает опасения, сколько призывает к осторожному применению ИИ, предостерегает от излишней эйфории при включении его в нашу повседневную жизнь. Как бы человечество не заигралось. Он считает, что необходим глубокий, в том числе конституционно-правовой, анализ внедрения ИИ на каждом его уровне.
«В свете невиданных успехов ИИ, – пишет он, – мы не должны забывать — перед нами совершенно иной тип интеллекта, коренным образом отличный от человеческого. Это разум, который может полностью игнорировать все, что мы считаем ценностно важным. Сами духовные и крестные отцы ИИ, трубадуры великих преимуществ ИИ предупреждают, что подобная сущность, потенциально более опасная, чем ядерное оружие, может в конечном итоге уничтожить жизнь на Земле…»
«Риски, объективно связанные с искусственным интеллектом, огромны — от возможных и при этом неконтролируемых искажений в алгоритмах принятия социально значимых решений до лежащих на поверхности рисков неблагоприятных последствий для рынков труда, неприкосновенности частной жизни, физической неприкосновенности (ввиду хотя бы угроз со стороны беспилотных автомобилей), гражданских свобод и даже глобальной безопасности», – констатирует автор статьи.
И поэтому проблемы с распознаванием лиц – всего лишь капля в море всех остальных рисков и вызовов, с которыми мы можем столкнуться и уже столкнулись с появлением искусственного интеллекта.
Авторы: Андрей Яшлавский
Фото // freepik.com ©