2147

За кулисами будущего, или На службу выходят робокопы

АВТОР: по материалам аналитического обзора ФКУ «ГИАЦ МВД России» подготовил Сергей Башкатов
ФОТО: коллаж Евгения Карташова
Не утихают страсти вокруг процесса по внедрению искусственного интеллекта (ИИ) в нашу жизнь. Учёные мужи всего мира бьются над непростой задачей, как вычислительную технику приблизить по своему образу и подобию к человеческому мозгу, научить роботов думать за человека. Многие делают вывод, что это невозможно. Мол, количество нейронных связей в мозгу геккона многократно превышает логические элементы во всех цифровых устройствах на земле. С нынешним уровнем о ИИ можно и не мечтать. Но как бы там ни было, очевидно одно: прогресс не стоит на месте и те информационные технологии, которые уже имеются на вооружении людей, на порядок облегчают жизнь. В том числе и в охране правопорядка.

Проблемы и направления

С конца нулевых годов второго тысячелетия «на земле» активно стали рассматривать и обсуждать использование искусственного интеллекта и робототехники в правоохранительной и правоприменительной практике. А уже с середины десятых приступили к практическому применению.

По итогам исследований за последние два года опубликован так называемый международный рейтинг общей готовности правительств к ИИ. Россия, среди 194 стран мира, заняла в нём 29-е место с индексом в 6,748. 

Для сравнения - лидирует в списке Сингапур, набравший максимальное количество очков - 9,186.
Несомненно, последние достижения в области искусственного интеллекта и робототехники создают новые беспрецедентные возможности в борьбе с преступностью. И прежде всего по направлению идентификации фигурантов или транспортных средств, связанных с нарушениями закона, а именно с уголовными делами. ИИ способствует повышению качества аналитики и прогнозирования криминальной деятельности, созданию эффективных комплексов противодействия поведенческой агрессии в виде манипулирования контентными потоками, загрязнением информационного пространства всевозможными фейками и тому подобным.

Кстати, на счёт фейков и их влияния на сознание общественности. Достаточно вспомнить конец декабря 2014 года, когда возникшая в нашей стране паника из-за невесть откуда появившихся слухов о предстоящем отключении карт Visa и Masterсard привела к тому, что клиенты одного ведущего банка буквально за несколько часов сняли со своих счетов более четверти триллиона рублей. Предотвратить «массовую панику» удалось лишь благодаря тому, что финансовое учреждение перевело в круглосуточный режим доставку денег в банкоматы.

Однако при всех возможностях ИИ нельзя забывать - это не панацея от всех бед, а всего лишь инструмент. Соответственно, от того, как им будут пользоваться, зависит эффективность работы. И тут необходимо помнить: подобная деятельность затрагивает широкий диапазон проблем экономического, юридического, этического, политического и даже демографического характера.

В развитии ИИ и робототехники чётко обозначились два совершенно разных направления.

Первое носит поисковый, исследовательский характер. Кстати, на сегодняшний день какие-то выдающиеся и значимые результаты в этом сегменте отсутствуют. Речь идёт о так называемом сильном (универсальном) ИИ, который способен в полном объёме заменить человека. Зато впечатляющими темпами развивается другое направление - так называемый слабый искусственный интеллект и базирующиеся на нём полностью автоматизированные системы. В рамках данного направления ИИ не стремится заменить людей во всей гамме способностей и возможностей последних. Решаются конкретные задачи, связанные с распознаванием, установлением взаимосвязей на основе матричных и статистических методов.

Обоюдоострый меч

Но и криминал не почивает на лаврах. Понятно, что ИИ и робототехника - в значительной степени обоюдоострый меч и не только полицейские могут им воспользоваться. Злоумышленники, в том числе и террористические группы, также охотно берут новшества IT-технологий на вооружение. Мало того, многие специалисты уже утверждают, что ИИ со временем породит совершенно новые типы преступности, о которых мы пока даже не догадываемся.

В настоящее время выделяют три направления, на которых злодеи всех мастей действуют особенно активно.
В первую очередь при совершении сложных киберпреступлений, связанных либо с атакой на крупные торговые порталы, либо с попытками взять на себя контроль над объектами интернета вещей - к примеру, от частного дома до управления водохранилищами.

Другая стезя - сегодня, особенно в Северной Америке и Южной Азии, обыденностью стало использование управляемых с участием ИИ дронов и других робототехнических систем для перевозки-доставки «преступных» товаров, среди которых особое распространение получили наркотики, человеческие донорские органы… Немало случаев, когда запрещённые предметы закидывались на территорию тюрем и исправительных учреждений.

Ну и, наконец, третье направление. Оно представляет наибольшую угрозу для глобальной экономики. Продвинутые злоумышленники используют ИИ и боты для атак на финансовую инфраструктуру банков и инвестиционных компаний. 

Уже более 80 % объёма транзакций на рынках капитала осуществляется в рамках полностью автоматической торговли на базе электронных платформ.
Киберпреступники стремятся нарушить их целостность, украсть деньги или осуществить манипуляцию рынками путём внесения изменений в программы. Цель та же - противоправное обогащение.

Виды кибератак

С точки зрения использования ИИ в преступных действиях обозначены три основных сектора.

Цифровые нападения включают в себя как элементарный автоматизированный фишинг, так и разработку и применение многофункциональных платформенных вредоносных программ. Такой софт нацелен не только на проникновение в защищённые сети и изъятие информации, но и на разрушение или перехват управления физическими структурами, управляемыми корпоративным или федеральным ИИ.

Политические нападения - это отнюдь не покушения или убийства. Суть - манипулирование коллективным поведением на основе создания эхо-интернет-камер, потоков фейковых новостей, запуска фальсифицированных видеороликов и фотографий, и в целом дискредитация любой информации в Сети. В особенности той, которая используется в качестве доказательств, предъявленных в суде.

Физические нападения. Если раньше преступники против людей использовали кулаки, ножи или огнестрельное оружие, то сегодня в мире уже зарегистрированы налёты с помощью… интернета вещей. Это кажется на первый взгляд фантастическим, но… К примеру, в США зафиксировано несколько случаев взятия под контроль при помощи вредоносного ПО имплантатов - физических устройств, вживлённых в человеческое тело. Что уже говорить о применении террористами дронов и беспилотных автомобилей для уничтожения противостоящих им сил.

Практика работы

Между странами сложились и с каждым годом всё чётче проявляются различия в использовании (в первую очередь полицейскими «на земле») достижений ИИ и робототехники на службе правопорядка. Некоторые государства - США, Великобритания, Китай, Япония, Южная Корея, Израиль - не только создали в структуре ведомств Центры адаптации ИИ и робототехники к повседневной работе правоохранителей, но и широко осуществляют контакты с университетами и бизнесом как для создания полицейского софта с элементами ИИ, так и для обучения сотрудников в данном сегмен­те IT-технологий.

Подытоживая практику работы таких центров, можно сделать вывод, что в большинстве случаев не используется некий уникальный, специально разработанный софт на базе ИИ. Под нужды полиции адаптируют уже имеющиеся военные, разведывательные и бизнесовые разработки. Среди технологий, которые вошли в повседневную жизнь сотрудников органов правопорядка, алгоритмы ИИ, нацеленные на обнаружение подозрительных или украденных транспортных средств. Или, к примеру, программы машинного распознавания образов, способные в том числе выделять в толпе лиц, находящихся в розыске, либо подозреваемых в совершении преступлений.

Кстати, проделывать это можно не только по полному, но и частичному изображению. Интересным выглядит и использование программ распознавания голосов на основе сравнительного анализа с образцами, действующие в режиме реального времени. Представим такую ситуацию - полиции удалось записать подозреваемого. Существует программа, которая позволяет подключаться к оборудованию компании мобильной связи и прослушивать все переговоры. Если имеет место совпадение образца с аудиофайлом разговора, этот специальный софт автоматически даст команду поставить телефон абонента на прослушку и одновременно определит его локацию.

Существуют программы контент- и латентно-семантического анализа, делающие возможным на основе содержательного исследования письменных или аудиотекстов устанавливать психологическое состояние их автора, а также скрытые смыслы, заложенные в сообщения. Уже внедрены в жизнь платформенные решения на основе ИИ, благодаря которым происходит сбор, хранение и интеллектуальный анализ информации с целью превентивного выявления даже слабых сигналов, указывающих на всплеск уличной преступности, неконтролируемых волнений, беспорядков и актов вандализма.

Нельзя не сказать и о биометрических методах, позволяющих проводить идентификацию граждан, распознавать преступников и обнаруживать подозрительное поведение по микромоторике мускулов лица, движению тела. Неплохо себя зарекомендовал функционирующий на основе ИИ полностью автоматизированный комплекс поиска и анализа контента детской порнографии в Сети. Уже используются и развиваются комплексные решения, обеспечивающие переход от бумажного к электронному полицейскому офису.

Помимо прочего, состоят на службе интеллектуальные программы, помогающие выявлять аномалии при проведении финансовых транзакций, при заключении хозяйственных договоров. Также имеется специализированный софт распознавания необычных колебаний цен на активы, указывающие на инсайдерскую торговлю или криминальное поведение на финансовых рынках. Успешно работают автономные роботы, производящие осмотр особо опасных объектов. Даже тех, которые включают взрывчатые и отравляющие вещества. Ко всему прочему правоохранительными органами используются боты для первичных информационных контактов с гражданами и организациями.

Безусловно, весь этот широкий спектр позволяет вести куда более эффективную борьбу с преступностью, нежели каких-то 20-30 лет назад.

Многогранная этичность…

Учёные из университетов США и Европы отмечают: общественность высказывает значительные опасения в связи с использованием ИИ правоохранительными органами. И тут важнейшей задачей становится поиск реально реализуемых гарантий, которые обеспечивают для общества уверенность в этичном применении полицией искусственного интеллекта и роботов.

Проблема в том, что сам по себе термин «этичный» является многогранным, сложным и в значительной степени зависит от культурного контекста или конкретной ситуации. Да и единых образцов в целом для мира быть не может. Вполне вероятно, в одних обществах будут установлены критерии, которые окажутся неприемлемы в других. 

Например, в настоящее время на основе наиболее продвинутых моделей ИИ в Китае внедряется система социального кредита.
Она, по сути, предполагает всеобщую цифровую идентификацию населения, создание всеобъемлющих цифровых досье на граждан и систему сплошного мониторинга, использующего не только видеокамеры, а также телефонные разговоры и многое другое.

В Китае данная система не вызывает каких-либо протестов, поскольку полностью соответствует местным конфуцианским традициям. В то же время использование её, например, в странах Евросоюза просто немыслимо.

По мнению международных специалистов, применение ИИ и робототехники в работе полиции и судей должно соответствовать основным принципам справедливости, прозрачности и пропорциональности. Чтобы минимизировать риски и угрозы, создаваемые правоохранительным и правоприменительным использованием искусственного интеллекта, целесообразно разрабатывать соответствующие законы и внутренние нормативные акты на основе международных этических кодексов и рекомендаций.

Отступить от принципа?

Каждая страна должна решить, готова ли она к внедрению сплошных систем видеомониторинга и распознавания лиц? Или к введению обязательного предоставления информации правоохранительным органам производителями интернета вещей? Только само общество может ответить на вопрос, до какой степени оно готово отступить от принципа неприкосновенности частной жизни и приватности повседневного поведения для перехода от расследования к профилактике преступлений.

Есть и ещё один камень пре­ткновения - различия в этических рекомендациях применения ИИ в полиции и судебной системе.

Во всех недавно принятых международных докумен­тах для обеих структур они одинаковые. Но на самом деле возникают серьёзные противоречия. Например, в применении принципа прозрачности баз данных. Если транспарентность судебных не вызывает сомнения, то относительно полицейских, особенно полученных в ходе разведывательных (по европейской терминологии) или оперативно-разыскных мероприятий (по терминологии законов Российской Федерации, государств - участников СНГ), имеются серьёзные ограничения. Связаны они с секретностью баз и возможными негативными последствиями как для источников информации, так и для потерпевших, подозреваемых и обвиняемых.

И в заключение хотелось бы отметить такой факт: есть мнение, что активно внедряя в служебную деятельность новые достижения в сфере IT-технологий, мы тем самым позволим значительно сократить численность полиции, как это происходит в других областях, например, банковской сфере. Но, как уверяют специалисты, прямых аналогий здесь делать нельзя. Внедрение ИИ в системе видеонаблюдения, безусловно, увеличит объём поступаемых сведений о противоправных проявлениях, которым надо давать уголовно-процессуальную оценку. А это означает, что автоматически потребуется увеличить штат оперативных работников, дознавателей, следователей, экспертов. Уже сейчас актуальна подготовка большого числа специалистов новой профессии - аналитиков больших данных. Поэтому внедрение искусственного интеллекта вызовет необходимость не сокращения, а роста штатной численности полиции.

Искусственный интеллект - не новый термин, как это пытаются представить медиа. Уже в 60-е годы появились первые алгоритмы и языки программирования, давшие толчок программным решениям, которые используются по сей день.

***

Впервые словосочетание «искусственный интеллект» предложил использовать математик и информатик Джон МакКарти в 1956-м. Он сначала в одиночку, затем в сотрудничестве с советским профессором Юрием Ершовым разработал язык, способный перевести человеческие рассуждения в логические конструкции, а затем в вычислительные математические формулы.

***

ИИ представляет собой систему математических моделей, пригодных для решения на удовлетворительном уровне в установленные сроки реальных проблем, которые не могут быть реализованы человеком за требуемое время.

Вернуться в раздел

Читайте также

Милицейская волна