В первой части аналитического материала по представленному недавно отчету от Kreller Group речь шла о преимуществах и ограничениях применения технологий искусственного интеллекта и машинного обучения в финансовой области. С одной стороны, ничто кроме компьютера, действующего на основе сложных алгоритмов, не может столь же эффективно разбираться в огромных объемах неструктурированных данных. С другой стороны, качество результатов самообучения - понятие относительное, поэтому, столкнувшись с непривычной ситуацией, которая в алгоритмах прописана не была, машина подчас принимает решения, которые слабо напоминают поведение человека в ясном уме и твердой памяти. По той же причине распространенной остается проблема ошибочно-положительных результатов, когда компьютер подает сигнал, например, о подозрительной с точки зрения отмывания транзакции, наблюдатели проверяют его, но оказывается, что повода для беспокойства нет, а процент “попадания” очень небольшой. Верна и обратная логика: мошенники сегодня научились применять все более сложные и необычные схемы махинаций, которые искусственный интеллект не способен распознать, поскольку ничего подобного в его алгоритмах еще не прописано. Кроме того, ИИ-системы, в отличие от людей, смотрят на сами транзакции, а не на тех, кто за ними стоит.
Прошлый материал заканчивался предупреждением о высоких правовых рисках применения систем на основе искусственного интеллекта в областях, где особое значение имеют деловая этика и корпоративные ценности - например, при найме новых сотрудников, где ИИ способен без должного присмотра уйти в дискриминирующий отбор кандидатов. Есть ли здесь какой-то выход, есть ли шанс на то самое эффективное “сотрудничество” AI и человеческого интеллекта, которое вынесено в заголовок? О нем сегодня и пойдет речь.
Одним из самых больших недостатков ИИ является фокус его внимания на действиях, а не их исполнителях. В анализе больших объемов данных из ограниченного числа источников ему нет равных, но только человек способен смотреть “вширь”, анализируя множество самых разных источников и сопоставляя эту информацию. Это очень важно (особенно в процедурах due diligence) для минимизации проявления ошибочно-положительных результатов. Как иллюстрация, при использовании ИИ в проверке потенциальных контрагентов по официальным “черным спискам” система может выдавать предупреждения при совпадении имени физлица или организации, если имя или название являются распространенными. На деле же никакого отношения потенциальный контрагент к лицу из санкционного списка может не иметь, поэтому наблюдателю приходится сверяться с дополнительными источниками информации (реестры организаций, медийные источники и т.д.), чтобы исключить это ложное совпадение, либо подтвердить его, если компьютер в самом деле обнаружил находящееся под санкциями лицо.
На практике проверки due diligence часто могут пойти в направлении, явно непредусмотренном на этапе планирования. Это как раз хорошо - только компьютер к этому отношения не имеет, и вот почему. Часто направления исследования логически формируются уже в процессе на основе потребностей клиента, природы деловых рисков или типа обнаруженной информации. Антикоррупционный комплайенс традиционно требует гибкости в выборе методологии проведения исследования, чтобы получилась полная картина риска в деловом партнерстве с контрагентом. Авторы отчета из Kreller Group делятся показательным примером из собственной практики: относительно недавно к ним обратился клиент с просьбой проверить интернет-сайт одной компании, позиционирующей себя в роли инвестиционного консультанта. Подозрительным было то, тот сайт не являлся ее официальным сайтом, а данные по регистрации домена были скрыты, что делало невозможным немедленное определение того, кто именно его зарегистрировал. По мере изучения вопроса выявилась возможная связь этого сайта с другим, принадлежащем медийной организации, причем никакого отношения эта медийная организация к инвестиционному консалтингу не имела. С учетом удивительного совпадения расследование далее пошло в этом направлении, пока связь между двумя порталами в самом деле не подтвердилась - через одного человека, аффилированного с медийной группой, который и зарегистрировал неофициальный сайт компании якобы в сфере инвестиционного консалтинга. Подтвердить связь удалось благодаря стилистике графических изображений на обоих сайтах.
Если представить себе корпоративные проверки due diligence, на ум приходят рутинные процедуры анализа различных юридических документов, публикаций в прессе и так далее. Отсеивание полезной информации требует определенной креативности, иначе клиент не получит полного представления о риске, который несет с собой потенциальное партнерство с интересующей его организацией или физлицом, и иногда такая креативность – прерогатива, заметим, человеческого, а не искусственного разума – приносит свои плоды. Для примера, в практике работы аналитиков Kreller был случай, когда место проведения мероприятия удалось установить, сопоставляя фотографии из Facebook одной интересующей клиента личности с фотографиями в Instagram, где то же самое место использовалось в целях, не имеющих отношения к бизнесу (речь шла о поминках). Сопоставление получилось провести благодаря ковровому покрытию одинаковой раскраски в обоих случаях. В другом примере к компании как-то обратились с просьбой проверить деловые контакты выходца из Индии, ныне постоянно проживающего в Объединенных Арабских Эмиратах. В ходе проверки выяснилось, что большая часть деловых связей по вполне очевидным причинам ограничена индийским штатом Керала, откуда был родом бизнесмен. Его активность ОАЭ получилось установить на основе сопоставления данных из социальных медиа индийских контактов этой особы с публично доступными данными Торговой палаты в Абу-Даби. И в том, и в другом случае это сопоставление провел, конечно, живой человек, а не машина.
В принципе, ИИ можно научить и этому – “узнавать” рисунок коврового покрытия, фиксировать схожести стилистического оформления двух, казалось бы, никак не связанных интернет-сайтов, или соотносить опубликованные Торговой палатой Абу-Даби пресс-релизы с постами на Facebook, однако важно отметить, что само выбранное направление во всех случаях базировалось на уникальных особенностях каждого исследования. Общего алгоритма движения не было, а это значит, что ИИ мог вообще в том направлении даже не двинуться. Таких случаев немало, и все они хорошо иллюстрируют слабости приложений на основе искусственного интеллекта, по крайней мере, в области due diligence. Уникальная природа проведения всесторонних проверок порождает уже в ходе процесса уникальные и подчас удивительные откровения. Это сродни работе умелого психолога: клиент может ненароком обронить незначительную с его точки зрения фразу, ухватившись за которую, как за путеводную нить, опытный эксперт способен раскопать глубинную причину конфликта, и даже докопаться до психотравмы родом из детства. ИИ - очень точный и мощный инструмент сродни лазеру, который эффективен, если знать, где именно “резать”. С другой стороны, исследователь-человек сродни мульти-инструменту, который снимает внешнее покрытие и определяет ту область, где требуется вмешательство.
Фактор новизны ситуации - не единственный, которой высвечивает неоспоримые преимущества человеческого интеллекта перед искусственным. Человеческий разум по-прежнему необходим в ситуациях, когда требуется учитывать разнообразные геополитические факторы, одним из примеров которых является вступивший в силу в мае прошлого года Общий регламент по защите персональных данных (GDPR), обеспечивший европейских граждан гораздо большими возможностями по контролю сбора и анализа их личных данных. В США власти Калифорнии одобрили аналогичный закон (California Consumer Privacy Act - CCPA), который вступит в силу с начала января. Газета New York Times считает эти новые правила регулирования очень значительными в плане обеспечения эффективного надзора за сбором и хранением данных технологическими компаниями в США. Если теперь вернуться к примеру с использованием приложений на основе ИИ для подбора персонала, поневоле задумаешься, сколь значительными могут оказаться для компании последствия, поскольку простые граждане теперь получат право запросить сведения относительно не только того, какие именно данные по ним были получены, но и что стало причиной обращения за ними, и какие методы при этом использовались. Если ИИ-системы по-прежнему применяются в этих целях, это может пролить больше света на алгоритмы, которым они при этом следуют.
Если говорить о проверках due diligence в исполнении живых специалистов, то аналитики полагаются в общем случае на информацию из двух типов источников: публично доступные данные и данные, которые раскрываются в рамках межличностного взаимодействия. Публично доступные реестры юрлиц, юридические документы, документы регистрации на землю - все это примеры первой категории, открытых источников информации. Их основное преимущество заключается в самой открытости: источники поступления данных там изложены предельно четко, при этом степень открытости также поддается регулированию в зависимости от обоснованности опасений лица, чьи данные находятся в публичном доступе, и действующих требований закона. В отличие от информации, которую иногда собирает ИИ, данные из открытых источников обычно не содержат чувствительных коммерческих секретов.
Помимо ситуации с жестким законодательным регулированием сбора и хранения персональных данных, существенные ограничения ИИ имеет в юрисдикциях, где интернет и медиа находятся под контролем и цензурой со стороны государства. Более того, есть растущее опасение, что технологии искусственного интеллекта все активнее начинают сегодня применяться в целях манипулирования общественным сознанием в интересах авторитарного государства (например, для генерирования новостных “фейков”, в том числе для влияния на результаты выборов, и для шпионажа за личной жизнью граждан). Современный американский философ и теоретик искусственного интеллекта Дэниел Деннет (Daniel Dennett) высветил частично эту проблему в своем февральском эссе для издания Wired. Там он пишет, что ИИ к сегодняшнему дню научили создавать почти идеальные новостные “подделки” по событиям, которые никогда не происходили, что может очень скоро сделать абсолютно бесполезными все инструменты расследования, которыми мы привыкли пользоваться за последние 150 лет. “Информационная эра - это также эра дезинформации”, - пишет Деннет.
Вторым упомянутым способом получения информации является межличностное взаимодействие. Более актуальна данная форма в странах с сильной цензурой и авторитарным контролем. В пример аналитики Kreller в своем отчете приводят Узбекистан, который, согласно последнему рейтингу Transparency International, оказался на 158-м месте из 180 по уровню коррупции. Составители рейтинга в отношении Узбекистана фиксируют сильную нехватку независимых СМИ и автономной судебной системы. В своем отчете Kreller не раскрывают имени арестованного управляющего одной энергетической компании, которому вменяли хищения в особо крупных размерах - и об этом, конечно, сообщали медиаисточники. Если бы проверку проводил ИИ, он бы анализировал именно новостные сообщения. Однако криминальных записей, способных подтвердить нарушение закона, не обнаружилось, зато скрытно проведенные личные запросы одного из представителей Kreller на месте дали основание думать, что тот арест имел политическую мотивацию. Более того, неназванные источники также сообщили, что это был один из множества арестованных бизнесменов, которые были впоследствии реабилитированы после смены политического режима. Хотя после этого отдельные медиа сообщили о самом факте освобождения обвиняемого из мест заключения, ни одно из них при этом не осветило истинных причин реабилитации.
Очевидно, в только что описанной ситуации подход к расследованию только лишь на основе ИИ не принес бы объективных результатов, так как искусственный интеллект не принял бы во внимание критические детали. Его можно использовать для сканирования информации в новостных источниках, но этот поиск критически теряет в эффективности, если в юрисдикции действует жесткая политическая цензура. Как в случае с Узбекистаном, намного эффективнее оказались лично проведенные осторожные расспросы об обстоятельствах дела: это позволило получить контекстуальное представление об аресте и обстоятельствах последующего освобождения.
Переходя постепенно к основным итогам - чего можно ждать в будущем от прикладного AI в корпоративном комплайенсе? Смогут ли когда-нибудь модификации суперкомпьютера IBM Watson полностью заменить собой живых людей? “Когда-нибудь” через много лет – возможно… В финансовом секторе у искусственного интеллекта уже выходит довольно продолжительная история успешного применения в области обнаружения финансовых хищений и отмывания нелегальных доходов. И в более широкой области корпоративного комплайенса ИИ также выглядит перспективно благодаря несопоставимой способности к быстрой обработке обширных массивов данных с целью обнаружения в них аномалий и необычных проявлений. Само собой, ИИ может легко справляться с менее творческой, но при этом рутинной повторяющейся работой. Во всех таких случаях ИИ показывает себя эффективным инструментом с высокими показателями производительности.
Однако ИИ проявляет все свои ограничения, будучи поставленным перед необходимостью работать с непривычными источниками данных либо в новых обстоятельствах. Именно креативность всегда была неотъемлемой составляющей эффективного расследования большинства хищений, особенно в современном мире, когда мошенники разрабатывают все новые хитроумные схемы. Только живой человек способен внести нужные коррективы в направление расследования, опираясь на свое внутреннее чутье и множество несвязанных данных (геополитический контекст, ожидания клиента и прочее), учесть которые самостоятельно, без предварительного инструктажа, ИИ-система не способна.
Уже известно множество примеров очень успешного применения “гибридной” модели взаимодействия человека и компьютера. Упомянутые в отчете Гэри Крауш (Gary Krausz) из Gursey Schneider LLP и Джон Колтхарт (John Colthart) из MindBridge AI оба связывают свой успех в применении такого подхода с четким разделением труда, подобным тому, как это реализовано в оперативных группах по разминированию взрывных устройств. Пока ИИ проводит идентификацию отличительных черт конкретного события (“почерк” и свидетельства наличия хищения, например), аналитики проводят “разминирование” (собственно, проведение криминалистического аудита на основе свидетельств). При этом только лишь криминалистической бухгалтерией данный подход не ограничен, и его можно использовать в более общих корпоративных процедурах due diligence.
Большая часть работы, имеющей предписательный характер (например, поиск по базам данных и санкционным спискам в соответствии с четко определенными критериями), проводится компьютером. Благодаря этому специалисты могут фокусировано подойти к процессу расследования. ИИ-программа, например, может выявить совпадение имени по некоему политически значимому лицу (“Politically exposed person”, PEP — термин из области финансового регулирования, обозначающее лицо, которое играет существенную политическую роль в своей стране или на международном уровне). Живой аналитик далее уже проверяет, соответствует ли обнаруженное совпадением тому самому лицу, и если так, только он сможет далее провести углубленный контекстуальный анализ на предмет его политических связей и предпочтений, чтобы в конечном итоге оценить коррупционный риск сотрудничества клиента с этим лицом. Конечно, чтобы такое плодотворное сотрудничество было возможным, сами эксперты должны быть в курсе всех ограничений AI и уметь их компенсировать своим личным участием в расследовании.
При этом “гибридный” подход несет множество преимуществ как самой компании, так и клиентам: быстрота и эффективность обработки отчетов, меньшие трудозатраты на перевод регистрационных документов, обработка больших массивов данных, решение бюрократических проблем с заполнением необходимых форм, и т.д. Это позволяет специалистам применять риск-ориентированный подход и “копать” в направлениях, которые с наибольшей вероятностью принесут результаты. Кроме того, эффективное сотрудничество ИИ и человека оказывает влияние и на итоговые показатели прибыли клиента благодаря экономии финансовых средств, которые в противном случае могли быть потеряны в результате хищений, плохих сделок с неблагонадежными деловыми партнерами, штрафов, репутационных потерь и т.п.
Хоть искусственный интеллект на бытовом уровне часто воспринимается как панацея в очень многих областях, это вовсе не так. Это действительно очень мощный инструмент - но с ограниченной областью применения. И если брать такую сферу как корпоративные проверки due diligence, то здесь старая пословица “одна голова хорошо, а две лучше” все же подтверждает свою правдивость.