Вернуться к списку статей

Школа прикладной аналитики: когнитивные уязвимости практика-аналитика

Понкин Игорь Владиславович – доктор юридических наук, профессор кафедры государственного и муниципального управления Института государственной службы и управления РАНХиГС при Президенте РФ, профессор; Консорциум «Аналитика. Право. Цифра».


Или это ещё что-то – что я пока понять не могу…

Павел Трубинер в роли подполковника Сергея Сабурова в сериале «Баренцево море» (2022 года), 1 серия, 00:30:24–00:30:28.

Сегодня мы сталкиваемся с новыми угрозами и уязвимостями, которые во многих отношениях являются более всеобъемлющими, сложными и тонкими, чем те, с которыми мы сталкивались в прошлом веке.

Доклад Комиссии по возможностям разведки США в отношении оружия массового уничтожения Президенту США [1, с. 545].

Причины случающихся в прикладной аналитике сбоев, провалов имеют своё научное наименование – когнитивные уязвимости (англ. – «cognitive vulnerabilities») практика-аналитика.

Причём мы не касаемся здесь случаев принципиальной убогости мысли, неспособностей к прикладной аналитике и науке, когнитивного дефицита (англ. – «cognitive deficit») или отсутствия подготовки в прикладной аналитике. Речь в настоящем материале идёт о сбоях в работе практиков-аналитиков уже серьёзного уровня.

Идеальных практиков-аналитиков не бывает, ошибаются и попадают в сложные неоднозначные ситуации все (как минимум – хотя бы раз в жизни), тем более в условиях остро-интенсивной и хронической перегруженности в работе. И такие ситуации знать и понимать практику-аналитику совершенно необходимо.

Актуализация и воплощение («выстреливание», срабатывание) когнитивных уязвимостей даёт на выходе существенную часть от общего объёма дефектов прикладной аналитики (франц. – «fauts dans l’analytique»; англ. – «analytics defects»), которые, в свою очередь, словно растущий снежный ком порождают дефекты решений в государственном управлении и государственной политике, в военном управлении, в функционировании развед-сообществ, в бизнес-процессах и т.д.

Уязвимостью в информационной безопасности принято называть слабое место или дефект в системе, которое может создать условия для спешной атаки извне и [несанкционированного] раскрытия или потери информации; по существу, это «дыра» (англ. – «hole») в защите организации, некоторые уязвимости называют эксплойтами (англ. – «exploits») [2, с. 264].

Уязвимость в прикладной аналитике – это наличие у неё (в лице практика-аналитика и выстраиваемого им процесса) слабых мест («брешей в обороне», «дыр в логике» и т.д.), её подверженность дефектам, дисфункциям, сбоям, негативным тенденциям.

Согласно Агентству передовых исследований в сфере разведки (Intelligence Advanced Research Projects Activity (IARPA)), когнитивными уязвимостями можно управлять, ими можно оперировать (закладывая их в основу информационно-психологических спецопераций, в том числе операций дезинформации противника), можно вырабатывать и применять «прививки» и «противоядия» от манипулирования противником когнитивными уязвимостями [3].

Когнитивные уязвимости (в устоявшемся понимании) – это подверженности и/или склонности к дефектам мышления: существенным когнитивным искажениям, ошибочным убеждениям, когнитивным предубеждениям (предвзятостям) или стереотипным моделям мышления, которые создают основу для предрасположенности человека к когнитивным сбоям и приводят к искажениям и дисфункциям мыслительных процессов.

Игнорирование проблемы когнитивных уязвимостей в прикладной аналитике и применение упрощённых схематизаций в понимании и интерпретации таких уязвимостей, в выработке решений по снижению остроты этой проблемы (аллевиация проблем когнитивных уязвимостей и когнитивных искажений; франц. – «atténuation des biais cognitifs»; англ. – «cognitive bias mitigation») – всё это влечёт дефектность в организации и реализации профессиональной подготовки и повышения квалификации в прикладной аналитике, дефектность организации прикладных аналитических работ. Необходима полноценная теория девиантологии прикладной аналитики. Но прежде всего следует сформулировать, отстроить необходимые таксономии.

В числе источников (форм) дефектов мышления и соответствующих когнитивных уязвимостей выделяются следующие (перечень не является исчерпывающим, не является строго классифицированным или ранжированным, просто перечисление):

– харкинг (англ. – «HARKing» или полностью «hypothesizing after the results are known»; термин введён в оборот Норбертом Керром [4]) – когнитивное искажение, детерминированное склонностями произвольно позиционировать неожиданные ставшие известными результаты как будто бы ранее предсказанные, с подвёрстыванием под это «задним числом» рабочих (post hoc) гипотез и выдачей их как якобы априорных;

– эвристическая ловушка выбора лучшего (англ. – «take-the-best heuristic»; эвристика – от др.-греч. εὑρίσκω – «отыскиваю», «открываю», то есть способный порождать ошибки мыслительный приём) – это когнитивное искажение, детерминированное неосновательным задействованием упрощённого способа принятия решений при наличии альтернативных вариантов, реализуемым посредством отбора варианта на основе одного параметра («сигнала), субъективно неосновательно и непропорционально воспринимаемого как более предпочтительный, игнорируя другие параметры, субъективно произвольно воспринимаемые как менее предпочтительные (менее желательные);

– эвристическая ловушка доступности (англ. – «availability heuristic») – когнитивное искажение, детерминированное склонностями произвольно оценивать как более вероятное то, что видится более простым (более доступно для понимания) и лучше запоминается, исключая другие вполне жизнеспособные альтернативы;

– эвристическая ловушка репрезентативности (англ. – «representativeness heuristic») – когнитивное искажение, детерминированное склонностями произвольно относить что-либо к какому-либо классу (классифицировать) на основе только нескольких признаков, причём без учёта весовых характеристик этих признаков;

– эвристическая ловушка предвзятости выжившего (англ. – «survivorship bias») – когнитивное искажение, детерминированное склонностями произвольно концентрироваться на объектах, «переживших» некоторый выраженно негативно воздействовавший процесс, игнорируя те объекты, которые его не «пережили», ввиду их недоступности («невидимости»);

– предубеждение игрока (иначе – ловушка невозвратных затрат; англ. – «sunk cost», «retrospective cost») – когнитивное искажение, детерминированное чрезмерным и неосновательным влиянием учёта затрат, уже понесённых (произведённых) ранее на этом направлении (но больше не имеющих отношения к решениям относительно будущего), на проектирование и принятие будущего решения, сопряжённого с новыми тратами;

– предубеждение подтверждения (англ. – «confirmation bias») – когнитивное искажение, детерминированное склонностью к произвольному предпочтительному применению (в поиске и интерпретации данных и решений) способов, подтверждающих или поддерживающих ранее сложившиеся субъективные предубеждения или ценностные ориентации, приводящему к предвзятому аналитическому поиску, отбору и выборочному представлению «пригодных» результатов, поддерживающих предубеждения, игнорируя те, которые не поддерживают;

– предубеждение привязки («предвзятость якорения», «предубеждение якорной привязки», англ. – «anchoring bias») – когнитивное искажение, детерминированное склонностями произвольно преувеличивать  значение ранее воспринятых количественных и/или качественных данных (как конкретной точки отсчёта, или иначе – «якоря»), даже если таковые не имеют отношения к оцениваемому значению, в ущерб объективности восприятия оцениваемых значений;

– предубеждение заметности (англ. – «salience bias») – когнитивное искажение, детерминированное склонностями произвольно сосредотачиваться на элементах, которые визуально являются более заметными (более яркими для восприятия), игнорируя те элементы, которые ничем не примечательны;

– предубеждение выборки (иначе – эффект смещения выборки, искажения выборки; англ. – «selection bias») – когнитивное искажение, детерминированное склонностями произвольно отбирать элементы статистической выборки не полностью случайно и, как следствие, оперировать нерепрезентативными выборками;

– предубеждение «задним числом» (англ. – «hindsight bias») – когнитивное искажение, детерминированное склонностями произвольно преувеличивать свои предыдущие решения как более эффективные, чем они были на самом деле;

 эффект иллюзии контроля (англ. – «illusion of control») – когнитивное искажение, детерминированное склонностями произвольно, иллюзорно преувеличивать свои способности и возможности действительно контролировать процессы, цепочки событий, акторов, причинно-следственные и иные связи, оказывать на них существенное влияние;

– эффект иллюзии частоты (англ. – «frequency illusion») – когнитивное искажение, детерминированное выборочным визуальным «выхватыванием» (подмечанием) каждого экземпляра объекта (или аналогичного случая) с произвольным иллюзорным формированием мнения о высокой частоте его появления;

– эффект успешно пройдённого пути (англ. – «well-travelled road effect») – когнитивное искажение, детерминированное склонностями неверно оценивать продолжительность и трудность / лёгкость прохождения менее знакомых маршрутов (алгоритмов), априорно отказываясь от них в пользу прохождения уже привычных, известных маршрутов (алгоритмов), ошибочно преувеличивая их лёгкость, эффективность и малость затратности;

– эффект вагона с оркестром (эффект следования мнению большинства, эффект подражания; англ. – «bandwagon effect») – когнитивное искажение, детерминированное склонностями субмиссивно следовать доминирующему групповому мнению, доминирующим моделям поведения, «моде» во мнении по какому-либо кругу вопросов;

– эффект фрейминга (эффект кадрирования; англ. – «framing effects») – когнитивное искажение, детерминированное неосновательным преувеличением значения формы подачи данных для их восприятия;

– эффект ореола (эффект гало; англ. – «halo effect») – когнитивное искажение, детерминированное склонностями произвольно приписывать человеку надуманные (непроверенные) способности на основе только лишь наблюдаемых других способностей;

– эффект атрибуции (иначе – предвзятость соответствия; англ. – «attribution defect», «fundamental attribution error») – когнитивное искажение, детерминированное склонностями произвольно преувеличивать значение личностным объяснениям поведения лиц, недооценивая значение ситуативного влияния на это поведение;

– эффект ложной дилеммы (иначе – «ложная дихотомия», «ложная бинарность»; англ. – «false dilemma», «false dichotomy», «false binary») – когнитивное искажение, детерминированное склонностями произвольно ложно ограничивать число доступных вариантов, неосновательно упрощая выбор посредством исключения вполне жизнеспособных альтернатив и выстраивая умозаключения на проистекающих из этого ложных посылках;

– эффект чрезмерного и неосновательного обобщения (англ. – «overgeneralizing»);

– эффект неосновательной антропоформизации (очеловечивания (например, юнита искусственного интеллекта); англ. – «anthropomorphism», «anthropoformization») – когнитивное искажение, детерминированное склонностями произвольно, иллюзорно охарактеризовывать животных, техногенные или природные объекты или абстрактные понятия как обладающие человеческими чертами, эмоциями и интенциями, очеловечивать их;

– иррациональная эскалация (англ. – «irrational escalation», «escalation of commitment») – когнитивное искажение, детерминированное иррациональными отказом пересмотреть курс (задаваемую трассировку действий, реализуемый алгоритм действий) и стремлением продолжать двигаться далее сообразно предыдущим решениям и действиям в условиях наличия явных данных о дефектности таких решений и действий, а равно о негативных последствиях продолжения их реализации;

– когнитивный диссонанс (англ. – «cognitive dissonance») – когнитивное искажение, детерминированное дисбалансированием и сбоями мышления вследствие когнитивно непреодолимого (или сложно-преодолимого) конфликта (нестыковки) воспринимаемой картины (происшедшего или происходящего) с ожиданиями, привычными данностями и установками;

 когнитивное расщепление (иначе – «мышление по принципу “всё или ничего”», «чёрно-белое мышление», «поляризованное мышление»; англ. – «splitting», «black-and-white thinking», «thinking in extremes», «all-or-nothing thinking») – когнитивное искажение, детерминированное склонностями мыслить только крайностями (преимущественно только крайностями), как следствие – когнитивные неспособности интегрировать дихотомию разных противоположных качеств в целостное реалистичное единое;

– апофения (англ. – «apophenia») – когнитивное искажение, детерминированное склонностями надуманно видеть закономерности и связи в случайных и не связанных данных, включая: • иллюзорная корреляция (англ. – «illusory correlation») – когнитивное искажение, детерминированное склонностями произвольно, надуманно проводить связи между, в действительности, не связанными данными, процессами, субъектами, объектами, выстраивать надуманные причинно-следственные связи и иные корреляции; • иллюзорная кластеризация (англ. – «illusory clustering») – когнитивное искажение, детерминированное склонностями произвольно, надуманно преувеличивать значение небольших серий или кластеров в больших выборках случайных данных.

Следует отметить, что глубина классифицирования когнитивных уязвимостей по уровням (степени детализации) может различаться (в том числе быть очень высока) в зависимости от поставленной задачи, но всегда может найтись не обозначенная позиция и даже группа позиций таких когнитивных уязвимостей. В данном случае перед нами не стояла задача полной их каталогизации. Поэтому о какой-то исчерпывающей полноте приведённого выше списка речь не идёт. Необходимо было маркировать лишь наиболее существенные когнитивные уязвимости (склонности, подверженности дефектам прикладной аналитики), дающие суммарно существенный вклад числа и разнообразия дефектов в общем их объёме в прикладной аналитике.

Существенным признаком когнитивных уязвимостей является их устойчивость, ригидность к их устранению. Многие из них очень сложно «вытравить» из уже практикующего аналитика, переучивая его с порочных подходов и практик.


Литература, ссылки

1. Robb C.S., Silberman L.H., Levin R.C., et alThe Commission on the Intelligence Capabilities of the United States regarding Weapons of Mass Destruction: Report to the President of the United States [Комиссия по возможностям разведки США в отношении оружия массового уничтожения: Доклад президенту США]. – Washington (D.C., USA): Government Printing Office, 2005. – xi; 601 p.

2. DAMA-DMBOK: Свод знаний по управлению данными. Второе издание / DAMA International: Пер. с англ. Г. Агафонова. – М.: Олимп–Бизнес, 2020. – xxviii; 800 с.

3. IARPA’s plan to hack the brains of hackers [План IARPA по когнитивным уязвимостям хакеров] // <https://fcw.com/security/2023/04/iarpas-plan-hack-brains-hackers/385123/>. – 13.04.2023.

4. Kerr N.L. HARKing: Hypothesizing after the results are known [HARKing: выдвижение гипотез после того, как результаты известны] // Personality and Social Psychology Review. – 1998. – Vol. 2. – № 3. – P. 196–217.