bannerbannerbanner
Название книги:

Искусственный интеллект. Большие данные. Преступность

Автор:
Владимир Овчинский
Искусственный интеллект. Большие данные. Преступность

000

ОтложитьЧитал

Шрифт:
-100%+

§ 2. ИИ, распознание угроз и оценка рисков

Магистральным направлением использования ИИ являются вопросы безопасности. При решении этой группы вопросов как в никакой другой сфере важно заблаговременно распознавать угрозы и оценивать риски. Распознавание угрозы мало чем отличается от распознавания лица. Любая угроза имеет определенный устойчивый паттерн, который может быть выражен через набор числовых характеристик. Поскольку вопросы распознавания в решающей степени зависят от скорости и полноты вычислений, то ИИ как комбинаторная машина, позволяет распознавать угрозы намного быстрее и точнее, чем человек.

Правда, есть одно важное ограничение. ИИ способен распознавать лишь те угрозы, которые имели место в прошлом. Поскольку в основе распознавания лежит машинное обучение, то фактически ИИ на числовых массивах прошлого устанавливает профиль угрозы, а потом ищет этот профиль в поступающих информационных потоках.

До сих пор остается открытым вопрос, может ли человек распознавать угрозы, которых ранее не существовало. На этот счет имеются различные точки зрения. Большинство психологов занимают точку зрения, что человек способен к этому. В то же время специалисты когнитивных наук полагают, что нет принципиальной разницы между переработкой информации у машины и человека, и соответственно, человек не может решать задачи, которые не решает машина.

Авторы доклада Центра новой американской безопасности полагают, что человек обладает способностью к решению задача, не доступных, по крайней мере, в настоящее время. Например, человек способен изменить правила игры, в то время как ИИ всегда играет по правилам. Однако применительно к новым, ранее не существовавшим угрозам, на сегодняшний день не существует однозначного ответа на вопрос: способны ли люди распознавать угрозы, с которыми до этого никогда не сталкивались.

Создание ИИ носит феноменальный характер. Существует множество различных программноаппаратных комплексов, каждый из которых уникален, а потому феноменален. В отличие от персональных компьютеров, планшетов, смартфонов и т. п. ИИ носят единичный, в крайнем случае, мелкосерийный, но отнюдь не массовый характер. Если явление не носит массового характера, то оно не может быть описано количественно. Соответственно прогноз тенденций в области ИИ – это всегда качественный прогноз.

Другое дело, что отдельные аспекты этого качественного процесса могут иметь количественное выражение, типа знаменитого закона Мура[7], и тем самым служить ориентиром прогнозирования. При определении тенденции развития сложных явлений, в т. ч. ИИ, сегодня наиболее широко используют Форсайт метод, или сценарное прогнозирование. При том, что форсайт прогнозы являются сегодня абсолютно преобладающей формой составления прогнозов, разработки плановых программ на государственном уровне, включая США, страны ЕС, эффективность их крайне низка. Достаточно привести два примера. С 2003 по 2010 гг. было осуществлено на уровне федеральных органов власти США, исследовательских подразделений Федеральной резервной системы (ФРС) более 15 форсайт прогнозов дальнейшего развития глобальной финансовой системы. Ни в одном из прогнозов не нашли своего места криптовалюты и цифровые активы. Ни в одном прогнозе не были упомянуты смарт-контракты и цифровые монеты.

Это неудивительно. Во всех странах мира форсайт составляют статусные люди, которые плоть от плоти сложившейся системы. Соответственно, они видят в будущем линейное, но масштабируемое продолжение настоящего. А это принципиально не так.

В этой связи Центр новой американской безопасности предлагает использовать локусный подход к прогнозированию. Он состоит в том, что в рамках среднесрочного прогноза на горизонте три-пять лет верна мысль известного американского фантаста и мыслителя У.Гибсона: «Будущее уже наступило.

Просто оно пока неравномерно распределено». Для среднесрочных прогнозов локусный подход является не только наиболее эффективным, но и максимально дешевым и простым. Используя отработанные методы распознавания образов и обнаружения аномалий, осуществляется сканирование ноу-хау, разработок, гипотез в той области или сфере знания, применительно к которой осуществляется прогнозирование. Это позволяет выявить локусы будущего, а затем собственно прогноз сводится к тому, чтобы постараться оценить реалистично темпы экспансии этих локусов, как правило, находящихся на периферии, в ключевые сектора мировой и национальных экономик.

Тенденции всегда проявляют себя как возможности, т. е. варианты развития будущего. Практически все эмпирические исследования в области социальной динамики показывают, что у групп действия существует не один, а несколько вариантов поведения практически в любой ситуации.

Любое лицо, принимающее решение, заинтересовано в снижении риска. Собственно, ИИ и является мощнейшим инструментом подавления рисков. Однако это относится к гносеологическим рискам. Они минимизируются за счет получения дополнительной информации и ее глубокой обработки, позволяющей гораздо более достоверно, чем раньше судить о движущих силах и логике той или иной ситуации. Что же касается онтологического риска, то ИИ бессилен перед ним. В конечном счете, ИИ – это мощнейший многофункциональный вычислитель. Если же параметры, которые он вычисляет, предельно нестабильны, носят дискретный, а не непрерывный характер, находятся в состоянии, близком к белому шуму[8], то даже самый мощный ИИ не сможет оказать большой помощи лицу, принимающему решения.

Использование ИИ позволяет гораздо более реалистично, чем раньше, заблаговременно определить экзистенциональные угрозы, а также позволяет в режиме мониторинга сканировать угрозы со стороны другого участника конфликта.

§ 3. ИИ как технология тройного назначения

ИИ – это технология тройного назначения. ИИ может быть использован как для гражданских, так и для военных целей. Отдельное направление использования ИИ – мафиозно-террористическое. Поскольку некоторые задачи, требующие интеллекта, являются доброкачественными с точки зрения права, а другие – нет, то ИИ обладает свойством тройного использования, также как и человеческий интеллект.

О гражданском, мирном использовании ИИ СМИ сообщают буквально каждый день. Но, откровенно говоря, самое активное использование ИИ наблюдается в военных целях.

Например, Министерство обороны США изучает множество разнообразных направлений использования ИИ. Эта работа ведется в основном в рамках DARPA (Управление перспективных исследовательских проектов Минобороны США) и IARPA (Агентство передовых исследований в сфере разведки). Разработкой стратегии использования ИИ в сфере национальной безопасности и координации исследований занимается Канцелярия помощника Министра обороны по исследованиям и инженерии, а сам помощник несет личную ответственность перед министром обороны, администрацией президента и Конгрессом за максимально эффективное использование ИИ в интересах национальной безопасности[9].

В апреле 2017 г. под руководством заместителя министра обороны США по разведке создана и начала активно работать междисциплинарная и многофункциональная команда по разработке стратегии и тактики алгоритмических войн, а также их программно-аппаратному обеспечению со стороны ИИ. Работа этой команды известна как проект Maven. Главная цель проекта Maven состоит в максимально быстром внедрении ИИ в оборонительные и наступательные системы в сфере военного, финансово-экономического и поведенческого противоборства. Проект призван продемонстрировать огромный потенциал технологий ИИ. В рамках проекта на период до 2020 г. поквартально расписаны цели и ресурсы. Информация по проекту Maven доступна комитетам Сената и палаты Представителей по разведке, т. к. относится к засекреченной сфере.

В начале 2018 г. директор проекта Maven заявил: «Maven предназначен для того, чтобы быть пилотным проектом. Он призван продемонстрировать неисчерпаемый потенциал ИИ в сфере алгоритмических войн, а конкретно кибер-, финансово-экономических и поведенческих конфликтов и противоборств, а также в сфере управления и прогнозирования конфликтов на пяти полях боя: на земле, в воздухе, в космосе, под водой и в киберсреде».

 

Ожидается, что к 2020 г. ИИ даст максимальный эффект в разведке для обработки и анализа больших, в том числе неструктурированных, зашумленных и неполных. Одним из результатов проекта Maven стало создание системы опережающего мониторинга и прогнозирования на основе разнообразных данных действий противника (на примере борьбы с ИГИЛ). Система Cointer-ISIL-Maven начала эксплуатироваться с июля 2017 г., она включает в себя сложный программно-аппаратный комплекс, состоящий как из периферийных систем, так и центрального ИИ. В качестве периферийных систем используются автоматизированные дроны, оснащенные системами компьютерного оптического зрения. Среди принципиально новых модулей центрального ИИ, созданного в рамках проекта, необходимо отметить гибкие модифицированные блоки нейронных сетей с машинным обучением, позволяющих распознавать нечеткую оптическую информацию на уровне более высоком, чем наблюдатели-люди.

Помимо засекреченных, у разведывательного сообщества есть несколько публично рекламируемых исследовательских проектов в области ИИ. На начало 2018 г. только в интересах ЦРУ осуществляется 137 публично финансируемых проектов, связанных с ИИ. В основном эти проекты направлены на решение таких задач, как анализ разнородной структурированной и неструктурированной разноформатной, зашумленной и неполной информации. Более 2 5 проектов связаны с использованием ИИ, в том числе в составе симбиотического интеллекта, совместно с группами экспертов для прогнозирования будущих событий, таких как террористические атаки, гражданские беспорядки, финансово-экономические, политические и военные кризисы и т. п.

IARPA в настоящее время финансирует крупнейший в истории США проект по созданию человеко-машинной платформы симбиотического (гибридного – человек + ИИ) интеллекта для распознавания слабых сигналов в информационном шуме и прогнозирования маловероятных событий. Также ИИ активно используется для разработки алгоритмов одновременного многоязычного распознавания речи и перевода акустической речи в тексты с уровнем, превосходящим применяющиеся в настоящее время системы машинного перевода.

У ИИ может быть многообещающее будущее в сфере военной логистики. Например, ВВС США работает над использованием ИИ для составления графиков обслуживания летательных средств, включая графики дозаправки в воздухе и проведения ремонта. Вместо того, чтобы осуществлять дорогостоящий ремонт, когда самолет или вертолет выходит из строя из-за поломок, ИИ разработал модели, позволяющие проводить предупредительное техническое обслуживание воздушных судов. Это повышает надежность их эксплуатации при более низких затратах. Данная система, созданная в 2017 г., включает в себя встраиваемые в воздушные суда датчики, передающие шифрованные сигналы центральному интеллекту, в котором они становятся базой для работы алгоритма прогнозирования.

В сентябре 2017 г. Управление материально-технического снабжения сухопутных войск США подписало второй контракт с IBM на сумму 135 млн. долларов для создания персонального электронного помощника бойца штурмового отряда на базе ИИ. Этот проект стал продолжением первого проекта, начатого в 2014 и завершенного в 2016 г. В рамках первого проекта электронный индивидуальный помощник-эксперт был создан для работников полевых штабов дивизий быстрого развертывания на базе IBM Watson.

ВМС США заказали в 2017 г. версию Watson, предназначенную для разработки планов оптимального материально-технического снабжения военно-морских группировок и отдельных судов, находящихся в мировом океане, и контроля над их выполнением. Командование сухопутной армии полагает, что использование логистического Watson в армии обеспечит ежегодную экономию 100 млн. долларов за счет оптимального распределения логистических потоков и планов материально-технического обеспечения вооруженных сил.

Наиболее активно ИИ будет использоваться министерством обороны США в киберпространстве.

В 2018 г. киберкомандование США разместило через DARPA заказы по использованию ИИ для мгновенного обнаружения аномалий и дыр в киберзащите. Представляется, что именно ИИ с его быстродействием позволит наиболее эффективно управлять боевыми киберплатформами на самой деликатной стадии киберпротивоборств – фазе проникновения в сети противника.

Вооруженные силы США стремятся максимально использовать ИИ в области управления и контроля. Наиболее продвинутая система создана в настоящее время в ВВС США. Сейчас она доведена до уровня штабных работников командования ВВС. В период до 2019 г. система охватит уровень авиационных полков и дивизий.

Как известно, одной из наиболее сложных в практическом плане задач является сохранение управляемости и поддержание взаимодействия командования и боевых единиц в ходе реальных военных действий, когда противник наносит удары не только на поле боя, но и по центрам командования. До настоящего времени ни в одной стране мира, насколько известно, не создана система регенерации командования и контроля в жестких конфликтах. Регенеративная система должна быть организована таким образом, чтобы после выхода из строя тех или иных узлов и уровней командования, система перестраивалась и в новой конфигурации сохраняла высокий уровень управления и координации. В настоящее время командование ВВС совместно с корпорацией Lockheed Martin и корпорацией Alphabet приступили к созданию такой системы на основе симбиотического интеллекта, используя традиционные командные центры и защищенный ИИ.

Все рода войск США в последние годы имплантируют ИИ в различные типы автономных транспортных средств. По сути, вооруженные силы ведут работу параллельно с бизнес-сектором по созданию транспортных средств с полным самообслуживанием. Военные подрядчики вооруженных сил, начиная с 2017 г. ежегодно представляют такого рода автономные транспортные средства с использованием ИИ. С 2019 г. министерство обороны запускает проект стоимостью в 430 млн. долларов по созданию систем, включающих центральный ИИ и роевые или стайные автономные транспортные средства, оснащенные датчиками и интерфейсами, позволяющими перейти от индивидуального к коллективному машинному обучению.

Исследовательская лаборатория ВВС завершила вторую фазу испытаний по программе «Недоверчивый Уитман». В рамках программы впервые создан и проходит испытания полноценный беспилотный истребитель пятого поколения. В 2017 г. тестовый вариант, реализованный на более дешевом истребителе F16, прошел испытание. В их ходе машина, оснащенная ИИ, автономно реагировала на события, которые не были включены в программу полетов и представляли собой непредвиденные препятствия и сложности для выполнения заданий. Из 17 испытательных заданий в 16, не считая самого первого, платформа справилась со всеми сложностями. Уже сегодня очевидно, что ИИ позволяет создавать полностью функциональные боевые истребители и самолеты-штурмовики, не уступающие, а по ряду параметров превосходящие такие же самолеты, пилотируемые людьми.

По сути это представляет собой следующий шаг после массового внедрения в военную практику дронов – робототехнических летательных комплексов с ограниченными огневыми возможностями. Кроме того, по заданию ВВС в настоящее время завершается отработка комплексных авиационных звеньев, которые предусматривают патрулирование и ведение боевых действий группой самолетов, один из которых пилотируется человеком, а несколько – системами с ИИ. В этом случае человек может в определенных случаях изменить команды ИИ. Данная система разрабатывается ВВС, поскольку командование авиацией, по крайней мере, в настоящее время и в ближайшем будущем не готово доверить решение о применении тактического ядерного оружия, которым оснащены многоцелевые истребители-бомбардировщики, роботам.

Сухопутные войска и Корпус морской пехоты США испытали прототипы автономных транспортных средств, а том числе оснащенных средствами огневого поражения. В ходе действий Сил специального назначения США в Ираке, Афганистане и Сирии в 2017 г. сухопутные войска уже активно применяли в боевых условиях роботизированные автономные эвакуационные машины.

Корпус морской пехоты в 2018 г. начнет принимать на вооружение многофункциональный универсальный роботизированный тактический транспорт. Роботизированное с элементами ИИ транспортное средство грузоподъемностью от одной до трех тонн будет следовать за ротами и взводами морских пехотинцев по местности с любым рельефом и любой сложности. Средства предназначены для транспортировки любых грузов – от запасных патронов и снарядов до пищи и одеял. Несколько аналогичных средств в настоящее время разрабатываются и для сухопутных вооруженных сил.

Скорее всего, сама логика развития ИИ ведет к тому, что возможности тройного использования будут постоянно увеличиваться. Многие задачи, которые в настоящее время автоматизируются, являются по своей сути тройственными. Например, ИИ, анализирующий программное обеспечение на уязвимости, может выполнять функции киберзащиты, кибердиверсий и киберпреступлений. Все то же самое относится к стаям дронов, находящихся под управлением ИИ. Команда инженеров из Массачусетского технологического института (MIT) с помощью ИИ смогла создать устройство, которое способно следить за человеком через стены. Причем устройство получилось совсем не громоздким.

Прибор получил название RF-Pose. Для того, чтобы обучить алгоритм новым фокусам, сотрудники MIT отслеживали движения людей при помощи радиолокатора и видеокамеры. Они фиксировали ходьбу, беседу между людьми, позу сидя, стоя и позу ожидания, а также открывание дверей. Затем при помощи не очень сложной компьютерной программы изображение было преобразовано в скелетную модель каждой зафиксированной ситуации. Эти модели вместе с радиосигналом изучил ИИ, и таким образом он обучился распознавать связь между показаниями радиолокатора и тем, какие действия производил в данный момент человек или группа людей.

В итоге специалисты MIT создали алгоритм, который практически в реальном времени может показывать перемещения людей за стеной или другим препятствием. Стоит заметить, что на данный момент система способна «выдавать» лишь двухмерное изображение, но со временем систему можно будет оптимизировать таким образом, чтобы она смогла производить мониторинг в трех измерениях.

В планы создателей также входит научить ИИ распознавать более сложные движения вроде мелкой моторики кистей и пальцев, так как сейчас возможно лишь наблюдение за перемещением конечностей и туловища. Сами авторы утверждают, что их система может найти применение в самых различных сферах. От вполне логичных наблюдений за местами массового скопления людей до медицинских учреждений и мест лишения свободы.

Рассмотрим теперь более подробно криминальные угрозы ИИ.

Развитие ИИ происходит в условиях увеличения анонимности. Многие задачи включают в себя общение с другими людьми, наблюдение за ними, принятие решении, воздействующих на их поведение. Согласно экспертным оценкам, до 90 % подобных задач могут быть автоматизированы и на горизонте пяти лет переданы ИИ. При этом соединение ИИ и интернета всего создают поистине безграничные возможности для злонамеренной деятельности, вплоть до убийств, которые правоохранительным органам весьма трудно квалифицировать именно как убийство. Проблема мира интернета в том, что в нем любое целенаправленное действие может быть замаскировано либо под отказ, либо нерегламентную работу оборудования. Разделить их никто не сможет.

Развитие ИИ открывает широчайшие перспективы для преступности. Уже сегодня злоумышленники могут без каких-либо препятствий приобрести как программные, так и аппаратные компоненты самых мощных систем ИИ. Более того, широкое использование открытого кода в ИИ позволяет преступникам без каких-либо затрат средств получать доступ к последним разработкам ведущих компаний.

В настоящее время алгоритмы ИИ создаются в течение месяцев, а не лет. Это достигается за счет того, что над ними работают не закрытые коллективы специалистов, а открытые сообщества программистов. Соответственно, преступники имеют возможность бесплатно получать новейшие разработки. Министерство внутренней безопасности США пыталось законодательно ограничить распространение определенных разработок в области ИИ, но потерпело поражение. Программисты просто отказались закрыть для себя возможность создавать системы с открытым программным кодом.

Сегодняшние системы ИИ страдают от ряда новых неурегулированных уязвимостей. К ним относятся атаки через фиктивные данные, используемые при обучении, а также злонамеренное вмешательство в работу нейронных сетей. Эти уязвимости не имели аналогов в прошлом, поэтому не очень понятно, как с ними справляться. Есть основания полагать, что в будущем атаки на ИИ будут более эффективными, более точными, более сложными для атрибуции и будут использовать в основном уязвимости в программном обеспечении ИИ.

 

Проведенные эксперименты показывают, что более 70 % атак на ИИ осуществляется с использованием ИИ. Соответственно, в будущем, по мере широкого распространения ИИ, следует ожидать нарастания количества подобных атак экспоненциальными темпами. Кроме того, при широком внедрении ИИ неизбежно усиление дифференциации в мощи и функциональных возможностях различных ИИ. Соответственно суверенностью можно сказать, что более сильные ИИ будут использоваться для атак, в том числе в целях установления программного контроля над более слабыми ИИ.

Наверняка следует ожидать атак на ИИ с использованием фишинга. В обозримой перспективе основным типом ИИ будут системы, постоянно взаимодействующие с человеком: с программистами, аналитиками или администраторами. Поскольку именно человек является наиболее уязвимым звеном в системах гибридного интеллекта, есть основания полагать, что злоумышленники будут предпочитать дешевые фишинговые атаки дорогостоящим атакам непосредственно на ИИ.

Самые современные фишинговые атаки предполагают высокий уровень социального инжиниринга[10]и хорошее знание психологических особенностей того человека, против которого осуществляется атака. В конечном счете, все делается для того, чтобы он кликнул на ссылку, которая позволит злонамеренному софту проникнуть не только в компьютер человека, но и в ИИ, с которым он взаимодействует.

Прогресс в ИИ, несомненно, приведет к увеличению масштабов и эффективности злоумышленников. Этот вывод следует из того простого факта, что ИИ способствует повышению анонимности взаимодействующих с ним акторов. Если актор знает, что его атака не может быть отслежена, или даже в худшем случае обнаружение не может надежно идентифицировать его с атакой, ему гораздо легче решиться на нападение, чем хакерам в прошлом. По мнению многих практиков в сфере кибербезопасности, распространение ИИ приведет к значительным изменениям в психологии потенциальных злоумышленников и сформирует у них установку на безнаказанность.

Большую угрозу создает тот факт, что особенностью настоящего времени является создание комбинированных систем, включающих ИИ и роботизированные устройства. Известно, что ряд стран начал эксперименты по созданию обучающихся роев боевых дронов, связанных с ИИ, выступающим как их центр управления. Причем такие работы ведутся как государственными, так и негосударственными (террористическими и иными деструктивными) структурами.

Преступный мир использует дроны уже довольно активно. В основном цель использования – это контрабанда или доставка тех или иных предметов в тюрьмы. С помощью дронов заключенным доставляют наркотики, сигареты, мобильные телефоны, бритвенные лезвия и другую контрабанду.

Иногда пытаются доставить таким способом и оружие. Предполагается, что в обозримом будущем все тюрьмы США будут оборудованы системами обнаружения приближающихся дронов. Наркокартели из Мексики отправляют свой товар в США с помощью беспилотников с заранее введенными данными GPS, так что отпадает необходимость наличия оператора.

Но в последнее время в прессу все чаще попадают истории, когда дроны применяются для сбора информации или иных противоправных действий.

По данным ФБР, слежка за агентами и сотрудниками правоохранительных органов с помощью дронов – это быстро растущий тренд в преступном мире.

Дроны применяются и для оказания давления на свидетелей или лиц, кто может дать показания. Преступники ставят под наблюдение с воздуха полицейские участки и другие объекты, чтобы фиксировать, кто входит и выходит из здания, таким образом определяя, кто сотрудничает с органами или был вызван для дачи показаний. После чего на этих людей можно начинать воздействовать.

Слежка за членами конкурирующей группировки и ее лидерами – еще одно направление.

Еще один популярный способ применения дронов – это поиск объектов для совершения краж или ограблений. Маневренность дронов позволяет им изучать план собственности, где установлена какая система безопасности, где находятся хлипкие двери и окна, где расположены камеры. Все это позволяет преступникам выбрать дом или иной объект, составить детальный план и выбрать маршрут для взлома. С помощью дронов можно также установить график пребывания хозяев или охраны на объекте, привычки владельцев, количество людей и так далее.

В Австралии с помощью дронов преступники следят в портах за контейнерами с контрабандным товаром. Если сотрудники портовых служб приближаются к контейнеру, то преступники идут на различные ухищрения, чтобы отвлечь их: сообщают о пожаре в другом конце порта, краже или вызывают ложную тревогу любым другим способом.

В Ирландии зафиксированы случаи, когда дроны вели воздушную съемку банкоматов, так как операторы, видимо, надеялись, что технологии позволят на большом расстоянии рассмотреть, какие пин-коды вводят люди.

Еще одно направление – это использование дронов для несанкционированной съемки пикантных сцен сексуального плана через окна или с воздуха над частной собственностью в целях дальнейшего использования полученных кадров для шантажа попавших под камеру людей.

Наибольшую опасность представляют дроны со взрывчаткой. Беспилотники такого рода находят с 2002 года. Использование в массовом порядке таких беспилотников Исламским государством (организация, запрещённая в РФ) на Ближнем Востоке не осталось незамеченным преступниками в других частях света. Например, в Мексике подобные летающие машинки смерти уже находят у картелей. Дроны со взрывчаткой прозвали «бомбы-картошки»[11].

Прогресс ИИ породит новые угрозы. Уже есть признаки того, что начали совершаться киберпреступления и проведены хакерские атаки, управлять которыми будет не человек, а ИИ. При этом даже в случае обнаружения и отражения атаки крайне сложно найти лиц, инспирировавших эти атаки.

Кроме того, системы ИИ активно используются для распространения дезинформации и фейков. В настоящее время дезинформация, как правило, разоблачается на основе анализа фотографического материала. Поскольку ИИ позволяет не только синтезировать любое фотоизображение, но и создать практически не отличимую от реальности фальсифицированную аудио- и видеозаписи, можно ожидать, что в самое ближайшее время появятся технически сложные фейки, подкрепленные синтетическими фотографиями, аудио- и видеозаписями. Для того, чтобы доказать их поддельность, потребуются огромные финансовые средства, мощные технические возможности и усилия высококвалифицированного персонала.

В ближайшем будущем существующие угрозы будут дополнены новыми, связанными с развитием ИИ. Типовые угрозы станут более технически сложными и изощренными. Это проявится по нескольким направлениям.

Во-первых, в ближайшие годы скачкообразно увеличится сложность кибератак и кибертерроризма. Типичными станут не привычные атаки, связанные с фишингом, заражением компьютеров и т. п., а гораздо более высокотехнологичные атаки, нацеленные на овладение информационными массивами атакуемых компьютеров и перехват управления ими. С другой стороны, более широкое распространение получат целевые атаки. В настоящее время типичная кибератака со стороны высокотехнологичных преступников ориентирована на компьютеры, обслуживаемые тем или иным провайдером, расположенные в той или иной местности и т. п. При подключении к киберпреступным атакам ИИ можно будет проводить предварительную селекцию не самих технических средств, а их обладателей по полу, возрасту, профессиональным занятиям и т. п. Соответственно, в этом случае атаки будут ориентированы не на регионы или провайдеров, а на те или иные группы населения, либо компании, обладающие определенными характеристиками. Это будет киберпреступностью принципиально нового типа.

В 2017 г. антитеррористические подразделения Израиля успешно провели испытания дрона, который атаковал в многотысячной толпе строго определенных лиц. В качестве эксперимента одежда этих лиц была обрызгана определенной краской. Однако никто не мешает вместо краски использовать отравляющее вещество, либо просто пулю. Мы имеем дело с объединением дрона с ИИ, способным в потоковом видео опознать лицо среди тысяч субъектов.

В подавляющем большинстве докладов по теме ИИ львиная доля внимания, связанного с угрозами, приходится на риски попадания ИИ в детские руки, либо в руки террористов и т. п. Что касается детей и подростков, то разрушительный эффект их деятельности подчас оказывается сопоставимым с ударами со стороны экстремистских радикалов, вооруженных гаджетами. В 2017 году в Польше на протяжении двух дней было парализовано все городское движение просто потому, что одному 13-летнему «таланту» захотелось проверить свои расчеты относительно того, можно или нет проложить трамвайную линию не внутри города, а между городами. Эта шалость обошлась Польше почти в 30 млн. злотых и почти 10 человек, пострадавших в авариях, были доставлены в больницы.

На сегодняшний день накоплено достаточно материала, чтобы изложить классификацию вредоносного использования элементов ИИ по недосмотру, ошибке и т. п., приводящих к негативным последствиям.

В максимально грубом приближении можно выделить три типа угроз, связанных с использованием ИИ добропорядочными акторами.

Первая группа объединяет ИИ с подавляющим большинством других сложных машин, созданных человеком. Речь идет о банальных отказах. К сожалению, совершенно не осознанным остался тот факт, что интернет всего, по сути, означает ИИ всего. Любые компании – производители продукции, в которую встроены миникомпьютерные элементы – от чайника до кроссовок – наиболее эффективно выполняют свои обязанности. Если могут участвовать в коллективном машинном обучении. Однако это возможно лишь в том случае, если все эти устройства задействованы на центральный процессор, который анализирует недостатки, конфликты, инциденты, делает из этого выводы, и вносит изменения в программы вещей, связанных с интернетом. Теперь предположим, что в силу программного сбоя обучение произошло неправильно, и вместо того, чтобы снизить вероятность неблагоприятных последствий, все устройства сети научились, как попадать в ситуацию, в которую попал виновник происшествия. Такие случаи в реальности уже случались. Компьютер не обладает самосознанием и поэтому он обучает всех тому, что предусмотрено в его программе.

7Гордон Эрл Мур (США) – почетный председатель совета директоров и основатель корпорации Intel, основоположник «закона Мура», который сводится к тому, что количество транзисторов в кристалле микропроцессора удваивается каждый год. В 1975 году он изменил временную составляющую закона и заявил об удвоении количества транзисторов каждые два года.
8Термин «белый шум» обычно применяется к сигналу, имеющему автокорреляционную функцию. Белый шум некоррелирован по времени (или по другому аргументу), не определяет его значений во временной (или любой другой рассматриваемой аргументной) области.
9См.: Artificial Intelligence and National Security. Congressional Research Service. 26.04.2018.
10Социальный инжиниринг – система управления поведением человека с использованием методов социологии и психологии.
11См.: Плеханов И. Разведывательные дроны преступников. Альманах «Искусство востока», 17.05.2018.
Бесплатный фрагмент закончился. Хотите читать дальше?

Издательство:
Книжный мир
Книги этой серии: