Искусственный интеллект назвали угрозой национальной безопасности: «Пикирующая бомба на толпу»
Искусственный интеллект представляет угрозу национальной безопасности, предупреждает надзорный орган, занимающийся в Великобритании противодействием терроризму. Службы безопасности опасаются, что новая технология может быть использована для подготовки экстремистами уязвимых людей в своих целях.
Создателям искусственного интеллекта необходимо отказаться от своего “технологического утопического” мышления на фоне опасений, что новая технология может быть использована для использованием террористами "уязвимых людей", призывают специалисты.
Королевский адвокат Джонатан Холл, чья роль заключается в проверке адекватности законодательства о борьбе с терроризмом, утверждает, что угроза национальной безопасности со стороны искусственного интеллекта становится все более очевидной, и технологию необходимо разрабатывать с учетом намерений террористов.
Как пишет The Observer, Холл сказал, что слишком много разработок в области искусственного интеллекта сосредоточено на потенциальных преимуществах технологии, пренебрегая при этом рассмотрением того, как террористы могут использовать ИИ для совершения атак.
“Им нужно, чтобы в комнате с ними был какой-нибудь ужасный маленький 15-летний неонацист, который прикидывал бы, что они могли бы сделать. Необходимо жестко защитить себя от того, что, как вы знаете, люди будут с этим делать”, – сказал Холл.
Независимый эксперт британского правительства по законодательству о борьбе с терроризмом признал, что он все больше обеспокоен возможностями чат-ботов с искусственным интеллектом убеждать уязвимых или нейродивергентных людей совершать террористические атаки.
“Что меня беспокоит, так это внушаемость людей, когда они погружены в этот мир, а компьютер отключен. Использование языка в контексте национальной безопасности имеет значение, потому что в конечном счете язык убеждает людей что-то делать”, – говорит эксперт.
Считается, что службы безопасности особенно обеспокоены способностью чат-ботов с искусственным интеллектом воздействовать на детей, которые уже составляют растущую часть списка подозреваемых МИ-5 в терроризме.
Поскольку призывы к регулированию технологии растут после предупреждений пионеров искусственного интеллекта на прошлой неделе о том, что это может угрожать выживанию человеческой расы, ожидается, что премьер-министр Риши Сунак поднимет этот вопрос, когда он отправится в США в среду, чтобы встретиться с президентом Байденом и высокопоставленными деятелями Конгресса:
"Вернувшись в Великобританию, мы активизируем усилия по противодействию вызовам национальной безопасности, создаваемым искусственным интеллектом, в партнерстве между MI5 и Институтом Алана Тьюринга, национальным органом по науке о данных и искусственному интеллекту".
Александр Бланшар, научный сотрудник по цифровой этике в программе защиты и безопасности института, сказал, что его работа со службами безопасности свидетельствует о том, что Великобритания чрезвычайно серьезно относится к вызовам безопасности, создаваемым искусственным интеллектом.
“Среди лиц, определяющих политику в области обороны и безопасности, существует большая готовность понять, что происходит, как субъекты могут использовать искусственный интеллект, в чем заключаются угрозы, – говорит Бланшар. – Действительно, есть ощущение необходимости быть в курсе того, что происходит. Ведется работа по пониманию того, в чем заключаются риски, каковы долгосрочные риски и каковы риски для технологий следующего поколения”.
На прошлой неделе Риши Сунак заявил, что Британия хочет стать глобальным центром искусственного интеллекта и его регулирования, настаивая на том, что это может принести “огромные выгоды экономике и обществу”. И Бланшар, и Холл говорят, что центральная проблема заключается в том, как люди сохраняют “когнитивную автономию” – контроль – над ИИ и как этот контроль встроен в технологию.
По словам Холла, потенциал быстрого воздействия ИИ на уязвимых людей, находящихся в одиночестве в своих спальнях, становится все более очевидным.
Джонатан Холл отмечает, что технологическим компаниям необходимо извлечь уроки из ошибок прошлой самоуспокоенности – в прошлом социальные сети были ключевой платформой для обмена террористическим контентом.
Холл добавил, что также необходима большая прозрачность со стороны фирм, использующих технологию искусственного интеллекта, в первую очередь в отношении того, сколько сотрудников и модераторов они наняли.
“Нам нужна абсолютная ясность в отношении того, сколько людей работает над этими вещами и их модерации, – сказал он. – Сколько человек на самом деле задействовано, когда они говорят, что у них установлены ограждения? Кто проверяет ограждения? Если у вас компания из двух человек, сколько времени они уделяют общественной безопасности? Вероятно, мало или вообще ничего”.
По словам Холла, также могут потребоваться новые законы для борьбы с террористической угрозой, исходящей от искусственного интеллекта, чтобы обуздать растущую опасность смертоносного автономного оружия – устройств, которые используют искусственный интеллект для выбора своих целей.
Холл сказал: "Вы говорите о типе террориста, который хочет отрицания, который хочет иметь возможность "улететь и забыть". Они могут буквально подбросить беспилотник в воздух и улететь. Никто не знает, какое решение примет его искусственный интеллект. Например, это может быть просто пикирующая бомба на толпу. Охватывают ли наши уголовные законы такого рода поведение? Как правило, терроризм связан с намерением; намерением человека, а не машины".
Смертоносное автономное оружие – или “бездельничающие боеприпасы” – уже было замечено на полях сражений в Украине, что поднимает вопросы морали по поводу последствий применения автономной машины для убийства в воздухе, отмечает The Observer.
“ИИ может учиться и адаптироваться, взаимодействуя с окружающей средой и совершенствуя свое поведение”, – предупреждает Александр Бланшар.