«Крестные отцы» искусственного интеллекта призвали ввести ответственность за его вред
Компании, занимающиеся искусственным интеллектом, должны нести ответственность за причиняемый ими вред, говорят “крестные отцы” технологий ИИ. Авторы и ученые также предупреждают, что разработка передовых систем «совершенно безрассудна» без проверок безопасности.
Мощные системы искусственного интеллекта угрожают социальной стабильности, – и компании, занимающиеся искусственным интеллектом, должны нести ответственность за вред, причиненный их продуктами, предупредила группа старших экспертов, включая двух “крестных отцов” технологии.
Как пишет The Guardian, это выступление во вторник было сделано в связи с тем, что международные политики, технологические компании, ученые и деятели гражданского общества готовятся собраться в Блетчли-парке на следующей неделе на саммит по безопасности искусственного интеллекта.
Соавтор политических предложений от 23 экспертов утверждает, что было “совершенно безрассудно” разрабатывать все более мощные системы искусственного интеллекта, прежде чем понять, как сделать их безопасными.
“Пришло время серьезно отнестись к передовым системам искусственного интеллекта”, — заявил Стюарт Рассел, профессор компьютерных наук Калифорнийского университета в Беркли. — Это не игрушки. Расширять их возможности до того, как мы поймем, как сделать их безопасными, совершенно безрассудно”.
Ученый добавил: “Существует больше правил для магазинов сэндвичей, чем для компаний, работающих с искусственным интеллектом”.
В документе содержался настоятельный призыв к правительствам принять ряд мер политики, включая следующее: правительства должны выделять треть своего финансирования исследований и разработок в области искусственного интеллекта, а компании — треть своих ресурсов на исследования и разработки в области искусственного интеллекта на безопасное и этичное использование систем. Независимым аудиторам должен быть обеспечен доступ к лабораториям искусственного интеллекта. Должна быть создана система лицензирования для создания передовых моделей. Компании, занимающиеся искусственным интеллектом, должны принять особые меры безопасности, если в их моделях обнаружены опасные возможности. На технологические компании ответственности должна быть возложена ответственность за предсказуемый и предотвратимый вред от их систем искусственного интеллекта.
Среди других соавторов документа – Джеффри Хинтон и Йошуа Бенгио, двое из трех “крестных отцов ИИ”, которые получили премию ACM Turing award – эквивалент Нобелевской премии в области компьютерных наук — в 2018 году за свою работу по ИИ.
Оба входят в число 100 гостей, приглашенных на саммит. Хинтон ушел из Google в этом году, чтобы озвучить предупреждение о том, что он назвал “экзистенциальным риском”, создаваемым цифровым интеллектом, в то время как Бенгио, профессор компьютерных наук Монреальского университета, присоединился к нему и тысячам других экспертов, подписавших в марте письмо с призывом ввести мораторий на гигантские эксперименты с искусственным интеллектом.
Среди других соавторов предложений — автор бестселлера Sapiens Ной Юваль Харари, Даниэль Канеман, лауреат Нобелевской премии по экономике, и Шейла Макилрайт, профессор искусственного интеллекта в Университете Торонто, а также отмеченный наградами китайский ученый-компьютерщик Энди Яо.
Авторы предупреждают, что небрежно разработанные системы искусственного интеллекта угрожают “усилить социальную несправедливость, подорвать наши профессии, подорвать социальную стабильность, сделать возможной крупномасштабную преступную или террористическую деятельность и ослабить наше общее понимание реальности, которое является основополагающим для общества”.
Ученые предупредили, что существующие системы искусственного интеллекта уже демонстрируют признаки тревожных возможностей, которые указывают путь к появлению автономных систем, способных планировать, преследовать цели и “действовать в мире”. По словам экспертов, модель искусственного интеллекта GPT-4, которая питает инструмент ChatGPT, разработанный американской фирмой OpenAI, позволяет проектировать и проводить химические эксперименты, просматривать веб-страницы и использовать программные средства, включая другие модели искусственного интеллекта.
“Если мы создадим высокоразвитый автономный искусственный интеллект, мы рискуем создать системы, которые автономно преследуют нежелательные цели”, добавив, что “возможно, мы не сможем держать их под контролем”.
Другие рекомендации по политике, содержащиеся в документе, включают: обязательное сообщение об инцидентах, когда модели демонстрируют тревожное поведение; принятие мер по предотвращению самовоспроизводства опасных моделей; и предоставление регулирующим органам полномочий приостанавливать разработку моделей искусственного интеллекта, демонстрирующих опасное поведение.
Саммит по безопасности на следующей неделе будет посвящен экзистенциальным угрозам, создаваемым искусственным интеллектом, таким как содействие разработке нового биологического оружия и уход от контроля человека, отмечает The Guardian. Правительство Великобритании работает с другими участниками над заявлением, которое, как ожидается, подчеркнет масштаб угрозы, исходящей от “frontier AI” – термина, обозначающего продвинутые системы. Однако, хотя на саммите будут изложены риски, связанные с искусственным интеллектом, и меры по борьбе с этой угрозой, не ожидается официального создания глобального регулирующего органа.
Некоторые эксперты по искусственному интеллекту утверждают, что опасения по поводу экзистенциальной угрозы для людей преувеличены. Другой лауреат премии Тьюринга 2018 года, наряду с Бенгио и Хинтоном, Ян Лекун, сказал Financial Times, что идея о том, что ИИ может уничтожить людей, “абсурдна”.
Тем не менее, авторы программного документа утверждают, что если бы продвинутые автономные системы искусственного интеллекта появились сейчас, мир не знал бы, как сделать их безопасными или провести на них тесты на безопасность. “Даже если бы мы это сделали, в большинстве стран не хватает институтов для предотвращения злоупотреблений и соблюдения безопасных практик”, — добавили они.