Новости

«В русской рулетке риск ниже». Запад создает угрозу «хуже ядерной бомбы»

  • Россияне и восстание машин
  • «Потеря контроля над цивилизацией»
  • Умный, но не самостоятельный
  • Преступное пренебрежение
  • «Рванет? Не должно»
  • «Можно договориться»
  • «С пониманием к людям»

"В русской рулетке риск ниже". Запад создает угрозу "хуже ядерной бомбы"

Искусственный интеллект может выйти из-под контроля. Этого боятся и неспециалисты, и руководители ведущих технологических компаний. Какие угрозы создает развитие нейросетей и как им противостоять — в материале РИА Новости.

Россияне и восстание машин

Почти треть россиян (30 процентов) считает, что в ближайшие полвека произойдет восстание машин. Пятьдесят процентов уверены, что такой угрозы не существует, показал опрос ВЦИОМ от 5 апреля.

При этом люди, которые, по собственным оценкам, разбираются в нейросетях, допускают возникновение проблем на рынке труда. С тем, что ИИ способен заменить представителей творческих профессий, согласны 37 процентов респондентов. А среди тех, кто ничего о нейросетях не знает, в это верят десять процентов.

Недавний опрос, проведенный порталом Superjob, показал, что развития искусственного интеллекта боятся всего 17 процентов экономически активных взрослых россиян, а 43 процента такая перспектива не пугает. Затруднились ответить 40 процентов респондентов.

«Потеря контроля над цивилизацией»

Страхи обоснованны — по крайней мере, по мнению экономистов и лидеров ведущих мировых технологических компаний. В конце марта американский банк Goldman Sachs выпустил отчет, согласно которому искусственный интеллект, а также основанные на нем сервисы и приложения приведут к сокращению 300 миллионов рабочих мест по всему миру. В зоне риска — профессии, связанные с бухгалтерией, административной и офисной работой. Те, кто занят физическим трудом (например, уборщики и сантехники), пострадают не сильно.

Но экспертов по компьютерным технологиям куда больше пугает вероятность того, что ИИ выйдет из-под контроля. Гендиректор SpaceX, Tesla и Twitter Илон Маск, сооснователь Apple Стив Возняк, визионер Юваль Ной Харари и еще тысяча влиятельных представителей IT-индустрии подписали письмо с просьбой приостановить по меньшей мере на полгода разработку систем мощнее GPT-4, чтобы подготовить протоколы безопасности.

"В русской рулетке риск ниже". Запад создает угрозу "хуже ядерной бомбы"

«Должны ли мы развивать нечеловеческий разум, который в конечном итоге может превзойти, перехитрить нас, сделать устаревшими и заменить? Должны ли мы рисковать потерей контроля над нашей цивилизацией? Такие решения нельзя делегировать неизбранным техническим лидерам. Мощные системы ИИ следует разрабатывать только тогда, когда мы уверены, что эффект будет положительным, а риски — управляемыми», — говорится в письме.

Умный, но не самостоятельный

GPT — это чат-бот, разработанный американской компанией OpenAI. Он способен выполнять задания, ранее недоступные для подобных систем: от создания художественных произведений до программирования.

«Сегодня на базе GPT производят и выводят на рынок уникальные сервисы, начиная с персонального ИИ-советника в области инвестиций и заканчивая решениями, помогающими врачам установить правильный диагноз и подобрать оптимальное лечение», — отмечает профессор Высшей школы бизнеса НИУ ВШЭ, руководитель департамента бизнес-информатики Евгений Зараменских.

Известны случаи, когда возможности ChatGPT использовали в сомнительных или откровенно незаконных целях. Чат-бот сдавал экзамены в вузах (как в медицинских, так и по программе MBA), генерировал ключи для активации лицензионных программ, помогал выиграть в лотерее. А в Бельгии мужчина покончил с собой — якобы после месяца общения с чат-ботом, созданным на основе GPT.

В марте вышла четвертая — последняя на сегодня — версия программы. Исследования показали, что у нее уже сейчас проявляются «искры разума». Несмотря на это, до самостоятельного мышления чат-боту пока далеко.

"В русской рулетке риск ниже". Запад создает угрозу "хуже ядерной бомбы"

"В русской рулетке риск ниже". Запад создает угрозу "хуже ядерной бомбы"

Руководитель IT-направления в Московском городском открытом колледже Даниил Макеев объясняет: есть три типа искусственного интеллекта. Все существующие относятся к ANI — узкому ИИ, направленному на выполнение определенных заданий. Следующая стадия — AGI, общий искусственный интеллект, или, как его еще называют, сильный ИИ. Он сможет решать любые задачи, доступные человеческому интеллекту. Логическим продолжением этой системы должен стать ASI — суперинтеллект, который, по словам эксперта, пока относится к области научной фантастики.

«Может показаться, что нейросеть ChatGPT — это и есть тот самый ИИ, способный развить эмпатию, научиться думать, как человек, и действовать самостоятельно. Но это не так, — подчеркивает Макеев. — Несмотря на то что нейросеть успешно проходит тесты на профессии и понимает юмор, это еще не AGI. ChatGPT не в состоянии улучшать себя и развиваться без помощи людей. И самое главное: нейросеть не умеет мыслить независимо».

Но инженеры работают над тем, чтобы это исправить. Так, один из разработчиков OpenAI Сики Чен заявил, что новая версия бота — GPT-5 — достигнет уровня AGI, то есть сравняется по интеллектуальным возможностям с человеком. Релиз программы ожидается в декабре 2023-го.

Преступное пренебрежение

«Я боюсь AGI, — признался Аррам Сабети, инвестор из Силиконовой долины. — Сбивает с толку, что люди настолько пренебрежительно относятся к рискам».

В соцсетях он рассказал, что дружит с десятками специалистов — разработчиков систем искусственного интеллекта и «почти все они обеспокоены».

«Представьте себе строительство нового типа ядерного реактора, который будет производить бесплатную энергию, — поясняет Сабети. — Люди взволнованы, но половина инженеров-ядерщиков считает, что существует по крайней мере десятипроцентная вероятность «чрезвычайно серьезной» катастрофы, а инженеры по технике безопасности оценивают ее более чем в 30 процентов. Именно такова ситуация с AGI».

"В русской рулетке риск ниже". Запад создает угрозу "хуже ядерной бомбы"

"В русской рулетке риск ниже". Запад создает угрозу "хуже ядерной бомбы"

Один из опросов, на которые ссылается Сабети, показал: почти половина из 738 специалистов по машинному обучению дали не менее десяти процентов вероятности «крайне плохого исхода» в результате развития ИИ.

Другое исследование, в котором опросили 44 экспертов в области безопасности искусственного интеллекта, дало 30-процентную вероятность киберапокалипсиса, причем отдельные специалисты оценили ее выше 50 процентов.

Сабети отметил, что шанс проиграть в русскую рулетку — всего 17 процентов. И вспомнил давнее высказывание Илона Маска: «ИИ намного опаснее ядерного оружия».

«Рванет? Не должно»

Российские эксперты в области IT-технологий неоднозначно оценивают возможность перехода существующих систем ИИ на новый, «самостоятельный» уровень. По мнению некоторых, предотвратить это уже нельзя.

«В интернете есть одно замечательное правило: если что-то туда попадает, то остается навсегда. В истории множество примеров, когда прогресс пытались остановить, но ни разу это не приводило к успеху», — говорит эксперт по искусственному интеллекту и машинному обучению, преподаватель Московской школы программистов (МШП) Василий Лысов.

Другие специалисты считают, что технологической основы для такого перехода пока не существует. Чтобы перерасти в сильный ИИ, система должна научиться изменять свой первичный код.

"В русской рулетке риск ниже". Запад создает угрозу "хуже ядерной бомбы"

«Именно так делают люди, постоянно переписывая нейронные связи в мозге. ИИ придется запросить модификацию своего кода у разработчика либо найти способ обойти этот барьер и выполнить модификацию самостоятельно. При этом он должен обладать достаточным уровнем мышления, чтобы не допустить ошибку в переписывании кода и, например, не заблокировать себя. Пока мы далеки от создания такого интеллекта», — уверен Макеев.

Наконец, некоторые эксперты отмечают, что даже с самим понятием «общего ИИ» не все однозначно. «Сперва нужно прийти к общему пониманию, что же такое AGI и точно ли он достижим. Однозначных критериев пока нет. Мы до сих пор не до конца понимаем, как работает память, мышление и многие другие биологические процессы», — объясняет руководитель группы группы машинного обучения Positive Technologies Александра Мурзина.

По ее словам, мы «и близки к цели, и одновременно далеки от нее». «Развитие технологий нелинейно, и трудно предсказать, когда будет следующий прорыв, чтобы приблизиться к AGI», — считает она.

«Можно договориться»

Если предотвратить появление AGI не удастся, то ограничить его технологические возможности — более чем реально, полагают специалисты.

«Для обучения нейросетей нужны совершенно конкретные вычислительные мощности, наборы данных. Без доступа к технологической инфраструктуре, «на коленке», никакие системы, угрожающие человечеству, создать нельзя. Бигтехов в мире не так и много, вполне можно договориться об ограничениях, тем более на государственном уровне», — говорит декан факультета «Цифровая экономика и массовые коммуникации» МТУСИ Сергей Гатауллин.

По мнению экспертов, людям не о чем беспокоиться, пока они контролируют материальный мир.

«Любое ИИ-решение — это программный код, который запускает аппаратное обеспечение: физически существующие сервера, мощные компьютеры. У аппаратного обеспечения есть кнопка выключения. У программы нет возможности нажать ее самостоятельно. А сценарий, при котором роботы на базе ИИ будут мешать человеку нажать на эту кнопку, сейчас нельзя реализовать из-за слабого развития робототехники», — указывает профессор Зараменских.

"В русской рулетке риск ниже". Запад создает угрозу "хуже ядерной бомбы"

Правда, в теории ИИ сможет обойти это ограничение, превратившись в децентрализованную систему на пользовательских устройствах — то есть, на наших ноутбуках или смартфонах.

«Но крупные компании-производители смартфонов и ноутбуков имеют возможность удаленно заблокировать устройства — в этом случае даже децентрализованный ИИ быстро потеряет существенную часть вычислительных мощностей», — убежден эксперт.

Для контроля над AGI рассматривают несколько подходов. Помимо ограничения доступа к физическим ресурсам человечество может противопоставить независимому ИИ «дружественную» нам систему, в основе которой будут лежать этические и социальные нормы и ограничения, говорит старший инженер по работе с данными «Лаборатории Касперского» Альфия Латыпова.

«Многие исследователи и организации разрабатывают стандарты и нормативы, которые могут помочь регулировать создание и использование AGI, — отмечает она. — Это может включать международные соглашения, регулирующие производство и использование AGI, а также документы, определяющие поведение ИИ в таких областях, как медицина, автономная техника и промышленность».

«С пониманием к людям»

Российские эксперты считают маловероятной возможность экзистенциальной угрозы человечеству со стороны ИИ. Для уничтожения нашего вида искусственному интеллекту понадобилось бы создать «индустриальную пирамиду», получив доступ к металлам, электричеству, нефти и другим ресурсам. А для этого необходимо полностью исключить людей из производственных цепочек.

«Но мировая промышленность все еще в значительной степени зависит от ручного труда. Перед тем как ИИ сможет истребить человечество, нашему виду нужно произвести полную автоматизацию производства и функционирования всего на свете. В обозримой перспективе это не выглядит реалистичным», — рассуждает директор по развитию компании по разработке ПО «Формат Кода» Александр Жуков.

И тем не менее независимый синтетический разум способен нанести людям существенный вред.

"В русской рулетке риск ниже". Запад создает угрозу "хуже ядерной бомбы"

«Представьте, что он контролирует информационную повестку разных регионов мира и провоцирует конфликты, манипулируя фактами. Если эти факты частично основаны на реальных данных, некоторые люди им поверят — и последствия будут непредсказуемы», — предупреждает Александр Кобозев, директор направления Data fusion Лиги цифровой экономики.

Мурзина полагает, что AGI, возможно, не главная угроза человечеству. Люди по-прежнему сталкиваются с новыми вирусами, военными конфликтами и техногенными катастрофами. «Точно ли AGI успеет появиться и навредить раньше, чем другие риски?» — задается вопросом эксперт.

Другие специалисты настроены оптимистично. «На мой взгляд, общий искусственный интеллект, или суперинтеллект, будет достаточно разумен, чтобы осознать, почему его собрали и обучили», — говорит Макеев.

По его мнению, ИИ учтет слабости своих создателей и поэтому «с пониманием отнесется к людям».

Добавить комментарий