Новости

Искусственный интеллект предложили лицензировать как лекарства или ядерную энергетику: «Осталось два года»

Проблема выхода искусственного интеллекта из-под человеческого контроля все больше и больше беспокоит экспертов и политиков. Британские лейбористы предлагают лицензировать искусственный интеллект (ИИ) так же, как лекарства или ядерную энергетику. При этом партия призывает запретить разработчикам без лицензии работать с продвинутыми инструментами искусственного интеллекта.

Искусственный интеллект предложили лицензировать как лекарства или ядерную энергетику: «Осталось два года»

Лейбористы заявили, что Великобритания должна запретить разработчикам технологий работать над передовыми инструментами искусственного интеллекта, если у них нет лицензии на это.

Министрам следует ввести гораздо более строгие правила в отношении компаний, обучающих свои продукты искусственного интеллекта на обширных наборах данных, подобных тем, которые компания OpenAI использует для создания чат-бота ChatGPT, заявила The Guardian Люси Пауэлл, представитель лейбористской партии по цифровым технологиям.

Ее комментарии, пишет The Guardian, прозвучали на фоне переосмысления на высшем правительственном уровне того, как регулировать быстро меняющийся мир искусственного интеллекта, а премьер-министр Великобритании Риши Сунак признал, что ИИ может представлять “экзистенциальную” угрозу человечеству.

Один из правительственных советников по искусственному интеллекту также заявил в понедельник, что у человечества может остаться всего два года, прежде чем ИИ сможет перехитрить людей, что стало последним в серии суровых предупреждений об угрозе, исходящей от быстро развивающейся технологии.

Люси Пауэлл говорит: “На самом деле меня беспокоит отсутствие какого-либо регулирования больших языковых моделей, которые затем могут быть применены к целому ряду инструментов искусственного интеллекта, независимо от того, как они создаются, как ими управляют или как их контролируют”.

Она предложила лицензировать искусственный интеллект по аналогии с лекарствами или ядерной энергетикой, которые регулируются государственными органами, находящимися на расстоянии вытянутой руки. “Это та модель, о которой нам следует подумать, когда у вас должна быть лицензия, чтобы создавать эти модели, — сказала она. — Мне кажется, это хорошие примеры того, как это можно сделать”.

Два месяца назад правительство Великобритании опубликовало "белую книгу" по искусственному интеллекту, в которой подробно описывались возможности, которые может предоставить суперсовременная технология, но относительно мало говорилось о том, как ее регулировать.

С тех пор целый ряд событий, включая достижения в ChatGPT и серию суровых предупреждений от инсайдеров отрасли, вызвали переосмысление на самом верху британского правительства, и теперь министры поспешно обновляют свой подход. На этой неделе Сунак отправится в Вашингтон, где он будет утверждать, что Великобритания должна быть в авангарде международных усилий по написанию нового свода руководящих принципов для управления отраслью.

Лейбористы также спешат доработать свою собственную политику в области передовых технологий. Люси Пауэлл, которая выступает с речью перед инсайдерами отрасли на конференции techUK в Лондоне 6 июня, заявила, что, по ее мнению, разрушение экономики Великобритании может быть таким же радикальным, как деиндустриализация 1970-х и 1980-х годов.

Ожидается, что лидер лейбористов Кейр Стармер выступит с речью на эту тему во время Лондонской недели технологий. На следующей неделе Стармер проведет заседание теневого кабинета в одном из офисов Google в Великобритании, что даст теневым министрам возможность поговорить с некоторыми топ-менеджерами компании в области искусственного интеллекта.

Люси Пауэлл сказала, что вместо того, чтобы запрещать определенные технологии, как это сделал ЕС с такими инструментами, как распознавание лиц, она считает, что Великобритании следует сосредоточиться на регулировании способов их разработки.

Такие продукты, как ChatGPT, создаются с помощью обучающих алгоритмов на основе обширных баз цифровой информации. Но эксперты предупреждают, что если эти наборы данных содержат предвзятые или дискриминационные данные, то сами продукты могут свидетельствовать об этих предубеждениях. Это может иметь побочный эффект, например, на практику трудоустройства, если инструменты искусственного интеллекта будут использоваться для принятия решений о приеме на работу и увольнении.

Пауэлл отмечает: “Предвзятость, дискриминация, слежка – эта технология может иметь множество непреднамеренных последствий”.

Она утверждала, что, заставляя разработчиков быть более открытыми в отношении данных, которые они используют, правительства могли бы помочь снизить эти риски. “Эта технология развивается так быстро, что требует активного вмешательства правительства, а не принципа невмешательства”.

Мэтт Клиффорд, председатель Агентства перспективных исследований и изобретений, созданного правительством в прошлом году, заявил в понедельник, что искусственный интеллект развивается гораздо быстрее, чем думает большинство людей. Он сказал, что это уже может быть использовано для запуска биологического оружия или крупномасштабных кибератак, добавив, что люди могут быстро превзойти созданные ими технологии.

Выступая перед Томом Ньютоном Даном из TalkTV, Клиффорд сказал: “Безусловно, верно, что если мы попытаемся создать искусственный интеллект, который будет умнее людей, и мы не будем знать, как его контролировать, то это создаст потенциал для всевозможных рисков сейчас и в будущем. Поэтому я думаю, что есть много различных сценариев, о которых стоит беспокоиться, но я, безусловно, считаю правильным, что это должно занимать очень важное место в повестке дня политиков ”.

На вопрос, когда это может произойти, он добавил: “Никто не знает. Среди экспертов по искусственному интеллекту существует очень широкий спектр прогнозов. Я думаю, что два года будут самыми оптимистичными в этом плане”.

Добавить комментарий