Новости

Нейросети уже способны красть персональные данные, заявил эксперт

Нейросети уже способны красть персональные данные, заявил эксперт

Искусственный интеллект. Архивное фото

Злоумышленники могут использовать нейросети, которыми пользуются компании, для кражи персональных и корпоративных данных, а также взлома систем безопасности, поэтому им необходимо проводить аудит информационной безопасности, рассказал РИА Новости директор по искусственному интеллекту и цифровым продуктам «Билайна» Константин Романов.

«Нейросеть потенциально может использоваться для кражи персональных и корпоративных данных. Она может обрабатывать огромные объемы данных и извлекать из них информацию, в том числе и конфиденциальную. Существует возможность использования нейросетей для взлома систем безопасности и доступа к защищенным данным», — заявил он.

Нейросети уже способны красть персональные данные, заявил эксперт

По словам эксперта, утечка данных может иметь серьезные последствия — например, кражу личных средств и идентификационных данных, шпионаж и другие незаконные действия. Причем данные могут попадать не только к мошенникам, но и к иностранным спецслужбам. Кроме того, утечка может привести к утрате доверия к компании со стороны клиентов. «»Компаниям, внедряющим нейросети в свои процессы, необходимо проводить аудит информационной безопасности, чтобы убедиться, что слив данных невозможен или митигирован», — подчеркнул Романов.

Он также напомнил о случаях, когда сервисы, использующие нейросети, собирали данные пользователей, чем вызывали их беспокойство. Один из них — скандал вокруг приложения для обработки фотографий FaceApp в 2019 году. Пользователи загружали в программу фотографии, они обрабатывались и сохранялись на серверах компании вместе с различными данными, включая местоположение устройства, IP-адрес, идентификатор устройства и другую персональную информацию.

После этого, по словам эксперта, пользователи были обеспокоены тем, что хранимые данные могут без их ведома быть использованы не только в рекламных целях, но и для слежки.

Другой пример — Google Photos, сервис для хранения и обработки фотографий, который использует нейросети для автоматической обработки данных и создания альбомов. «В 2019 году Google признался, что несколько тысяч пользователей могли быть затронуты ошибкой в программном обеспечении, которая привела к тому, что некоторые фотографии были неправильно отправлены на серверы компании. В результате этого возникла обеспокоенность, что эти фотографии могут быть использованы для целей маркетинга или даже для целей шпионажа», — резюмировал Романов.

Нейросети уже способны красть персональные данные, заявил эксперт

Добавить комментарий