Объективные новости через призму совести

«Темная сторона» нейросети: какие угрозы может нести в себе современная технология?

6 апреля 2023
«Темная сторона» нейросети: какие угрозы может нести в себе современная технология?

Автор: Виктория Лисунова

О возможностях искусственного интеллекта не стихают разговоры — тема развития нейронных сетей сейчас волнует многих людей по всему миру. Безусловно, нельзя отрицать, что с созданием систем ИИ произошел огромный прорыв в сфере технологий, при этом если одни видят в этом возможность развития, совершения каких-либо открытий и создания сервисов, которые бы как-то помогали ученым в их деятельности, то другие — всего лишь забавную игрушку. В связи с этим очевидно, что современная технология вполне реально может нанести значительный ущерб, если попадет не в те руки.

На сегодняшний день нейросети являются одним из самых актуальных направлений в технологиях ИИ. Их уже активно используют в самых разных сферах, например, таких как дизайн и архитектура — создание уникальных картинок и реалистичных проектов, сельское хозяйство — диагностика заболеваний растений по фото, здравоохранение — анализ рентгеновских снимков, банковская сфера — прогнозирование динамики банковских рисков под воздействием различных факторов. Однако большее внимание обычные граждане проявляют к приложениям для генерации изображений и имитации голоса — несет ли это в себе опасность?

Основная угроза злоупотребления приложениями, основывающихся на нейросети — это возможность создания и распространения фейковой информации. Искусственный интеллект уже умеет не только генерировать фото и видео несуществующих людей, но он способен также изображать и известных всем нам личностей совершенно в разных образах и обстоятельствах. Одними из самых обсуждаемых творений ИИ стали изображения папы римского в белом пуховике, а также экс-президента США Дональда Трампа, задержанного полицией. При этом фотографии получились настолько реалистичными, что только самый внимательный мог бы заметить незначительные промахи, которые допустила нейросеть. Подобные ситуации могут оставить серьезный отпечаток на репутации как известного, так и обычного человека, от которого возможно будет очень сложно избавиться.

Кроме создания и распространения фейков нейросеть может использоваться как инструмент мошенничества и вымогательства. Многие попадали в ситуацию, когда вам звонили с неизвестного номера, представлялись родственником и срочно просили перевести деньги. Кто-то попадался на такой обман и лишался своих средств, иногда даже больших денежных сумм. Если для этого будет реально использовать нейросеть, которая бы меняла голос мошенника, то хаоса не миновать. Ввиду такой возможности могут проводиться провокации, которые подтолкнут общество к совершению противозаконных действий.

«Они смогут подделать видео, на котором будет показан сгенерированный персонаж, изображающий родственника жертвы в сложной ситуации, говорящий «своим», неотличимым голосом. Дипфейки также можно использовать для репутационных атак, шантажа. Сама по себе цифровая сфера дает возможность мошенникам работать с десятками, а то и сотнями людей в день. А с помощью генерирующих нейросетей будут производиться дозвоны тысячам потенциальных жертв одновременно, с автоматическим ведением диалога «разводки» и определением того, «ведется» ли жертва. Количество жертв таких преступлений существенно возрастет», — отмечает IT-эксперт Игорь Ашманов.

Всевозможные риски, связанные с работой нейросети, должны контролироваться. Специальный Комитет по вопросам искусственного интеллекта направлен на создание рекомендаций по этике ИИ и на просвещение людей на всех континентах. Ректор Сколтеха, академик РАН Александр Кулешов, который возглавил в Комиссии РФ по делам ЮНЕСКО Комитет по вопросам искусственного интеллекта поясняет: «В связи с опасностями, которые несет ИИ, создан наш комитет. Целей несколько. Во-первых, просвещение, чтобы развеять мифы, объяснить общественности все плюсы и минусы ИИ. Во-вторых, убедить, что ИИ надо поставить под международный контроль. Вот есть МАГАТЭ, которое занимается вопросами атомной энергии. Но ИИ несет куда более серьезные опасности, и здесь жесточайший контроль просто необходим. Иначе миру грозят испытания, которые мы сегодня даже не можем представить».

Стоит подчеркнуть, что Илон Маск вместе с более чем 1000 экспертов в области искусственного интеллекта (ИИ) потребовал ввести мораторий на обучение мощных нейросетей, так как неконтролируемый процесс в этой области может представлять угрозу для человечества.


Читать все материалы