Объективные новости через призму совести

Запрет ИИ с человеческим лицом: почему предложили это сделать?

5 мая 2023
Запрет ИИ с человеческим лицом: почему предложили это сделать?

Автор: Виктория Лисунова

Во всем мире, в том числе и в России, сейчас происходит активное развитие технологий искусственного интеллекта (ИИ). Повсеместное внедрение ИИ позволило ежедневно заменять людей в том или ином виде деятельности или же частично помогать им в выполнении работы. Однако выяснилось, что в некоторых случаях искусственный интеллект может представлять опасность, так как он становится слишком близок к живому существу, из этой ситуации нашли выход в виде введения запрета на использование искусственным разумом и нейросетями человеческих лиц и голосов.

Искусственный интеллект научился генерировать реалистичные фотографии как существующих, так и несуществующих людей, научился имитировать человеческую речь, иными словами — нейросети стали свойственны качества, которыми обладаем мы с вами. С одной стороны — это довольно необычно и интересно, но зачастую результат такой работы ИИ может ввести в заблуждение обычных людей, что способно спровоцировать возникновение нежелательных, а иногда и опасных последствий. В связи с чем Патриаршая комиссия предложила ввести запрет на перенесение человеческого образа и его свойств на неодушевленные предметы.

«Необходимо установить запрет на применение в программах и технологиях ИИ человеческих голосов, лиц, т. е. образа и подобия человека и его качеств как живого существа. Фактически нужен запрет на антропоморфизацию программ, технологий, роботов, т. е. запрет на перенесение человеческого образа и его свойств на неодушевленные предметы», — сказал председатель комиссии иерея Федор Лукьянов на круглом столе, который был посвящен обсуждению правового регулирования и применения нейросетевых технологий в НИУ ВШЭ.

Как мы уже упомянули выше, с помощью нейронной сети могут быть созданы фотографии людей разного возраста, пола и расы, но проблема заключается в том, что мало кто с первого взгляда может заметить, что люди на этих картинках — являются ненастоящими. Таким образом, фотографии вполне могут использоваться, например, на аватарках пользователей в социальных сетях в корыстных целях — ради шпионажа или обмана, однако за ними будут скрываться люди с совершенно другой внешностью. Смутить также могут вымышленные образы людей, применяющиеся в каких-либо программах или приложениях. Аналогичным образом ввести в заблуждение могут и сгенерированные фотографии известных людей в тех или иных образах и ситуациях, для этого необходима пометка, что это картинка создана ИИ.

Похожая ситуация и со всякого рода голосовыми помощниками и ботами, которых появилось слишком много, когда человек просто не в курсе, что имеет дело с роботом, а не с реальным собеседником. Предупредить это могло бы наличие дисклеймера, что человек общается с искусственным интеллектом, пояснили в РПЦ.

Со слов члена комитета ТПП РФ по предпринимательству в сфере медиакоммуникаций Павла Каткова, реализация предложенных идей технически возможна, однако это может ослабить российские нейросети в их конкуренции с западными. Юрист считает, что здесь необходимо выбирать, что важнее государству: теологические ценности или конкурентное IT-преимущество.

Однако, чтобы исключить возможного влияния на психику, в том числе детскую, предложения РПЦ может быть недостаточно. Буквально месяц назад гражданин Бельгии покончил с собой после двух месяцев общения с искусственным интеллектом. Очевидно, он знал, что общается не с реальным человеком. С чат-ботом он делился своими переживаниями касаемо глобального изменения климата, но по итогу нейросеть фактически подтолкнула его на самоубийство, убедив, что все его страхи обоснованы. Возможно, общение с живыми людьми могло бы позволить избежать такого исхода событий. Ввиду этого следует гораздо лучше изучить работу ИИ и серьезней регулировать эту сферу, ведь нейросеть — это не игрушка.

«Я считаю, что нейросети действительно могут стать опасными. Сейчас «игра» с этими системами может действительно зайти очень далеко, поскольку никто по-настоящему не знает, на что они способны. Поэтому сначала лучше изучить то, как они будут работать, а потом уже активно применять», — прокомментировал генеральный директор Telecom Daily Денис Кусков.


Читать все материалы