Объективные новости через призму совести

В РФ планируют сажать в тюрьму за дипфейки

11 августа 2024
В РФ планируют сажать в тюрьму за дипфейки
Ярославом Ниловым, являющимся главой комитета Госдумы по труду, соцполитике и делам ветеранов от партии ЛДПР, был разработан проект закона, предлагающий ввести в ряд статей Уголовного кодекса новый квалифицирующий признак. Речь идет об использовании дипфейк-технологии (deepfake), передает ТАСС.

В какие же именно статьи УК предлагается внести изменения? Это касается следующих статей: «Кража», «Мошенничество», «Вымогательство», «Клевета» и «Причинение имущественного ущерба путем обмана или злоупотребления доверием». Исходя из законопроекта, клевета, которую совершили, используя при этом изображение или голос (в частности, фальсифицированные или созданные искусственным путем) жертвы, а также используя его биометрические персональные данные, будет наказываться штрафом, чей размер может достигать 1,5 млн руб., либо тюремным сроком до двух лет. Если же человек совершил мошеннические действия, прибегнув к данной технологии, то ему может грозить штраф до 400 тыс. руб. либо лишение свободы до шести лет.

В пояснительной записке говорится, что ввиду развития компьютерных технологий произошло расширение спектра возможностей по созданию как аудио-, так и видеоматериалов на базе образцов голоса и изображений человека, которые искусственным образом воссоздают вымышленные события.

До этого, к примеру, аферисты, чьей целью была клевета, подделывали фотографии. Впрочем, с помощью современных программно-аппаратных комплексов, нейросетей и ИИ (тут имеются в виду «цифровые маски», deepfake и др.) становится вполне реальным созданием подделок, которые неспециалисту зачастую не удается отличить от реальности. Аналогичные технологии предоставляют возможность по воспроизведению других биометрических персональных данных.

Голос и изображение россиянина крайне часто используют для обмана, поэтому и выдвинули соответствующее предложение: выделить их в отдельную категорию. Тем не менее из официального отзыва правительства следует, что в отраслевом законодательстве вопросы относительно использования технологий для подмены личности все еще остаются не урегулированными. Следовательно, ввести предлагаемое регулирование в УК невозможно в связи с отсутствием корреспондирующих норм материального законодательства. А это, в свою очередь, таит в себе серьезные риски для формирования некорректной правоприменительной практики.

Кроме того, уточнили в правительстве, в пояснительной записке к проекту закона не приводится никакой статистической и прочей информации, которая бы свидетельствовала об опасности для общества криминализируемых деяний. Таким образом, не представляется возможным констатировать, что преступления, совершающиеся при помощи изображений или голоса жертвы, являются свидетельствами повышенной степени опасности упомянутых деяний для общества. По этим причинам, согласно отзыву, проект необходимо доработать.

По словам Нилова, законопроект подкорректируют, после чего внесут в Госдуму.


Возврат к списку