Картинка сгенерирована Шедеврумом
Многим благодаря кинематографу знаком сценарий, когда искусственный интеллект выходит из-под контроля своего создателя и пытается затем уничтожить его. Из-за стремительного роста технологий эксперты бьют тревогу: пока все пользуются благами, сам ИИ становится настоящей угрозой безопасности. Так, например, недавно Google решила отказаться от обещания не применять искусственный интеллект с целью создания оружия, передает РБК.
Корпорацией Google был удален из принципов разработки ИИ абзац, относившийся к приложениям, которые компания не планировала развивать. В нем также числились технологии, наносящие или которые потенциально могут нанести вред. По информации Bloomberg, там говорилось именно об оружии.
Когда изменения увидели и попросили Google дать комментарий, ее представитель просто отправил агентству ссылку. Перейдя по ней, можно было прочесть заявление из блога корпорации, которое опубликовали 4 февраля.
Из заявления Джеймса Манийки, являющегося старшим вице-президентом компании, и главы лаборатории по разработке ИИ DeepMind следует, что корпорация придерживается мнения: демократии нужно лидировать в разработке подобных технологий и руководствоваться при этом такими ценностями, как свобода, уважение человеческих прав и равенство. Топ-менеджеры уверены, что организациям, другим компаниям и правительствам, которые разделяют данные ценности, необходимо работать сообща для создания ИИ, чья цель будет заключаться в защите людей, поддержании национальной безопасности и стимулировании глобального роста.
Впрочем, Маргарет Митчелл, будучи одной из бывших руководителей команды по этике в ходе разработки ИИ в корпорации, считает: удалив этот пункт, на типы работы, которыми занимается компания, может быть оказано влияние. По ее словам, теперь Google разрешила себе внедрять различные технологии, в том числе для убийства людей.
Напомним, что еще в далеком 2015-м году Илон Маск, известный как основатель Tesla, SpaceX и сегодня еще как главный спонсор нового президента Штатов Дональда Трампа, подписал открытое письмо, которое предупреждало широкую общественность о гонке вооружений с применением ИИ. Тогда его подписало свыше 1 тыс. ученых, экспертов и бизнесменов, включая Стивена Хокинга.
По мнению авторов письма, ИИ могут использовать на поле боя для защиты военнослужащих, однако наступательное вооружение с таким искусственным разумом может привести к росту потерь среди людей.
Согласно сведениям Bloomberg, уже сегодня существуют чат-боты с ИИ, которые помогают пользователям в создании биологического оружия.