В Госдуму внесли законопроект, который бы защищал голос гражданина России от его использования без согласия владельца, а также от его подделки мошенниками и генерации с помощью искусственного интеллекта.
<strong>В Госдуму внесли законопроект, который бы защищал голос гражданина России от его использования без согласия владельца, а также от его подделки мошенниками и генерации с помощью искусственного интеллекта (ИИ).
Документ <a href="https://sozd.duma.gov.ru/bill/718834-8">размещен</a> на портале электронной базы данных Госдумы. </strong>Поправки предлагается внести в Гражданский кодекс России и дополнить его статьей 152.3 — "Охрана голоса гражданина". Авторами законопроекта стали сенаторы Андрей Клишас, Артем Шейкин, Наталья Кувшинова, Руслан Смашнев, а также депутат Госдумы Даниил Бессарабов. Также отмечается, что норматив разрабатывали при участии альянса в сфере ИИ и Национальной федерацией музыкальной индустрии.
В пояснительной записке к проекту отмечается, что с учетом развития новых технологий и их массового использования во всех сферах жизни появляются правовые вопросы, для решения которых нет необходимой законодательной базы. <blockquote>"При недобросовестном использовании технологий синтеза речи возникают неблагоприятные правовые последствия для граждан. В частности, искусственный интеллект, обучившись на аудиозаписях реального голоса, может в дальнейшем его имитировать, и «производные» записи могут быть использованы способом, неприемлемым для человека — обладателя голоса", — говорится в документе.</blockquote> Авторы инициативы обращают внимание, что голос является "уникальной характеристикой человека, позволяющей идентифицировать его личность" и представляет собой "нематериальное благо", нуждающееся в дополнительной охране.
Если законопроект примут, то звучание голоса гражданина будет возможно только с его непосредственного согласия, а после смерти — с согласия ближайших родственников. Но есть и исключения, которые позволяют применять голос человека без его ведома. В частности, речь идет об использовании голоса человека в государственных, общественных или других публичных целях, а также в случаях, когда запись была сделана в открытых и доступных для посещения местах, например, на массовых мероприятиях.
Бизнес-консультант по безопасности компании Positive Technologies Алексей Лукацкий ранее в разговоре с RTVI большой угрозой развития ИИ <a href="https://rtvi.com/stories/podojdem-k-sczenariyu-terminatora/">назвал</a> "дипфейки" — технологию преобразования изображений на основе искусственного интеллекта и нейросетей.
По мнению эксперта, в 2025 году подобные технологии "выйдут на определенное плато, когда дипфейк смогут создавать абсолютно все без исключения, причем очень сложные и многомодальные".
В середине августа певица Лариса Долина стала жертвой мошенников. Ее представитель <a href="https://rtvi.com/news/predstavitel-dolinoj-rasskazal-chto-dlya-obmana-peviczy-ispolzovali-nejroset/">сообщил</a>, что злоумышленники сгенерировали её изображение с помощью нейросети и использовали его для обращения в микрокредитную организацию с целью обмана.
Свежие комментарии