В Госдуму внесен законопроект № 718834-8, направленный на внесение изменений в первую часть Гражданского кодекса в части введения охраны голоса гражданина. Поправками предлагается дополнить ГК РФ ст. 152.3 «Охрана голоса гражданина», согласно которой обнародование и дальнейшее использование голоса гражданина, в том числе записи, в которой он содержится, или записи, в которой содержится воссозданный с помощью спецтехнологий голос гражданина, будут допускаться только с согласия этого лица.
Предусматривается, что после смерти гражданина его голос сможет использоваться только с согласия детей и пережившего супруга, а при их отсутствии – с согласия родителей. В ряде случаев такое согласие не потребуется, если использование голоса гражданина происходит в государственных, общественных или иных публичных интересах; голос гражданина записан при видео- или аудиозаписи, которая проводится в местах, открытых для свободного посещения, или на публичных мероприятиях, за исключением случаев, когда голос гражданина является основным объектом использования или запись голоса производилась за плату.
Кроме того, изготовленные в целях введения в гражданский оборот, а также находящиеся в обороте экземпляры материальных носителей, содержащие голос гражданина, полученные или используемые с нарушением правил, будут изыматься из оборота и уничтожаться без какой бы то ни было компенсации на основе судебного решения. Если голос гражданина, полученный или используемый с нарушением п. 1 ст. 152.3, будет распространен в Интернете, гражданин вправе потребовать удаления соответствующей записи, а также пресечения или запрещения ее дальнейшего использования и распространения.
В пояснительной записке, помимо прочего, указано, что при недобросовестном использовании технологий синтеза речи возникают неблагоприятные правовые последствия для граждан. «В частности, искусственный интеллект, обучившись на аудиозаписях реального голоса, может в дальнейшем его имитировать, и «производные» записи могут быть использованы способом, неприемлемым для человека – обладателя голоса, поскольку получение его согласия прямо не предусмотрено законодательством. Таким образом, нарушается право гражданина самостоятельно решать, как распоряжаться записями собственного голоса, в том числе с целью их использования для создания продуктов на основе технологий синтеза речи», – полагают авторы поправок.
По их мнению, голос является уникальной характеристикой человека за счет высоты, диапазона, силы, тембра и других особенностей, он позволяет идентифицировать его личность. «Голос представляет собой нематериальное благо, которое заключается не только в возможности его использования в повседневной жизни, но и в профессиональной. Использование голоса может являться источником дохода человека и представлять коммерческую ценность, например, для актеров дубляжа, певцов, театральных актеров и т. д. Однако право на голос и его охрану не закреплено в текущем законодательстве РФ, что затрудняет использование голоса в гражданских правоотношениях (за исключением случаев, когда он представлен в составе объекта интеллектуальной собственности, например, составляет исполнение)», – указано в пояснительной записке.
Предполагается, что закон вступит в силу со дня его официального опубликования и будет применяться к правоотношениям, возникшим после дня вступления его в силу.
Патентный поверенный РФ, евразийский патентный поверенный, старший партнер АБ «Залесов, Тимофеев, Гусев и партнеры» Ирина Озолина отметила, что вопрос об охране голоса гражданина в последнее время встал достаточно остро в связи с развитием технологий. «Голос человека узнаваем, это такая же часть индивидуальности, как и изображение, и для репутации человека важно, чтобы его голосом не озвучивали несвойственные ему тексты. Нашумевший спор актрисы озвучки Алены Андроновой с банком “Тинькофф”, когда голос, записанный для одних целей, стал использоваться для целей, противоречащих жизненной позиции обладателя этого голоса, показал, что в Гражданском кодексе не хватает норм, которые могли бы помочь защититься от такого рода использования», – полагает она.
Предлагаемые поправки в ГК, по словам эксперта, это в первую очередь признание права на охрану голоса таким же нематериальным благом, как и право на охрану изображения и право на охрану частной жизни, что нельзя не приветствовать. «Предлагаемая статья, по сути, является копией ст. 153.1 “Охрана изображения”, и тем самым она сохраняет все ее достоинства и недостатки. Из недостатков нужно упомянуть, что проект статьи 153.3 не охраняет голос человека после смерти тех лиц, которые могут дать согласие на использование голоса, а это значит, что голосом умершего человека можно озвучить и те высказывания, и мысли, которые не были в действительности им сказаны. И по той же причине проект ст. 153.3, разрешая использовать голос в государственных, общественных или иных публичных интересах и не ограничивая способы такого использования, по сути, разрешает “вложить” в уста человека (в том числе, ныне живущего) несвойственные ему тексты, если в этом будет найден публичный интерес. С учетом сегодняшних технологий использование голоса для синтезирования речи, в отличие от использования записи реальной речи человека, должно быть возможно только с письменного согласия самого гражданина, и исключений для этого способа использования голоса быть не должно. А запрет на синтезирование речи с использованием голоса реального человека должен быть вечным», – резюмировала Ирина Озолина.
Генеральный директор, партнер юридической фирмы Law & Commerce Offer Антон Алексеев также отметил, что поправки преследуют цель придать голосу гражданина юридическую охрану, как объекту личных неимущественных прав аналогично защите изображения гражданина. «В определенной степени использование голоса гражданина, который относится к биометрическим персональным данным, был защищен Законом о персональных данных, который по общим правилам запрещает осуществлять любую обработку персональных данных без согласия субъекта (гражданина) таких данных. Однако условия использования сгенерированной аудиозаписи (которую человек не произносил), но с использованием его голоса, на запись которого он дал свое согласие, вышеуказанный закон не определяет. Рассматриваемый законопроект, как мне видится, в первую очередь направлен на защиту от распространения голосовых записей, сгенерированных с использованием искусственного интеллекта и воспроизводящих, копирующих чей-либо голос, прежде всего, публичных людей (чиновников, медийных личностей, артистов и т.д.)», – заключил он.
Руководитель практики «Медиаправо» юридической фирмы INTELLECT Михаил Хохолков полагает, что в случае принятия поправок разработчики искусственного интеллекта столкнутся с проблемой обучения своих нейронных сетей без согласия владельцев голосов. «Исключения, предусмотренные ГК, вряд ли подходят для этого. Человек, обнаруживший, что его голос был использован для обучения нейронной сети, вправе предъявить гражданский иск и взыскать компенсацию. Особенно актуален этот вопрос для знаменитостей, актеров дубляжа, певцов, чьи голоса чаще всего используются для обучения нейронных сетей. Существует множество бесплатных ресурсов, где можно озвучить любой текст голосом известной личности. Проблемы могут возникнуть у блогеров, если, записывая ролик, они используют чужой голос. Если этот случай не подпадает под исключения свободного использования, то такие действия могут быть оспорены в суде», – пояснил он.
Эксперт добавил, что для понимания, насколько часто будут возникать такие проблемы, можно посмотреть практику охраны изображения «селебрити». «Известны случаи, когда актеры подавали иски о защите своего изображения, использованного в мемах. Вероятно, аналогичная практика будет складываться и для защиты голоса. Конечно, автор, “заимствуя” голос, не будет автоматически оштрафован или заблокирован. Право гражданина подать иск о защите голоса существует, но его реализация во многом будет определяться целью использования голоса и контекстом», – резюмировал Михаил Хохолков.