На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Телеканал RTVI

374 подписчика

Свежие комментарии

  • Стефания Новак
    России тоже надо высылать Посла и вручать ноту, когда армения нагло предает Россию и наносит удар в спину России. И с...Армения вызвала п...
  • Alexandr Trynin
    Вот он, настоящий мужик. Это не резерв кадров, а готовый качественный Кадр.Отправившийся доб...
  • Mikhail Stepanov
    Вешать их всех надо, а не в тюрьму сажать и кормить за счет налогоплательщиков, причем всех - и жидов и грузин, и анг...Боец Шорохов: сам...

В Госдуме признали, что запаздывают с защитой россиян от мошенников и дипфейков

Российским властям надо активнее работать над ограничительными мерами, которые защитят граждан от дипфейков. К этому, как сообщает «Телеспутник», на пленарном заседании национального форума по информбезопасности «Инфофорум-2025» 5 февраля призвал председатель комитета Госдумы по информации и связи Сергей Боярский.

<strong>Российским властям надо активнее работать над ограничительными мерами, которые защитят граждан от дипфейков. К этому, как <a href="https://telesputnik.ru/materials/gov/news/boyarskii-prizval-aktivizirovat-rabotu-po-zashhite-grazdan-ot-dipfeikov">сообщает</a> «Телеспутник», на пленарном заседании национального форума по информбезопасности «Инфофорум-2025» 5 февраля призвал председатель комитета Госдумы по информации и связи Сергей Боярский.</strong>

По его словам, из-за использования дипфейков миллионы людей за последние годы "столкнулись с недопустимыми событиями в их судьбах", а с помощью цифровых технологий было совершено "беспрецедентное количество преступлений".

Боярский признал, что в России активно ведется работа над законами, призванными защитить население от различных мошеннических схем, включая телефонное мошенничество. Однако, подчеркнул депутат Госдумы, с решениями в этой сфере они с коллегами "немного опоздали". <blockquote>"Впереди нас ждут ещё бóльшие вызовы. Технологии дипфейков вот-вот ворвутся в нашу жизнь и станут в том числе инструментом злоумышленников. Считаю необходимым действовать на опережение и уже сейчас разрабатывать инструменты защиты голоса человека, его изображения», — предупредил Боярский.

</blockquote> Сейчас в российском законодательстве не прописаны конкретные ограничения, позволяющие привлечь к уголовной ответственности за использование дипфейков для совершения преступлений, заявил "Телеспутнику" юрист Санкт-Петербургского адвокатского бюро «Гуцу, Жуковский и партнеры» Павел Сёмин.

«Это в большей степени технический вопрос — выявление и фиксирование факта использования дипфейка для совершения преступления. Регулирование таких вопросов редко осуществляется на законодательном уровне, как правило, это решается путем обобщения практики», — объяснил он.

В частности, привел пример юрист, когда дипфейк использовался для дискредитации гражданина, это можно квалифицировать как распространение недостоверной информации и требовать ее удаления в соответствии с Гражданским кодексом. Для этого сначала необходимо технически доказать сам факт создания дипфейка и установить его распространителя. <blockquote>«Единственным слабо урегулированным моментом может рассматриваться сам факт использования изображения и голоса для создания дипфейка, безотносительно последующего использования в противоправных целях. Например, использование изображения и голоса политического деятеля для создания музыкального клипа», — пояснил Сёмин.</blockquote> Ранее "Телеспутник" со ссылкой на исследования рынка обуви для активного отдыха от виртуального ассистента AutoGPT <a href="https://rtvi.com/lifestyle/opasnee-dipfejkov-kak-reshit-glavnuyu-problemu-nejrosetej/">писал</a>, что еще большую, чем дипфейки, угрозу могут представлять чат-боты на основе нейросетей. "Главной проблемой в применении чат-ботов можно назвать большой процент неверных ответов, которые могут выглядеть логичными. Проблемы с распознаванием ошибок ИИ, в свою очередь, могут вести к распространению дезинформации и фейков", — говорилось в материале издания.

 

Ссылка на первоисточник
наверх