Итальянское управление по защите персональных данных заблокировало доступ к нейросетевому чат-боту ChatGPT «до тех пор, пока он не будет соответствовать правилам конфиденциальности». Это первый в мире случай блокировки ChatGPT на основании законодательства о защите конфиденциальных данных.
<strong>Итальянское управление по защите персональных данных (Garante per la protezione dei dati personali) решило заблокировать в стране доступ к нейросетевому чат-боту ChatGPT «до тех пор, пока он не будет соответствовать правилам конфиденциальности», говорится в <a href="https://www.
garanteprivacy.it/web/guest/home/docweb/-/docweb-display/docweb/9870832" target="_blank" rel="noopener">сообщении</a> на сайте ведомства. Это первый в мире случай блокировки этой нейросети на основании законодательства о защите конфиденциальных данных, <a href="https://www.wired.it/article/chatgpt-blocco-italia-garante-privacy/" target="_blank" rel="noopener">отмечает</a> Wired.</strong>В документации управления говорится, что ChatGPT, разработанный американским стартапом OpenAi, не соответствует европейскому регламенту по защите персональных данных (Gdpr). Решение блокировать доступ к чат-боту итальянское ведомство связывает с утечкой личных данных пользователей ChatGPT, о которой <a href="https://openai.com/blog/march-20-chatgpt-outage" target="_blank" rel="noopener">стало известно</a> 20 марта.
Представитель управления Гвидо Скорца пояснил, что OpenAi использует персональные данные пользователей для обучения искусственного интеллекта. <div class="intext-grey">
«Любой, кто занимается медицинскими исследованиями, должен получить согласие на проведение экспериментов. Даже те, кто экспериментирует с новыми технологиями, должны сделать процесс прозрачным», — отмечает чиновник.
</div> В управлении заявили, что OpenAi никогда не предоставляла информацию об обработке данных пользователей и заинтересованных сторонах. В данном случае «нет правовой основы, оправдывающей массовый сбор и хранение персональных данных с целью «обучения» алгоритмов, лежащих в основе функционирования платформы», считают специалисты ведомства.
Кроме того, они указали на проблему с возрастным ограничением: хотя ChatGPT предназначен для пользователей старше 13 лет, в его интерфейсе нет функционала для контроля возраста, и чат-бот зачастую «дает несовершеннолетним ответы, абсолютно неподходящие им по степени развития и самосознания».
У OpenAi нет офиса в Евросоюзе, поэтому документы с требованиями итальянского регулятора направлены представителю компании в Ирландии. Ведомство ожидает ответа в течение 20 дней: американская компания должна представить план действий по устранению нарушений, в противном случае ей грозит крупный штраф — 4% от годового оборота (около 20 млн евро). Аналогичные требования отправлены в США, в головной офис стартапа.
Гвидо Скорца пояснил Wired, что блокировка чат-бота — это временная мера, которую, к тому же можно обойти известными способами. Однако, по его словам, управление в данном случае хочет в первую очередь получить от OpenAi информацию о том, как она собирала пользовательские данные, получала ли согласие на их сбор и обработку — и соблюдала ли условия, если пользователь отвечал отказом.
В конце апреля состоится собрание представителей всех государственных органов защиты конфиденциальности из стран Европейского Союза, и решение итальянского управления будет там обсуждаться. «Никто не хочет сдерживать инновации, но нельзя развивать новые технологии в ущерб правам людей», — подытожил Скорца.
ChatGPT прокомментировал решение итальянских властей по запросу RTVI, назвав защиту персональных данных важным аспектом разработки и использования технологий. <div class="intext-grey">
«Если Италия посчитала, что использование ChatGPT нарушает ее законы о защите персональных данных, то она может принять меры для ограничения или запрещения использования этой технологии в своей стране <...> после тщательного анализа законодательных норм и доказательств нарушения закона. Однако это решение может быть спорным, и его последствия могут быть оспорены в суде», — предупредил чат-бот.
</div> На вопрос о рисках блокировки сервиса в других странах ChatGPT отвечает, что такой вариант развития событий действительно возможен — как и принятие новых законов и правил, регулирующих конкретно использование нейросетевых сервисов.
Среди вероятных причин блокировки в разных странах ChatGPT, помимо обращения с персональными данными, назвал использование чат-бота для изготовления фейков и вредоносного контента, фишинга, шпионажа и «противодействия государственным политикам», создания и распространения вредоносных программ.
Свежие комментарии