Samsung запретила сотрудникам использовать ChatGPT, после того, как обнаружила утечку конфиденциального внутреннего кода. Представитель Samsung факт запрета.
<strong>Компания Samsung запретила сотрудникам использовать генеративные системы искусственного интеллекта (ИИ), такие как ChatGPT, после того, как обнаружила утечку конфиденциального внутреннего кода.
Об этом <a href="https://www.bloomberg.com/news/articles/2023-05-02/samsung-bans-chatgpt-and-other-generative-ai-use-by-staff-after-leak?leadSource=uverify%20wall">пишет</a> Bloomberg со ссылкой на служебную записку, которую компания отправила сотрудникам одного из своих крупнейших подразделений. Представитель Samsung подтвердил отправку такого документа.</strong>Новые правила запрещают использовать генеративные системы ИИ на принадлежащих Samsung компьютерах, планшетах и телефонах, а также во внутренних сетях компании. Руководство Samsung также попросило сотрудников, которые используют ChatGPT на личных девайсах, не предоставлять таким системам никакой информации, связанной с компанией. В противном случае их ждут «дисциплинарные взыскания вплоть до увольнения».
Samsung обеспокоена тем, что данные, передаваемые на платформы ИИ, хранятся на внешних серверах, что затрудняет их извлечение и удаление. В конечном итоге эти данные могут оказаться доступными посторонним пользователям. В марте Samsung провела опрос среди сотрудников и выяснила, что 65% из них считают, что системы ИИ представляют угрозу безопасности. В апреле инженеры Samsung случайно допустили утечку внутреннего исходного кода, загрузив его в ChatGPT.
В конце марта основатель компании SpaceX Илон Маск, сооснователь Apple Стив Возняк и другие эксперты <a href="https://rtvi.com/news/mask-i-voznyak-prizvali-ostanovit-rabotu-nad-sistemami-iskustvennogo-intellekta/">призвали</a> приостановить обучение более мощных систем ИИ, чем недавно представленная GPT-4. Обращение подписали более 27 тыс. человек. Авторы письма считают, что лаборатории ИИ втянуты в бесконтрольную гонку по разработке все более мощных «цифровых умов», которые невозможно контролировать. «Мы должны спросить себя: должны ли мы позволить машинам наводнить наши информационные каналы пропагандой и неправдой? Должны ли мы автоматизировать все рабочие места? (…) Должны ли мы рискнуть потерей контроля над нашей цивилизацией?» — говорится в обращении.
Свежие комментарии