На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Телеканал RTVI

372 подписчика

Свежие комментарии

  • Владимир Козлов26 июня, 16:06
    Наверное они не знают о книге и фильме, поставленном по ней, которые назывались "Мечеть парижской Богоматери". Там на...В РПЦ возмутились...
  • Александр26 июня, 9:26
    Был «советский человек», теперь - «новые люди». По сути, всплывший отстой из 90-х с запахом чубайсятины. О каком прив...«Новые люди» пред...
  • Людмила Лепаева25 июня, 16:34
    Это вообще что такое.Прокуратура она российская или украинская какой то беспределПрокуратура потре...

Google отказалась от обязательства не применять ИИ в оружейных технологиях

Компания Google удалила со страницы, где излагает свои принципы искусственного интеллекта (ИИ), обязательство не применять его в оружейных технологиях. На это обратило внимание агентство Bloomberg. Одна из бывших руководителей команды Google предположила, что компания теперь будет работать над "внедрением технологий, которые могут убивать людей".

<strong>Компания Google удалила со страницы, где излагает свои принципы использования технологий искусственного интеллекта (ИИ), обязательство не применять его в оружейных технологиях. На это <a href="https://www.bloomberg.com/news/articles/2025-02-04/google-removes-language-on-weapons-from-public-ai-principles">обратило внимание</a> агентство Bloomberg.</strong>

Со <a href="https://ai.google/responsibility/principles/">страницы</a> целиком исчез раздел под заголовком «Применение [ИИ], которым мы не будем заниматься». Судя по копиям страницы в веб-архиве, в конце января этот раздел еще <a href="https://web.archive.org/web/20250130170410/https://ai.google/responsibility/principles/">присутствовал</a> на ней. Он содержал четыре пункта:

- технологии, которые в целом наносят или могут нанести вред (только если польза от них значительно не перевешивает риски);

- оружие или другие технологии, предназначенные для причинения вреда человеку напрямую или косвенно;

- технологии слежки, нарушающие международные нормы;

- технологии, цели которых противоречат международным правовым принципам.

Страница в ее нынешнем виде вообще не содержит упоминаний об обязательствах отказаться от применения ИИ в опасных и неэтичных технологиях, включая оружейные.

Одна из бывших руководителей команды Google по этичному использованию ИИ Маргарет Митчелл предположила, что компания теперь будет напрямую заниматься тем, что раньше считала недопустимым для себя. <blockquote>«Удаление этого [раздела] сводит на нет работу, которую проделали в Google многие люди из сферы этического ИИ и активисты, и, что еще более проблематично, это означает, что Google теперь, вероятно, будет работать над прямым внедрением технологий, которые могут убивать людей», — цитирует ее Bloomberg.</blockquote> <h2><strong>«ИИ для нацбезопасности»: что говорят в Google</strong></h2>

В самой компании в ответ на просьбу агентства о комментарии сослались на заявление в блоге Google, <a href="https://blog.google/technology/ai/responsible-ai-2024-report-ongoing-work/">опубликованное</a> 4 февраля. В нем старший вице-президент Google Джеймс Манийка и гендиректор разработчика ИИ Google DeepMind Демис Хассабис среди прочего сообщают об обновлении принципов ИИ. <blockquote>«Глобальная конкуренция за лидерство в области ИИ происходит в условиях все более сложного геополитического ландшафта. Мы считаем, что демократии должны лидировать в разработке ИИ, руководствуясь такими основными ценностями, как свобода, равенство и уважение прав человека. И мы считаем, что компании, правительства и организации, разделяющие эти ценности, должны работать вместе, чтобы создать ИИ, который защищает людей, способствует глобальному росту и поддерживает национальную безопасность», — говорится в заявлении.</blockquote> В заявлении нет прямого упоминания оружейных технологий, но отмечается, что «ИИ все чаще разрабатывается организациями и правительствами для использования в таких областях, как здравоохранение, наука, робототехника, кибербезопасность, транспорт, национальная безопасность, энергетика, климат и многое другое».

Руководство Google обещает в заявлении «ответственно подходить к ИИ на протяжении всего жизненного цикла разработки и внедрения», понимая, что эта развивающаяся технология «создает новые сложности и риски».

Одним из тех, кто давно предупреждает об опасности развития ИИ, хотя сам же в это инвестирует, является основатель компаний SpaceX и Tesla Илон Маск, возглавивший при президенте Дональде Трампе департамент эффективности правительства США (DOGE). В частности, в 2023 году он <a href="https://edition.cnn.com/2023/04/17/tech/elon-musk-ai-warning-tucker-carlson/index.html">заявил</a>, что ИИ «имеет потенциал уничтожения цивилизации». <div class="intext-frame">

<a href="https://rtvi.com/stories/podojdem-k-sczenariyu-terminatora/"><b>«Подойдем к сценарию “Терминатора”». Российские специалисты назвали риски развития искусственного интеллекта</b></a>

</div>

 

Ссылка на первоисточник
Рекомендуем
Популярное
наверх