Неясно, как водяной знак будет очевиден при обмене информацией.
Генеративный ИИ, который использует данные для создания нового контента, такого как человеческая проза ChatGPT
Ведущие ИИ-компании, включая OpenAI, Alphabet и Meta Platforms, взяли на себя добровольные обязательства перед Белым домом по внедрению таких мер, как нанесение водяных знаков на контент, созданный ИИ, чтобы помочь сделать технологию более безопасной, сообщила администрация Байдена.
Компании, в которые также входят Anthropic, Inflection, Amazon.com и партнер OpenAI Microsoft, обязались тщательно тестировать системы перед их выпуском и делиться информацией о том, как снизить риски и инвестировать в кибербезопасность.
Этот шаг рассматривается как победа усилий администрации Байдена по регулированию технологии, которая пережила бум инвестиций и потребительской популярности.
Поскольку генеративный ИИ, который использует данные для создания нового контента, такого как человеческая проза ChatGPT, стал в этом году дико популярным, законодатели по всему миру начали думать, как смягчить опасность новых технологий для национальной безопасности и экономики.
Большинство в Сенате США Чак Шумер в июне призвал к «всеобъемлющему законодательству» для продвижения и обеспечения гарантий в отношении искусственного интеллекта.
Конгресс рассматривает законопроект, который потребует, чтобы политическая реклама раскрывала, использовался ли ИИ для создания изображения ry или другой контент.
Президент Джо Байден, который в пятницу принимает руководителей семи компаний в Белом доме, также работает над разработкой указа и двухпартийного законодательства о технологии ИИ.
В рамках этих усилий семь компаний взяли на себя обязательство разработать систему «водяных знаков» для всех форм контента, от текста, изображений и аудио до видео, созданных с помощью ИИ, чтобы пользователи знали, когда использовалась технология.
Этот водяной знак, технически внедренный в контент, предположительно облегчит пользователям обнаружение фальшивых изображений или аудиозаписей, которые могут, например, показывать насилие, которого не было, создать лучшую аферу или исказить фотографию политика, чтобы представить человека в нелестном свете.
Неясно, как водяной знак будет очевиден при обмене информацией.
Компании также пообещали сосредоточиться на защите конфиденциальности пользователей по мере развития ИИ и на обеспечении того, чтобы технология была свободной от предвзятости. и не используется для дискриминации уязвимых групп. Другие обязательства включают разработку ИИ-решений для научных задач, таких как медицинские исследования и смягчение последствий изменения климата.
© Thomson Reuters 2023
Будет ли Nothing Phone 2 служить преемником Phone 1 или они будут сосуществовать? Мы обсуждаем недавно выпущенный телефон компании и многое другое в последнем выпуске Orbital, подкасте Gadgets 360. Orbital доступен на Spotify, Gaana, JioSaavn, Google Podcasts, Apple Podcasts, Amazon Music и везде, где вы получаете свои подкасты.
Партнерские ссылки могут создаваться автоматически — подробности см. в нашем заявлении об этике.