Google, Meta, Microsoft обязались следить за безопасностью своих ИИ-систем
Компании будут разрабатывать механизмы, которые позволят отличать обычный контент от созданного искусственным интеллектом
Американские Amazon.com Inc, Microsoft Corp., Meta, Google, входящая в Alphabet Inc., и ещё три компании добровольно приняли на себя обязательства по обеспечению безопасности своих решений в области искусственного интеллекта (ИИ), говорится на сайте Белого дома, пишет Интерфакс-Казахстан.
В частности, компании обязались проверять ИИ-системы на безопасность ещё до выпуска, в том числе с привлечением независимых экспертов, информировать участников отрасли, власти и общественность об управлении ИИ-рисками, инвестировать в кибербезопасность и содействовать выявлению уязвимостей в своих системах.
Компании будут разрабатывать механизмы, которые позволят отличать обычный контент от созданного искусственным интеллектом, включая использование водяных знаков, а также публично информировать о возможностях, ограничениях и видах надлежащего и ненадлежащего использования своих ИИ-систем.
Фирмы, в число которых помимо вышеуказанных входят OpenAI, разработавшая популярный чат-бот ChatGPT, и стартапы Anthropic и Inflection, также обязались уделять повышенное внимание анализу потенциальных общественных рисков, связанных с использованием ИИ-систем.
Резкий рост коммерческих инвестиций в инструменты генеративного (создающего контент — ИФ) ИИ, которые могут создавать новые изображения и писать тексты, похожие на произведения человека, вызвали у людей не только восхищение, но и обеспокоенность способностью таких инструментов вводить пользователей в заблуждение и распространять дезинформацию, отмечает Associated Press. На генеративном искусственном интеллекте, в частности, основан ChatGPT.