Google, Meta, Microsoft обязались следить за безопасностью своих ИИ-систем

Компании будут разрабатывать механизмы, которые позволят отличать обычный контент от созданного искусственным интеллектом


infogost.com

Американские Amazon.com Inc, Microsoft Corp., Meta, Google, входящая в Alphabet Inc., и ещё три компании добровольно приняли на себя обязательства по обеспечению безопасности своих решений в области искусственного интеллекта (ИИ), говорится на сайте Белого дома, пишет Интерфакс-Казахстан.

В частности, компании обязались проверять ИИ-системы на безопасность ещё до выпуска, в том числе с привлечением независимых экспертов, информировать участников отрасли, власти и общественность об управлении ИИ-рисками, инвестировать в кибербезопасность и содействовать выявлению уязвимостей в своих системах.

Компании будут разрабатывать механизмы, которые позволят отличать обычный контент от созданного искусственным интеллектом, включая использование водяных знаков, а также публично информировать о возможностях, ограничениях и видах надлежащего и ненадлежащего использования своих ИИ-систем.

Фирмы, в число которых помимо вышеуказанных входят OpenAI, разработавшая популярный чат-бот ChatGPT, и стартапы Anthropic и Inflection, также обязались уделять повышенное внимание анализу потенциальных общественных рисков, связанных с использованием ИИ-систем.

Резкий рост коммерческих инвестиций в инструменты генеративного (создающего контент — ИФ) ИИ, которые могут создавать новые изображения и писать тексты, похожие на произведения человека, вызвали у людей не только восхищение, но и обеспокоенность способностью таких инструментов вводить пользователей в заблуждение и распространять дезинформацию, отмечает Associated Press. На генеративном искусственном интеллекте, в частности, основан ChatGPT.