
В начале сентября 2024 в Австралии был опубликован стандарт «Voluntary AI Safety Standard«
Стандарт описывает 10 основных принципов (guardrails в терминологии документа), позволяющих повысить степень безопасности при внедрении решений ИИ.
- Процесс ответственности: Установить, реализовать и опубликовать процесс ответственности, включая управление, внутренние возможности и стратегию соблюдения нормативных требований.
- Управление рисками: Создать и внедрить процесс управления рисками для выявления и снижения рисков.
- Защита систем ИИ: Обеспечить защиту систем ИИ и реализовать меры управления данными для контроля качества и происхождения данных.
- Тестирование моделей ИИ: Проводить тестирование моделей и систем ИИ для оценки их производительности и мониторинга после развертывания.
- Человеческий контроль: Обеспечить возможность человеческого контроля или вмешательства в систему ИИ для достижения значимого человеческого надзора.
- Информирование пользователей: Информировать конечных пользователей о решениях, основанных на ИИ, взаимодействиях с ИИ и контенте, созданном ИИ.
- Процессы оспаривания: Установить процессы для людей, затронутых системами ИИ, чтобы оспаривать их использование или результаты.
- Прозрачность в цепочке поставок: Быть прозрачными с другими организациями в цепочке поставок ИИ относительно данных, моделей и систем для эффективного управления рисками.
- Ведение записей: Сохранять и поддерживать записи для оценки соблюдения норм третьими сторонами.
- Вовлечение заинтересованных сторон: Вовлекать заинтересованные стороны и оценивать их потребности и обстоятельства с акцентом на безопасность, разнообразие, инклюзивность и справедливость.
В конце стандарта идет 12 страниц примеров применения вышеперечисленных принципов, написанных живым человеческим языком — рекомендую.