Безопасность ИИ в Австралии

В начале сентября 2024 в Австралии был опубликован стандарт «Voluntary AI Safety Standard«
Стандарт описывает 10 основных принципов (guardrails в терминологии документа), позволяющих повысить степень безопасности при внедрении решений ИИ.

    1. Процесс ответственности: Установить, реализовать и опубликовать процесс ответственности, включая управление, внутренние возможности и стратегию соблюдения нормативных требований.
    2. Управление рисками: Создать и внедрить процесс управления рисками для выявления и снижения рисков.
    3. Защита систем ИИ: Обеспечить защиту систем ИИ и реализовать меры управления данными для контроля качества и происхождения данных.
    4. Тестирование моделей ИИ: Проводить тестирование моделей и систем ИИ для оценки их производительности и мониторинга после развертывания.
    5. Человеческий контроль: Обеспечить возможность человеческого контроля или вмешательства в систему ИИ для достижения значимого человеческого надзора.
    6. Информирование пользователей: Информировать конечных пользователей о решениях, основанных на ИИ, взаимодействиях с ИИ и контенте, созданном ИИ.
    7. Процессы оспаривания: Установить процессы для людей, затронутых системами ИИ, чтобы оспаривать их использование или результаты.
    8. Прозрачность в цепочке поставок: Быть прозрачными с другими организациями в цепочке поставок ИИ относительно данных, моделей и систем для эффективного управления рисками.
    9. Ведение записей: Сохранять и поддерживать записи для оценки соблюдения норм третьими сторонами.
    10. Вовлечение заинтересованных сторон: Вовлекать заинтересованные стороны и оценивать их потребности и обстоятельства с акцентом на безопасность, разнообразие, инклюзивность и справедливость.

    В конце стандарта идет 12 страниц примеров применения вышеперечисленных принципов, написанных живым человеческим языком — рекомендую.

    Добавить комментарий

    Ваш адрес email не будет опубликован. Обязательные поля помечены *