Как использовать ИИ в управлении: Руководство по искусственному интеллекту
Откройте для себя эффективные способы использования ИИ со стратегиями управления для достижения оптимальных результатов и соблюдения требований.
ИИ демонстрирует свой потенциал, способный революционизировать отрасли наравне с Интернетом и персональными компьютерами. Некоторые предсказывают, что это может стать решающим фактором, который изменит правила игры на всех платформах. Среди потока контента, связанного с искусственным интеллектом, в социальных сетях дискуссии об управлении часто упускаются из виду. В этой статье рассматривается важность установления управления ИИ в организациях для обеспечения безопасного, этичного и законного использования технологий ИИ.
Разработка требований к ИИ
После создания классификации ИИ организации должны сформулировать точные требования, касающиеся проектирования, использования и контроля систем ИИ. Как правило, требования к системам ИИ с более высоким уровнем риска влекут за собой более строгие критерии по сравнению с требованиями для систем ИИ с более низким уровнем риска.
Крайне важно, чтобы требования к ИИ прошли формальную оценку, отслеживание и оценку, чтобы гарантировать желаемые результаты. Анализ требований с большей вероятностью привлечет внимание в организациях, которые систематически рассматривают различные типы требований.
Классификация систем искусственного интеллекта
Не все системы искусственного интеллекта представляют одинаковые риски и приносят одинаковую пользу организациям. Как и в случае с другими технологическими возможностями, опытные организации разрабатывают простую систему классификации, чтобы различать системы с более высоким и низким уровнем риска. Ключевые критерии, используемые для классификации систем искусственного интеллекта, включают:
- Данные обучения. Содержат ли данные, используемые для обучения системы ИИ, конфиденциальную информацию, такую как данные, позволяющие установить личность (PII), нераскрытые финансовые данные или интеллектуальную собственность? Используются ли общедоступные данные для обучения? Существует ли риск манипулирования или отравления обучающими данными?
- Принятие решений. Принимает ли система ИИ важные решения, такие как определение цен на продукты или услуги, вознаграждение сотрудников или решения о найме?
Человеческий надзор: запланирован ли адекватный человеческий надзор за конкретными системами ИИ, позволяющий людям контролировать, санкционировать принятие решений или отменять решения, сгенерированные ИИ, когда это необходимо? - Прозрачность: использует ли система искусственного интеллекта данные сотрудников или клиентов, и прозрачна ли политика конфиденциальности в отношении такого использования? Понимают ли пользователи, взаимодействующие с системами, чат-ботами или интерактивными голосовыми ответами (IVR), что они взаимодействуют с системой искусственного интеллекта?
Обзор предлагаемых систем искусственного интеллекта
Как и в случае с другими возможностями, назначенному персоналу следует поручить оценить характеристики предлагаемых систем ИИ, чтобы гарантировать, что их использование соответствует стандартам безопасности, этики, защиты и правовым стандартам.
Подобно анализу архитектуры безопасности, оценка предлагаемых систем ИИ должна включать понимание контекста системы, ее архитектуры, мер защиты данных, потоков данных и интеграции с существующими процессами и системами.
Персонал, проводящий такие проверки, должен обладать знаниями технологического стека организации, архитектуры информационных систем и принципов управления.
Разработка политики в области ИИ
Корпоративная политика должна разграничивать разрешенное и запрещенное использование ИИ внутри организации.
Однако политикам необходимо осознать широкое присутствие систем искусственного интеллекта в Интернете, прежде чем принимать общую позицию «ИИ запрещен». Теневой ИИ, когда конечные пользователи обходят правила использования инструментов ИИ, широко распространен. Подобно теме «Жизнь находит путь» в «Парке Юрского периода», сотрудники организации найдут возможности использовать инструменты искусственного интеллекта, даже если их использование ограничено.
Факторы успеха
Как правило, организации с более высоким уровнем зрелости лучше управляют использованием ИИ и обеспечивают его добавленную стоимость, не подвергая организацию неприемлемым рискам.
Организации с более низким уровнем зрелости и неадекватными структурами управления ИТ и кибербезопасностью более склонны передавать контроль над ИИ конечным пользователям и подразделениям. Для этих организаций битва, возможно, уже проиграна.
ИИ, как и любая технология, обладает потенциалом повышения эффективности и точности бизнес-процессов. Однако без надлежащего управления последствия развертывания систем искусственного интеллекта без мер безопасности могут представлять для организаций значительные риски, превосходящие риски, связанные с другими прорывными технологиями.
Решения без проблем
ИТ-отделы часто быстро адаптируют новейшие технологические тенденции даже до выявления соответствующих бизнес-проблем. Привлекательность ИИ может соблазнить даже самых ярых сторонников управления и политики. Организации, в которых отсутствуют структуры управления, возможно, уже используют ИИ на более низких уровнях, не осознавая этого со стороны руководства.