Искусственный интеллект, как и любая технология, несёт определённые риски:
- Возможность манипулировать человеком
- Возможность вмешательства в личную жизнь
- Риск принятия человеком неправильных решений при доверии данным ИИ
- Постоянное использование ИИ приводит к снижению интеллектуальных способностей людей
- И ключевой проблемой является вопрос доверия к ИИ
Поэтому был создан Кодекс, который, по сути, является такой моделью угроз, в котором часть угроз попытались оценить и предотвратить. В него включены такие пункты, как:
- Запрет на финальность решения искусственного интеллекта, то есть ответственность за последствия решения должно оставаться за человеком.
- Право человека опротестовать решение ИИ
- Обязательность уведомления человека о том, что в данный момент с ним общается система искусственного интеллекта
- Отсутствие дискриминации
- Непричинение вреда
- Безопасность
- Конфиденциальность
Кодекс, конечно, должен развиваться с развитием технологий, будут добавляться новые модели угроз.
Сейчас уже 20 компаний подписали кодекс, но надо агитировать и остальных.