Цифровые помощники с искусственным интеллектом требуют человеческого контроля, чтобы избежать угроз кибербезопасности

Цифровые помощники с искусственным интеллектом требуют человеческого контроля, чтобы избежать угроз кибербезопасности

26 апреля 2022 г.

Мир уже полон цифровых сервисов на основе ИИ. В последнее время в индустрии безопасности наблюдается взрывной рост числа приложений и тенденций, связанных с попытками интегрировать эти цифровые приложения в учреждения, чтобы оставаться впереди, помогая предприятиям адаптировать или даже автоматизировать процессы безопасности. Источники на основе интеллектуальных помощников стали оптимальным вариантом для современных организаций, которым приходится сталкиваться с шифрованием данных, обнаружением угроз и предотвращением атак. В быстро меняющемся 21 веке, когда кибератаки вышли из-под контроля, сейчас, как никогда, настало время для разработки политик и стратегий, специфичных для каждого киберсобытия.


Кибер-инциденты нельзя классифицировать как событие единственного типа, что затрудняет быстрое развертывание соответствующего плана реагирования без интеграции традиционных законодательных и операционных инструментов. Кроме того, трудно полагаться на объективные инструменты обнаружения, когда есть события, на которые влияет поведение человека (например, преднамеренные действия) и человеческие ошибки (например, ложные срабатывания).


Создание цифрового помощника с искусственным интеллектом


Мы начали свой путь с разработки некоторых инструментов, которые помогут организациям использовать этих цифровых помощников ИИ и применять их в своих организациях. Основная цель состоит в том, чтобы облегчить людям быструю настройку этих решений, не беспокоясь о множестве технических деталей.


Для этого мы разработали безопасную среду на основе новейших технологий искусственного интеллекта, чтобы люди могли создавать и развертывать своих собственных цифровых помощников, чтобы реагировать на наиболее частые кибер-события.


С помощью этого метода организации могут создать цифрового агента, который самостоятельно реагирует и взаимодействует с окружающим миром. Мы также называем эту систему «Ассистент ИИ», потому что эти инструменты не заменяют человеческого взаимодействия, а лучше дополняют его.


Каковы последствия кибератаки на ваш цифровой помощник с искусственным интеллектом?


Помощники ИИ не заменяют человеческого взаимодействия и требуют постоянного контроля со стороны человека. Если цифровой помощник будет скомпрометирован, он может нарушить жизнь людей во многих отношениях: антиобщественное поведение, кража секретов, кража конфиденциальной информации и многое другое. Этот ущерб экспоненциально более катастрофичен, чем физический ущерб, потому что он может сделать данные людей непригодными для использования и, следовательно, необратимыми.


Если цифровой помощник будет скомпрометирован или использован не по назначению, ущерб может быть еще больше — возможно, вплоть до уничтожения личности и свободы людей. Если вы считаете, что интеллектуальные агенты должны иметь лишь ограниченную власть, вам, возможно, придется переосмыслить это.


Помощникам ИИ требуется человеческий контроль


Помощники ИИ не заменяют человеческого взаимодействия и человеческого контроля, а скорее являются жизненно важным дополнением и могут использоваться только под наблюдением человека.


Анхель Рама, доцент кафедры компьютерных наук Калифорнийского университета в Санта-Барбаре, придерживается другого подхода: «Мы должны помнить о людях при разработке технологий», — говорит он.


Всеобщая декларация прав человека Организации Объединенных Наций требует, чтобы все люди имели «право на наивысший достижимый уровень физического и психического здоровья».


Это потребует большей ответственности надзирателей-людей. Инновации нужны, но регулирования недостаточно. Рама считает, что было бы неправильно лишать людей возможностей искусственного интеллекта, но он говорит, что у технологий должен быть меньший доступ к данным влиятельных людей, потому что ими можно злоупотреблять.


«Если вы генеральный директор, у вас не должно быть доступа к данным других генеральных директоров», — говорит он. «Если вы хотите регулировать ИИ, лучше всего понять его ограничения».


Хотя это может быть хорошим советом для разработчиков и исследователей ИИ, это негативная идея для правительств, которые не могут позволить себе такие вещи или которые предпочли бы этого не делать.



Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE