NCSC предупреждает об опасностях ChatGPT

NCSC предупреждает об опасностях ChatGPT

15 марта 2023 г.

писатели ИИ и чат-боты добились огромного успеха в последние месяцы после бума созданный ChatGPT с момента его запуска в ноябре 2022 года.

Сейчас перед нами его последнее воплощение — мультимодальный GPT-4, способная обрабатывать медиафайлы, такие как изображения. Большие языковые модели (LLM) повышают эффективность сотрудников и задействуют творческий потенциал, но они сопряжены с определенным риском

С этой целью Национальный центр кибербезопасности Великобритании (NCSC) выпустил общее предупреждение в сообщение в блоге, раскрывающее некоторые из связанных рисков для кибербезопасности со стороны LLM.

Опасности ChatGPT

Технические директора и авторы Дэвид С. и Пол Дж. начинают с развенчания некоторых мифов. Например, растет обеспокоенность тем, что ChatGPT и подобные инструменты будут изучать и хранить информацию, переданную им конечными пользователями. Это неправда, ведь обучение проводится в контролируемой среде создателями таких моделей.

Однако информация о запросах передается соответствующим компаниям, а это означает, что OpenAI, фирма, стоящая за ChatGPT, сможет определить, какие вопросы пользователи задают, чтобы улучшить свои услуги. По этой причине NCSC рекомендует не делиться личной или конфиденциальной информацией где бы то ни было в Интернете, в том числе с чат-ботами.

За пределами сферы обычных пользователей авторы также отмечают использование злоумышленниками, которые могут передавать кибератаки выходят за рамки их обычного масштаба, предполагая, что мы подвергаемся повышенному риску более изощренных атак.

По мере того, как интерес к искусственному интеллекту продолжает расти, растет и скептицизм в отношении передовых технологий. Недавно Bloomberg сообщил, что банковский гигант JP Morgan ввел ограничения на использование ChatGPT персоналом из-за опасений, что им придется доверять внешнее программное обеспечение. Образовательные учреждения по всему миру также ввели ограничения на его использование в актах академической нечестности.


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE