У Google может быть новый трюк для генерации паролей с помощью искусственного интеллекта, но смогут ли Gemini сохранить ваши секреты в безопасности?

У Google может быть новый трюк для генерации паролей с помощью искусственного интеллекта, но смогут ли Gemini сохранить ваши секреты в безопасности?

23 апреля 2024 г.

Если вы используете Google Chrome в течение последних нескольких лет. , вы, возможно, заметили, что всякий раз, когда вам приходилось придумывать новый пароль или менять существующий пароль для сайта или приложения, появлялось небольшое диалоговое окно «Предложить надежный пароль» — и похоже, что это скоро произойдет. предлагать пароли на основе искусственного интеллекта.

Внимательный наблюдатель за разработкой программного обеспечения заметил, что Google, возможно, готовится дополнить эту функцию возможностями Gemini, новейшая модель большого языка (LLM).

Открытие было сделано @Leopeva64 на X. Они нашли ссылки на Gemini в патчах Gerrit, веб-системы проверки кода, разработанной Google и используемой при разработке таких продуктов Google, как Android.

Эти выводы, по-видимому, подкреплены скриншотами, на которых показано, как можно интегрировать Gemini в Chrome, чтобы предоставить вам еще более удобные предложения паролей, когда вы хотите создать новый пароль или изменить тот, который вы установили ранее.

Подробнее

Догадки Близнецов

Мое внимание привлекла одна строка кода: «удаление всех паролей приведет к отключению этой функции». Интересно, делает ли это то, что написано на банке: отключение этой функции, если пользователь удаляет все свои пароли, или это просто означает все пароли, сгенерированные функцией «Предлагать надежные пароли».

Последний скриншот, предоставленный @Leopeva64, также интригует, поскольку на нем, кажется, показано приглашение, которое инженеры Google включили, чтобы заставить Gemini сгенерировать подходящий пароль.

Это действительно интересный ход со стороны Google, и он может оказаться полезным для пользователей Chrome, которые используют функцию предложения надежного пароля. Я немного настороженно отношусь к потенциальным рискам, связанным с этим методом генерации паролей, аналогичным рискам, которые вы можете обнаружить при использовании многих подобных методов. LLM подвержены утечкам информации, вызванным быстрым или инъекционным взломом. Эти хаки предназначены для того, чтобы обмануть модели ИИ и выдать информацию, которую их создатели, отдельные лица или организации могут захотеть сохранить в тайне, например, чью-то информацию для входа в систему.

Женщина работает над ноутбук в общем рабочем пространстве рядом с мужчиной, работающим за компьютером

(Изображение предоставлено Shutterstock/Gorodenoff)

Важный аспект безопасности 

Это звучит пугающе, и, насколько нам известно, такого еще не произошло ни с одним широко распространенным LLM, включая Gemini. Это теоретический страх, и существуют стандартные методы защиты паролей, которые технологические организации, такие как Google, используют для предотвращения утечки данных.

К ним относятся технологии шифрования, которые кодируют данные так, чтобы только авторизованные стороны могли получить к ним доступ на нескольких этапах процесса создания и хранения паролей, а также хеширование — односторонний процесс преобразования данных, предназначенный для того, чтобы затруднить обратное проектирование данных.

Вы также можете использовать любой другой LLM, например ChatGPT, чтобы создать надежный пароль вручную, хотя я чувствую, что Google знает больше о том, как это сделать, и я бы советовал экспериментировать с этим только в том случае, если вы являетесь профессионалом в области программного обеспечения.

Это неплохая идея как предложение и использование искусственного интеллекта, которое на самом деле может быть очень полезным для пользователей, но Google придется приложить такое же (если не большее) количество усилий, чтобы убедиться, что Gemini надежно закреплен и непроницаем для внешнего мира. атаки, какие только могут быть. Если это будет реализовано и по какой-то случайности это действительно вызовет огромную утечку данных, это, вероятно, подорвет доверие людей к LLM и может повлиять на репутацию технологических компаний, включая Google, которые их защищают.

ВАМ ТАКЖЕ МОЖЕТ ПОНРАВИТЬСЯ...


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE