Поддающаяся проверке честность: расчет честности для систем машинного обучения с сохранением конфиденциальности: заключение

Поддающаяся проверке честность: расчет честности для систем машинного обучения с сохранением конфиденциальности: заключение

4 января 2024 г.

:::информация Этот документ доступен на arxiv по лицензии CC BY 4.0 DEED.

Авторы:

(1) Эхсан Торейни, Университет Суррея, Великобритания;

(2) Марьям Мехрнежад, Лондонский университет Ройал Холлоуэй;

(3) Аад Ван Мурсел, Бирмингемский университет.

:::

Таблица ссылок

Абстрактное и amp; Введение

Справочная информация и сопутствующая работа

Архитектура FaaS

Анализ внедрения и производительности

Вывод

Благодарности и ссылки

5 Заключение

В этом документе предлагается «Справедливость как услуга» (FaaS), надежная сервисная архитектура и безопасный протокол для расчета алгоритмической справедливости. FaaS спроектирован как сервис, который рассчитывает справедливость, не запрашивая у системы ML предоставления исходного набора данных или информации о модели. Вместо этого требуется зашифрованное представление значений функций данных, предоставляемых системой машинного обучения, в форме криптограмм. Мы использовали неинтерактивные доказательства с нулевым разглашением в криптограмме, чтобы гарантировать, что протокол выполняется должным образом. Эти криптограммы размещаются на публичной доске честности, чтобы каждый мог проверить правильность вычислений на предмет честности системы ML. Это новый подход к расчету справедливости с сохранением конфиденциальности, поскольку в отличие от других подобных предложений, использующих подход федеративного обучения, наша архитектура FaaS не полагается на конкретную модель машинного обучения или определение показателя справедливости для своей работы. Вместо этого у вас есть свобода выбора желаемой модели и показателя справедливости.

В этой статье мы доказали, что протокол безопасности гарантирует конфиденциальность данных и не допускает утечки информации о модели. По сравнению с более ранними разработками, доверие к нашему проекту заключается в правильном построении криптограммы системой ML. Возможно, это более реалистичное решение, чем предоставление полного доступа к данным доверенной третьей стороне, принимая во внимание множество юридических, деловых и этических требований систем ML. В то же время это создает новую задачу по повышению доверия к системе ML. Повышение доверия к построению криптограмм остается интересной исследовательской задачей, вытекающей из представленного протокола.

Мы реализовали концепцию FaaS и провели эксперименты по производительности на обычном оборудовании. Для завершения протокола требуется несколько секунд на каждую точку данных, что приводит к проблемам с производительностью, если количество точек данных велико (десятки тысяч). Чтобы смягчить проблемы с производительностью, протокол безопасности организован таким образом, что построение криптограммы может выполняться в автономном режиме. Выполнение расчета справедливости на основе криптограммы — это задача, которую предстоит решить в будущей работе. В целом мы считаем, что FaaS и представленный базовый протокол безопасности обеспечивают новый и многообещающий подход к расчету и проверке честности алгоритмов ИИ.


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE