
Как можно безопасно использовать ИИ? Исследователи из Гарварда, Массачусетского технологического института, IBM & Microsoft весят
2 апреля 2025 г.Важным направлением исследования ИИ является улучшение фактической и надежности системы ИИ. Несмотря на то, что в этих областях был достигнут значительный прогресс, некоторые эксперты по ИИ пессимистичны, что эти проблемы будут решены в ближайшем будущем. Это является одним из основных выводов нового доклада Ассоциации по развитию искусственного интеллекта (AAAI), который включает в себя понимание экспертов из различных академических учреждений (например, MIT, Гарвард и Оксфордский университет) и технических гигантов (например, Microsoft и IBM).
Цель исследования состояла в том, чтобы определить текущие тенденции и проблемы исследований, чтобы сделать ИИ более способным и надежным, чтобы технология была безопасно использована, написал президент AAAI Франческа Росси. Отчет включает в себя 17 тем, связанных с исследованиями искусственного интеллекта, выбравших группу из 24 «очень разнообразных» и опытных исследователей ИИ, а также 475 респондентов из сообщества AAAI, отметила она. Вот основные моменты этого отчета об исследовании ИИ.
Улучшение надежности и фактической деятельности системы ИИ
Система ИИ считается фактической, если она не выводит ложные утверждения, и ее достоверность может быть улучшена путем включения критериев, таких как человеческая понятность, надежность и включение человеческих ценностей », - заявили авторы отчета.
Другими критериями, которые следует учитывать, являются точная настройка и проверка выходов машин и замена сложных моделей на простые понятные модели.
Смотрите: как сохранить AI достоверным от TechRepublic Premium
Сделать ИИ более этичным и безопасным
ИИ становится все более популярным, и это требует большей ответственности за системы ИИ, согласно отчету. Например, возникающие угрозы, такие как AI-управляемая киберпреступностью и автономное оружие, требуют немедленного внимания, наряду с этическими последствиями новых методов ИИ.
Среди самых насущных этических проблем, главными проблемами были респонденты:
- Дезинформация (75%)
Конфиденциальность (58,75%)
Ответственность (49,38%)
Это указывает на большую прозрачность, подотчетность и объяснение в системах ИИ. И эти этические проблемы и проблемы безопасности должны быть решены с междисциплинарным сотрудничеством, постоянным надзором и более четкой ответственностью.
Респонденты также процитировали политические и структурные барьеры, «с опасениями, что значимый прогресс может быть затруднен управлением и идеологическими различиями».
Оценка ИИ с использованием различных факторов
Исследователи утверждают, что системы ИИ представляют «уникальные проблемы оценки». Текущие подходы к оценке сосредоточены на контрольном тестировании, но они сказали, что больше внимания необходимо уделить юзабилити, прозрачность и соблюдение этических руководящих принципов.
Реализация агентов ИИ вводит проблемы
Агенты искусственного интеллекта превратились из автономных решений проблем до структур искусственного интеллекта, которые повышают адаптивность, масштабируемость и сотрудничество. Тем не менее, исследователи обнаружили, что внедрение агентского искусственного интеллекта, предоставляя гибкое принятие решений, ввело проблемы, когда речь идет о эффективности и сложности.
Авторы отчета утверждают, что интеграция ИИ с генеративными моделями «требует балансировки адаптивности, прозрачности и вычислительной осуществимости в мультиагентных средах».
Больше аспектов исследования ИИ
Некоторые из других связанных с ИИ темами, связанными с исследованиями, охватываемыми в отчете AAAI, включают в себя устойчивость, искусственный общий интеллект, социальное блага, оборудование и геополитические аспекты.
Оригинал