Отчет Thomson Reuters о будущем профессионалов демонстрирует осторожный оптимизм в отношении искусственного интеллекта в юриспруденции

16 июля 2024 г.

Сегодня широко распространено мнение, что генеративный ИИ может выполнять более простые задачи, но с трудом справляется с более сложными. В таком случае, насколько генеративный ИИ на самом деле экономит время или повышает производительность на работе?

Thomson Reuters, компания, предоставляющая профессиональные услуги и технологии в области права, налогообложения, соблюдения требований и т. д., в своем отчете «Будущее профессионалов за 2024 год» изучила, как профессионалы используют ИИ. Мы поговорили с директором по продуктам Thomson Reuters Дэвидом Вонгом о генеративном искусственном интеллекте на рабочем месте в эксклюзивном интервью, посвященном выпуску отчета.

Thomson Reuters опросил 2205 специалистов в области юриспруденции, налогообложения, рисков и соблюдения требований по всему миру. В отчете не упоминается генеративный искусственный интеллект, когда речь идет об ИИ, но возможности, обсуждаемые в отчете, часто относятся к генеративному искусственному интеллекту. В разговоре с Вонгом мы использовали ИИ как общий термин для обозначения генеративных моделей, которые могут создавать изображения или текст.

Процент профессионалов, считающих, что ИИ будет «трансформационным», увеличился на 10 %

Отчет был в основном оптимистичен в отношении искусственного интеллекта, поскольку ожидается, что искусственный интеллект высвободит время. А 77% респондентов заявили, что, по их мнению, ИИ окажет «сильное или преобразующее влияние на их работу в течение следующих пяти лет»; это число увеличилось на 10% по сравнению с прошлогодним отчетом.

«Я был немного удивлен тем, что стратегическая значимость возросла, потому что в прошлом году, когда ChatGPT и GPT-4 вышли на сцену, можно было подумать, что цикл ажиотажа будет на пике и что люди будут так взволнованы», — сказал Вонг.

Однако интерес к стратегической значимости ИИ распространился в основном со стороны юридических фирм почти на все отрасли, которые обслуживает Thomson Reuters. Таким образом, по словам Вонга, более высокие цифры могут отражать более широкий интерес во всех отраслях, а не усиление интереса со стороны юридических фирм.

Разрыв между теми, кто очень осторожно относится к ИИ, и теми, кто очень амбициозен в отношении ИИ

Вонг отметил, что существует интересное разделение между осторожными и амбициозными людьми с точки зрения генеративного ИИ. В отчете это отражено в вопросе, в котором Thomson Reuters задает вопрос: «Через один год, три года и пять лет, какой примерно процент работы, которая в настоящее время выполняется вашей командой, по вашему мнению, будет [ выполняются либо людьми, либо искусственным интеллектом]». Опрос предоставил четыре возможных ответа — спектр работы под руководством ИИ или под руководством человека — чтобы определить, проявляют ли профессионалы осторожность или амбициозность в использовании технологий ИИ для работы. Они обнаружили, что 13% профессионалов относятся к категории «осторожных», полагая, что даже через пять лет ИИ-помощники будут выполнять лишь небольшой процент работы. Другой крайностью была категория «амбициозных», в которой 19% профессионалов предсказывали, что через пять лет искусственный интеллект будет выполнять большую часть их работы.

«Многие профессионалы осознали практическое значение и реальность многих технологий», — сказал Вонг. «И основываясь на экспериментах, которые проводились в течение последних 12 месяцев или около того, мы теперь начинаем видеть, как эти профессионалы воплощают эксперименты в жизнь».

Какие задачи ИИ не может выполнять?

По мнению Gartner, ожидания в отношении генеративного искусственного интеллекта в 2023 году были очень высокими, но, скорее всего, они снова упадут, прежде чем стабилизироваться.

Для юристов и других профессий, описанных в отчете Thomson Reuters, «решения ИИ чрезвычайно хороши для любого типа задач, где вы, откровенно говоря, можете предоставить довольно хороший набор инструкций», — сказал Вонг.

Этот тип задач включает в себя исследование, обобщение документов или «исследование концепций высокого уровня, которые не требуют конкретных юридических ссылок», как сказал один из респондентов отчета.

Чего ИИ не может делать, так это принимать решения самостоятельно. Компании, занимающиеся искусственным интеллектом, хотят, чтобы они в конечном итоге смогли это сделать; Фактически, автономное выполнение действий от имени пользователя соответствует уровню 3 из 5 в новом рейтинге возможностей искусственного интеллекта OpenAI. Но ИИ еще не существует, и Вонг отметил, что для отраслей Thomson Reuters этот вопрос зависит как от возможностей технологии, так и от доверия к ней людей.

СМ.: Современной организации, работающей с корпоративными данными, для процветания необходимы подходящие члены команды.

«Я думаю, что ИИ действительно не смог достичь точки, по крайней мере, с точки зрения доверия, чтобы иметь возможность принимать решения самостоятельно», — сказал Вонг.

Во многих случаях, по словам Вонга, ИИ «не работает так же хорошо, как люди-рецензенты, за исключением самых простых вещей».

Согласно отчету, 83% юристов, 43% специалистов по рискам, мошенничеству и соблюдению требований и 35% специалистов по налогам считают, что «использование искусственного интеллекта для предоставления советов или стратегических рекомендаций» является «этически… слишком далеким шагом».

Большинство респондентов (95% респондентов из юридических и налоговых органов) считают, что «разрешить ИИ представлять клиентов в суде или принимать окончательные решения по сложным юридическим, налоговым вопросам, вопросам рисков, мошенничества и соблюдения требований» было бы «слишком большим шагом».

«Если вы зададите вопрос: «Как вы думаете, насколько вероятно, что ИИ примет правильное решение или такое же хорошее решение, как человек?» Я думаю, что ответ на самом деле потенциально будет отличаться от ответа «Этично ли это?», — сказал Вонг.

Будет ли у каждого через пять лет появится ИИ-помощник?

Несмотря на эти сомнения, Thomson Reuters в своем отчете смело заявила, что «в течение пяти лет у всех специалистов будет помощник по генному искусственному интеллекту». По их прогнозам, этот помощник будет действовать как член команды и выполнять сложные задачи.

Вонг отметил, что некоторая часть оптимизма исходит из чистых цифр. За последние два года число компаний, предлагающих продукты искусственного интеллекта, резко возросло, включая гигантских производителей смартфонов.

«Практически каждый, у кого есть iPhone 15 и выше и iOS 18, будет иметь в кармане систему искусственного интеллекта», — сказал Вонг. «И я уверен, что еще через пару лет в каждой новой версии и каждом устройстве Apple вы сможете получить доступ к этому помощнику. Microsoft также очень активно внедряет Copilot. Я думаю, что через несколько лет будет довольно сложно создать версию Microsoft 365 без Copilot».

СМОТРИТЕ: Узнайте все, что вам нужно знать о Microsoft Copilot, с помощью шпаргалки TechRepublic.

Помимо потенциального использования ИИ для создания, анализа или обобщения контента, организации рассматривают, как их продукт или производственный процесс могут измениться с помощью ИИ. Согласно отчету, большинство респондентов из числа руководителей высшего звена считают, что ИИ сильнее всего влияет на их операционную стратегию (59%) и стратегию продукта/услуги (53%).

«Я думаю, именно на это сейчас смотрит почти каждая компания: в деятельности одного предприятия много рутинной, рутинной работы, которую можно описать с помощью инструкции», — сказал Вонг.

Эти механические задачи идеально подходят для ИИ. По его словам, в юридической сфере ИИ может изменить процесс подачи компаниями нормативных или установленных законом документов.

Как выглядит ответственный ИИ «профессионального уровня»

Респонденты отчета имели разные представления о том, что представляет собой ответственное использование ИИ на работе. Многие считали безопасность данных ключевой частью ответственного использования ИИ. Другие оценили:

    Безопасность данных на этапе подсказки или запроса. Обязательная проверка результатов специалистом. Уделяется внимание тому, для каких задач можно использовать технологии искусственного интеллекта. Прозрачность источников данных, на основе которых были получены ответы.

«Если кто-то говорит, что [генеративный ИИ] идеален, не содержит галлюцинаций и ошибок, то он либо заблуждается, либо это утверждение должно быть тщательно проверено», — сказал Вонг. «Однако чего вы хотите, так это прозрачности исполнения».

Ответственные системы ИИ, используемые в профессиональных условиях, должны основываться на проверенном контенте, быть измеримыми и иметь возможность ссылаться на свои ссылки, сказал он. Они должны быть созданы с учетом безопасности, надежности и конфиденциальности.

ChatGPT — «худший пример решения для генеративного искусственного интеллекта для профессионалов, поскольку он не удовлетворяет этим потребностям», — сказал Вонг. «Но на самом деле вы можете создать ChatGPT, который безопасен для конфиденциальности, уважает конфиденциальность и не обучается на данных. Это выбор дизайна в системах. Они не присущи ИИ».

Подпишитесь на новостную рассылку Innovation Insider Узнайте о последних технологических инновациях, которые меняют мир, включая Интернет вещей, 5G, последние новости о телефонах, безопасности, умных городах, искусственном интеллекте, робототехнике и многом другом. Доставка по вторникам и пятницам Адрес электронной почты Подписываясь на нашу рассылку, вы соглашаетесь с нашими Условиями использования и Политикой конфиденциальности. Вы можете отписаться в любое время. Подписаться
Подпишитесь на новостную рассылку Innovation Insider Узнайте о последних технологических инновациях, которые меняют мир, включая Интернет вещей, 5G, последние новости о телефонах, безопасности, умных городах, искусственном интеллекте, робототехнике и многом другом. Доставка по вторникам и пятницам Адрес электронной почты Подписываясь на нашу рассылку, вы соглашаетесь с нашими Условиями использования и Политикой конфиденциальности. Вы можете отписаться в любое время. Подписаться

Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE