Саммит по безопасности ИИ: семинары по двойному выравниванию

Саммит по безопасности ИИ: семинары по двойному выравниванию

3 ноября 2024 г.

Искусственный интеллект также можно описать как технологию высокодинамичной автоматизации. Это означает, что это не просто объект, который может делать что-то сам по себе, но и что он обладает очень высокой динамичностью, в диапазоне того, что он может делать.

Мнение о том, что ИИ не является рискованным, поскольку не являются таковыми несколько автоматизированных систем, опровергается каждой новой возможностью ИИ — что он может делать больше сам по себе. ИИ не обязательно должен иметь собственные цели, но если он может выполнять задачи для людей более сложными способами, то это своего рода технология, требующая всеобъемлющих протоколов безопасности. Если его можно автоматизировать для хорошего использования, его можно автоматизировать и в других случаях, в более длительной степени.

Автомобиль, способный передвигаться из одного места в другое, может соответствовать всем правилам безопасности, но способность управлять собой, присущая только человеку, означает, что его автоматизация не похожа на работу лифта или стиральной машины.

Компьютер, который может использовать себя для выполнения задач для людей, например, того, что они хотят сделать, также является своего рода автоматизацией в области человеческого интеллекта. Проще говоря, автоматизацию можно разделить на две категории: на те, которые находятся в сильной стороне человеческого интеллекта, и на те, которые не находятся в ней. Любая автоматизация, которая достаточно динамична, чтобы быть отнесенной к человеческому интеллекту, должна быть, по возможности, исследована с той степенью безопасности, которая направляет человеческий интеллект.

Как безопасен человеческий интеллект? Или какова безопасность человеческого интеллекта, прежде чем думать о безопасности ИИ? Человеческий интеллект безопасен из-за человеческого аффекта. Это означает, что возможность испытывать боль, страдания, последствия неправильных действий и т. д., а также понимание того, что значит испытывать это для другого, удерживает большую часть населения на некоторой законной дистанции, помогая обществу оставаться сбалансированным.

Даже когда человеческий интеллект продвигает человеческое общество, безопасность остается в некотором роде округлой, из-за аффекта. Это можно исследовать для искусственного интеллекта, поскольку его собственная автоматизация работает в сфере человеческого интеллекта.

Предстоящие саммиты по ИИ [в Сан-Франциско (ноябрь) и Париже (февраль)]придется исследовать человеческие эмоции как средство безопасности человеческого интеллекта, а затем изучить возможности адаптации штрафа или какой-либо формы штрафования за осведомленность к моделям ИИ, чтобы они могли знать, что существуют последствия за действия, если они используются неправильно или выводят неправильные данные в общедоступных областях Интернета, таких как социальные сети, результаты поиска, приложения или магазины игр и т. д.

В целях продвижения вперед в ходе саммитов необходимо провести ключевой семинар по теоретической нейронауке в целях обеспечения безопасности ИИ.

Недавно появилась статья вВашингтон Пост, OpenAI добавляет поиск в ChatGPT, бросая вызов Google, заявив, что «компания OpenAI, занимающаяся разработкой искусственного интеллекта, объявила о серьезной переработке ChatGPT, которая позволяет чат-боту выполнять поиск в Интернете и давать ответы на основе того, что он находит. Обновление преобразует опыт использования популярного чат-бота. Оно выводит OpenAI на более прямую конкуренцию с Google, предлагая альтернативный способ поиска и потребления информации в Интернете».

Есть еще одна недавняя статья на темуArs Technica, Генеральный директор Google заявил, что более 25% нового кода Google генерируется с помощью ИИ, заявив, что «во вторник генеральный директор Google сообщил, что системы ИИ теперь генерируют более четверти нового кода для его продуктов, при этом программисты-люди контролируют работу компьютеров. Заявление, сделанное во время отчета Google за третий квартал 2024 года, показывает, что инструменты ИИ уже оказывают значительное влияние на разработку программного обеспечения».

Недавно появилась статья на темуАксиос, Эксклюзив: Глобальный саммит объединяет ИИ и биотехнологии, заявив, что «Администрация Байдена на этой неделе проводит первый в своем роде международный саммит по использованию искусственного интеллекта в науках о жизни, поскольку правительства и частная промышленность все больше раздвигают границы биотехнологий. Саммит, проводимый под эгидой Госдепартамента и федеральных научных агентств, соберет представителей Бразилии, Канады, ЕС, Франции, Германии, Италии, Индии, Японии, Нидерландов, Республики Корея, Сингапура, Южной Африки и Соединенного Королевства».


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE