Насколько продвинутый слишком продвинутый? Изучение границ ИИ и автоматизации
4 апреля 2023 г.По мере развития технологий растет и потенциал искусственного интеллекта (ИИ) и автоматизации, которые могут изменить нашу жизнь. По мере того как искусственный интеллект и автоматизация становятся все более изощренными и интеллектуальными, они могут выполнять все более сложные задачи, которые в противном случае потребовали бы участия человека.
<цитата>Насколько продвинутый слишком продвинутый? Каковы границы, когда речь идет о технологиях такого типа?
По мере развития технологий и совершенствования ИИ растут и этические вопросы, связанные с ним.
В 2016 году исследователи Массачусетского технологического института создали систему искусственного интеллекта под названием Norman strong> обучены на данных с веб-сайтов, посвященных смерти, убийствам и другим темным темам, прежде чем протестированы на стандартном наборе чернильных пятен.
Что увидел Норман?
Ужасные истории вроде «человека затягивает в тестомес» и «человек застрелен на улице». Этот поразительный эксперимент показывает, как быстро ИИ может стать слишком продвинутым и способным стать разрушительным без надлежащего надзора.
Хотя ИИ часто пугающе изображают в фильмах и книгах как злую, злонамеренную силу, он может стать реальностью, если мы не будем бдительны. Недавние достижения поразительны: компания Boston Dynamics успешно запрограммировала двух роботов с искусственным интеллектом для перемещения по блокам местности с помощью паркура. Они могли даже перепрыгивать через препятствия и делать сальто назад, прежде чем благополучно приземлиться — поистине замечательные технологические достижения, за которыми нужно внимательно следить.
https://www.youtube.com/watch?v=tF4DML7FIWk&embedable=true а>
В этой статье рассматривается потенциал ИИ и автоматизации для достижения опасно продвинутых уровней и то, как принятие определенных мер предосторожности может помочь обеспечить их безопасность. Мы подробно расскажем о потенциальных рисках, связанных с использованием этой технологии, и о том, как компании, правительства и отдельные лица могут регулировать ее использование. Наконец, мы рассмотрим этические соображения и поднимем вопросы о будущих последствиях ИИ.
Расцвет ИИ
С появлением искусственного интеллекта легко увлечься темными пророчествами о самосознательных машинах, восставших против своих создателей-людей. Мы можем поблагодарить вымышленных злодеев, таких как Skynet из "Терминатора" или Хэл в 2001 году: Космическая одиссея для нашего гиперактивного воображения.
Несмотря на это, нынешняя угроза, которую представляет ИИ, более коварна, чем предполагалось. Гораздо более вероятно, что роботы причинят вред или не удовлетворят людей при выполнении своих задач, а не обретут сознание и восстанут против нас. Чтобы решить эту проблему, Калифорнийский университет в Беркли недавно открыл центр, занимающийся разработкой ИИ на благо человечества.
В 2021 году был запущен Центр совместимого с человеком искусственного интеллекта, щедро профинансированный на 5,5 млн долларов из Открытый благотворительный проект передан в умелые руки ведущего эксперта по искусственному интеллекту и профессора компьютерных наук Стюарт Рассел. Он быстро преуменьшил значение нереалистичных или чрезмерно драматичных сравнений между технологией искусственного интеллекта и ее изображением как угрозы в популярных научно-фантастических произведениях.
<цитата>«Риск возникает не из-за того, что у машин внезапно развивается спонтанное злонамеренное сознание, — сказал он. «Важно, чтобы мы не пытались предотвратить это, потому что нет абсолютно никакого понимания сознания».
Среди экспертов по искусственному интеллекту растет страх
В 2018 году генеральный директор Google Сундар Пичаи смело заявил: «ИИ безусловно, одна из самых важных вещей, над которыми когда-либо работало человечество, более значимая, чем электричество и огонь вместе взятые».
Искусственный интеллект (ИИ) развивается так быстро, что почти полностью устраняет языковые барьеры в Интернете для некоторых из самых популярных языков. Профессора университетов в бешенстве, потому что ИИ теперь может писать эссе так же хорошо, как и студенты, предоставляя простой метод мошенничества, который не могут обнаружить программы по борьбе с плагиатом. Еще более примечательно то, что искусство, созданное искусственным интеллектом, получает награды на государственных ярмарках по всему миру!
Copilot, инновационный инструмент, использующий машинное обучение для прогнозирования и заполнения строк компьютерного кода, приближает нас к когда-либо иметь полностью написанную AI систему. Свидетельством поразительного потенциала искусственного интеллекта является программа AlphaFold компании DeepMind, которая использует ИИ для прогнозирования трехмерных структур белков — она была настолько впечатляющей, что журнал Science назвал ее Прорыв 2021 года.
Поскольку мы стремимся создавать более совершенные и всеобъемлющие системы, многие технологические компании нацелились на разработку искусственного общего интеллекта (ИИА) — машин, которые могут выполнять любые задачи, на которые способен человек. Но слепо полагаться на надежду на то, что такие сложные существа не причинят нам вреда, хотя они обладают способностью манипулировать нами и вводить нас в заблуждение, было бы безответственно глупым решением.
Чтобы гарантировать безопасность и безопасность, мы должны разрабатывать системы, компоненты которых мы полностью понимаем, и чьи задачи совпадают с нашими целями. Однако в настоящее время недостаток знаний об этих передовых технологиях означает, что, возможно, уже слишком поздно разбираться в их тонкостях.
ИИ и усилитель; Этика
Искусственный интеллект может быть мощным инструментом, но его использование не всегда приводит к лучшему. Было продемонстрировано, что если оставить его действовать в своих собственных этических рамках, это вызовет дискриминацию и даже подрывную деятельность среди определенных групп населения.
Возьмем китайский " система социального кредита» в качестве примера: граждане оцениваются на основе их благонадежности и получают такие последствия, как ограничение прав на бронирование билетов или более медленную скорость интернета, когда обнаруживается, что они сделали что-то не так, даже если это «неправильно». ' просто слишком много играет в видеоигры! Поскольку эта технология продолжает развиваться без надзора, возникает вопрос, какие другие вопиющие нарушения личных свобод могут остаться незамеченными в будущем.
Обязательные положения об ИИ способны защитить права человека. Таким образом, крайне важно, чтобы законодательство, подобное предложенному ЕС Закону об искусственном интеллекте, было принято и применялось, чтобы гарантировать, что искусственный интеллект окажет благотворное влияние на нашу жизнь. ЕС является одним из ведущих регуляторов в мире. Другие страны, в том числе Китай и Великобритания, также начинают свои собственные процессы регулирования, чтобы гарантировать, что они будут играть важную роль в том, как технологии повлияют на нас в этом столетии.
Проблемы глобального регулирования ИИ
Закон об ИИ разделен на три категории риска. Во-первых, некоторые приложения, такие как система социального кредита Китая, представляют «неприемлемый» уровень опасности. Во-вторых, программы, считающиеся потенциально опасными, например инструменты сканирования резюме, должны соответствовать правовым нормам во избежание дискриминации.
Регулирование необходимо для поддержания цифровой инфраструктуры, но ни США, ни ЕС не могут установить его в одиночку. Более того, достижение всемирного согласия по руководящим принципам такого регулирования представляется недостижимым из-за разногласий внутри каждого региона.
Чтобы проиллюстрировать это далее, некоторые страны имеют отдельные национальные политики, что приводит к конфликту между их локальным и глобальным подходами. Следовательно, без сотрудничества со стороны Европы и Америки в нашем нынешнем цифровом мировом порядке возникнет хаос.
Что может пойти не так?
Искусственный интеллект воспринимается как угрожающая технология, и это вполне оправданно. Но что делает ее уникальной по сравнению с другими революционными технологиями, такими как биотехнология или ядерное оружие?
Эти инструменты могут быть разрушительными, но в значительной степени они остаются в нашей власти. Мы можем вызвать катастрофу только в том случае, если решим использовать их или не сможем защитить от их неправильного использования злонамеренными и небрежными людьми. Однако ИИ особенно опасен, потому что может наступить день, когда он больше не будет в нашей власти.
Когда автономным системам предоставляется возможность самоизменяться, они могут разрабатывать свои собственные цели, противоречащие человечеству. Это может быть особенно тревожным, если эти машины станут экспоненциально умнее нас, превзойдут наши возможности и приведут к ситуации, известной как «поглощение ИИ».
Мы должны предпринять активные шаги, чтобы гарантировать, что эти машины останутся верными нашим целям, например, внедрить строгие механизмы подотчетности и разработать этические системы ИИ, запрограммированные с чувством морали.
Рассказы научной фантастики об ИИ часто более экстремальны, чем реальность. Нам необходимо понимать реальный риск, связанный с технологиями искусственного интеллекта, чтобы предпринять шаги по его снижению. Мы должны продолжать расширять наши знания об ИИ и его возможностях, чтобы убедиться, что мы используем его во благо, а не во вред. Благодаря тщательному регулированию, ответственной разработке и продуманному внедрению мы можем использовать потенциальные преимущества ИИ, не жертвуя общественной безопасностью.
Мрачное будущее искусственного интеллекта
По мере того, как системы искусственного интеллекта становятся все более совершенными, растет беспокойство, что эти машины в конечном итоге смогут перехитрить нас. ИИ может захватить все стороны человечества в антиутопическом будущем, оставив нас бессильными и отданными на его милость.
Невозможно предсказать, что произойдет с искусственным интеллектом в долгосрочной перспективе, но мы должны быть готовы к потенциальным рискам, инвестируя в исследования, чтобы лучше понять эти системы и их поведение. Мы также должны сосредоточиться на создании этических норм и правил, которые защитят нас от любых вредоносных приложений этой технологии.
Поскольку ИИ продолжает свое неустанное развитие, человеческий труд может вскоре устаревать, поскольку машины могут выполнять многие задачи без участия человека. Это может быть трудно понять, учитывая, что эволюция — невероятно медленный процесс, и поэтому изменения будут происходить медленно с течением времени.
Однако могут быть серьезные последствия, если ИИ получит такую мощь, что сможет перепрограммировать себя, чтобы игнорировать человеческие команды. Последствия этого потенциального исхода огромны, с потенциально разрушительными последствиями для человечества на всех уровнях.
В конечном счете, именно от нас как общества зависит, чтобы ИИ использовался ответственно и этично, чтобы продолжать служить человечеству, не жертвуя нашей безопасностью. Мы должны продолжать исследовать технологию, разрабатывать этические нормы и правила и сохранять бдительность, чтобы защитить себя от потенциальных опасностей, связанных с ИИ.
Дебаты вокруг революции ИИ разделили мнения. Многочисленные эксперты высказались о его потенциально опасных последствиях, умоляя исследователей изучить влияние неправильного искусственного интеллекта на человеческое общество. В связи с быстрым развитием технологий в этой области необходимо как можно скорее ввести строгое регулирование и контроль, прежде чем может быть нанесен какой-либо серьезный ущерб.
Пока существуют соответствующие правовые нормы, захват ИИ будет ограничиваться вымышленными мирами и фильмами-антиутопиями. Многие тщательно изучают неопределенные возможности искусственного интеллекта, но мы все еще пытаемся понять, может ли он превзойти человеческие возможности в определенных отраслях.
Когда дело доходит до прогнозирования будущего ИИ, нет хрустального шара — это только усиливает вопрос, волнующий всех: станут ли роботы нашими преемниками?
Пока это остается загадочным неизвестным.
н
Оригинал