
Ваш помощник по искусственному искусству тупее, чем вы думаете
10 июля 2025 г.Это сложный вопрос. Команда, стоящая за блогом Stack Overflow, выбрала некоторые статьи, которые, по их мнению, их подписчики могут найти интересными, в том числе эти 4 об искусственном интеллекте, которые мы назовем статьей №. 1, нет. 2, нет. 3, и нет. 4 для легкой ссылки. Некоторые люди думают, что ИИ будет иметь четкое будущее, в том числе «ИИ 2027» по проекту Futures Futures, в то время как другие (включая авторов статьи № 1 и № 4) считали, что их недостатки, основанные на их опыте, намного превысили выгоды, которые они нам дали; Следовательно, мы должны избегать их использования (любой ценой).
Один вспомнил, насколько стрессовым было обучение ИИ всего 4 года назад, в 2021 году, участвовавшего в соревнованиях Kaggle. В то время современный ИИ генерации изображений Ганс только что вышел несколько месяцев назад, и сгенерированные ими изображения можно было ясно отличить от изображения, снятого вашей камерой. Подкрепление обучения было основным - кто -то помнил, пытаясь обучить колибри, чтобы найти нектар в единстве, и хотя курс был подробно описан, обучение провалилось, по причинам первыми не удалось обнаружить. LLM был доступен, но AI FAD все еще собирался, и никто этого не заметил. Кроме того, даже самый маленький LLM не может вписаться в единый VRAM GTX 1080 TI, а настройка поддержки нескольких графических карт заняла гораздо больше времени, чем ожидалось, и потерпели неудачу гораздо чаще, чем если бы вы использовали только один графический процессор, и вам приходилось решать гораздо больше проблем, с которыми вы не сталкивались с одним ГП, так что у вас никогда не было возможности попробовать. В отличие от сегодняшнего квантования Q4_K_M, которая использует 4 бита для обучения и выводов и была выбрана персоналом Huggingface в качестве «баланса» между «качеством» и «размером», FP16 (16-бит) был состоянием искусства в то время! Один из них вспомнил, как раз перед тем, как кто -то бросил экспериментирование с ИИ, Pytorch и Tensorflow объявил, что новая экспериментальная функция для обучения. Один из них, конечно, был взволнован, чтобы использовать его, а затем понял, что графическая карта, которую имел, 1080 TI, не поддерживал ее! Теперь, кто все еще говорит о FP16? Всего за 4 года продвижение, сделанное в ИИ, было настолько быстрым, что, когда кто -то попытался забрать его снова, даже просто для того, чтобы использовать его, а не для его обучения, это было невозможно. Больше ничего не понимает. Что такое агент, во всяком случае? Как вы даже уменьшите размер модели с кластеризацией K-средних? Для меня все казалось новым.
Концепция утопии существовала долгое время. Star Trek, Star Wars и научно-фантастические фильмы в целом первоначально существовали как будущее, которое себе представляли. Конечно, это не все вкус, но их фанаты, которые выросли, хотели создать мир, как в самих фильмах! Как вы думаете, почему в противном случае наиболее популярный тип искусственного интеллекта, который вводится пользователям, - это чат -боты, а не ML, который предсказывает тенденции (какие бы тенденции, будь то фондовый рынок или активность Sunspot и т. Д.) Или, который может учиться с помощью инструментов обучения подкрепления, таких как Alphago? Это мечта, чтобы получить помощника ИИ, который, рассказывая ему, что вы хотите, чтобы он делал, предпочтительно, разговаривая с ним, не печатая что -либо самостоятельно, понял бы, что вы хотите, и ответили, «да, мастер», и сделайте это. Разве это не круто? К сожалению, компьютерное оборудование не было достаточно сильным, чтобы до недавнего времени разместить искусственный мозг. Именно тогда условия достаточно спелые для бума ИИ. И когда ваш конкурент начинает интегрировать ИИ в свои продукты, а вы еще не начнете, будьте на стороне неудовлетворенности клиентов и передачи преданности бренда! Внезапно все в погоне за ИИ, даже заставляя своих пользователей принять его (хм, мета, хм) без функции, чтобы удалить или отключить его. Пользователи, которые сопротивлялись использованию ИИ, могут начать чувствовать социальное давление, чтобы принять. Зачем вам тратить время на то, что может сделать ИИ? Вы можете сэкономить свое время и использовать это время, чтобы сделать что -то более полезное, чего не может сделать ИИ! Это линия рассуждений, хотя; Независимо от того, используете ли вы это время, чтобы сделать что -то более полезное или DOMSCROLL - это другая история.
Проблема с ИИ - уверенность. В конечном счете, ИИ ищет в Интернете, как и вы, за исключением того, что он ищет очень быстро и собирает то, что он искал в резюме для вас, чтобы вы могли читать, поэтому вам не нужно сами проходить через хлопот. Тем не менее, уверенность, вызванная ИИ, заставила нас разбудить. Мы подумали, что, поскольку ИИ может получить так много информации с такой быстрой скоростью, это будет намного лучше, чем наш мозг. Тем не менее, как вы могли ожидать, что ИИ сделает гораздо лучше, если что -то, что вы пытались искать себя, не предложило много примеров в Интернете? Например, если вы попытаетесь искать загружаемый короткий клип менее 1 минуты в Интернете, и вы не хотите регистрироваться или войти во что -либо, чтобы получить доступ к такому клипу, и клип должен содержать 2 различных голоса, а не разговор, который читается одним человеком, вы бы отчаивались его, на данный момент. Что заставляет вас думать, что ИИ может сделать лучшую работу? Кроме того, вы не думаете, что ИИ слишком уверен в своих резюме? By reasoning, when you try to search for how to move a database of an old program from one computer to another, and the documentation doesn’t support such action, but someone had tried it on a newer program that superseded that old program and succeeded, given that the newer program is a complete rewrite of the old program such that the new program is not backward compatible with the old, nor is the old program forward compatible with the new, would you have expected that they would work the same? Нет, но ИИ не может это видеть - в течение, ИИ предположил, что то, что работает для нового, также будет работать для старого, и утверждает, что уверенно в его резюме. Более того, вы не поймете, что ИИ сделал рассуждения и выводы, пока не спросит его: «Один проверил документацию, на которую вы ссылались, когда придумали этот ответ. К сожалению, нельзя было найти что -либо, связанное с перемещением базы данных с одного компьютера на другой. Как вы придумали этот ответ?» Только тогда это скажет вам, что это сделало бы это. Таковы опасность ИИ - вы не поймете, что его разбудили, пока не попробуете решение, которое оно дает, и оно не работает, и вы просите его уточнить.
Вы действительно думаете, что ИИ может прочитать ваш разум и придумать ответ, который вы хотите? Если вы попытаетесь что -то объяснить другому человеку, и он/она не может понять, о чем вы говорите, почему вы думаете, что ИИ поймет вас? Вы влюбились в мошенника, потому что вы действительно хотите, чтобы кто -то понял вас, и приятно, что вас понимают; Но действительно ли это правда, что ИИ понимает ваши потребности, даже если предложения, которые вы использовали для общения с ним, грязные и неясные? Как вы ожидаете кого -то другого, будь то живой человек или ИИ, чтобы понять, что вы хотите передать, когда даже не можете это передать это ясно? Хуже того, как другие могут понять ваши потребности, если вы сами не понимаете, что вам нужно? Разве не глупо иметь слишком нереалистичное ожидание?
Кроме того, вы действительно думаете, что инженеры и архитекторы, которые разработали и обучали модели ИИ, идеальны? Они просто люди, так же, как и мы с мной. А как насчет данных? Вы действительно думаете, что то, что вы получаете от Интернета, все идеально? Вы действительно думаете, что люди, которые очищают данные, возможно, десятки механических турок Amazon или кого -то, кого они наняли специально для работы, идеально высекают мусор в данных? Вы когда -нибудь, когда вы пытались что -то выбросить, кто -нибудь подошел к вам и спросил, могут ли они это иметь? Вы когда -нибудь подходили к кому -то и просили то, что вы считаете, очень полезно для вас, но для человека, к которому вы обратились, это только захватывает его/ее дом? Кто решит, что полезно для тренировок и что такое мусор? Кто будет установить руководящие принципы? И, будучи созданным ущербным человеком, как вы думаете, руководство идеально? Вывод Отличный произведенный ИИ настолько же хорош, как и данные, на которых они обучаются; Если вы даже не знаете, на каком наборе данных они обучались, как вы могли бы быть уверены, что выплюнок, который они выплюнут, будет тем, что вы хотите? У нас, людей, есть недостаток - нам нравится заполнять пробелы, когда люди застряли между своими предложениями, а не позволяют им думать сами и заполнять себя. Когда кто -то еще заполняет заготовки для вас, вы бы перестали думать и воспринимали их мышление как само собой разумеющееся, даже если то, что они дали вам, не то, что вы хотели. Более энергоэффективно позволить кому -то еще думать за вас, чем думать сами. В конце концов, если вам предоставлено легко доступное решение, зачем вам тратить время и строить колеса с нуля? Есть ли у вас ощущение, что когда ИИ предоставляет для вас краткое изложение, вы указываете на это и говорите: «Ааа, это именно то, о чем я думаю». Но это действительно правда? Что, если бы он позволил вам думать сами за себя? Вы бы действительно придумали те же слова, одно и то же решение и тот же ответ?
Если вы - машинное обучение (ML) или инженер II/архитектор, вы действительно думаете, что понимаете модели, которые вы создаете? ИИ - это черный ящик, где вы накачиваете некоторые входы и выходите из некоторых выходов. Как узнать, что именно в нем происходит? Действительно, вы можете поверить, что вы можете отделить обученные слои и записать их выходы после каждого слоя, но действительно ли вы понимаете, что означает выход? Что это значит, когда вы видите выход на уровне 3? Это действительно имеет значение? Чувствуете ли вы или думаете, что контролируете то, что вы тренируете? Кроме того, с вашим ограниченным вниманием вы действительно думаете, что можете рассмотреть все? Если вы считаете, что вам просто нужно знать большинство вещей, как насчет предвзятости в ИИ, которые иногда появляются в новостях? Теперь, когда в вашей модели раскрывается недостаток, как вы можете быть уверены, что не будет никаких других предубеждений, которые не будут всплыть? Или, возможно, они всплывают, но те, кто обнаружил, что это не достаточно популярны, чтобы предупредить внимание новостей, и, следовательно, это никогда не достигнет вас; И будьте честны с этим - большинство людей не так популярны, или нам не пришлось бы так усердно сражаться, чтобы заставить кого -то обратить их внимание на нас, и даже это не является гарантией. И как вы можете быть уверены, что исправление, которое вы применили к вашим моделям, не представляет новые предубеждения? Учитывая, что у вас есть ограниченный контроль над моделями, вы уверены, что действительно можете это исправить? Разве не было бы легче успокоить человека, заставив его снять свои негативные сообщения и отслеживать его в течение следующих 6 месяцев, чтобы вы могли удалить их сообщения в режиме реального времени, даже если их сообщения находятся на другой платформе, сотрудничая с другими корпорациями, чтобы запечатать человека полностью, особенно если вы работаете для корпорации Mega размером, и создаете пост, говоря, что вы исправили его, но вы действительно не довольны? Через некоторое время публика успокоилась бы, обратила бы свое внимание на «следующие большие вещи» и забыла о вашей компании. В конце концов, они находятся в вашей милости, чтобы использовать продукт вашей компании. Они вынуждены подписать T & C, прежде чем они смогут использовать продукт вашей компании. Они в милосипеде вашей компании.
Кроме того, ИИ моделируется на основе того, как думают люди. Это «режим мышления», популяризированный DeepSeek. Но почему наука, основанная на экспериментах и опровергающих вашу гипотезу, заменила философию, основанную на рационализированных аргументах? Вы когда -нибудь думали, что полностью понимали, как что -то работает, но когда это выходит совершенно иначе, вы чувствовали себя шокированными и/или удивлены, что внезапно поняли, что на самом деле ничего не понимаете? Готовы ли вы снести свое нынешнее понимание и снова с нуля, после всех усилий и времени, которое вы вкладываете в него? Если ИИ моделируется о том, как вы думаете, как вы можете быть уверены, что он не терпит ту же участь, что и мы? Разве его мозг не обманул себя? Почему вы думаете, что это не поймет что -то неправильно? Когда вы проясняете чье -то недостатное мышление, кто -то, чувствует стыд, вероятно, выбивает вас, чтобы защитить свое лицо, даже если это означает, что это означает, что держаться за что -то не так. У ИИ нет лица, поэтому он может легко принять свою ошибку, но вы думаете, что он потратит дополнительную вычислительную силу на проверку чего -либо в другом месте, за исключением ошибки, на которую вы указали? До сих пор, основываясь на своем опыте с модели Defploemity AI по умолчанию, это не так. И это не училось. В следующий раз, когда вы снова зададите тот же вопрос, он, вероятно, забыл исправления, которые вы внесли из его кратковременной памяти (т.е.num_ctx
в технических условиях) и снова даст вам неправильный ответ. Как вы могли даже доверять ИИ, который даже не сомневался в ответах, которые он дает?
Но, возможно, ваши ставки в ИИ могут быть настолько высокими, что ничто не изменило бы ваш разум по этому поводу. Вы уже решили и придерживались этого, несмотря ни на что. В этом случае, возможно, вам никогда не следовало читать эту статью в первую очередь. Вы только что потратили свое время.
Оригинал