Нет оценок, нет богов, нет ворот: контркультура

Нет оценок, нет богов, нет ворот: контркультура

23 июля 2025 г.

Ай-местный кампус, о котором никто не просил

Представьте себе: студенты перетаскиваются в лекционные залы, нейронные гарнитуры, блестящие под люминесцентными огнями. Их курсовая работа? Генерируется большими языковыми моделями. Их оценки? Присвоен проприетарными информационными панелями AI, которые измеряют взаимодействие с помощью биометрической обратной связи и паттернов клавишных. Профессоры становятся посредниками алгоритмической доставки контента. Обучение становится оптимизацией.

Стерильный. Эффективный. Безрадостно.

Что, если это будущее не исправляет образование - оно похоронит его?

Брайан Харви, ветеран -педагог по информатике в Калифорнийском университете в Беркли, прорезает евангелизацию ИИ с характерной тупой:

«Какая ужасная идея! ИИ - потенциально полезная технология, но она не является центром вселенной, и она также не должна быть центром университета».

Его слова приземляются как ведро холодной воды на лихорадочных мечтах предпринимателей Edtech. Но Харви не является люддитом - он прагматик, который наблюдал за образовательными причудами приезжает и уходит десятилетиями. Он понимает что-то, что толпа ИИ-коренного университета, кажется, полностью упускает: технологии служат педагогикой, а не наоборот.

Переключатель убийств учебного плана: что мы должны уйти в отставку (и что его заменить)

Стандартное повествование относится к следующему: учебные программы информатики должны быть потрошены, чтобы освободить место для ИИ. С курсами пыльных алгоритмов. В быстрых инженерных буткемпах. Замените дискретную математику на архитектуру нейронной сети. Обратный язык сбора на трансформатор тонкой настройки.

Харви полностью переворачивает это.

Вместо того, чтобы делать AI центральным элементом, он выступает за что -то более радикальное: поместитель дизайна пользовательского интерфейса в основе образования в области компьютерных наук. Почему? Потому что настоящая проблема не в том, что студенты не понимают ИИ - это то, что они не понимают людей.

«Спросите кого -нибудь, что они думают о взаимодействии с компьютерами, и они скажут вам, насколько это разочаровывает», - отмечает Харви. Он прав. Мы живем в эпоху, когда ИИ на уровне доктора наук может писать стихи, но мы не можем спроектировать банковское приложение, которое не заставляет пользователей хотеть бросить свои телефоны через комнату ».

Рассмотрим средний университетский портал. Студенты ориентируются на лабиринтные системы меню, чтобы найти свои оценки. Преподаватели борются с системами управления обучением, которые чувствуют себя разработанными комитетами - коммертами, которые, по -видимому, никогда не использовали свое собственное программное обеспечение. Эти интерфейсы представляют собой десятилетия технологического прогресса, обслуживающего пользовательский опыт, который смутит веб -страницу 1990 -х годов.

Исправление не больше ИИ. Это больше человечества.

Простой пример: вместо создания чат -бота ИИ, чтобы ответить на вопросы студентов о регистрации курса, почему бы не спроектировать систему регистрации, настолько интуитивную, что вопросы становятся ненужными? Вместо того, чтобы развернуть обработку естественного языка, чтобы разобрать жалобы студентов, почему бы не создавать интерфейсы, которые в первую очередь не генерируют жалобы?

Но такое мышление не продает билеты на конференцию или венчурные раунды. Это не обещает революционизировать образование в одночасье. Это просто работает.

Разрыв класса автоматизации: MOOC для масс, наставничество для немногих

Вот где обещание ИИ раскрывает его наиболее тревожные последствия: появление того, что Харви называет «цифровой системой классов». Привилегированные студенты получают индивидуальное наставничество от профессоров. Все остальные получают наставников по искусственному искусству на рынке.

Экономика соблазнительна. Зачем платить человеческим инструкторам, когда CHATGPT может оценивать документы и отвечать на вопросы 24/7? Зачем поддерживать небольшие размеры класса, когда ИИ может персонализировать обучение для тысяч студентов одновременно?

Но эта эффективность составляет стоимость, которая выходит далеко за рамки качества образования. Он кодифицирует неравенство в саму структуру обучения. Элитные институты сохранят человеческий элемент - Сократический диалог, наставничество, интеллектуальная близость, которая определяла образование на протяжении тысячелетий. Государственные университеты, общественные колледжи и развивающиеся страны получат автоматизированную альтернативу.

Системы обучения ИИ обещают персонализацию, но они обеспечивают стандартизацию. Они адаптируются к стилям обучения, но не могут адаптироваться к всей сложности человеческого любопытства. Они могут ответить на вопросы, но они не могут задать вопросы, которые студенты не знают, что им нужно задать.

Понимание Харви проходит к кости: «Система цифровых классов уже здесь. Привилегированные студенты получают наставничество от профессоров, в то время как другие получают MOOC».

MOOC - Массивные открытые онлайн -курсы - должны были демократизировать образование. Вместо этого они раскрыли что -то неудобное в том, как на самом деле работает обучение. Показатели завершения колебались около 10%. Студенты, которые добились успеха, были в основном теми, кто уже обладал самодисциплина, фоновыми знаниями и социальным капиталом, чтобы добиться успеха в традиционной образовательной среде.

Репетиторы ИИ обещают решить эти проблемы посредством персонализации и участия. Но они упускают фундаментальное понимание: образование не только о передаче информации. Речь идет о человеческой связи, интеллектуальном риске и о росте, который происходит, когда вы вытесняете вашу зону комфорта тем, кто заботится о вашем развитии.

Тирания оценок: почему система уже сломана

Вот неудобная правда: ИИ не разрушил академическую оценку. Это только что разоблачило, насколько сломана система уже была.

Харви не измешивает слова: «Оценки превращают обучение, основанное на любопытства, чтобы прыгать через обручи ... они просто обижаются на всех уровнях образования». Он продолжает: «Трудно быть смелым, когда вы оцениваете».

Подумайте, что происходит, когда студенты сталкиваются с детектором плагиата с AI. Инструмент не просто помечает потенциальное мошенничество - он создает атмосферу подозрений, которая отражает все образовательные отношения. Студенты начинают писать в обороне, избегая творческих рисков, которые могут вызвать ложные позитивы. Они вторым предполагают свои собственные идеи, задаваясь вопросом, слишком ли их мысли похожи на то, что ИИ видел раньше.

Аппарат наблюдения становится все более изощренным с каждым годом. Программное обеспечение контролирует движения глаз во время экзаменов. Анализеры клавишных отслеживают шаблоны типирования, чтобы определить несанкционированную помощь. Биометрические системы измеряют уровни напряжения для обнаружения потенциального мошенничества.

Но что мы на самом деле измеряем? Оцениваем ли мы обучение или оцениваем соответствие все более параноидальной системе контроля?

Более глубокая проблема не технология - это предпосылка. Оценки уменьшают бесконечную сложность человеческого обучения до единой скалярной ценности. Они предполагают, что знание может быть объективно измерено, что творчество может быть количественно определено, что интеллектуальный рост может быть ранжирован.

Студенты усваивают эти предположения. Они учатся оптимизировать для метрики, а не для значения. Они разрабатывают то, что педагоги называют «стратегическим обучением» - искусством выяснить, что профессор хочет услышать, а не то, что они на самом деле думают.

Инструменты оценки, основанные на ИИ, обещают решить эти проблемы с помощью более сложного анализа. Они могут отслеживать траектории обучения, выявлять пробелы в знаниях и обеспечивать персонализированную обратную связь. Но они все еще в основном построены на той же ошибочной предпосылке: что обучение может быть измерено снаружи.

ИИ как зеркало, а не Спаситель

Что на самом деле рассказал ИИ в области образования в области компьютерных наук? Ответ Харви характерно прямой: «Короткий ответ -« ничего ». Не то чтобы не было слепых пятен ... но некоторые из нас знали, что без необходимости ИИ ».

Это может быть наиболее важной пониманием во всем разговоре с AI-образованием. Проблемы, которые ИИ предположительно решает - ученическое участие, персонализированное обучение, эффективность оценки - не были новыми проблемами. Это те же проблемы, с которыми преподаватели сталкиваются на протяжении десятилетий.

Разница в том, что ИИ делает эти проблемы видимыми в масштабе. Когда тысячи студентов представляют почти идентичные эссе, сгенерированные AI, становится невозможным игнорировать, что традиционные методы оценки терпят неудачу. Когда преподаватели ИИ предоставляют неизменно лучшие объяснения, чем человеческие преподаватели, это заставляет нас изучить, чему мы на самом деле учим.

Но видимость - это не то же самое, что понимание. Цикл AI Hype убедил многих преподавателей, что им нужно полностью переосмыслить свою практику. В действительности, инструменты просто раскрывают то, что хорошие учителя уже знали: что обучение является личным, что обратная связь имеет значение, что подлинное взаимодействие требует подлинной человеческой связи.

Рассмотрим слепые пятна, которые упоминает Харви. Образование в области компьютерных наук давно пренебрегало функциональным программированием, сосредоточив внимание на объектно-ориентированных подходах, которые отражают способ создания большинства коммерческих программ. Это не потому, что педагоги не знали, что функциональное программирование было важно - это потому, что учебные планы формируются по отраслевым требованиям, а не педагогическим идеалам.

ИИ не изменил эту динамику. Во всяком случае, это ускорило это. Университеты стремятся добавить курсы искусственного интеллекта не потому, что они представляют фундаментальные достижения в области компьютерных наук, а потому, что это требует студентов (и работодателей).

Результатом является своего рода образовательный театр. Студенты учатся настройке моделей трансформаторов с тонкой настройкой, не понимая математики, лежащей в основе градиентного происхождения. Они освоит приглашение на инженерию, не понимая принципы взаимодействия человека с компьютером. Они берут свободу в инструментах искусственного интеллекта, не разрабатывая навыки критического мышления, чтобы оценить свои результаты.

Создание Университета ИИ: то, что мы должны оставить позади

Если мы должны развлечь гипотетическую-если бы нам пришлось построить AI-коренного университета с нуля-что мы определенно не должны включать?

Ответ Харви ясен: «Способ не беспокоиться о« академической целостности » - прекратить давать оценки».

Это не образовательный анархизм. Это образовательный реализм. Нынешняя система создает извращенные стимулы, которые просто усиливает ИИ. Студенты обманывают, потому что они вознаграждены за производительность, а не за обучение. Факультет Обследование, потому что они привлечены к ответственности за результаты, а не процессы.

Университет AI-коренного населения, построенный на этих основаниях, будет государством наблюдения, маскирующегося в качестве учебного заведения. Автоматизированное прокторинг, алгоритмическое обнаружение плагиата и поведенческий анализ, основанный на AI, создаст среду, в которой обучение становится вторичным по отношению к соответствию.

Что бы мы сохранили? Человеческое наставничество, конечно. Этическое надзор, абсолютно. Сосредоточение внимания на пользовательском опыте и ориентированном на человека дизайна. Проекты, которые имеют значение для реальных сообществ. Методы оценки, которые не могут быть Gamed от ИИ, потому что они требуют подлинного человеческого суждения.

Что бы мы вырвали? Весь аппарат автоматической оценки и стандартизированного тестирования. АИ-ориентированные учебные программы, которые определяют приоритетное мастерство инструментов над фундаментальным пониманием. Программное обеспечение, которое рассматривает студентов как к потенциальным преступникам, а не к новым ученым.

Различие не между высокотехнологичными и низкими технологиями. Это между человеком, ориентированными на человека и машинными подходами к образованию.

Творчество против прогнозирования: где ИИ не удивляет

Харви когда-нибудь читал студенческое подчинение A-усиленного, которое изменило то, как он рассматривает творчество?

"Нет."

Ответ stark, но это не должно быть удивительным. Текущие системы ИИ являются двигателями прогнозирования. Они генерируют текст, прогнозируя наиболее вероятное следующее слово, основанное на шаблонах в своих учебных данных. Они могут производить беглую, последовательную, даже сложную прозу. Но они не могут удивить, как удивляет подлинное творчество.

Человеческое творчество часто возникает из -за ограничений, от продуктивного трения между тем, что мы хотим сказать, и тем, что мы можем сказать. Это происходит от жизненного опыта, от пересечения разрозненных идей, от того вида бокового мышления, которое возникает, когда нас вытесняют за пределы наших зон комфорта.

Творчество ИИ, напротив, является интерполятивным. Он находит пространства между существующими идеями и заполняет их правдоподобным контентом. Он может объединить элементы новыми способами, но не может генерировать по -настоящему новые элементы. Он может имитировать поверхностные характеристики творчества, не получая доступа к более глубоким источникам.

Это имеет глубокие последствия для образования. Если мы научим студентов писать «для модели» - создавать текст, который могут понять и развивать текст, мы можем научить их думать таким образом, которые в основном не содержит сознания.

Риск не в том, что ИИ заменит человеческое творчество. Риск состоит в том, что люди научатся думать как системы ИИ: генерирование правдоподобных ответов на предсказуемые подсказки, а не сталкиваться с действительно сложными вопросами.

Образование за пределами эффективности

Давайте вернемся к этому вступительному изображению: студенты в гарнитурах, связанных с нейро, курсовая работа, созданная алгоритмами, оценки, назначенные Dashboards AI. Сцена эффективна. Это масштабируемо. Это измеримо.

Это также бесчеловечно.

Настоящее образование грязно. Он включает в себя ложные запуска, мертвые концы и тип интеллектуального риска, который не может быть оптимизирован алгоритмами. Требуется смелость быть неправым, терпение бороться с трудными концепциями и мудрость знать, когда просить о помощи.

Эти качества не могут быть автоматизированы. Они едва могут быть измерены. Они, конечно, не могут быть масштабированы, чтобы обслуживать миллионы студентов одновременно.

Но они могут быть защищены. Университеты могут выбрать, чтобы сохранить человеческие элементы образования, даже когда они интегрируют инструменты искусственного интеллекта. Они могут использовать технологии для улучшения, а не заменить фундаментальные отношения, которые делают возможным обучение.

Выбор не между ИИ и человеческим обучением. Это между образованием как эффективностью и образованием как трансформация. Это между обучением как передачей информации и обучением как человеческое развитие.

ИИ будет продолжать развиваться. Это станет более сложным, более способным, более убедительным. Но это никогда не будет человеком. И образование, по сути, является глубоко человеческим предприятием.

В эпоху алгоритмов только люди могут учить человечество.

Будущее образования не о создании лучших систем ИИ. Речь идет о том, чтобы вспомнить, почему мы учимся в первую очередь: не для оптимизации результатов, а для развития того мышления, которое делает нас самыми людьми. Не для стандартизации обучения, а в честь бесконечного разнообразия человеческого любопытства.

Университет ИИ, которого никто не просил,-это тот, который забывает эти истины. Университет, который нам действительно нужен, - это тот, который помнит их.


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE