
Четыре типа машинного обучения | Часть 2
3 декабря 2022 г.В предыдущем сообщении мы видели первые два виды машинного обучения. В этом посте мы обсудим два других типа машинного обучения. Это — полууправляемое машинное обучение и обучение с подкреплением.
Обучение под наблюдением
Это новый тип обучения, который является важной частью области машинного обучения. Мы используем этот тип обучения, когда у нас есть несколько размеченных данных и много неразмеченных данных в процессе обучения. Этот тип обучения находится между контролируемым и неконтролируемым обучением. Та часть, где у нас есть помеченные данные, относится к контролируемому домену, а количество немаркированных данных относится к неконтролируемому домену.
Получение размеченных данных очень дорого и требует много времени, в то время как получение неразмеченной информации является простым и недорогим. Использование неразмеченных данных с размеченными данными привело к значительному повышению точности обучения.
Таким образом, могут возникнуть ситуации, когда у нас есть небольшое количество размеченных данных и большое количество неразмеченных данных. Тогда в таких случаях мы не можем перейти ни к контролируемой, ни к неконтролируемой стратегии обучения. Так что в таких случаях нам на помощь приходит полууправляемое обучение. Мы можем значительно повысить точность и сэкономить время и силы при маркировке каждой точки данных.
Аналогия.
На языке непрофессионала или словами, которые легко понять, полуконтролируемое обучение похоже на наблюдение за учеником в течение короткого промежутка времени, а затем позволяет ему идти и бродить по полю самостоятельно.
Он решает задачи классификации. Это означает, что вам понадобятся некоторые контролируемые детали. Затем в то же время вам нужно обучать модель на больших наборах неразмеченных данных, для чего вам нужна неконтролируемая часть машинного обучения.
Основная идея состоит в том, чтобы сгруппировать разные точки данных в одних и тех же кластерах, а затем использовать контролируемое обучение, чтобы назвать точки данных или экземпляры в этих группах.
Например, предположим, что у нас есть набор данных из 1000 изображений различных транспортных средств. И у нас есть четыре категории, и 100 точек данных или экземпляров помечены именами этих категорий. Затем мы используем концепцию полуконтролируемого обучения. Во-первых, нам нужно создать кластеры изображений, содержащих одинаковые автомобили. Как только группа кластеров была сформирована с использованием подхода к обучению без учителя, вступает в игру задача обучения с учителем. Затем мы присваиваем имена различным коллекциям и, следовательно, нескольким экземплярам в этих кластерах. Таким образом, мы используем частично контролируемое обучение для обучения модели с использованием обеих стратегий обучения, т. е. контролируемого и неконтролируемого обучения.
Обучение с подкреплением
В этой стратегии машинного обучения нас интересует, как агент максимизирует вознаграждение. В этом обучении есть несколько важных концепций, которые необходимо понять.
Первый — Агент.
Агент — это исполнитель действия — машина, которая выполняет действие в среде. Вся цель агента состоит в том, чтобы сделать вознаграждение максимальным, выполняя действия правильно. Если агент выполняет действие неправильно, то агент получает наказание, то есть вознаграждение уменьшается из общего хранилища вознаграждений агента.
Второй — действие.
Это действия, которые агент выполняет в среде. Некоторые примеры: робот ходит, робот играет в теннис и т. д.
Третий — Окружающая среда.
Среда — это игровое поле для агента. Здесь он совершает действия. Среда может быть разной. Для игрового ИИ это игра. Для робота-уборщика это дом, а для марсохода — Марс.
Четвертый — Награда.
Награда — это достижение, которое увеличивает счет агента. В процессе обучения непрерывно циркулируют награды. Агент пытается максимизировать вознаграждение, и он делает это так, чтобы его отношения встали. Примером награды может быть увеличение счета во время игры.
Пятое — состояние.
Состояние означает обновленную среду. Когда агент выполняет какое-либо действие в среде, среда обновляется. Эта обновленная среда возвращается агенту и называется состоянием.
Это использование этого типа обучения происходит, когда у нас нет данных для начала. В обучении с подкреплением агент начинает выполнять задачи, и если он выполняет задачи правильно, агент получает вознаграждение, а если он ошибается, его наказывают. Как и в приведенном выше примере, увеличение счета – это награда, а снижение – наказание.
Для аналогии, это как оставить человека в машине и сказать ему, чтобы он научился водить. Он будет учиться вождению самостоятельно, делая ошибки и исправляя их. Здесь наградой могут быть деньги. Если водитель не ошибется, он получит 1$, а если ошибется, то даст 50 центов.
Выводы
Это четыре типа стратегий машинного обучения. Все алгоритмы машинного обучения попадают в одно из вышеперечисленных обучений. Они предлагают чрезвычайно значительное количество алгоритмов, которые могут быть реализованы. Мы обсудим их в следующих сообщениях.
Если вам понравился контент, поделитесь им 🙂 , а если вы считаете, что контент нуждается в улучшении, оставьте комментарий ниже с предложениями.
Также опубликовано Здесь
Оригинал