Учебно-методическое пособие по лабораторным и практическим занятиям, самостоятельной и индивидуальной работе студентов
Кафедра автоматизированных систем управления
Библиографическая запись:
Оглавление (содержание)
Введение 5
1 Практическое задание 1. 6
1.1 Задачи доказательства теорем в логике высказываний и предикатов 6
1.2 Разработка экспертной системы с учетом ненадежности знаний 10
1.2.1 Продукционная модель представления знаний 10
1.2.3 Представление нечетких знаний. Ненадежные знания и выводы. 15
1.2.4 Субъективный байесовский метод 20
1.3 Изучение системы Clips 23
1.3.1 Варианты задач 24
1.3.2 Решение задачи в пространстве состояний «волк, коза, капуста» 24
1.4 Основные сведения о CLIPS 26
1.4.1 Факты и шаблоны в CLIPS 27
1.4.2 Глобальные переменные CLIPS 27
1.4.3 Правила в CLIPS 29
1.4.4 Процесс выполнения действий в CLIPS 31
1.4.5 Стратегии разрешения конфликтов в CLIPS 32
1.4.6 Функции CLIPS 34
1.4.7 Модули CLIPS 38
2 Практическая работа №2. Изучение библиотеки работы с НС keras на примере задач регрессии, классификации и задания стиля изображения 40
2.1 Задание а. Реализация алгоритма обратного распространения ошибки. 40
2.1.1 Общие сведения о нейронных сетях 40
2.1.2 Алгоритм обратного распространения ошибки 43
2.1.3 Код алгоритма обратного распространения ошибки на языке Python. 44
2.3 Задание в. Решение нейронной сетью задачи классификации и регрессии 50
2.4 Задание г. По вариантам. Решение задачи регрессии и классификации 54
2.5 Задание д. Стилизация изображения 58
3 Практическая работа №3. Аутоэнкодер. Вариационный аутоэнкодер 64
3.1 Автоэнкодер 64
3.2 Вариационный автоэнкодер 69
3.3 Задание 74
4 Лабораторная работа №4. Генеративно-состязательные сети (GAN) 75
4.1 Модель GAN 78
4.2 Обучение GAN 78
4.2.1 Способы решения проблемы схлопывания мод распределения 79
4.2.2 Способы решения проблемы стабильности обучения 80
4.3. Рассмотрение видов GAN 80
4.3.1 CGAN 80
4.3.2 DCGAN 81
4.3.3 StackGAN 82
4.3.4 LAPGAN 84
4.3.5 ControlGAN 85
4.3.6 Super resolution GAN 86
4.4 Метрика Вассерштейна 92
4.6 Градиент Пенальти (Штраф градиента) 94
4.7 Ограничение Липшица 95
4.8 Введение в задачу генерации изображений 95
4.8.1 Генеративно-состязательные сети (GAN) 96
4.8.2 Проблемы с обучением GAN 96
4.8.3 Код, реализующий GAN с использованием Keras 98
4.8.4 Код, реализующий WGAN с использованием Keras 100
4.9 Примеры кода реализующие проверку работы различных видов GAN 101
4.9.1 Реализация Conditional GAN 101
4.9.2 Реализация стандартной GAN 108
4.9.3 Реализация WGAN 111
4.10 Диффузионные нейронные сети 115
4.11 Задание 115
5 Лабораторная работа №.2 обучение с подкреплением 116
5.1 Общая постановка задачи обучения с подкреплением 116
5.1.1 CEM (Кроссэнтропийный метод) 118
5.2 Итерация политики (Policy iteration). 118
5.3 Итерация значения (функции ценности) (Value iteration) 119
5.4 Q-learning 119
5.5 Double Q – learning 120
5.6 Sarsa 120
5.7 DQN 121
5.7.1 Dueling DQN 123
5.7.2 Average DQN 126
5.8 DDPG 126
5.9 TD3 127
5.10 SAC 128
5.10.1 Дискретная версия SAC 130
5.11 Policy gradients 131
5.11.1 Использование будущего выигрыша вместо полного выигрыша 134
5.12 Алгоритм актора-критика с преимуществом (A2C) 134
5.13 Асинхронный актор-критик (A3C) 136
5.14 Алгоритм TRPO (trust region policy optimization) 137
5.15 Алогритм PPO (Proximal polcy optimization) 138
5.16 Задание по алгоритмам обучения с подкреплением 138
6 Теоретический материал по языковым моделям 139
6.1 BERT 139
6.2 GPT-3 141
7 Учебно-методическое и информационное обеспечение дисциплины 144
7.1. Основная литература 144
7.2. Дополнительная литература 144
7.3. Дополнительные полезные ресурсы 144
Список использованных источников 145
ПРИЛОЖЕНИЕ А. Оформление титульного листа 147