Даты: 12,16,17,19,23,24 мая 2023 г.
Занятия с 17.00 до 20.00
Лекция 1 Входные требования. Введение в программу
Постановки задач
Обзор программы
Термины линейной алгебры
Примеры представления объектов
Правила работы с матрицами и векторами на уровне 1-2 курса технического вуза.
Лекция 2 Основные типы моделей для поиска закономерностей в данных
Регрессионный анализ
Кластеризация данных
Простые и обобщенные деревья решений
Сокращение данных – метод главных компонент
Эволюционные алгоритмы
Нейронные сети
Лекция 3 Введение в анализ данных
Введение в анализ данных и распознавание образов
Первичное преобразование данных, поиск выбросов
Регрессионный анализ, скользящий контроль
Деревья решений, простая и обобщенная формы
Лекция 4 Близость (похожесть) объектов. Кластеры и их поиск
Кластер как связная компонента графа.
Построение минимального покрывающего дерева.
Метод К средних, простая и обобщенная версии.
Иерархический кластер-анализ, дендрограммы
Лекция 5 Метод главных компонент
Факторы и их поиск, SVD разложение матрицы
Геометрический смысл факторов
Регрессия на факторах
Многомерное шкалирование
Лекция 6 Продвинутые методы анализа
Эволюционные алгоритмы – МГУА, генетические
Кернел функции – «беспризнаковый» анализ данных
SVM и поддерживающие вектора
«Когда мало данных» – Метод Bootstrap
Семейства прогнозирующих алгоритмов
«Нечеткие» признаки (Fuzzy)
«Нечеткие» классификаторы
Лекция 7 Нейронные сети. Часть 1
Модель персептрона и ее ограничения
Классические нейронные сети, слой нейронов, два типа нейронов
Задачи, решаемые нейронными сетями, «Глубокое обучение»
Лекция 8 Нейронные сети. Часть 2
Анализ Изображений и сверточные нейросети
Нейросети и «Инженерия признаков»
Проблема переобучения
Перспективы развития нейросетей
Графические процессоры (GPU).
Лекция 9 Закрепление знаний
Повторение основного материала на практическом примере
Подведение итогов
Накопительный зачет