Вопросы ММРО с6 2006 — различия между версиями
Материал из YourcmcWiki
м (Новая страница: «Билеты к курсу «Математические методы распознавания образов».<br /> лектор: к.ф.-м.н. Дьяконо...») |
м (переименовал «Вопросы ММРО 2006» в «Вопросы ММРО с6 2006») |
(нет различий)
|
Текущая версия на 00:28, 5 июня 2010
Билеты к курсу «Математические методы распознавания образов».
лектор: к.ф.-м.н. Дьяконов А. Г.
весенний семестр 2006 года, 317 группа.
- Машинное обучение. Обучение с учителем / без учителя, с подкреплением (reinforcement learning). Различные постановки задач классификации, сведение одних постановок к другим. Пример использования различных моделей алгоритмов распознавания для решения одной задачи.
- Непараметрическая оценка плотности. Два подхода: kernel density estimation (KDE) и k nearest neighbor (kNN). Метод «окно Парзена». Метод «kNN». kNN-классификатор. Понятие «ленивого алгоритма». Эффективная реализация kNN-классификатора.
- Классификация с помощью дискриминантных функций (основная концепция, применение, случай нескольких классов). Линейная дискриминантная функция. Теорема Новикова. Схема поощрения-наказания. Алгоритм дробной коррекции.
- Оптимальная разделяющая гиперплоскость. Алгоритм Гаусса-Зейделя.
- Алгоритм, основанный на минимизации средней квадратичной ошибки. Алгоритм Хо-Кашьяпа. Линейный дискриминант Фишера.
- Случай линейно неразделимых классов. Метод потенциальных функций (общая схема, применение, примеры потенциалов 1го и 2го типа, теорема о сходимости, построение систем о/н функций).
- SVM (основная идея, сведение к задаче квадратичного программирования, выбор ядра, применение).
- Нейросети. Математическая модель нейрона. Задача XOR. Многослойные нейросети (общая схема, реализация булевых функций, классификация произвольных конечных выборок). Иллюстрация эффекта переобучения. Функции активации.
- Теорема Колмогорова. Эвристики настройки нейросети (дельта правило, правило Хебба, delta-bar-delta). Алгоритм обратного распространения.
- Алгебро-логические исследования персептрона (результаты Минского и Пейперта). Порядок предикатов, ограничение по диаметру, предикаты «выпуклость», «связность», «чётность». Использование формулы Эйлера.
- Скользящий контроль. Бритва Оккама. Принцип MDL. Применения нейросетей. Кодирование. RBF-сети.
- Кластеризация. Постановка задачи. Алгоритм k-средних (стандартный и «мягкий»). Кластеризация с помощью минимизации функционала. Метрики. «Основной» алгоритм кластеризации.
- Иерархическая кластеризация. Дендограммы. Графовые алгоритмы. Single link (ближайший сосед), complete link (дальний сосед). Ничьи. Слияние кластеров (различные подходы). Оценка алгоритмов кластеризации. Классификация алгоритмов.
- Логические алгоритмы распознавания. Логическая закономерность. Классификация с помощью ДНФ. Общая схема логических алгоритмов. Алгоритм «Кора». Алгоритмы с представительными наборами.
- АВО. Решающие деревья. Решающие списки. Тестовые алгоритмы. Задача о покрытии.
- Комитеты (большинства, единогласия). Оценки числа членов комитета. Построение комитетов.