Вопросы ММРО с6 2006 — различия между версиями

Материал из YourcmcWiki
Перейти к: навигация, поиск
м (Новая страница: «Билеты к курсу «Математические методы распознавания образов».<br /> лектор: к.ф.-м.н. Дьяконо...»)
 
м (переименовал «Вопросы ММРО 2006» в «Вопросы ММРО с6 2006»)
 
(нет различий)

Текущая версия на 00:28, 5 июня 2010

Билеты к курсу «Математические методы распознавания образов».
лектор: к.ф.-м.н. Дьяконов А. Г.
весенний семестр 2006 года, 317 группа.

  1. Машинное обучение. Обучение с учителем / без учителя, с подкреплением (reinforcement learning). Различные постановки задач классификации, сведение одних постановок к другим. Пример использования различных моделей алгоритмов распознавания для решения одной задачи.
  2. Непараметрическая оценка плотности. Два подхода: kernel density estimation (KDE) и k nearest neighbor (kNN). Метод «окно Парзена». Метод «kNN». kNN-классификатор. Понятие «ленивого алгоритма». Эффективная реализация kNN-классификатора.
  3. Классификация с помощью дискриминантных функций (основная концепция, применение, случай нескольких классов). Линейная дискриминантная функция. Теорема Новикова. Схема поощрения-наказания. Алгоритм дробной коррекции.
  4. Оптимальная разделяющая гиперплоскость. Алгоритм Гаусса-Зейделя.
  5. Алгоритм, основанный на минимизации средней квадратичной ошибки. Алгоритм Хо-Кашьяпа. Линейный дискриминант Фишера.
  6. Случай линейно неразделимых классов. Метод потенциальных функций (общая схема, применение, примеры потенциалов 1го и 2го типа, теорема о сходимости, построение систем о/н функций).
  7. SVM (основная идея, сведение к задаче квадратичного программирования, выбор ядра, применение).
  8. Нейросети. Математическая модель нейрона. Задача XOR. Многослойные нейросети (общая схема, реализация булевых функций, классификация произвольных конечных выборок). Иллюстрация эффекта переобучения. Функции активации.
  9. Теорема Колмогорова. Эвристики настройки нейросети (дельта правило, правило Хебба, delta-bar-delta). Алгоритм обратного распространения.
  10. Алгебро-логические исследования персептрона (результаты Минского и Пейперта). Порядок предикатов, ограничение по диаметру, предикаты «выпуклость», «связность», «чётность». Использование формулы Эйлера.
  11. Скользящий контроль. Бритва Оккама. Принцип MDL. Применения нейросетей. Кодирование. RBF-сети.
  12. Кластеризация. Постановка задачи. Алгоритм k-средних (стандартный и «мягкий»). Кластеризация с помощью минимизации функционала. Метрики. «Основной» алгоритм кластеризации.
  13. Иерархическая кластеризация. Дендограммы. Графовые алгоритмы. Single link (ближайший сосед), complete link (дальний сосед). Ничьи. Слияние кластеров (различные подходы). Оценка алгоритмов кластеризации. Классификация алгоритмов.
  14. Логические алгоритмы распознавания. Логическая закономерность. Классификация с помощью ДНФ. Общая схема логических алгоритмов. Алгоритм «Кора». Алгоритмы с представительными наборами.
  15. АВО. Решающие деревья. Решающие списки. Тестовые алгоритмы. Задача о покрытии.
  16. Комитеты (большинства, единогласия). Оценки числа членов комитета. Построение комитетов.