
- •МНа. Задачі, методи та зв'язок з іншими дисциплінами;
- •Постановка навчальної проблеми (well-posed learning problems) в мНа;
- •Побудова навчальної системи. Складові, особливості;
- •Навчальна та тестова вибірка. Особливості формування;
- •Типи навчання (з учителем, без учителя, ліниве, нетерпляче)
- •Основні статистичні характеристики даних та їх фізичний зміст;
- •Основні особливості алгоритмів індуктивного навчання концептам;
- •Теорема подання простору версій (Version space representation theorem);
- •Алгоритм Find-s;
- •Алгоритм Candidate-elimination;
- •Виснаження простору версій;
- •Алгоритм id3;
- •Пошук в просторі гіпотез для алгоритмів дерев рішень;
- •Індуктивне упередження (inductive bias) алгоритму id3;
- •Методи відсікання гілок;
- •Метод відсікання гілок зі зменшенням помилки (reduced-error pruning);
- •Метод подальшого відсікання гілок (rule-post prunning);
- •Надмірне підганяння (overfitting) в деревах рішень та методи боротьби з ним;
- •Обробка безперервних значень для побудови дерев рішень;
- •Розрахунок основних інформ. Показників для побудови дерев рішень (entropy, ig);
- •Альтернативні методи обрання атрибутів (split information, gain ratio)
- •Теорема Байєса та її застосування в машинному навчанні;
- •Обчислення умовних та безумовних ймовірностей;
- •Оптимальний Байєсівський класифікатор;
- •Алгоритм Гіббса;
- •Алгоритм наївного Байєсу;
- •Застосування наївного Баєсівського класифікатору для класифікації текст док-ів;
- •Байєсівські ймовірнісні мережі;
- •Об’єднаний розподіл ймовірності в Байєсівських ймовірнісних мережах;
- •Умовна незалежність в Баєсівських мережах;
- •Виведення за Баєсівською мережею;
- •Ансамблі класифікаторів. Методи побудови;
- •Алгоритм маніпулювання навчальною вибіркою AdaBoost для побудови ансамбля класифікаторів;
- •Алгоритм маніпулювання навчальною вибіркою Bagging для побудови ансамбля класифікаторів;
- •Алгоритм маніпулювання навчальною вибіркою Cross-validation для побудови ансамбля класифікаторів;
- •Маніпулювання цільовою функцією для побудови ансамблю класифікаторів;
МНа. Задачі, методи та зв'язок з іншими дисциплінами;
МНа (англ. ML)— обширный подраздел искусственного интеллекта, изучающий методы построения алгоритмов, способных обучаться. Целью машинного обучения является частичная или полная автоматизация решения сложных профессиональных задач в самых разных областях человеческой деятельности.
МНа вкл. такие группы м-дов: обучение на примерах (Instance-based Learning): K-NN, Locally Weighted regression, Radial Basis Functions; концептуальное обучение (Concept Learning): Find-S, Cand-Elim; Байесовское обучение (Bayesian Learning): Gibbs Algoritm, Naive Bayes Classifier, Bayes Optimal Classifier; обучение на деревьях решений (Dtree L): ID3 Algoritm.
МНа имеет широкий спектр применения: распознавание речи и изображений, техническая и медицинская диагностика, прогнозирование временных рядов, биоинформатика, обнаружение мошенничества, обнаружение спама, категоризация документов, биржевой технический анализ. Многие его методы тесно связаны с извлечением информации, интеллектуальным анализом данных. Многие методы индуктивного обучения разрабатывались как альтернатива классическим статистическим подходам.
МНа по сути многодисциплинное поле. Оно использует инфу и опыт из ИИ, ТВ и статистики, теории сложности вычислений, философии, психологии, нейробиологии и др сфер. Связь с другими дисциплинами на рисунке.
МНа тесно связано с Data Mining и Knowledge Discovery.МНа нах. на стыке матем. статистики, методов оптимизации и дискретной математики, но имеет также и собственную специфику, связанную с проблемами вычислительной эффективности и переобучения. Многие методы индуктивного обучения разрабатывались как альтернатива классическим статистическим подходам. Методы МНа составляют основу еще более молодой дисциплины – ИАД (data mining)-процесс распознавания необработанной инфы. DM это шаг в процессе KDD. KDD - относится к общему процессу нахождения полезных знаний в информации.
Постановка навчальної проблеми (well-posed learning problems) в мНа;
Комп прога обучается на опыте Е, согласно с определенным классом задачи Т и критерием качества Р, если во время выполнения задач Т, оценка Р, увеличивается с опытом Е. E.g. Пробема игры в шашки. Т:игра в шашки, Р: % выигранных игр, Е: практика в игре сама с собой. Таким же образом можно расписать так же задачи: распознавание рукописного текста, проблема автономного управления роботом. Для текста: Т:распознание и классификация рукописных слов на изображениях, Р:%правильно классифицированных, Е:БД рукописных слов с их классификацией.
Общая постановка задачи обучения по прецедентам.
Имеется мн-во объектов (ситуаций) и мн-во возм. ответов (откликов, реакций). Существует некоторая зависимость между ответами и объектами, но она не известна. Известна только конечная совокупность прецедентов—пар «объект, ответ», называемая обучающей выборкой. На основе этих данных требуется восстановить зависимость, то есть построить алгоритм, способный для любого объекта выдать достаточно точный ответ. Для измерения точности ответов определённым образом вводится функционал качества.
Данная постановка является обобщением классических задач аппроксимации функций. В классических задачах аппроксимации объектами являются действительные числа или векторы. В реальных прикладных задачах входные данные об объектах могут быть неполными, неточными, нечисловыми, разнородными. Эти особенности приводят к большому разнообразию методов машинного обучения.