
- •МНа. Задачі, методи та зв'язок з іншими дисциплінами;
- •Постановка навчальної проблеми (well-posed learning problems) в мНа;
- •Побудова навчальної системи. Складові, особливості;
- •Навчальна та тестова вибірка. Особливості формування;
- •Типи навчання (з учителем, без учителя, ліниве, нетерпляче)
- •Основні статистичні характеристики даних та їх фізичний зміст;
- •Основні особливості алгоритмів індуктивного навчання концептам;
- •Теорема подання простору версій (Version space representation theorem);
- •Алгоритм Find-s;
- •Алгоритм Candidate-elimination;
- •Виснаження простору версій;
- •Алгоритм id3;
- •Пошук в просторі гіпотез для алгоритмів дерев рішень;
- •Індуктивне упередження (inductive bias) алгоритму id3;
- •Методи відсікання гілок;
- •Метод відсікання гілок зі зменшенням помилки (reduced-error pruning);
- •Метод подальшого відсікання гілок (rule-post prunning);
- •Надмірне підганяння (overfitting) в деревах рішень та методи боротьби з ним;
- •Обробка безперервних значень для побудови дерев рішень;
- •Розрахунок основних інформ. Показників для побудови дерев рішень (entropy, ig);
- •Альтернативні методи обрання атрибутів (split information, gain ratio)
- •Теорема Байєса та її застосування в машинному навчанні;
- •Обчислення умовних та безумовних ймовірностей;
- •Оптимальний Байєсівський класифікатор;
- •Алгоритм Гіббса;
- •Алгоритм наївного Байєсу;
- •Застосування наївного Баєсівського класифікатору для класифікації текст док-ів;
- •Байєсівські ймовірнісні мережі;
- •Об’єднаний розподіл ймовірності в Байєсівських ймовірнісних мережах;
- •Умовна незалежність в Баєсівських мережах;
- •Виведення за Баєсівською мережею;
- •Ансамблі класифікаторів. Методи побудови;
- •Алгоритм маніпулювання навчальною вибіркою AdaBoost для побудови ансамбля класифікаторів;
- •Алгоритм маніпулювання навчальною вибіркою Bagging для побудови ансамбля класифікаторів;
- •Алгоритм маніпулювання навчальною вибіркою Cross-validation для побудови ансамбля класифікаторів;
- •Маніпулювання цільовою функцією для побудови ансамблю класифікаторів;
Умовна незалежність в Баєсівських мережах;
Важное понятие байесовской сети доверия – это условная независимость случайных переменных, соответствующих вершинам графа. Две переменные A и B являются условно независимыми при данной третьей вершине C, если при известном значении C, значение B не увеличивает информативность о значениях A, то есть p ( A | B, C ) = p ( A | C ) .
Граф кодирует зависимости между переменными. Условная независимость представлена графическим свойством d-разделенности.
Два узла направленного графа x и y называются d-разделенными, если для всякого пути из x в y (здесь не учитывается направление ребер) существует такой промежуточный узел z (не совпадающий ни с x, ни с y), что либо связь в пути в этом узле последовательная или расходящаяся, и узел z получил означивание, либо связь сходящаяся, и ни узел z, ни какой-либо из его потомков означивания не получил. В противном случае узлы называются d-связанными.
Свидетельства — утверждения вида «событие в узле x произошло». Например: «Компьютер не загружается».
Вершина является условно независимой от ее предшественников, если заданы ее родительские вершины. Как оказалось, можно также двигаться в другом направлении. Мы можем начать с "топологической" семантики, которая задает отношения условной независимости, закодированные в структуре графа, а из этой информации вывести "числовую" семантику. Топологическая семантика задается любой из приведенных ниже спецификаций, которые являются эквивалентными.
1. Вершина является условно независимой от вершин, не являющихся ее потомками, если даны ее родительские вершины.
2. Вершина является условно независимой от всех других вершин в сети, если даны ее родительские вершины, дочерние вершины и родительские вершины дочерних вершин, т.е. дано ее марковское покрытие (Markov blanket).
На основании приведенных утверждений об условной независимости и таблиц СРТ можно реконструировать полное совместное распределение; таким образом, "числовая" семантика и "топологическая" семантика являются эквивалентными.
Виведення за Баєсівською мережею;
Точный вероятностный вывод в байесовских сетях.
Основной
задачей для любой системы вероятностного
вывода является вычисление распределения
апостериорных вероятностей для множества
переменных запроса, если дано некоторое
наблюдаемое событие, т.е. если выполнено
некоторое присваивание значений
множеству переменных свидетельства.
Будем обозначать: X - переменная запроса;
—
множество
переменных свидетельства,E1...Em; е —
конкретное
наблюдаемое событие; обозначает
переменные, отличные от переменных
свидетельства, Y1...Yn (иногда называемые
скрытыми переменными). Таким образом,
полное множество переменных определяется
выражением
типичном запросе содержится просьба
определить распределение апостериорных
вероятностей P (X|e).
Приближенный вероятностный вывод в байесовских сетях
И
сходя
из того, что точный вероятностный вывод
в больших многосвязных сетях является
неосуществимым, важно предусмотреть
методы приближенного вероятностного
вывода. Рандомизированные алгоритмы
выборки (называемые также алгоритмами
Монте-Карло), обеспечивают получение
приближенных ответов, точность которых
зависит от количества сформированных
выборок. В последние годы алгоритмы
Монте-Карло нашли широкое распространение
в компьютерных науках для получения
оценочных значений величин, которые
трудно вычислить точно.
Методы вывода по Байесовской сети - это:
1. Построение формальной модели (графа) ПО и событий.
2. Получение вероятностей по опред. статистическим параметрам.
3.Узнать либо остальные (неданные) вероятности, либо пересчитать вероятности при условии изменения вероятности одного из узлов.