Конспект лекций Белой / Разработка ИИ. Конспект лекции №4. Белая
.docxНейронные сети (искусственные нейронные сети) — это математические модели, созданные по аналогии с работой головного мозга человека. Они состоят из множества простых вычислительных элементов — нейронов, соединённых между собой. Каждое соединение имеет определённый вес, который настраивается в процессе обучения.
Главная задача нейросети — находить сложные закономерности в данных и делать на их основе прогнозы или классификацию (например, распознавать лица, переводить текст, предсказывать погоду).
Как это работает?
· Входные данные (изображение, текст, числа) подаются на первый слой нейронов.
· Сигналы проходят через сеть, преобразуясь с помощью математических операций и функций активации.
· На выходе получается результат (например, «это кошка» или «завтра будет дождь»).
Обучение
Нейросеть не программируется явно, а обучается на примерах. Ей показывают множество пар «вход — правильный ответ», и она постепенно подстраивает веса связей так, чтобы её собственные ответы становились всё ближе к эталонным. Этот процесс называется минимизацией ошибки.
Где применяются?
· Компьютерное зрение (распознавание объектов, лиц).
· Обработка естественного языка (переводчики, чат-боты).
· Медицина (диагностика по снимкам).
· Финансы (прогнозирование курсов).
· Игры и искусственный интеллект.
Биологический прототип
Нейронные сети вдохновлены работой человеческого мозга.
· Функции мозга: Обработка сенсорной информации (зрение, слух, вкус, осязание), управление движением, принятие решений.
· Устройство биологического нейрона:
· Ядро (Сома): Центральная часть клетки, содержит генетическую информацию и управляет метаболизмом.
· Дендриты: Входные каналы, принимающие сигналы от других нейронов.
· Аксон: Выходной канал, передающий импульс другим клеткам.
· Синапс: Место контакта между аксоном одного нейрона и дендритом другого, где происходит передача сигнала.
Формальный нейрон (Математическая модель)
Первая математическая модель имитирует принцип «все или ничего».
· Модель Мак-Каллока и Питтса (1943):
Нейрон получает несколько входных сигналов x_i, умножает их на веса w_i, суммирует и сравнивает с порогом \theta.
· Условие возбуждения:
S = sum_{i=1..n} w_i * x_i
Y = 1, если S >= θ; иначе 0.
· Расширенная модель (1958): Входные сигналы и веса могут принимать любые действительные числа (например, в диапазоне [-1; 1]).
Функции активации
Функция активации f преобразует взвешенную сумму S в выход нейрона y.
Логическая (пороговая):
Y = 1, если S >= θ; иначе 0.
Б) Линейная:
Y = c * S.
В) Сигмоидная (логистическая):
Y = 1 / (1 + exp(-a * S)).
Г) Гиперболический тангенс:
Y = (exp(a * S) – exp(-a * S)) / (exp(a * S) + exp(-a * S)).
Д) Рациональная сигмоида (функция Эллиота):
Y = S / (a + |S|).
Архитектура нейросети. Персептрон
· Структура: Нейроны объединяются в слои.
· Персептрон: Простейшая сеть прямого распространения, состоящая из входного и выходного слоёв. Используется для распознавания образов.
Обучение персептрона
Цель обучения — минимизировать ошибку между реальным выходом сети Y и желаемым D.
· Обозначения:
· X — входной вектор.
· W — матрица весов.
· Y — реальный выход.
· D — эталонный выход.
· E = D – Y — вектор ошибки.
· Цель обучения: E \to \min (минимизация ошибки).
· Критерий качества — суммарная квадратичная ошибка (СКО): СКО = (1/2) * sum_{i=1..n} (d_i – y_i)^2.
Минимизация СКО путём подбора весов W — суть процесса обучения.
Термины «восприятие информации» и «обратная связь» (зрение, слух и т.д.) соответствуют входному слою, получающему данные из внешней среды. «Обновление (восстанавливание записи)» — это обобщение, способность сети правильно реагировать на новые данные.
