Скачиваний:
0
Добавлен:
10.03.2026
Размер:
18.12 Кб
Скачать

Нейронные сети (искусственные нейронные сети) — это математические модели, созданные по аналогии с работой головного мозга человека. Они состоят из множества простых вычислительных элементов — нейронов, соединённых между собой. Каждое соединение имеет определённый вес, который настраивается в процессе обучения.

Главная задача нейросети — находить сложные закономерности в данных и делать на их основе прогнозы или классификацию (например, распознавать лица, переводить текст, предсказывать погоду).

Как это работает?

· Входные данные (изображение, текст, числа) подаются на первый слой нейронов.

· Сигналы проходят через сеть, преобразуясь с помощью математических операций и функций активации.

· На выходе получается результат (например, «это кошка» или «завтра будет дождь»).

Обучение

Нейросеть не программируется явно, а обучается на примерах. Ей показывают множество пар «вход — правильный ответ», и она постепенно подстраивает веса связей так, чтобы её собственные ответы становились всё ближе к эталонным. Этот процесс называется минимизацией ошибки.

Где применяются?

· Компьютерное зрение (распознавание объектов, лиц).

· Обработка естественного языка (переводчики, чат-боты).

· Медицина (диагностика по снимкам).

· Финансы (прогнозирование курсов).

· Игры и искусственный интеллект.

  1. Биологический прототип

Нейронные сети вдохновлены работой человеческого мозга.

· Функции мозга: Обработка сенсорной информации (зрение, слух, вкус, осязание), управление движением, принятие решений.

· Устройство биологического нейрона:

· Ядро (Сома): Центральная часть клетки, содержит генетическую информацию и управляет метаболизмом.

· Дендриты: Входные каналы, принимающие сигналы от других нейронов.

· Аксон: Выходной канал, передающий импульс другим клеткам.

· Синапс: Место контакта между аксоном одного нейрона и дендритом другого, где происходит передача сигнала.

  1. Формальный нейрон (Математическая модель)

Первая математическая модель имитирует принцип «все или ничего».

· Модель Мак-Каллока и Питтса (1943):

Нейрон получает несколько входных сигналов x_i, умножает их на веса w_i, суммирует и сравнивает с порогом \theta.

· Условие возбуждения:

S = sum_{i=1..n} w_i * x_i

Y = 1, если S >= θ; иначе 0.

· Расширенная модель (1958): Входные сигналы и веса могут принимать любые действительные числа (например, в диапазоне [-1; 1]).

  1. Функции активации

Функция активации f преобразует взвешенную сумму S в выход нейрона y.

    1. Логическая (пороговая):

Y = 1, если S >= θ; иначе 0.

Б) Линейная:

Y = c * S.

В) Сигмоидная (логистическая):

Y = 1 / (1 + exp(-a * S)).

Г) Гиперболический тангенс:

Y = (exp(a * S) – exp(-a * S)) / (exp(a * S) + exp(-a * S)).

Д) Рациональная сигмоида (функция Эллиота):

Y = S / (a + |S|).

  1. Архитектура нейросети. Персептрон

· Структура: Нейроны объединяются в слои.

· Персептрон: Простейшая сеть прямого распространения, состоящая из входного и выходного слоёв. Используется для распознавания образов.

  1. Обучение персептрона

Цель обучения — минимизировать ошибку между реальным выходом сети Y и желаемым D.

· Обозначения:

· X — входной вектор.

· W — матрица весов.

· Y — реальный выход.

· D — эталонный выход.

· E = D – Y — вектор ошибки.

· Цель обучения: E \to \min (минимизация ошибки).

· Критерий качества — суммарная квадратичная ошибка (СКО): СКО = (1/2) * sum_{i=1..n} (d_i – y_i)^2.

Минимизация СКО путём подбора весов W — суть процесса обучения.

Термины «восприятие информации» и «обратная связь» (зрение, слух и т.д.) соответствуют входному слою, получающему данные из внешней среды. «Обновление (восстанавливание записи)» — это обобщение, способность сети правильно реагировать на новые данные.