Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Филиппов / КЗ Филиппов.docx
Скачиваний:
28
Добавлен:
18.08.2022
Размер:
13.81 Mб
Скачать
  1. Слой активации

Скалярный результат каждой свёртки попадает на функцию активации, которая представляет собой некую нелинейную функцию. Слой активации обычно логически объединяют со слоем свёртки (считают, что функция активации встроена в слой свёртки). Функция нелинейности может быть любой по выбору исследователя.

  1. Пулинг или слой субдискретизации

Слой пулинга (иначе подвыборки, субдискретизации) представляет собой нелинейное уплотнение карты признаков, при этом группа пикселей (обычно размера 2×2) уплотняется до одного пикселя, проходя нелинейное преобразование. Наиболее употребительна при этом функция максимума. Преобразования затрагивают непересекающиеся прямоугольники или квадраты, каждый из которых ужимается в один пиксель, при этом выбирается пиксель, имеющий максимальное значение. Операция пулинга позволяет существенно уменьшить пространственный объём изображения. Пулинг интерпретируется так: если на предыдущей операции свёртки уже были выявлены некоторые признаки, то для дальнейшей обработки настолько подробное изображение уже не нужно, и оно уплотняется до менее подробного. К тому же фильтрация уже ненужных деталей помогает не переобучаться. Слой пулинга, как правило, вставляется после слоя свёртки перед слоем следующей свёртки.

  1. Полносвязная нейронная сеть

После нескольких прохождений свёртки изображения и уплотнения с помощью пулинга система перестраивается от конкретной сетки пикселей с высоким разрешением к более абстрактным картам признаков, как правило, на каждом следующем слое увеличивается число каналов и уменьшается размерность изображения в каждом канале. В конце концов, остаётся большой набор каналов, хранящих небольшое число данных (даже один параметр), которые интерпретируются как самые абстрактные понятия, выявленные из исходного изображения.

Эти данные объединяются и передаются на обычную полносвязную нейронную сеть, которая тоже может состоять из нескольких слоёв. При этом полносвязные слои уже утрачивают пространственную структуру пикселей и обладают сравнительно небольшой размерностью (по отношению к количеству пикселей исходного изображения).

Перечислите несколько архитектур сверточных нейронных сетей, разберите одну подробно, например ResNet

Примеры: AlexNet, LeNet5, ResNet, XResNet, EfficientNet

AlexNet:

CONV1 — первый свёрточный слой

MAX POOL1 — первый pooling-слой

NORM1 — первая нормализация

CONV2 — второй свёрточный слой

MAX POOL2 — второй pooling-слой

NORM2 — вторая нормализация

CONV3 — третий свёрточный слой

CONV4 — четвёртый свёрточный слой

CONV5 — пятый свёрточный слой

Max POOL3 — третий pooling-слой

FC6 — полносвязный слой

FC7 — полносвязный слой

FC8 — полносвязный слой

LeNet5:

Что такое transfer learning и как его осуществляют в контексте классификации изображений?

Transfer Learning (трансферное обучение) — это подраздел машинного обучения, целью которого является применение знаний, полученные из одной задачи, к другой целевой задаче.

Идея трансфертного обучения заключается в том, чтобы взять модель, обученную одной задаче, и применить ее ко второй, аналогичной задаче. Тот факт, что модель уже обучена некоторым или всем весам для второй задачи, означает, что модель может быть реализована гораздо быстрее. Это позволяет быстро оценивать производительность и настраивать модель, обеспечивая более быстрое развертывание в целом. Трансферное обучение становится все более популярным в области глубокого обучения, благодаря огромному количеству вычислительных ресурсов и времени, необходимых для обучения моделей глубокого обучения, в дополнение к большим, сложным наборам данных.

Основным ограничением трансферного обучения является то, что особенности модели, изученные в ходе выполнения первой задачи, являются общими, а не специфичными для первой задачи. На практике это означает, что модели, обученные распознавать определенные типы изображений, могут быть повторно использованы для распознавания других изображений, если общие черты изображений схожи.

Существует два способа выбора модели трансферного обучения. Можно создать модель с нуля для собственных нужд, сохранить параметры и структуру модели, а затем повторно использовать ее позже.

Второй способ реализации трансфертного обучения – это просто взять уже существующую модель и повторно использовать ее, настраивая при этом ее параметры и гиперпараметры.

Соседние файлы в папке Филиппов