- •41. Электрорецепция.
- •42. Как влияет удаление малозначащих признаков из обучающей выборки на процесс обучения нейросети? Пример на эвм.
- •43. Пространственная конфигурация биополимеров. Типы объемных взаимодействий в белковых макромолекулах. Водородные связи.
- •44. Хеморецепция.
- •45. Показать последовательность обучения и тестирования нейронной сети. Что такое внешняя выборка.
- •46. Взаимодействие макромолекул с растворителем. Состояние воды и гидрофобные взаимодействия в биоструктурах.
- •47. Восприятие запахов: пороги, классификация запахов.
- •48. Каким параметром характеризуется быстрота затухания колебаний, и какие процессы в живой природе имеют колебательный характер
- •49. Особенности пространственной организации белков и нуклеиновых кислот. Модели фибрилляторных и глобулярных белков. Качественная структурная теории белка.
- •50. Бактериородопсин как молекулярный фотоэлектрический генератор.
- •51. По каким физическим параметрам классифицируются биопотенциалы и какие требования предъявляются к усилителям биопотенциалов в этой связи.
- •52. Структура и функционирование биологических мембран. Мембрана как универсальный компонент биологических систем.
- •53. Вкус. Вкусовые качества. Строение вкусовых клеток.
- •55. Бислойные мембраны. Протеолипосомы. Поверхностный заряд мембранных систем.
- •56. Фотохимические превращения родопсина. Рецепторные потенциалы.
- •57. Описать методику выполнения измерений длительности сенсомоторных реакций (р-тест).
- •58. Антиоксиданты, механизм их биологического действия. Естественные антиоксиданты тканей и их биологическая роль.
- •59. Закон Вебера-Фехнера.
- •60. Как проверить экспериментально закон Вебера-Фехнера.
45. Показать последовательность обучения и тестирования нейронной сети. Что такое внешняя выборка.
Искусственная нейронная сеть представляет собой вычислительную архитектуру для обработки сложных данных с помощью множества связанных между собой процессоров и вычислительных путей. Искусственные нейронные сети, созданные по аналогии с человеческим мозгом, способны обучаться и анализировать большие и сложные наборы данных, которые с помощью более линейных алгоритмов обработать крайне сложно. Для обучения нейронной сети необходима обучающая выборка (задачник), состоящая из примеров. Каждый пример представляет собой задачу одного и того же типа с индивидуальным набором условий (входных параметров) и заранее известным ответом. Например, в качестве входных параметров в одном примере могут использоваться данные обследования одного больного, тогда заранее известным ответом в этом примере может быть диагноз. Несколько примеров с разными ответами образуют задачник. Задачник располагается в базе данных, каждая запись которой является примером. Общая схема обучения нейросети: 1. Из обучающей выборки берется текущий пример (изначально, первый) и его входные параметры (представляющие в совокупности вектор входных сигналов) подаются его на входные синапсы обучаемой нейросети. Обычно каждый входной параметр примера подается на один соответствующий входной синапс.
2. Нейросеть производит заданное количество тактов функционирования, при этом вектор входных сигналов распространяется по связям между нейронами (прямое функционирование).
3. Измеряются сигналы, выданные теми нейронами, которые считаются выходными.
4. Производится интерпретация выданных сигналов, и вычисляется оценка, характеризующая различие между выданным сетью ответом и требуемым ответом, имеющимся в примере. Оценка вычисляется с помощью соответствующей функции оценки. Чем меньше оценка, тем лучше распознан пример, тем ближе выданный сетью ответ к требуемому. Оценка, равная нулю, означает что требуемое соответствие вычисленного и известного ответов достигнуто. Заметим, что только что инициализированная (необученная) нейросеть может выдать правильный ответ только совершенно случайно.
5. Если оценка примера равна нулю, ничего не предпринимается. В противном случае на основании оценки вычисляются поправочные коэффициенты для каждого синаптического веса матрицы связей, после чего производится подстройка синаптических весов (обратное функционирование). В коррекции весов синапсов и заключается обучение.
6. Осуществляется переход к следующему примеру задачника и вышеперечисленные операции повторяются. Проход по всем примерам обучающей выборки с первого по последний считается одним циклом обучения. При прохождении цикла каждый пример имеет свою оценку. Вычисляется, кроме того, суммарная оценка множества всех примеров обучающей выборки. Если после прохождения нескольких циклов она равна нулю, обучение считается законченным, в противном случае циклы повторяются. Количество циклов обучения, также как и время, требующееся для полного обучения, зависят от многих факторов - величины обучающей выборки, количества входных параметров, вида задачи, типа и параметров нейросети и даже от случайного расклада весов синапсов при инициализации сети.