
- •1. Энтропия и вероятность.
- •2. Кибернетика, основные понятия кибернетики. Информация.
- •3. Синергетика. Рождение порядка из хаоса.
- •4. Синергетические координаты для описания эволюции. Спираль развития.
- •5. Термодинамика живых систем.
- •6. Управление и регулирование в живых системах.
- •7. Физико-химические предпосылки для зарождения жизни.
- •8. Эволюционная химия. Общая теория химической и предбиологической эволюции.
- •9. Теории возникновения жизни.
- •10. Гипотеза Опарина-Холдейна о происхождении жизни.
- •11. Основные проблемы гипотезы Опарина-Холдейна о происхождении жизни.
- •12. Специфика живого.
- •13. Эволюционная теория Дарвина-Уоллеса.
- •14. Современная (синтетическая) теория эволюции.
- •15. Характерные черты эволюционного процесса.
- •16. Структура живых существ. Деление клетки.
- •17. Движение вещества и энергии в природе. Энергетическая функция жизни.
1. Энтропия и вероятность.
Физический смысл энтропии по мнению Больцмана: мера беспорядка в системе. Полный порядок соответствует минимуму энтропии, любой беспорядок ее увеличивает. Максимальная энтропия соответствует полному хаосу. В основе термодинамики лежит различие между двумя типами процессов — обратимыми и необратимыми. Обратимые процессы могут протекать только через равновесные состояния. Понятие энтропии позволяет отличать в случае изолированных систем обратимые процессы (энтропия максимальна и постоянна) от необратимых процессов (энтропия возрастает).
Законы классической механики имеют универсальный характер, т.е. они относятся ко всем без исключения изучаемым объектам. Их особенностью является то, что их предсказания достоверны и однозначны. Но законы, действующие для статистических систем (систем с множеством объектов) не являются однозначными, а только вероятностными. По этой причине эти законы носят название вероятностных, или — статистических, т.к. информация носит статистический характер.
Больцман первым увидел связь между энтропией и вероятностью. При этом он понял, что энтропия должна выражаться через логарифм вероятности: S = k lnW. Коэффициент пропорциональности k был рассчитан Планком и назван постоянной Больцмана.
2. Кибернетика, основные понятия кибернетики. Информация.
Кибернетика (древнегр. «кибернетис» - управляющий, рулевой) – наука об общих закономерностях процессов управления и передачи информации в технических, биологических и социальных системах. Её основателем является американский математик Норберт Винер (1894-1964), выпустивший в 1948 году книгу «Кибернетика, или управление и связь в животном и машине».
К основным задачам кибернетики относятся:
1) установление фактов, общих для управляемых систем;
2) выявление ограничений, свойственных управляемым системам;
3) нахождение общих законов для управляемых систем;
4) определение путей практического использования установленных фактов и найденных закономерностей.
Основные понятия кибернетики: управление, управляющая система, управляемая система, организация, обратная связь, алгоритм, модель, оптимизация, сигнал и др.
Управление – это воздействие на объект, выбранное на основании имеющейся для этого информации из множества возможных воздействий, улучшающее его функционирование или развитие. У управляемых систем всегда существует некоторое множество возможных изменений,
из которого производится выбор предпочтительного изменения. Необходимым условием наличия в системе хотя бы потенциальных возможностей управления является ее организованность.
Большую роль играет управление по "принципу обратной связи". Если между воздействием внешней среды и реакцией системы устанавливается связь, то мы имеем дело с обратной связью. Если поведение системы усиливает внешнее воздействие, то мы имеем дело с положительной обратной связью, а если уменьшает, – то с отрицательной обратной связью.
Понятие информации. Управление – информационный процесс, информация – "пища", "ресурс" управления. Поэтому кибернетика есть вместе с тем наука об информации, об информационных системах и процессах. Самый исходный смысл термина "информация" связан со сведениями, сообщениями и их передачей. Универсального понятия информации еще не разработано.
Информацией называют любые сведения об объектах и явлениях окружающего нас мира, их параметрах, свойствах и состоянии, воспринимаемые человеком или специальными приборами и содержащиеся в сообщениях, сигналах или памяти.
Формула Хартли: количество информации I, содержащееся в сообщении об объекте, который может находиться в одном из N равновероятных состояний, I = lоg2N. Минимальная единица измерения информации – бит.
Свойства информации:
1.Способность управлять физическими, химическими, биологическими и социальными процессами.
2. Способность передаваться на расстоянии.
3. Способность информации подвергаться переработке.
4. Способность сохраняться в течение любых промежутков времени и изменяться во времени.