- •1. Информатика как наука, ее структура и мето в системе других наук.
- •2. Кодирование информации.Постановка задачи.
- •3. Формальные языки и граматики. Их классификация.
- •5.Компьютерное моделирование.
- •6Моделирование в биологии. Модели популяции, клеточные автоматы.
- •8,Задача линейного програмит-я. Методы её решения.
- •10. Динамические структуры. Линейная структура - стек. Предст в памяти пк.
- •11, Компьютерная сеть. Способы организ-ии вычисл. Основные функ-ые Эл-ты кс. Одноранговые сети на основе сервера.
- •4. Одноранговые сети и на основе сервера.
- •12. Носители для передачи инф-ии в ком. Сети.
- •13. Правила сетевого взаимодействия. Протоколы. Модель osi
- •Физический уровень
- •14.Определение искусственного интеллекта
- •15. Пролог - programming in logic
- •17. Нейронные сети.
- •18 Генетические алгоритмы. Определение. Схема классического генетического алгоритма. Области применения классических генетических алгоритмов.
- •19, Информационные системы.
- •20. Базы данных. Модели данных. Реляционная модель данных.
- •22. Целостность реляционных данных. Потенциальные, первичные и альтернативные ключи. Правило целостности объектов. Внешние ключи. Правило ссылочной целостности. Правила внешних ключей.
- •23, Реляционная алгебра. Основные операции реляционной алгебры. Язык sql.
- •24. Предмет изуч-я теор алг-мов. Алг-тм, его св-ва, необходим уточ-я пон-я алг-ма. Универсаль-е алг-ие модели.
- •25,Характеристики сложности вычисления. Временная и емкостная сложность алгоритма. Верхние и нижние оценки, асимптотические обозначения. Порядок роста.
- •26 История развития ком тех эвм, поколение эвм и классиф. Современные тенденции разв архит эвм.
- •4Е поколение: 1972-1984
- •5Е поколение: втор полов 80-х
- •6Е и последующие поколения эвм
- •27. Микропроцессор и память компа. Основной алг. Работы проца. Система прерываний.
- •29. Решение системы n линейных уравнений с n неизвестными методом Гаусса. Алгоритм решения системы для реализации на эвм.
- •30, Интерполирование: постановка задачи, геометрическая интерпретация. Интерполяционный член Ньютона Алгоритм для реализации на эвм выбранного многочлена.
- •31. Вычисл-е определ-го интеграла по одной из фор-л. Алг-м реализ-ии на эвм выбранной формулы.
1. Информатика как наука, ее структура и мето в системе других наук.
Информатика –изучает вопросы, связанные с поиском, сбором, хранением, преобразованием и использованием инф. в различных сферах человеческой деятельности.
Информация – отображение реального мира с помощью сведений, сообщений.
Именно с позиций принятия решения рассматриваются качественные признаки инф., ее потребительские свойства.
1.Объективность.2. Достоверность инф.3. Полнота инф. 4.Актуальность (своевременность) инф.5.Полезность(ценность)инф.6.Доступность: 7.Своевременность
Информационные процессы три основных типа информационных процессов: хранение, передача, обработка..Хранение инф. Носитель инф. – это среда для записи и хранения инф..Передача инф. – это передача какого-либо сигнала. Сигнал – это способ передачи инф.. Он представляет собой физический процесс, имеющий информационное значение.Процесс передачи инф. предполагает наличие ее источника и приемника, между которыми действует канал связи. .Различают дискретные и аналоговые сигналы.Аналоговый (непрерывный) сигнал – сигнал, непрерывно меняющийся во времени. Дискретный (прерывистый) сигнал – сигнал, который может принимать конечное число значений в конечное число моментов времени..Количество значений дискретного сигнала можно подсчитать, и каждое из них представить в виде числа. Отсюда дискретный сигнал называют также цифровым. информация, записанная в аналоговой форме, полнее отражает многообразие мира, ибо многие нюансы теряются при записи посредством дискретных сигналов (оцифровке).Обработка инф. В общем случае можно сказать, что обработка инф. – это преобразование инф. из одного вида в другой по строгим формальным правилам.
1. По способу восприятия. У человека пять органов чувств, и отсюда выделяют пять видов инф.: зрительная, звуковая, тактильная вкусовая, обонятельная.
2. По способу отображения: текстовая; числовая; графическая; звуковая.
Наиболее полно можно судить об объекте или явлении, если соединяются различные формы представления инф..
3. По общественному значению4. По способу передачи: дискретная и непрерывная.
5. По месту возникновения: входной, выходной, внутренней, внешней.
6. По стабильности: постоянной и переменной.
7. По стадии обработки: первичная, вторичная, промежуточная, результатная.
8. По предметной области: статическая, коммерческая, нормативная.
Измерение инф-ии. Вероятностный и объемный подход к измерению информации.
Измерение инф.: 1) вероятностный подход;2) объемный подход.
К. Шеннон - специалист в области средств связи ввел математическое понятие количества инф., положив тем самым начало теории инф. как технической и математической дисциплины. Теория инф. - раздел кибернетики, изучающий способы измерения и передачи инф..Количественную меру дает вероятностный подход. С этой точки зрения информация рассматривается как снятая неопределенность. Обозначим N – количество возможных событий, I - количество инф. в сообщении о том, что произошло одно из N событий (N=2, I=1). I измер. в битах. Связь между этими величинами выражается формулой Хартли: = N, I= log2N. Сообщение о событии, уменьшающее неопределенность в 2 раза несет 1 бит инф. Количественная мера неопределенности пропорциональна количеству возможных исходов. Это приводит к определению энтропии опыта - численная мера неопределенности опыта.Т.к. опыт имеет N равновероятных исходов, то можно считать, что на долю каждого исхода приходится 1/N часть общей
неопределенности опыта: .
Обозначим вероятность i-го исхода опыта через Рi (i =1,2,...N). Pi =1/N, тогда формула для численной меры неопределенности (формула количества инф.) имеет вид: – Ф. Шеннона.
синтаксис – правила записи с помощью символов. Информацию, рассматриваемую только с синтаксических позиций, называют данными, так как при этом не имеет значения смысловая сторона. Это особенно ярко проявляется при алфавитном подходе к измерению инф.. При этом говорят не о количестве инф., а об объеме данных, т.е. количестве символов, изображающих полученное сообщение. Мощность алфавита – количество используемых в алфавите символов. Алфавитный подход (объемный ). В ЭВМ 256 символов. Так как 256=28, то один символ этого алфавита весит 8 бит. Для удобства введены крупные единицы количества инф.. Восьмиразрядное двоичное слово называют байт.(8 бит=1 байт). В одном байте можно закодировать значение одного из 256 символов (28). 1Кбайт = 1024 байта=210байта; 1Мегабайт = 1024 Кбайт=220байт; 1Гигабайт = 1024 Мбайт=230байт.