- •Объекты управления. Моделирование. Понятие модели.
- •Имитационные модели.
- •Сущность автоматизации производства.
- •Кибернетика как теор. Основа автоматизации производства.
- •Структура асу полиграфическими предприятиями и издательствами.
- •Структура обеспечения асу: организационное, алгоритмическое, программное, технологическое и информационное обеспечение.
- •9. Классификация сигналов
- •10. Импульсная модуляция сигнала.
- •11. Цифровая обработка сигналов
- •12. Информационные свойства сигналов: понятие информации.
- •13. Энтропия, свойства энтропии, количество информации в сигналах
- •14. Кодирование информации, кодирование как процесс представления информации в цифровой форме
- •15. Код Шеннона–Фано
- •16. Код Хаффмана
- •17. Помехоустойчивое кодирование
- •18. Характеристики каналов связи
- •19. Передача дискретной информации при отсутствии и наличии помех с использованием непрерывных сигналов
- •20. Информационные свойства текста
- •21. Информационные свойства иллюстрации
- •22. Информационная емкость оригинала
- •23. Количество информации при вводе ее с оптических носителей эвм
- •24. Информационная емкость растрированных/нерастрированных изображений
- •25. Информационная емкость цветных изображений
- •26. Редакционно-издательский процесс (рип) как объект автоматизации
- •27. Структура систем переработки текста и иллюстраций
- •28. Алгоритмы автоматизированных систем управления редакционно-издательскими процессами
- •29. Обработка текста после его кодирования.
- •30. Ввод и обработка изображений.
- •31. Обработка тоновых и ч/б иллюстраций.
- •32. Структура обеспечения аспти (автоматизированные системы переработки текста и иллюстраций): информационное обеспечение.
- •33. Структура обеспечения аспти: по.
- •34. Методы оценки качества процесса переработки текста.
- •35. Клавиатурный ввод информации.
- •36. Читающие автоматы: назначение, основные у-ва
- •37. Речевой вид информации, методы и у-ва
- •38. Цифровая цветопроба
- •39. Методы распознавания и способы считывания знаков: процесс распознавания, задачи распознавания
- •Способы считывания знаков
- •40. Программа Matlab, ее характеристики, возможности, обработка изображений
- •41. Пространственная фильтрация Matlab
- •42. Системы автоматизации и управления в издательстве и полиграфии
- •43. Технология «рабочих потоков» в издательстве и полиграфии
- •44. Общее описание функционирования комплексной системы автоматизации издательства и принципов её построения
- •45. Характеристика текстов, виды и предъявляемые к ним требования
- •46. Общие сведения и техническая характеристика сканеров
- •47. Фотоприёмник (пзс-линейка) планшетного сканера, его работа, у-во, достоинство и недостатки
- •48. Барабанные сканеры, область их использования, у-во, работа
- •49. Электрофотографический процесс и его особенности, явление коронного заряда, фоторецепторы
- •50. Система e-Print 1000.
- •51. Основные узлы цифровой офсетной печатной машины Indigo e-Print 1000.
- •52. Контролирующие и измерительные приборы в схеме автоматизации печатной машины Indigo e-Print 1000.
- •53. Конструкция лазерной записывающей головки, её работа и особенности конструкции.
- •54. Модулятор, его назначение, какие бывают. Какое физическое явление лежит в основе аом, его достоинства по сравнению с эом.
- •55. Конструкция и принцип действия дефлектора.
- •56. Управление процессом подготовки материала к публикации.
- •57. Управление сайтом и система поддержки удаленных сотрудников
- •58. Автоматизация рип с использованием скриптов adobe
- •59. Объекты, методы, свойства InDesign
- •60. Назначение и структура су печатных процессов
- •61. Типовая структура асу
- •62. Управление подачей бумажного полотна
- •Общие принципы планирования производства
- •Роль средств автоматизации в планировании производства
- •Принцип управления предприятием
- •Сущность интеграции производств полиграфии
- •Назначение и классификация автоматических поточных линий
- •Роботизированные технологические комплексы
14. Кодирование информации, кодирование как процесс представления информации в цифровой форме
Информация, поступающая в АСУ от датчиков, с клавиатурных устройств ЭВМ и по каналам связи может носить непрерывный и дискретный характер. Непрерывные сигналы перед вводом их в ЭВМ преобразуются в дискретную форму с помощью АЦП. Текстовая информация состоит из конечного числа символов.
Совокупность знаков текста и цифр образует первичный алфавит, кот. состоит из большого числа знаков. Чтобы обеспечить удобство переработки информации, необходимо преобразовать ее с помощью вторичного алфавита, число знаков которого невелико. Алгоритм преобразования первичного алфавита во вторичный наз. кодом, а операцию такого преобразования наз. кодированием. Операция обратного преобразования наз. декодированием.
Последовательность символов вторичного алфавита, которая соответствует содержанию передаваемого сообщения, наз. кодовым словом. В процессе кодирования информации при отсутствии помех необходимо обеспечить простоту, надежность и эффективность аппаратной реализации информационных устройств, минимальное время передачи информации, минимальный объем запоминающего у-ва, простоту выполнения в этой системе арифметических и логических операций.
При передаче информации в условиях помех - достоверность распознавания, кот. обеспечивается внесением избыточности. При кодировании информации обычно используются позиционные системы исчисления, при которых значения каждого символа зависят его положения (розера) по отношению к другим символам. Двоичный код неудобен при вводе и выводе информации, т. к. оператору трудно оценивать непривычные числа. Поэтому получили распространение и другие системы исчисления. Наиболее распространены восьмеричные и двоичные десятичные исчисления. В восьмеричной системе для записи всех возможных чисел используются восемь цифр от 0 до 7. Перевод из восьмеричной системы в двоичную осуществляется заменой каждой восьмеричной цифры равным двоичным трехразрядным числом. F.ex:
714 = 111 001 101 (111 = 7,001 = 1,101 = 4)
Двоично-десятичная: каждую цифру десятичного числа записывают в виде четырехразядного двоичного числа. Этот код используется в качестве промежуточного в процессе ввода в ЭВМ данных, представленных в десятичном коде. Более сложные проблемы возникают при кодировании текстовой информации, при этом необходимо учитывать как вероятности появления каждой буквы, так и необходимость обнаружения ошибок передачи. При кодировании текстов используются равномерные и неравномерные коды. У равномерных кодов длина сообщения по одной букве первичного алфавита является постоянной. Примером такого кода является код Бодо, состоящий из пяти элементов. У неравномерных кодов, примером которого является код Морзе, длина сообщения о каждой букве может быть различна.
15. Код Шеннона–Фано
Эффективное кодирование состоит в том, чтобы, учитывая статистические свойства источника сообщения, а именно, вероятность появления каждого знака первичного алфавита, минимизировать среднее число двоичных знаков, требующихся для кодирования одного знака. То есть наиболее часто повторяющиеся знаки обозначаются минимальным числом двоичных знаков, а те, которые применяются редко, — длинными. Средняя величина знаков на одну букву в результате этого уменьшается на 30%.
Теорема Шеннона для каналов передачи с отсутствием помех: сообщение, передаваемые источником с энтропией Н можно закодировать так, чтобы среднее число двоичных знаков на одну букву первичного алфавита было сколь угодно близким к энтропии, но не меньше этой величины.
Последовательность построения такого кода можно изложить в следующем виде:
1. Буквы первичного алфавита записываются в таблицу в порядке убывания их вероятности появления в сообщении.
2. Все буквы разделяются на две группы, так, чтобы суммы вероятностей в них были примерно одинаковыми.
Например:
z1. Вероятность появления Рz1=0,27 Pz2=0,23 Pz3=0,16 Pz4=0,16 Pz5=0,1 Pz6=0,08
Рz1=0,27 Pz2=0,23 0,5
|
Pz3=0,16 Pz4=0,16 Pz5=0,1 Pz6=0,080,5 |
Это идеальный пример, но нужно как можно ближе подгонять к половине!! При чем не переставляя буквы местами.
3. Буквы первой группы в качестве первого символа получают 1. А буквам второй группы – 0.
4. Эти две подгруппы снова разбиваются в свою очередь на две подгруппы. С условием, чтобы вероятности в этих подгруппах были приблизительно одинаковыми и равны ¼. Каждой подгруппе присваивается 1 первой половине, 0 – второй половине. Таким образом, разбиваются так подгруппы, пока не дойдет до одной буквы.
Недостаток: неоднозначность вариантов кодов отдельных знаков. Это следует из того, что разбиение знаков алфавита можно сделать большей по вероятности как верхнюю, так и нижнюю. Буквы с равной вероятностью попадают в разные группы, тогда код у нее становится более длинным. Эта неопределенность вносит некоторую избыточность в код.