- •1. Преобразующая функция (искусство как деятельность)
- •2. Компенсаторная функция (искусство как утешение)
- •2. Цель и задачи художественного образования в рамках обязательного (общего), дополнительного и профессионального образования
- •3. Дисциплины художественного цикла и принципы их преподавания в общеобразовательной школе и учреждениях дополнительного образования
- •4. Личность ребенка как эпицентр художественно-образовательной системы. Качества личности учащихся, имеющие приоритетное значение в процессе художественного образования
- •5. Структура и содержание программ предметов художественного цикла для общеобразовательной школы
- •6. Структура и содержание программ предметов художественного цикла для учреждений дополнительного художественного образования
- •7. Характеристика основных элементов содержания художественного образования
- •8. Типы и виды уроков дисциплин художественного цикла
- •10. Виды художественной деятельности учащихся
- •11. Художественное восприятие, его структура, свойства, уровни
- •12. Современные педагогические технологии и их применение на уроках по дисциплинам художественного цикла
- •13. Возможности современных информационных и коммуникационных технологий в модернизации художественного образования
- •14. Характеристика учебно-методического комплекса по предметам художественного цикла
- •15. Художественное творчество как часть социокультурной среды
- •16. Художественные способности человека. Диагностика художественных способностей в детском возрасте
- •17. Методы и приемы развития художественных способностей у детей разных возрастных групп
- •18. Художественная творческая деятельность детей как педагогическая проблема. Методы и приемы активизации художественной творческой деятельности учащихся
- •19. Методы и приемы активизации художественного мышления учащихся разных возрастных групп
- •20. Критерии качества современного урока по дисциплинам художественного цикла
- •21. Характеристика основных компонентов профессиональной деятельности преподавателя художественных дисциплин
- •22. Личностно-профессиональные качества преподавателя художественных дисциплин
- •23. Уроки искусства в отечественной системе художественного обучения и воспитания: исторический аспект
- •24. Информатизация и компьютеризация процесса преподавания дисциплин художественного цикла
- •25. Внеклассные и внешкольные формы организации художественной деятельности учащихся разных возрастных групп
- •26. Виды и формы художественного самообразования школьников.
- •28. Возможности мкт в преподавании музыкально-теоретических дисциплин
- •29. Характеристика современных музыкально-компьютерных программ для детского музыкального творчества
- •30. Структурно - функциональный анализ художественно-образовательного процесса: цель, задачи, средства, результат
- •31. Возможности мкт в развитии музыкального слуха учащихся
- •32. Методические аспекты коллекционирования, хранения, научно- педагогической обработки продуктов детского музыкального творчества
- •33. Реализация педагогических принципов в методике преподавания мкт
- •34. Специфика организации и проведения концертных выступлений с применением мультимедиа
- •35. Цифровые музыкальные инструменты: характеристика, специфика обучения
- •36. Основные этапы подготовки преподавателя дисциплин художественного цикл к уроку
- •37. Особенности взаимодействия учителя и ученика в художественно- педагогическом процессе
- •38. П.К. Как средство развития у школьников интереса к музыкальному искусству
- •39. Характеристика учебно-методического комплекса для занятий с цифровыми музыкальными инструментами
- •44. Организация учебного процесса на музыкальном занятии с применением мкт (тематика, цель, задачи, методы, средства)
- •50. Развитие музыкального мышления учащихся в условиях его общения с музыкальным компьютером
- •52. Реализация междисциплинарного и системного подходов в преподавании мкт
- •53. Технология создания фонограмм к вокальным произведениям
- •54. Микшерный пульт (типы и виды, функции, архитектура). Применение микшерных пультов для одновременной записи нескольких источников звука
- •55. Усилительная аппаратура, ее основные характеристики, подбор и размещение (в студии, в концертном зале)
- •56. История развития звукозаписи. Требования к пк для создания музыкальных композиций
- •57. Понятие потока событий midi. Цифровой интерфейс. Типы цифровых интерфейсов. Контроллеры
- •58. Типы и виды микрофонов. Выбор микрофонов для записи различных звуков по их пространственным и частотным характеристикам. Технология записи звуков через микрофон
- •59. Программы звуковые редакторы. Возможности и особенности работы. Основные инструменты программы (на примере одной по выбору студента)
- •60. Программы секвенсоры. Возможности и особенности работы. Основные инструменты программы (на примере одной по выбору студента)
- •61. Программы музыкальные конструкторы. Возможности и особенности работы. Основные инструменты программы (на примере одной по выбору студента)
- •62. Программы автоаранжировщики как средство изучения музыкальных стилей и направлений. Возможности и особенности работы. Основные инструменты программы (на примере одной по выбору студента)
- •63. Методы устранения нежелательной естественной реверберации. Организация студии звукозаписи в домашних условиях
- •64. Классификация музыкальных инструментов по различным критериям (по способу звукоизвлечения, по источнику звука)
- •65. Традиционные музыкальные инструменты (особенности звучания, диапазоны, приемы звукоизвлечения)
- •66. Понятие оцифровки звукового сигнала. Разрядность, частота дискретизации. Архитектура звуковых карт. Типы и виды звуковых карт. Ведущие производители звуковых карт
- •67. Логарифмический характер восприятия громкости. Сжатие динамического диапазона и использование компрессии для улучшения восприятия звука
- •69. Понятие стереофонии. Бинауральный слух. Пространственная локализация звука. Требования к технике безопасности при прослушивании музыкальных композиций. Охрана слуха
- •70. Типы и виды синтезаторов. Архитектура. Особенности применения
- •71. Форматы звуковых файлов. Особенности. Основные характеристики (wav, mp3, ogg, mid и др.). Преобразование форматов
- •72. Типы и виды музыкальных программ. Сравнительные характеристики. Особенности работы
- •73. Музыкально-компьютерные технологии как средство интерпретации художественного образа произведения искусства
- •74. Организация компьютерной аудиотеки как средство накопления слушательского опыта учащихся
- •75. Многополосные компрессоры, механические ревербераторы, их конструкции и особенности (листовые, пружинные). Цифровые приборы искусственной реверберации
- •76. Программы нотные редакторы. Возможности и особенности работы. Основные инструменты программы (на примере одной по выбору студента)
- •77. Композиция и аранжировка как формы музыкального творчества. Типы и виды аранжировки
- •78. Музыкальные стили и направления в компьютерной аранжировке. Работа над произведениями различных форм
59. Программы звуковые редакторы. Возможности и особенности работы. Основные инструменты программы (на примере одной по выбору студента)
Назначение программ для редактирования звука (Sound Forge, Adobe Audition, WaveLab). Главное меню. Меню работы с открытием, сохранением, конвертацией файлов. Меню работы с буфером обмена: копирование, вставка, вырезание и т.д.. Вид программы. Инструменты для работы со звуковым файлом: изменение фазы, реверсирование, изменение темпа, высоты звукового материала, копирование треков с Audio-CD. Анализирование материала с помощью инструментов-анализаторов фазы, спектра, разрешения и т.д.. Применение динамической и частотной обработки, эффектов. Реставрирование фонограмм.
Программы звуковые редакторы. Sony SoundForge, AudioEdit Deluxe, Voice Changer Software, Adobe Audition, Stenberg WaveLab, Samplitude и др. Возможности и особенности работы. Основные инструменты программы (на примере одной по выбору студента). Поэтапная работа в программе. Звуковая обработка музыкальной композиции. Технология оцифровки звукового сигнала в программах звуковых редакторах.
60. Программы секвенсоры. Возможности и особенности работы. Основные инструменты программы (на примере одной по выбору студента)
Сиквенсеры – програмное или аппаратное устройство для записи редактирования и проигрывания миди. Назначение программ секвенсоров (FL Studio, Sonar, Ableton Live, Cubase(штэйнберг), Nuendo, Logic(Эпл)). Функционал: миди редакторы, возможность трансформации материала. Классических секвенсорев теперь нет, только виртуальные. которые продюссируют звук. Главное меню. Меню работы с открытием, сохранением, конвертацией файлов. Меню работы с буфером обмена: копирование, вставка, вырезание и т.д.. Вид программы.
Работа с MIDI. Редакторы MIDI-информации (Key Editor – клавишный редактор, отпечатков пальцев), Score Editor(редактор партитуры. нотный редактор), List Editor)(редактор событий) Щдесь все сообшения, которые присутсвуют в вашей композиции. Инструменты редактирования MIDI. Способы ввода MIDI-данных в секвенсор (MIDI-клавиатура, «мышь») Работа с MIDI-контроллерами. Озвучивание композиции с помощью аппаратных и виртуальных синтезаторов. Применение обработок и эффектов. Перевод треков и всей композиции в различные звуковые форматы (wave, mp3). Работа с аудио в секвенсоре. возможность совмещать аудио и миди информацию. отслеживание материала по тактам, сэмплам – самая маленькая величина сигнала, времени. Возмможность в графическом виде редактировать элементы, визуализация. Возможности и особенности работы. Основные инструменты программы. Поэтапная работа по созданию музыкальной композиции (на примере одной по выбору студента). Меню File. Команды для работы с файлами.
New Project (<Ctrl> + <N>) – создать новый проект..
Open (<Ctrl> + <O>), Close (<Ctrl> + <W>), Save (<Ctrl> + <S>),
Save As... (<Ctrl> + <Shift> + <S>) – стандартные команды, "открыть проект", "закрыть проект", "сохранить" и "сохранить как". Программа Cubase сохраняет проект в файл типа *.CPR.
Save Project to New Folder... – сохранить проект в указанной папке.
Save as Template... – сохранить проект в качестве шаблона.
Revert – отменить все изменения проекта после последнего сохранения.
Page Setup... – установить параметры страницы с нотной партитурой.
Print... – Выбор режима печати и печать нотной партитуры.
Две последние команды доступны, если открыто окно нотатора (команда Open Score Editor в меню и в меню MIDI) и в меню Scores установлен режим Page Mode.
Import – импорт объекта:
• Audio File... —аудиофайл
• Audio CD... — треки аудио CD
• Video File... — видеофайл
• Cubase Song, Cubase Arrangement, Cubase Part... — импортировать файлы старых версий Cubase, сонги, аранжировки и части соответственно. К сожалению, эти фалы импортируются с потерями.
• MIDI File... – MIDI-файл
Export – экспорт:
• MIDI File... – MIDI-треки проекта в MIDI-файл
• Audio Mixdown... – проект в звуковой файл (несколько типов фала на выбор)
Preferences... – настройки программы:
• Audio – режимы записи и импорта аудиоданных:
Time Stretch Tool – параметры алгоритма Time Stretch.
Broadcast Wave — параметры работы с файлами типа Broadcast Wave File.
• Editing – опции редактора Score Editor
• Transport – параметры записи, воспроизведения и синхронизации
• User Interface – параметры пользовательского интерфейса
Controls – параметры управляющих элементов
VST – дополнительные параметры звукового движка
Key Commands... – назначение горячих клавиш и запись макросов. Можно загрузить таблицу горячих клавиш старых версий Cubase, а так же программ Cakewalk SONAR, Emagic Logic.
Записанные макросы вызываются командой Macros из меню Edit, или с внешнего устройства.
Recent Projects – последние файлы (проекты).
Quit (<Ctrl> + <Q>) – выход из программы.
Меню Edit. Редактирование проекта.
Стандартные команды – Undo (<Ctrl> + <Z>) (отменить), Redo (<Ctrl> + <Shift> + <Z>) (повторить), Histori (список выполненных действий с возможностью отмены), Сut (<Ctrl> + <X>), Copy (<Ctrl> + <С>), Past (<Ctrl> + <V>) – вырезать, копировать, отменить.
Paste at Origin (<Alt> + <V>) – вернуть данные из буфера обмена в первоначальное положение.
Delete (<Backspace>) - удалить.
Split at Cursor (<Alt> + <X>) – разрезать часть по положению курсора.
Split Loop – разрезать часть по положению левого и правого локаторов.
Range – операции данных, находящихся на треках в пределах указанного интервала.
Select – выделение объектов проекта.
Duplicate (<Ctrl> + <D>) – создание дубликата объекта в обход буфера обмена.
Repeat... (<Ctrl> + <K>) – многократное копирование.
Fill Loop – вставить в фрагмент проекта копии выделенных объектов.
Move to – перемещение выделенных объектов
• Cursor — переместить в позицию курсора .
• Origin — переместить выделенные аудиоданные в позицию Origin Time (см. разд. 12.4);
• Front — переместить объект поверх других;
• Back – переместить ниже других.
Convert to Real Copy – преобразовать связанные объекты в самостоятельные копии.
Lock... (<Ctrl> + <Shift> + <L>) – заблокировать объект.
Unlock (<Ctrl> + <Shift> + <U>) – разблокировать объект. Заблокировать можно как редактирование отдельных атрибутов объекта, так и редактирование вообще
Mute (<Shift> + <M>) — приглушить объект.
Unmute (<Shift> + <U>) - снять приглушение.
Zoom — параметры отображения объекта:
• Zoom In (<H>) — увеличить по вертикали, симметрично курсора.
• Zoom Out (<G>) — уменьшить по горизонтали;
• Zoom Full (<Shift> + <F>) — показать весь проект;
• Zoom to Selection (<Alt> + <S>) — показать все выделенные объекты;
• Zoom to Event (<Shift> + <E>) — опция редактора Sample Editor, показать целиком фрагмент аудиоданных, выделенный метками начала и окончания;
• Zoom In Vertical — увеличить по вертикали;
• Zoom Out Vertical — уменьшить по вертикали;
• Zoom In Tracks (<Alt> + <!>) — увеличение ширины треков;
• Zoom Out Tracks (<Ctrl> + <T>) — уменьшение ширины треков;
• Zoom Tracks Exclusive (<Ctrl> + <l>) — сильное увеличение ширины треков.
Macros — список пользовательских макросов.
Меню Project. Опреации с проектом.
Add Track — создание различных треков:
• Audio — аудиотрек;
• Folder — трек-контейнер;
• Group Channel — групповой трек;
• MIDI — MIDI-трек;
• Marker — трек маркеров;
• Master Automation — трек автоматизации мастер-секции;
• Video — видеотрек;
• Multiple — создать несколько треков указанного типа (MIDI, Audio Group, Channel).
Remove Selected Tracks — удалить треки.
Show Used Automation — найти и показать все подтреки, в которых содержатся указанные автоматизации.
Hide All Automation — спрятать подтреки с автоматизацией.
Pool (<Ctrl> + <Р>) — открыть окно пула.
Markers (<Ctrl> + <М>) — открыть редактор маркеров.
Tempo Track (<Ctrl> + <Т>) — открыть окно редактора темпа и сообщений о смене музыкального размера.
Browser (<Ctrl> + <В>) — показать окно Browse Project.
Beat Calculator... — открыть окно калькулятора вычисления темпа.
Notepad — открыть блокнот для записи информации о проекта.
Project Setup... (<Shift> + <S>) — выбор параметров проекта (см. разд. 2.11).
Auto Fades Settings... — установка параметров, определяющих автоматический фейд и кроссфейд. Меню Audio. Работа с аудиотреками.
Process — команды обработки звуковых данных.
Plug-ins — плагины программы.
SpectrumAnalyzer — анализатор спектра аудиоданных.
Statistics — окно сбора статистической информации по выбранным аудиоданным.
Hitpoints — меню редактора Sample Editor, команды обнаружения и отметки маркерами моментов резкого перепада уровня сигнала.
Detect Silence — окно Detect Silence, определяющее критерии определения участки, не содержащие отсчета полезного сигнала на выбранных аудиотреков.
Event as Region — совмещение границ аудиоданных с границами региона.
Event from Regions — создать аудиоданные из аудиоклипа.
Create Region(s) — с помощью редактора в окне Sample Editor создать регион в соответствии с выделенным фрагментом волновой формы.
Events to Part — собрать в одну часть выделенные аудиоданные.
Close Gaps — заполнить промежутки между аудиоданными.
Dissolve Part — разобрать часть на независимые аудиоданные.
Snap point to cursor — установить маркер S аудиоданных в текущую позицию курсора.
Bounce Selection — создать новый звуковой файл из выбранных данных с учетом автоматизации и подключенных эффектов.
Crossfade (<X>) — кроссфейд в зоне пересечения аудиоданных.
Remove Fades — сброс установок амплитудной огибающей блока аудиоданных.
Open Fade Editor(s) — отобразить окна Fade In, Fade Out для изменения амплитудной огибающей указанных аудиоданных.
Find Selected in Pool (<Ctrl> + <F>) - отобразить в окне Pool указанные объекты.
Adjust Fades to Range (<A>) — расположить узлы амплитудной огибающей на границы указанного участка звукового сообщения.
Offline Process History — просмотр и изменение истории использование плагинов в окне Offline Process History.
Freeze Edits — сохранение результатов использования плагинов из временных файлов в постоянные.
Меню MIDI. Обработка MIDI-данных.
Open Key Editor — запуск редактора Key Editor.
Open Score Editor (<Ctrl> + <R>) — запуск нотатора Score Editor.
Open Drum Editor — запуск редактора барабанных партий Drum Editor.
Open List Editor (<Ctrl> + <G>) — запуск редактора списка
сообщений List Editor.
Over Quantize (<Q>) — полная квантизация моментов наступления событий в соответствии с сеткой квантизации; сетка квантизации выбирается
в списке Quantize редактора Key Editor.
Iterative Quantize — выполнение приближенную квантизацию, при этом начальные моменты событий перемещаются максимально приближенно к узлам сетки квантизации. Насколько точным будет совпадение с узлами, определяет параметр Iterative Strength в окне Quantize Setup
Quantize Setup — открыть окно Quantize Setup, в котором можно указать параметры квантизации.
Advanced Quantize — дополнительные команды, связанные с квантизацией.
Transpose... — окно диалога Transpose, транспонирование выделенных MIDI-нот .
Merge MIDI in Loop — сформировать часть из всех MDID-данных, расположенных на незаглушенных треках между левым и правым локаторами.
В окне MIDI Merge Options указываются параметры этой операции.
Dissolve Part — расположить выбранную часть по разным трекам, с предварительным указанием параметров этой операции.
O-Note Conversion — преобразовать номера нот в соответствии с Drum Map .
Functions — набор дополнительных команд редактирования ;
Logical Editor... — запуск редактора Logical Editor.
Logical Presets — выбор пресетов для логического редактора.
Drum Map Setup... — запуск редактора барабанной карты Drum Map Setup.
Reset — возвращение установок MIDI-контроллеров к значениям по умолчанию.
Меню Scores — параметры нотатора
Edit Mode/ Page Mode — позволяет выбрать режим редактирования нотной страницы.
Symbol Pallets — вызов палитр с наборами символов нотного письма.
Global Settings — глобальные параметры нотатора.
Layout Settings — здесь можно изменить расположение элементов окна Score Editor в Page Mode.
Staff Settings — параметры нотного стана Cubase.
Global Functions — глобальные функции нотатора.
Layout Functions — функции расположения элементов на
рабочем поле Score Editor.
Staff Functions — функции нотного стана.
Auto Layout — команды оптимизации расположения элементов
на рабочем поле Score Editor.
Align Elements — выравнивание элементов нотного стана.
Text — настройка параметров текста.
Move to Voice — здесь можно перемещать выбранные ноты на разные голоса. Команда активна только в полифоническом режиме.
Move to Staff — перенести выбранные ноты на другой нотный стан, команда активна, если для редактирования в редакторе Score Editor одновременно выбраны части нескольких треков.
Move to String — переместить выбранные ноты на другую струну. Команда активна, если для нотного стана выбран режим табулатур.
Меню Pool. Работа с пулом.
Import Medium —импорт звукового или видео файла;
Import Audio CD — импортировать звук с треков аудио CD.
Import Pool — загрузить состояние пула из файла;
Export Pool — сохранить состояние пула в файл;
Find Missing Files — найти файлы, на которые ссылаются клипы со статусом "?";
Remove Missing Files — удаление из пула клипов со статусом "?";
Reconstruct — восстановить потерянный файл по истории его редактирования (только в случае, если файл имеет статус "Reconstructible");
Convert Files — конвертировать формат файла;
Conform Files — изменить формат файлов в соответствии с форматом, принятым в данном проекте;
Create Folder — создать вложенную папку;
Empty Trash — очистить мусорную корзину;
Remove Unused Media — удаление из пула неиспользуемых в проекте клипов;
Prepare Archive — подготовить проект к архивации (все внешние файлы копируются в папку проекта);
Set Pool Record Folder — задать папку для хранения записываемых файлов;
Minimize File — выгрузить из памяти не используемых в проекте фрагментов для мимнимизации занимаемого программой размера оперативной памяти;
Update Origin — обновление параметров Origin Time в соответствии с текущим расположением сообщений в проекте;
New Version — создание новой версии клипа;
Insert into Project > At Cursor — извлечь из указанного клипа аудио или видеоданные и вставить в проект начиная с позиции курсора;
Insert into Project > At Origin — вставить в проект аудиоданные или видеоданные в позицию Origin Time;
Select In Project — выделить в проекте блоки данных, в которых используются файлы из пула;
Find In Pool — поиск файлов в пуле. Меню Transport. Запись, воспроизведение и синхронизация
Transport Panel (<F2>) — скрыть/отобразить панель Transport.
Locators to Selection (<P>) — совмещение локаторов с границами выделенной области трека.
Locate Selection (<L>) — установить указатель текущей позиции к левой границе выделенной области трека.
Locate Next Marker (<Shift> + <N>) — установить указатель текущей позиции к следующему маркеру.
Locate Previous Marker (<Shift> + <B>) — установить указатель текущей позиции к предыдущему маркеру.
Locate Next Event (<N>) — установить указатель текущей позиции к следующему сообщению.
Locate Previous Event (<B>) — установить указатель текущей позиции к предыдущему сообщению.
Play from Selection Start — воспроизвести один такт, начиная с левой границы выделенной области.
Play from Selection End — воспроизвести один такт, начиная с правой границы выделенной области.
Play until Selection Start — воспроизвести один такт, предшествующий левой границе выделенной области.
Play until Selection End — воспроизвести один такт, предшествующий правой границе выделенной области.
Play until Next Marker — воспроизвести участок от текущей позиции до следующего маркера
Play Selection Range (<Alt> + <Пробел>) — воспроизвести выделенный участок.
Loop Selection (<Shift> + <G>) — циклически воспроизводить выделенный участок (локаторы автоматически перемещаются к границам выделенного участка).
Use Pre/Post-Roll — использовать параметры Pre/Post-Roll при записи.
Start Record at Left Locator — начать запись с позиции левого локатора.
Metronome Setup — открыть окно настройки метронома (см. разд. 2.8).
Metronome On (<C>) — включить метроном.
Sync Setup — открыть окно настройки синхронизации (см. разд. 2.9).
Sync Online (<T>) — включить режим синхронизации.
Меню Devices. Параметры устройств виртуальной студии.
В зависимости от того, какие устройства и программы используются в виртуальной студии. Ниже приведены общие для всех случаев команды.
MIDI Device Manager — конфигурация подключенных к системе MIDI-устройств.
Mixer (<F3>) — запустить микшер Cubase (см. главу 5).
Plug-in Information — просмотреть подключенные плагины.
True Tape — плагин эмуляции на аналоговую магнитную ленту.
VST Inputs (<F5>) — установка параметров входных аудиопортов виртуальной студии.
VST Instruments (<F11>) — открыть слоты для подключения VST1.
VST Master Effects (<F7>) — открыть слоты для подключения плагинов к мастер-секции микшера.
VST Master Setup — установка параметров мастер-секции микшера.
VST Outputs (<F4>) — установка параметров выходных аудио-портов виртуальной студии.
VST Performance (<F12>) — показать загрузку ЦП и дисковой подсистемы.
VST Send Effects (<F6>) — открыть слоты для подключения плагинов, работающих в режиме Sends.
Video (<F8>) — воспроизведение видео.
Show Panel — показать панель с кнопками команд меню Device.
Device Setup... — установка параметров устройств:
• All MIDI Inputs — параметры концентратора All MIDI Inputs.
• Default MIDI Ports — установка входного и выходного MIDI-портов, устанавливаемых по умолчанию для вновь создаваемых MIDI-треков (см. разд. 2.2);
• Direct Music — список MIDI-портов, доступных в системе посредством API DirectX.
• VST Multitrack — настройки параметров аудиоинтерфейса и звукового движка;
• VST System Link — настройки Cubase для работы в сети студийных компьютеров.
• Video Player — настройки видеопроигрывателя.
Меню Window. Окна программы.
Стандартные команды Close (закрыть активное окно), Close All (закрыть все окна), MinimizeAll (свернуть все окна), RestoreAll (развернуть все окна)
Tile Horizontal и Tile Vertical располагают все окна программы горизонтально и вертикально соответственно. Команда Cascade располагает окна каскадом.
Стоит обратить внимание на команду WindowLayout, которая позволяет сохранить удобное Вам расположение окон вместе с проектом.
Команда Windows... вызывает специальный органайзер для работы с окнами проекта.
В самом низу меню Window расположен список открытых окон.
Меню Help. Справка Cubase.
Documentation (Acrobat PDF format) — справка в формате PDF.
Steinberg on the Web — открыть сайт Steinberg в Internet.
About Cubase – версия и краткие сведения о программе. Как Вы знаете, MIDI-клавиатура подключается через соответствующий интерфейс. Эта процедура довольна проста и доступна каждому, кто знает все необходимое о MIDI-интерфейсе.
Профессиональную аппаратуру MIDI можно отличить по трем гнездам: MIDI In, MIDI Out и MIDI Thru. Для соединения используется двухжильный экранированный кабель. Аппаратура MIDI замечательна тем, что в ней предусмотрено снижение уровня шума и помех. На рисунке показана схема подключения MIDI-устройств к MIDI-интерфейсу компьютера:
У непрофессиональных звуковых карт нет стандартных MIDI-разъемов. Сигналы (MIDI RXD и MIDI TXD) выводятся на игровой порт. В этом случае требуется специальный переходник.
Вам нужно запомнить простое правило: нельзя соединять одноименные гнезда разных устройств, т.е. разъем MIDI Out с MIDI Out и MIDI In с MIDI In. Ошибки не опасны, поломки не будет, но и работать система не будет тоже.
Чаще всего приходится подключать к компьютеру MIDI-клавиатуру. В отличии от MIDI-синтезатора, имеющего встроенный блок синтеза и способного самостоятельно формировать звуки, MIDI-клавиатура сама синтезировать звук не может. Может она только с помощью MIDI-интерфейса управлять внешним синтезатором. Такие внешние синтезаторы не имеют своих клавиатур и доступны по цене, они называются тон-генераторами.
Итак, для подключения MIDI-клавиатуры необходимо в ее гнездо MIDI Out вставить вилку MIDI In адаптера, 15-контактный разъем адаптера подключить к игровому порту.
MIDI-клавиатура в этом случае будет ведущим MIDI-устройством, а звуковая карта — ведомым.
Можно найти простые дешевые музыкальные синтезаторы с клавиатурой и MIDI-интерфейсом, которые стоят немногим больше MIDI-клавиатур. В режиме исполнения и записи композиции такой синтезатор целесообразно использовать как MIDI-клавиатуру. Способ подключения к компьютеру при этом такой же.
При воспроизведении записанной композиции синтезатор с клавиатурой можно использовать как дополнение, воспроизводя на нем звуки инструментов, отсутствующих в наборе звуковой карты. При этом соединение с компьютером будет выглядеть так:
При таком способе соединения возможны проблемы. Если музыкальный редактор работает в некорректном режиме, может произойти зацикливание сигнала "синтезатор – звуковая карта". При этом будут слышны характерные неприятные звуки. Чтобы такого не было, нужно отключить ретрансляцию MIDI-данных или в синтезаторе (см. его руководство, обычно это переключатель Local Off); или в программе Cubase. В меню File команда Preferences, затем выбрать ветку MIDI, на вкладке MIDI убрать галочку MIDI Thru Active, и нажать ОК. Но учтите, что при этом внешний синтезатор не будет работать как MIDI-клавиатура, управляющая синтезатором звуковой карты. Оцифровка звука
Для получения приемлемого качества записи компьютерной музыки необходимо пользоваться аппаратурой, способной его обеспечить. К параметрам, от которых это зависит, относятся, в первую очередь:
* Разрядность аналого-цифрового и цифроаналогового преобразователей звуковой карты;
* Диапазон частот дискретизации.
Разрядность звуковой карты существенно влияет на качество звука. Однако перед тем как перейти к более детальному обсуждению этого вопроса, следует пояснить, что речь идет о разрядности аналого-цифрового преобразователя (АЦП) (Analog/Digital Converter — ADC) и цифроаналогового преобразователя (ЦАП) (Digital/Analog Converter — DAC).
Звуковые карты двойного назначения имеют в своем составе одновременно два функционально независимых узла: синтезатор и устройство оцифровки звуковых сигналов, поступающих с внешнего источника. В каждый из узлов входит как минимум по одному ЦАП. В устройстве оцифровки, кроме того, имеется АЦП. Некоторые полупрофессиональные звуковые карты оборудованы 24-битными ЦАП/АЦП. Звуковые редакторы, работая с любыми звуковыми картами, в том числе и 16-битными, в процессе преобразований отсчетов сигнала используют арифметику с разрядностью двоичного представления числа, превышающей 16. Это позволяет уменьшить погрешность, накапливающуюся в процессе выполнения сложных алгоритмов обработки, которая в противном случае проявлялась бы как искажение звука.
Аналого-цифровое преобразование
Почему же столь важно наличие большого числа разрядов в устройствах ЦАП и АЦП? Дело заключается в том, что непрерывный (аналоговый) сигнал преобразуется в цифровой с некоторой погрешностью. Эта погрешность тем больше, чем меньше уровней квантования сигнала, т. е. чем дальше отстоят друг от друга допустимые значения квантованного сигнала. Число уровней квантования в свою очередь зависит от разрядности АЦП/ЦАП. Погрешности, возникающие в результате замены аналогового сигнала рядом квантованных по уровню отсчетов, можно рассматривать как его искажения, вызванные воздействием помехи. Эту помеху принято образно называть шумом квантования.
Шум квантования представляет собой разность соответствующих значений реального и квантованного по уровню сигналов.
В случае превышения сигналом значения самого верхнего уровня квантования ("старшего" кванта), а также в случае, когда значение сигнала оказывается меньше нижнего уровня квантования ("младшего" кванта), т. е. при цифровом ограничении сигнала, возникают искажения, более заметные по сравнению с шумом квантования. Для исключения искажений этого типа динамические диапазоны сигнала и АЦП должны соответствовать друг другу: значения сигнала должны располагаться между уровнями, соответствующими младшему и старшему квантам. При записи внешних источников звука это достигается с помощью регулировки их уровня, кроме того, применяется сжатие (компрессия) динамического диапазона, о которой речь пойдет в разд. 1.10.2.
В звуковых редакторах существует операция нормализации амплитуды сигнала. После ее применения наименьшее значение сигнала станет равным верхнему уровню младшего кванта, а наибольшее — нижнему уровню старшего кванта. Таким образом, от ограничения сигнал сверху и снизу будет защищен промежутками, шириной в один квант.
Для нормированного сигнала относительная величина максимальной погрешности квантования равна 1/N, где N — число уровней квантования. Этой же величиной, представленной в логарифмических единицах (децибелах), оценивается уровень шумов квантования АЦП звуковой карты. Уровень шумов квантования определяется по формуле: D = 201g (1/N). Для восьмиразрядного АЦП N = 256, D = -48 дБ; для шестнадцатиразрядного — N = 65536,; D= -96 дБ и для двадцатиразрядного АЦП N = 1648576, D = -120 дБ. Эти цифры наглядно демонстрируют, что с ростом разрядности АЦП шум квантования уменьшается. Приемлемым считается шестнадцатиразрядное представление сигнала, являющееся в настоящее время стандартным для воспроизведения звука, записанного в цифровой форме. С точки зрения снижения уровня шумов квантования дальнейшее увеличение разрядности АЦП особого смысла не имеет, т. к. уровень шумов, возникших по другим причинам (тепловые шумы, а также импульсные помехи, генерируемые элементами схемы компьютера и распространяющиеся либо по цепям питания, либо в виде электромагнитных волн), все равно оказывается значительно выше, чем -96 дБ.
Однако увеличение разрядности АЦП обусловлено еще одним условием — стремлением расширить его динамический диапазон. Динамический диапазон некоторого устройства обработки может быть определен выражением D = 201g (Smax/Smin), где Smax и Smin — максимальное и минимальное значения сигнала, который может быть преобразован в цифровую форму без искажения и потери информации. Вы уже, наверное, догадались, что минимальное значение сигнала не может быть меньше, чем напряжение, соответствующее одному кванту, а максимальное — не должно превышать величины напряжения, соответствующего N квантам. Поэтому выражение для динамического диапазона АЦП звуковой карты примет вид: D = 201g (N). Ведь можно считать, что Smax= kN, a Smin = k1, где k — некоторый постоянный коэффициент пропорциональности, учитывающий соответствие электрических величин (тока или напряжения) номерам уровней квантования.
Из сравнения выражений для А и D становится ясно, что при одинаковой разрядности АЦП эти величины будут отличаться лишь знаками. Поэтому динамический диапазон для шестнадцатиразрядного АЦП составляет 96 дБ, для двадцатиразрядного — 120 дБ. Иными словами, для записи звучания некоторого источника звука, динамический диапазон которого равен 120 дБ, требуется двадцатиразрядный АЦП. Если такого нет, а имеется только шестнадцатиразрядный, то динамический диапазон звука должен быть сжат на 24 дБ: со 120 дБ до 96 дБ.
В принципе, существуют методы и устройства сжатия (компрессии) динамического диапазона звука, и мы еще будем говорить о них (см. разд. 1.10.2). Но то, что они проделывают со звуком, как ни смягчай формулировки, все равно, представляет собой его искажение. Именно поэтому так важно для оцифровки звука использовать АЦП, имеющий максимальное количество разрядов. Динамические диапазоны большинства источников звука вполне соответствуют динамическому диапазону 16-битной звуковой карты. Кроме того, 24-битное или 32-битное представление сигнала применяется в основном на этапе обработки звука. Конечная аудиопродукция (CD Digital Audio и DAT) реализуется в 16-битном формате.
После того как мы немного разобрались с разрядностью АЦП звуковой карты, пришло время поговорить о частоте дискретизации.
В процессе работы АЦП происходит не только квантование сигнала по уровню, но и его дискретизация во времени. Сигнал, непрерывно изменяющийся во времени, заменяют рядом отсчетов этого сигнала. Обычно отсчеты сигнала берутся через одинаковые промежутки времени. Интуитивно ясно, что если отсчеты отстоят друг от друга на слишком большие интервалы, то при дискретизации может произойти потеря информации: важные изменения сигнала могут быть "пропущены" преобразователем, если они произойдут не в те моменты, когда были взяты отсчеты. Получается, что отсчеты следует брать с максимальной частотой. Естественным пределом служит быстродействие преобразователя. Кроме того, чем больше отсчетов приходится на единицу времени, тем больший размер памяти необходим для хранения информации.
Проблема отыскания разумного компромисса между частотой взятия отсчетов сигнала и расходованием ресурсов трактов преобразования и передачи информации возникла задолго до того, как на свет появились первые звуковые карты. В результате исследований было сформулировано правило, которое принято называть теоремой Найквиста — Котельникова.
Если поставить перед собой задачу обойтись без формул и использования серьезных научных терминов типа "система ортогональных функций", то суть теоремы Найквиста — Котельникова можно объяснить следующим образом. Сигнал, представленный последовательностью дискретных отсчетов, можно вновь преобразовать в исходный (непрерывный) вид без потери информации только в том случае, если интервал межу соседними отсчетами не превышает половины периода самого высокочастотного колебания, содержащегося в спектре сигнала.
Из сказанного следует, что восстановить без искажений можно только сигнал, спектр которого ограничен некоторой частотой Fmax. Теоретически все реальные сигналы имеют бесконечные спектры. Спектры реальных сигналов, хотя и не бесконечны, но могут быть весьма широкими. Для того чтобы при дискретизации избежать искажений, вызванных этим обстоятельством, сигнал вначале пропускают через фильтр, подавляющий в нем все частоты, которые превышают заданное значение Fmax, и лишь затем производят дискретизацию. Согласно теореме Найквиста — Котельникова частота дискретизации, с которой следует брать отсчеты, составляет Fд = 2Fmax. Теорема получена для идеализированных условий. Если учесть реальные свойства сигналов и устройств преобразования, то частоту дискретизации следует выбирать с некоторым запасом по сравнению со значением, полученным из предыдущего выражения.
В стандарте CD Digital Audio частота дискретизации равна 44,1 кГц. Для цифровых звуковых магнитофонов (DAT) стандартная частота дискретизации составляет 48 кГц. Звуковые карты, как правило, способны работать в широком диапазоне частот дискретизации.
В последнее время становится все более популярным стандарт DVD-audio, где частота дискретизации может быть равной 44,1/48/88.2/96 кГц, разрешающая способность 16/20/24 бит, количество каналов — до 6. Эффекты и обработки
Использование звуковых карт, плат оцифровки звука, программ - звуковых редакторов предоставляет компьютерному музыканту довольно широкие возможности по применению в музыкальных композициях различных звуковых эффектов и приемов обработки звука. Далее мы будем различать эффекты и обработки. В чем состоит разница между ними? Обработки — это те преобразования исходного аудиосигнала, которые направлены на повышение его качества (в некотором оговоренном смысле). Примеры обработок:
* шумоподавление в целях избавления от помех, сопровождающих полезный аудиосигнал;
* динамическая обработка уровня сигнала, позволяющая устранить случайные перепады громкости;
* фильтрация спектральных составляющих, необходимая для подчеркивания характерного тембра инструмента или голоса, а также для обеспечения "прозрачности" звучания композиции.
Эффекты — это тоже обработки, но только такие, в результате которых у звука появляются свойства, которых у него исходно не было.
Применение эффектов не всегда приводит к улучшению объективных свойств звука. Например, эффект дистошн, широко используемый в практике гитаристов, на самом деле есть не что иное, как специально организованное сильнейшее искажение исходного сигнала, подобное тому, которое возникает при перегрузке усилителя. Но применительно к гитаре и для определенных музыкальных стилей такой эффект оказывается уместен и позволяет получить желаемый эстетический результат.
Как правило, эффекты имитируют (иногда утрированно) какие-либо природные процессы и явления, сопровождающие излучение, распространение звуковых колебаний и восприятие их человеком. Например, эффект эхо имитирует отражение звука от преграды, эффект дилэй — многолучевой характер распространения звука в ограниченном пространстве, эффект реверберация — способность помещения, с одной стороны, накапливать энергию звуковых колебаний (многократно переотражать звуковые волны), а с другой, — постепенно поглощать эту энергию, превращая ее в тепло, нагревающее поверхности помещения.
В ряде случаев бывает очень трудно отличить эффект от обработки. Скажем, за счет фильтрации можно так исказить голос человека, что он будет восприниматься звучащим из телефонной трубки. Обработка это или эффект?
Иногда эффекты и обработки применяются совместно. Например, лучшие алгоритмы реверберации учитывают различия в поглощении средой распространения звуковых волн разной длины: за счет использования частотного фильтра эффектом обрабатывается не весь спектр сигнала, а только определенная его часть.
Те эффекты и обработки, которые применяются к MIDI-сообщениям, принято называть MIDI-эффектами. Если же преобразованию подвергается оцифрованный звук, то речь идет об аудиоэффектах и аудиообработках. Эффекты и обработки могут быть встроены в программу и неотделимы от нее. В таком случае они способны функционировать лишь в составе конкретного музыкального или звукового редактора.
Эффекты и обработки могут быть реализованы в виде специализированных программ. Для выполнения необходимых преобразований MIDI- или аудио-данные должны быть импортированы в подобные программы.
Однако наибольшее распространение получили MIDI- и аудиоплагины — модули, подключаемые к программе-хосту. Такое решение позволяет практически безгранично наращивать возможности основной программы. Программа как бы непрерывно обновляется и совершенствуется без какой-либо переработки ее кода и интерфейса. К Cubase SX аудиоплагины подключаются посредством интерфейса прикладных программ VST. Имеется также возможность подключать DirectX-эффекты.
Сущность наиболее важных звуковых эффектов
Звуковые эффекты могут быть созданы аппаратным путем, и тогда их можно использовать в реальном времени, как, например, это сделано в высококачественных звуковых картах. Для этого в их состав включены цифровые сигнальные процессоры. Цифровой сигнальный процессор (Digital Signal Processor — DSP) позволяет обрабатывать звуковые сигналы в реальном времени. В основе его принципа действия лежит аналого-цифровое преобразование сигнала с последующей обработкой, основанной на нескольких алгоритмах цифровой фильтрации и цифровой задержки. Правда, полноценный DSP чрезвычайно дорого стоит, поэтому применяется только в специализированных устройствах профессионального назначения. Сигнальные процессоры мультимедийных звуковых карт представляют собой устройства, значительно упрощенные по сравнению со своими старшими братьями. Обычно они ориентированы на создание эффектов в играх и обладают ограниченными возможностями с точки зрения применения эффектов в домашней музыкальной студии.
Выбор эффектов и управление их параметрами производится по MIDI с помощью контроллеров. В составе большинства музыкальных редакторов имеется соответствующий интерфейс, позволяющий управлять контроллерами эффектов различными способами. Чаще всего это делается путем "рисования" графика изменения параметра эффекта. Контроллер эффекта может быть также ассоциирован с одним из регуляторов виртуального микшера, входящего в состав музыкального или звукового редактора.
В компьютерных студиях звуковые эффекты часто создаются программным способом. И реализация эффектов, и управление ими осуществляется с помощью звуковых редакторов. Обработке подвергается заранее записанный в цифровой форме звуковой сигнал. Недостатком программной реализации некоторых звуковых эффектов является невозможность их использования в реальном времени, в процессе записи. Достоинство заключается в том, что отказ от обработки в реальном времени позволяет применять самые сложные алгоритмы, требующие больших временных затрат, поэтому число различных звуковых эффектов и число вариантов каждого эффекта в этом случае значительно превышает то, что достижимо при аппаратной реализации. Кроме того, имеется возможность практически неограниченного "вложения" эффектов один в другой. Предел устанавливается не техническими (точнее, не математическими) возможностями, а здравым смыслом и эстетическими критериями. Основной способ применения эффектов в Cubase SX — их применение в реальном времени. О том, как воспользоваться ими, мы расскажем на страницах книги. Сначала нужно получить хотя бы исходные представления о сущности основных звуковых эффектов: вибрато, тремоло, дилэй (delay), флэнжер (flanger), фэйзер (phaser), xopyc (chorus), реверберация (reverb).
Вибрато
В самом общем смысле суть эффекта вибрато заключается в периодическом изменении одного из параметров звукового колебания: амплитуды, частоты или фазы. Изменение параметра происходит с очень малой частотой — единицы герц. Различают амплитудное, частотное и фазовое вибрато. В любом случае результатом является обогащение спектра исходного звукового колебания. Читатели, знакомые с основами радиотехники, понимают, что, по сути дела, происходит модуляция звукового колебания низкочастотным сигналом. Законы физики неумолимы — спектр сигнала при этом действительно расширяется.
Кроме того, имеется еще и тембровое вибрато, о котором мы поговорим чуть позже.
Как и многие другие электронные звуковые эффекты, вибрато имеет свои естественные прототипы, уходящие корнями в народную и классическую инструментальную и вокальную музыку.
Владение приемом вибрато отличает очень хорошего певца от просто хорошего. Скрипка в руках талантливого музыканта потому и звучит так божественно, что, совершая едва заметные перемещения вдоль грифа пальцев, прижимающих струны, он осуществляет частотное вибрато. Тремоло (частный случай амплитудного вибрато) является основным приемом игры на мандолине.
Первоначально словом "вибрато" именовалась модуляция любого параметра звукового колебания. Но со временем некоторые из разновидностей этого эффекта получили свое название. Во многих публикациях по электронной музыке теперь под вибрато подразумевают только вибрато частотное. На наш взгляд это не совсем верно, следует различать амплитудное вибрато, частотное вибрато и тембровое вибрато. У фазового вибрато имеется специальное название — фэйзер (phaser).
Амплитудное вибрато и тремоло
Амплитудное вибрато включает в себя собственно амплитудное вибрато и тремоло.
Сущность амплитудного вибрато состоит в периодическом изменении амплитуды звукового сигнала. Частота, с которой это происходит, должна быть очень небольшой (от долей герца до 10—12 Гц). Если частота вибрато находится вне этих пределов, то необходимый эстетический эффект не достигается.
Тембр сигнала с амплитудным вибрато богаче по сравнению с тембром исходного сигнала. С таким спектром можно проделывать различные манипуляции, например, изменять уровни спектральных составляющих с помощью фильтров.
Степень проявления эффекта характеризуется глубиной вибрато: m = AS/S, где AS — максимальное изменение амплитуды сигнала с вибрато, S — амплитуда исходного сигнала. Диапазон допустимых значений глубины вибрато — от О до 1. Оптимальная с точки зрения художественного результата частота амплитудного вибрато составляет 6—8 Гц.
Особой разновидностью амплитудного вибрато является тремоло. Отличительные признаки тремоло: относительно высокая частота вибрации (10—12 Гц), максимальная глубина (т = 1) и импульсная форма результирующего сигнала.
В аналоговых устройствах амплитудное вибрато реализуется с помощью перемножителей сигналов. Существует много различных принципиальных схем устройств вибрато. Основная проблема аналоговых устройств — неполное подавление управляющего сигнала. При большой глубине вибрато это проявляется в виде ясно прослушивающегося "стука" с частотой модуляции.
Компьютерные музыканты встретятся с двумя вариантами реализации амплитудного вибрато: аппаратным и программным. Аппаратный способ предполагает наличие в структуре звуковой карты усилителей с управляемым коэффициентом усиления. Программный способ заключается в перемножении значений цифровых отсчетов звуковых колебаний со значениями отсчетов функции (обычно синусоидальной), описывающей управляющий сигнал.
При обработке вокальных партий нужно пользоваться амплитудным вибрато очень осторожно, глубина его не должна быть большой, а тремоло совсем недопустимо.
Частотное вибрато
Суть частотного вибрато заключается в периодическом изменении частоты звукового колебания.
В музыке частотное вибрато получило широкое распространение лишь после создания электронных музыкальных инструментов. Реализовать этот эффект на адаптеризированных акустических инструментах довольно сложно. Правда, у соло-гитары конструкция предоставляет такую возможность. Натяжение всех струн можно одновременно изменять с помощью специального механизма: подвижной подставки для крепления струн и рычага. Частотное вибрато здесь исполняется вручную.
Реализация частотного вибрато в электромузыкальных инструментах и синтезаторах проста и естественна. Работу всех узлов электронных музыкальных синтезаторов как аппаратных, так и реализованных программным путем, синхронизирует опорный генератор. Если изменять его частоту, то будут изменяться частоты и всех синтезируемых колебаний. В радиотехнике этот процесс называется частотной модуляцией. Если изменение частоты производится по периодическому закону, то в результате получается частотное вибрато. По существу дела, при частотном вибрато также расширяется спектр исходного сигнала, тембр перестает быть постоянным, а периодически изменяется во времени.
Красивое звучание получается только в том случае, когда глубина частотного вибрато (относительное изменение частоты звука) невелика. Как известно, в соответствии с хроматической гаммой введена единица музыкальных интервалов, в 1200 раз меньшая, чем октава — цент. Интервал между соседними полутонами в темперированной гамме равен в точности 100 центам. Колебание высоты тона при частотном вибрато не должно превышать нескольких десятков центов. В противном случае создается впечатление нарушения строя инструмента.
Частотное вибрато используется и само по себе и входит составной частью в более сложные звуковые эффекты.
Тембровое вибрато
Эффект тембрового вибрато также предназначен для изменения спектра звуковых колебаний. Физическая сущность этого эффекта состоит в том, что исходное колебание с богатым тембром пропускается через полосовой частотный фильтр, у которого периодически изменяется либо частота настройки, либо полоса пропускания, либо по различным законам изменяются оба параметра. При этом фильтр выделяет из всего спектра исходного колебания те частотные составляющие, которые попадают в "мгновенную" полосу его пропускания. Так как полоса пропускания "дышит" по ширине и "гуляет" по частоте, то тембр сигнала периодически изменяется.
Кроме автоматического тембрового вибрато используют еще и ручное (чаще даже "ножное" — с управлением от педали). Такой вариант эффекта известен под названиями "вау-вау".
Необыкновенно красиво звучит электрогитара, сигнал которой пропущен через блок тембрового вибрато, если цикл перестройки фильтра синхронизирован с моментом возникновения колебания струны. Звук каждого очередного взятого аккорда перетекает от одного края своей тембральной области до другого.
Если звуковая карта содержит перестраиваемые резонансные фильтры или хотя бы фильтры нижних частот с перестраиваемой частотой среза, то этот эффект может быть создан и аппаратным способом в реальном времени. Эффекты, основанные на задержке сигнала
В этом разделе мы познакомим вас с сущностью ряда эффектов, основанных на задержке сигнала, таких как:
* Дилэй (Delay)
* Флэнжер (Flanger)
* Фэйзер (Phaser)
* Хорус (Chorus)
* Реверберация (Reverb)
О реализации данных эффектов в Cubase SX речь пойдет в главе 13.
Дилэй, delay
Необходимость в эффекте дилэй (delay) возникла с началом применения стереофонии. Сама природа слухового аппарата человека предполагает в большинстве ситуаций поступление в мозг двух звуковых сигналов, отличающихся временами прихода. Если источник звука находится "перед глазами": на перпендикуляре, проведенном к линии, проходящей через уши, то прямой звук от источника достигает обоих ушей в одно и то же время. Во всех остальных случаях расстояния от источника до ушей различны, поэтому одно либо другое ухо воспринимает звук первым. Проведем несложные расчеты. Время задержки (разницы во времени приема сигналов ушами) будет максимальным в том случае, когда источник расположен напротив одного из ушей. Так как расстояние между ушами — около 20 см, то максимальная задержка может составлять около 6 мс. Этим величинам соответствует волна звукового колебания с частотой около 1,7 кГц. Для более высокочастотных звуковых колебаний длина волны становится меньше, чем расстояние между ушами, и разница во времени приема сигналов ушами становится неощутимой. Предельная частота колебаний, задержка которых воспринимается человеком, зависит от направления на источник. Она растет по мере того, как источник звука смещается от точки, расположенной напротив одного из ушей, к точке, расположенной перед человеком.
Дилэй применяется прежде всего в том случае, когда запись голоса или акустического музыкального инструмента, выполненную с помощью единственного микрофона, "встраивают" в стереофоническую композицию. Этот эффект служит основой технологии создания стереозаписей.
Но дилэй может применяться и для получения эффекта однократного повторения каких-либо звуков. Величина задержки между прямым сигналом и его задержанной копией в этом случае выбирается большей, чем естественная задержка в 8 мс. Какая именно задержка должна быть выбрана? Ответ на этот вопрос определяется несколькими факторами. Прежде всего, следует руководствоваться эстетическими критериями, художественной целью и здравым смыслом. Для коротких и резких звуков время задержки, при котором основной сигнал и его копия различимы, меньше, чем для протяженных звуков. Для произведений, исполняемых в медленном темпе, задержка может быть больше, чем для быстрых композиций.
При определенных соотношениях громкостей прямого и задержанного сигналов может иметь место психоакустический эффект изменения кажущегося расположения источника звука на стереопанораме. Согласитесь, что, например, "перескоки" рояля с места на место по ходу прослушивания произведения очень трудно обосновать как с эстетических позиций, так и с точки зрения верности воспроизведения реального звучания. Как и любой эффект, дилэй нужно применять в разумных пределах и не обязательно на протяжении всей композиции.
Этот эффект реализуется с помощью устройств, способных осуществлять задержку акустического или электрического сигналов. Таким устройством сейчас чаще всего служит цифровая линия задержки, представляющая собой цепочку из элементарных ячеек — триггеров задержки. Для наших целей достаточно знать, что принцип действия триггера задержки сводится к следующему: символ двоичного сигнала, поступивший в некоторый тактовый момент на его вход, появится на его выходе не мгновенно, а только в очередной тактовый момент. Общее время задержки в линии тем больше, чем больше триггеров задержки включено в цепочку, и тем меньше, чем меньше тактовый интервал (чем больше тактовая частота). В качестве цифровых линий задержки можно использовать запоминающие устройства. Известны специальные алгоритмы адресации ячеек запоминающих устройств, обеспечивающие "скольжение" информации "вдоль" адресного пространства. Разумеется, для применения цифровой линии задержки сигнал должен быть сначала преобразован в цифровую форму. А после прохождения копией сигнала линии задержки происходит цифроаналоговое преобразование. Исходный сигнал и его задержанная копия могут быть как раздельно направлены в различные стереоканалы, так и смешаны в различных пропорциях. Суммарный сигнал можно направить либо в один из стереоканалов, либо в оба.
В звуковых редакторах дилэй реализуется программным (математическим) путем за счет изменения относительной нумерации отсчетов исходного сигнала и его копии.
Возможны такие, например, разновидности задержки, при которых формируются несколько задержанных на различное время копий сигнала. Реализация эффекта delay в программе Cubase SX рассмотрена в главе 13.
В виртуальных дилэях, как и в их аппаратных прототипах, обязательно имеются регуляторы глубины и частоты модуляции задержанного сигнала, а также регулятор коэффициента обратной связи (feedback). Сигнал с выхода подается опять в линию задержки. Время затухания устанавливается регулятором обратной связи. Чтобы однократное повторение превратилось в настоящее повторяющееся эхо, коэффициент обратной связи надо увеличить. Как правило, и в реальных, и в виртуальных устройствах имеется регулятор, при помощи которого можно подобрать такое время задержки, чтобы оно соответствовало темпу композиции.
Звуковые эффекты флэнжер (flanger) и фэйзер (phaser)
В основу звуковых эффектов флэнжер (flanger) и фэйзер (phaser) также положена задержка сигнала.
В аналоговых устройствах флэнжер реализуется при помощи гребенчатых фильтров, которые могут строиться на линиях задержки. Характерная форма амплитудно-частотной характеристики (АЧХ) создается за счет сдвига фазы при распространении сигнала в линии задержки и сложения реализаций задержанного сигнала.
Меняя параметры гебенчатого фильтра, можно в значительной степени изменять первоначальный тембр звука.
Гребенчатая АЧХ фильтра обусловлена тем, что для некоторых частот задержанные копии сигнала складываются в фазе и поэтому усиливаются, для других частот — в противофазе и поэтому взаимоуничтожаются. Периодическая структура АЧХ определяется периодическим характером составляющих аудиосигнала (синусоид).
Совершенно не случайно в старые времена флэнжером часто пытались заменить реверберацию. Реверберация возникает за счет многократного отражения звуковых волн от стен, потолка и пола помещения. При этом звуковые колебания по пути к слушателю претерпевают различные по величине задержки (фазовые сдвиги). Имеет место интерференция колебаний. Если исследовать любое помещение с заметными реверберационными свойствами, то обнаружится, что его АЧХ имеет гребенчатую форму.
Как мы уже сказали, дилэй имитирует эффект неодновременного восприятия мозгом человека звуковых сигналов. Эффект повторного звучания может быть вызван и распространением звука от источника к приемнику различными путями (например, звук может приходить, во-первых, напрямую и, во-вторых, отразившись от препятствия, находящегося чуть в стороне от прямого пути). В том и в другом случаях время задержки остается постоянным. В реальной жизни этому соответствует маловероятная ситуация, когда источник звука, приемник звука и отражающие предметы неподвижны относительно друг друга. При этом частота звука не изменяется, каким бы путем и в какое бы ухо он ни приходил.
Если же какой-либо из трех элементов подвижен, то частота принимаемого звука не может оставаться той же, что и частота звука переданного. Это и есть проявление того самого эффекта Доплера, который в учебниках традиционно поясняется на примере изменения высоты звучания гудка движущегося паровоза.
Итак, реальные музыкальные звуки при распространении претерпевают не только расщепление на несколько звуковых волн и различную (для каждой из них) задержку, но и неодинаковое изменение частот для разных спектральных составляющих.
И флэнжер, и фэйзер имитируют (каждый по-своему) проявления взаимного перемещения упомянутых трех элементов: источника, приемника и отражателя звука. По сути дела, оба эффекта представляют собой сочетание задержки звукового сигнала с частотной или фазовой модуляцией. Разница между ними чисто количественная. Флэнжер отличается от фейзера тем, что для первого эффекта время задержки копии (или времена задержек копий) и изменение частот сигнала значительно большее, чем для второго. Образно говоря, флэнжер наблюдался бы в том случае, когда певец мчался бы к зрителю, сидящему в зале, со скоростью автомобиля. А вот для того чтобы ощутить фэйзер в его, так сказать, первозданном виде, движущегося источника звука не требуется, зрителю достаточно часто-часто вертеть головой из стороны в сторону.
Упомянутые количественные отличия эффектов приводят и к отличиям качественным: во-первых, звуки, обработанные ими, приобретают различные акустические и музыкальные свойства, во-вторых, эффекты реализуются различными техническими средствами.
Значения времени задержек, характерные для флэнжера, существенно превышают период звукового колебания, поэтому для реализации эффекта используют многоразрядные и многоотводные цифровые линии задержки. С каждого из отводов снимается свой сигнал, который в свою очередь подвергается частотной модуляции.
Для фэйзера, наоборот, характерно столь малое время задержки, что оно оказывается сравнимо с периодом звукового колебания. При таких малых относительных сдвигах принято говорить уже не о задержке копий сигнала во времени, а о разности их фаз. Если эта разность фаз не остается постоянной, а изменяется по периодическому закону, то мы имеем дело с эффектом Phaser. Так что можно считать фэйзер предельным случаем флэнжера. Но если внимательно прочитать еще раз этот абзац, то можно понять, что фэйзер — это фазовое вибрато.
Чего только ни придумывали в относительно старые времена, чтобы реализовать эти эффекты!
Например, чтобы получить флэнжер, вместо одной акустической системы использовали несколько систем, размещенных на различных расстояниях от слушателей. В определенные моменты производили поочередное подключение источника сигнала к акустическим системам таким образом, что создавалось впечатление приближения или удаления источника звука. Задержку звука выполняли и с помощью магнитофонов со сквозным трактом запись/воспроизведение. Одна головка записывает, другая — воспроизводит звук с задержкой на время, необходимое для перемещения ленты от головки к головке. Для частотной модуляции особых мер можно было и не придумывать. Каждому аналоговому магнитофону присущ естественный недостаток, называемый детонацией, которая проявляется в виде "плавания звука". Стоило чуть-чуть специально усилить этот эффект, изменяя напряжение, питающее двигатель, и получалась частотная модуляция.
Для реализации фэйзера методами аналоговой техники использовали цепочки электрически управляемых фазовращателей. А иногда можно было наблюдать и такую картину: в акустической системе, подключенной к электромузыкальному инструменту или электрогитаре, вдруг начинало вращаться что-то вроде вентилятора. Звук пересекался подвижными лопастями, отражался от них, получалась фазовая модуляция. Представляете, сколько усилий предпринималось только ради того, чтобы оживить тембр звучания инструментов! Современные звуковые редакторы позволяют без особых усилий со стороны пользователя реализовать гигантское количество различных звуковых эффектов.
Хорус (chorus)
Хорус (chorus) проявляется как эффект исполнения одного и того же звука или всей партии не одним-единственным инструментом или певцом, а несколькими. Искусственно выполненный эффект является моделью звучания настоящего хора. В том, что хоровое пение или одновременное звучание нескольких музыкальных инструментов украшает и оживляет музыкальное произведение, сомнений, вероятно, нет ни у кого.
С одной стороны, голоса певцов и звуки инструментов при исполнении одинаковой ноты должны звучать одинаково, а к этому стремятся и музыканты, и дирижер. Но из-за индивидуальных различий источников звук все равно получается разным. В пространстве, тракте звукоусиления и в слуховом аппарате человека эти немного неодинаковые колебания взаимодействуют, образуются так называемые биения. Спектр звука обогащается и, самое главное, течет, переливается.
Можно считать, что предельным случаем хоруса является одновременное звучание слегка отличающихся по частоте двух источников — унисон.
Унисон был известен задолго до появления синтезаторов. В основе сочного и живого звучания двенадцатиструнной гитары и аккордеона лежит унисон. В аккордеоне, например, звук каждой ноты генерируется узлом, содержащим два источника колебаний (язычка), специально настроенных "в разлив" — с небольшой (в единицы герц) разницей в частотах. В двенадцатиструнной гитаре звук извлекается одновременно из пары струн. Разница в частотах образуется естественным путем из-за невозможности идеально одинаково настроить струны инструмента.
Вот именно наличие этой ничтожной разницы в частотах голосов певцов или инструментов и служит причиной красивого звучания унисона (для двух голосов) или хоруса (для более двух голосов).
В цифровых электромузыкальных инструментах, напротив, частоты пары вторичных генераторов могут быть получены абсолютно равными друг другу. В таком звучании отсутствует жизнь, потому что оно слишком правильное. Для оживления электронного звучания и создания впечатления игры нескольких инструментов и используют хорус.
Существует довольно много разновидностей алгоритмов хоруса. Но все они сводятся к следующему:
* исходный сигнал разделяется на два или несколько каналов;
* в каждом из каналов спектр сигнала сдвигают по частоте на определенную величину. Частотные сдвиги очень малы, они составляют доли Гц и в ряде случаев изменяются во времени;
* в каждом из каналов сигнал немного задерживают во времени, причем, величина задержки может меняться (поэтому хорус относится к числу эффектов, основанных на задержке сигнала);
* каждый из каналов позиционирует в свою точку на стереопанораме;
* сигналы, полученные таким способом, складывают.
В итоге получается сигнал, спектр которого непрерывно изменяется, причем период полного цикла этого изменения столь велик, что повторяемость спектральных свойств сигнала не ощущается.
Хорус настолько украшает звучание инструментов, что ныне он стал одним из эффектов, имеющихся практически в каждом синтезаторе и многих звуковых картах.
Обработка аудиосигнала звуковыми редакторами позволяет получить массу разновидностей этого эффекта. Вместе с тем, не следует чрезмерно увлекаться им, так как это может привести к ухудшению разборчивости звучания голоса, к "засорению" акустической атмосферы композиции.
Реверберация (reverb)
Реверберация (reverb) относится к наиболее интересным и популярным звуковым эффектам. Сущность реверберации состоит в том, что исходный звуковой сигнал смешивается со своими копиями, задержанными относительно него на различные интервалы времени. Этим реверберация напоминает ди-лэй. Отличие заключается в том, что при реверберации число задержанных копий сигнала может быть значительно больше, чем для дилэя. Теоретически число копий может быть бесконечным. Кроме того, при реверберации чем больше время запаздывания копии сигнала, тем меньше ее амплитуда (громкость). Эффект зависит от того, каковы временные промежутки между копиями сигналов и какова скорость уменьшения уровней их громкости. Если промежутки между копиями малы, то получается собственно эффект реверберации. Возникает ощущение объемного гулкого помещения. Звуки музыкальных инструментов становятся сочными, объемными, с богатым тембровым составом. Голоса певцов приобретают напевность, недостатки, присущие им, становятся малозаметными.
Если промежутки между копиями велики (более 100 мс), то правильнее говорить не об эффекте реверберации, а об эффекте "эхо". Интервалы между соответствующими звуками при этом становятся различимыми. Звуки перестают сливаться, кажутся отражениями от удаленных преград.
Первым ушей слушателя достигает прямой звук. Этот сигнал приходит к слушателю по кратчайшему пути. Поэтому интенсивность его больше, чем интенсивности других сигналов. Прямой сигнал несет информацию только о расположении источника звука справа или слева от слушателя.
Несколько отстав от прямого сигнала, затем приходят ранние (первичные) отражения. Эта составляющая звукового поля претерпевает одно — два отражения от ограждающих поверхностей (стен, пола, потолка). Взаимодействуя с поверхностями, звуковая волна не только отражается от них, но и отдает им часть своей энергии. Энергия расходуется на нагрев поверхностей. Поэтому интенсивность ранних отражений меньше (но не намного) интенсивности прямого сигнала. Ранние отражения проявляются как ясно различимые эхо-сигналы. Временные промежутки между ними достаточно велики, т. к. велики разности длин путей, по которым сигналы доходят до слушателя. Например, волна может отразиться от боковой или от тыльной стены. Возможно, что часть волн, относящихся к ранним отражениям, испытают не одно, а несколько отражений. Ранние отражения несут в себе информацию не только о месте расположения исполнителя, но и о размерах помещения. Именно данные отражения вносят наибольший вклад в пространственное ощущение акустики зала. К ранним отражениям относят те копии первичного сигнала, которые отстают от прямого сигнала не более, чем на 60 мс.
Вторичные и последующие (поздние) отражения — это звуковые волны, многократно отраженные от каждой из поверхностей. По мере увеличения числа переотражений интенсивность аудиосигнала заметно уменьшается. Кроме того, изменяется спектральный состав звуковых колебаний. Дело в том, что из-за различий в конфигурации отражающих поверхностей л в свойствах материалов покрытий разные спектральные составляющие аудиосигнала отражаются не одинаково. Какие-то из них поглощаются сильнее, поэтому затухают быстрее.
По мере возрастания номеров вторичных отражений они рассеиваются, их число увеличивается. Постепенно они перестают восприниматься как отдельные звуки, сливаются в один сплошной постепенно затухающий отзвук. Это и есть собственно реверберация.
Теоретически затухание звука длится бесконечно. На практике, для того чтобы можно было сравнивать между собой различные реверберационные процессы (а главное реверберационные свойства помещений), введено понятие времени реверберации. Время реверберации — это такое время, за которое уровень реверберирующего сигнала уменьшается на 60 дБ.
Основным элементом, реализующим эффект реверберации, является устройство, создающее эхо-сигнал.
Интересна история развития таких устройств. Первоначально радиостудии и солидные концертные залы содержали эхо-камеры. Эхо-камера представляет собой комнату с отражающими стенами, в которую помещен источник звукового сигнала (громкоговоритель) и приемник (микрофон). По сути дела, такая эхо-камера является уменьшенной моделью реального зрительного зала, в котором не всегда удается создать необходимую акустическую атмосферу. В эхо-камере с трудом, но можно было в некоторых пределах управлять распределением интенсивностей и времен распространения переотраженных сигналов, устанавливая отражающие или поглощающие звук перегородки. Преимущество эхо-камеры состоит в том, что затухание звука происходит в ней естественным путем (что очень трудно обеспечить другими способами имитации эффекта реверберации). В то время как звук продолжает реверберировать в трех измерениях, волна разбивается на множество отражений, которые достигают микрофона во все более уменьшающиеся промежутки времени задолго до того, как звук полностью затихнет. Недостатки эхо-камер связаны с их относительно малыми размерами, при этом вследствие собственных резонансов помещения спектр сигнала искажается в области средних частот. Определенную проблему представляет надежная звукоизоляция помещения эхо-камеры. Но самое главное заключается в том, что эхо-камера не может служить распространенным инструментом получения искусственной реверберации, так как она слишком дорога и громоздка.
Наряду с эхо-камерами для имитации реверберации использовали стальные пластины, точнее довольно-таки большие листы. Колебания в них вводили и снимали с помощью устройств, по конструкции и принципу действия похожих на электромагнитные головные телефоны. Для получения удовлетворительной равномерности амплитудно-частотной характеристики толщина листа должна быть выдержана с точностью, которую не позволяют достичь обычные технологии проката стали. Реверберация здесь была не трехмерной, а плоской. Сигнал имел характерный металлический призвук.
В середине 60-х годов XX века для получения эффекта реверберации стали применять пружинные ревербераторы. С помощью электромагнитного преобразователя, соединенного с одним из концов пружины, в ней возбуждаются механические колебания, которые с задержкой достигают второго конца пружины, связанного с датчиком. Эффект повторения звука обусловлен многократным отражением волн механических колебаний от концов пружины.
Качество звука в пружинном ревербераторе чрезвычайно низкое. Пружина воспринимает любые колебания воздуха и пола, между акустической системой и пружиной существует практически неустранимая обратная связь, звук имеет ярко выраженную "металлическую" окраску. Время реверберации не регулируется.
На смену этим несовершенным устройствам пришли ревербераторы магнитофонные. Принцип формирования в них эхо-сигнала состоит в том, что исходный сигнал записывается на ленту записывающей магнитной головкой, а через время, необходимое для перемещения данной точки ленты к воспроизводящей головке, считывается ею. Через цепь обратной связи уменьшенный по амплитуде задержанный сигнал вновь подается на запись, что и создает эффект многократного повторения звука с постепенным затуханием. Качество звука определяется параметрами магнитофона. Недостаток магнитофонного ревербератора заключается в том, что при приемлемых скоростях протяжки ленты удается получить только эффект эха. Для получения собственно реверберации требуется либо еще сильнее сблизить магнитные головки (чего не позволяет сделать их конструкция), либо значительно увеличить скорость протяжки ленты.
С развитием цифровой техники и появлением интегральных микросхем, содержащих в одном корпусе сотни и тысячи цифровых элементов задержки, появилась возможность создавать высококачественные цифровые ревербераторы. В таких устройствах сигнал может быть задержан на любое время, необходимое как для получения реверберации, так и для получения эха. Ревербератор отличается от цифрового устройства, реализующего дилэй, только тем, что содержит обратную связь (feedback), необходимую для формирования затухающих повторений сигнала.
Цепь обратной связи отсылает часть сигнала с выхода обратно в линию задержки, тем самым получается повторяющееся эхо. Коэффициент обратной связи должен быть меньше единицы, иначе каждое новое эхо будет возрастать по уровню, а не затухать. Может получиться эффект, подобный самовозбуждению акустической системы.
В некоторых виртуальных ревербераторах предусмотрен модулятор фазы. Его действие проявляется в том, что при коротком времени затухания возникает едва заметное изменение тона.
В звуковых картах реверберация, в конечном счете, основана именно на цифровой задержке сигналов. Поэтому может показаться лишним рассказ об остальных способах создания этого эффекта. Но в наши дни не счесть звуковых редакторов, в которые встроена та самая эхо-камера. Конечно, не само гулкое помещение втиснуто в компьютер, а его математическая модель. Для чего это понадобилось делать? Эхо-камера принципиально отличается от всех остальных устройств тем, что реверберация в ней настоящая: трехмерная, объемная. Во всех же остальных устройствах это и не реверберация даже, а ее плоское, двумерное (а то и одномерное) подобие. Модель эхо-камеры позволяет воссоздавать акустику любого помещения. Она даже лучше, чем настоящая эхо-камера, потому что допускает оперативное изменение размеров моделируемого помещения и отражающих свойств стен, пола, потолка. Более того, это не одна, а целых две эхо-камеры, с отдельно устанавливаемыми координатами источников и приемников звука. И это еще не все. Во многих программах, предназначенных для синтеза голосов новых музыкальных инструментов, смоделирован и эффект реверберации, как бы реализуемый с помощью того самого стального листа. Наблюдая такое развитие средств реверберации, можно предположить, что когда-нибудь появятся и математические модели пружинных и магнитофонных ревербераторов. Ведь совсем не исключено, что есть люди, испытывающие ностальгические чувства по отношению к звукам музыки, окрашенным дребезгом пружин или шипением магнитной ленты.
Дистошн (distortion)
Дистошн (distortion) — преднамеренное искажение формы аудиосигнала, придающее ему резкий, скрежещущий оттенок. Чаще всего дистошн применяется в качестве гитарного эффекта. Получается перегрузкой усилителя вплоть до появления в усилителе ограничений и даже его самовозбуждения. Благодаря этому сигнал становится похож на прямоугольный, отчего в нем появляется большое количество новых гармоник, резко расширяющих спектр. Этот эффект применяется в нескольких вариациях (fuzz, overdrive и т. п.), различающихся:
* способом ограничения сигнала (обычное или сглаженное, весь спектр или полоса частот, весь амплитудный диапазон или его часть);
* соотношением исходного и искаженного сигналов в выходном миксе;
* частотными характеристиками усилителей (наличие/отсутствие фильтров на выходе).
Вокодер (voice coder) Вокодер (voice coder) — устройство синтеза речи на основе произвольного входного сигнала с богатым спектром. Речевой синтез реализуется обычно при помощи формантных преобразований: выделение из сигнала с достаточным спектром нужного набора формант с нужными соотношениями придает сигналу свойства соответствующего гласного звука. Изначально вокодеры использовались для передачи кодированной речи. Путем анализа исходного речевого сигнала из него выделяется информация об изменении положений формант при переходе от звука к звуку. Эта информация кодируется и передается по линии связи, а на приемном конце блок управляемых фильтров и усилителей синтезирует речь заново.
Подавая на блок речевого синтеза сигнал, например электрогитары, и произнося слова в микрофон блока анализа, можно получить эффект "разговаривающей гитары". При подаче сигнала с синтезатора получается "голос робота". А если подать сигнал, близкий по спектру к колебаниям голосовых связок, но отличающийся по частоте, то изменится регистр голоса — мужской на женский или детский, и наоборот.
Pitch Shifter — изменение высоты тона
Большинство реальных и виртуальных устройств обработки звука имитируют эффекты, которые существуют в природе. Но устройства изменения высоты тона (Pitch Shifter) относятся к совершенно особому типу процессоров, так как тот сигнал, что получается в результате их работы, не.имеет аналога в окружающем мире.
Pitch Shifter делает интересное преобразование: он позволяет получить копию входного сигнала, но высота тона этой копии может быть изменена на величину от нескольких центов до октавы и более.
Принцип действия Pitch Shifter в общем заключается в том, что сигнал записывается в память с фиксированной скоростью, а считывание может производиться быстрее или медленнее — в зависимости от того, вверх или вниз относительного входного сигнала должен быть изменен тон.
Сигнал с измененной высотой тона может быть задержан по отношению к входному. Это используется для более натурального имитирования искусственного унисона: два инструмента играют одно и то же, но есть небольшая разница во времени и высоте.
На этом позвольте завершить рассказ о сущности основных эффектов, имеющихся в музыкальных и звуковых редакторах.
Частотная фильтрация
Фильтрация — это процесс обработки электрического звукового сигнала частотноизбирательными устройствами с целью изменения спектрального состава (тембра) сигнала. Задачами такой обработки могут быть:
* амплитудно-частотная коррекция сигнала (усиление или ослабление отдельных частотных составляющих);
* полное подавление спектра сигнала или шумов в определенной полосе частот.
Например, если микрофон, акустическая система или еще какой-либо элемент звукового тракта имеют неравномерную амплитудно-частотную характеристику, то с помощью фильтров эти неравномерности могут быть сглажены. Если в результате анализа спектра выяснилось, что в некоторой области частот в основном сосредоточена энергия помех, а энергии сигнала совсем немного, то посредством фильтрации все колебания в этом диапазоне частот можно подавить.
Для осуществления фильтрации созданы самые различные устройства: отдельные корректирующие и формантные фильтры, устройства для разделения звука на несколько каналов по частотному признаку (кроссоверы), двухполосные и многополосные регуляторы тембра (эквалайзеры), фильтры присутствия и т. д.
Основой фильтров, реализованных программным путем в составе звуковых редакторов, служит спектральный анализ. Любой реальный сигнал может быть представлен в виде набора коэффициентов разложения в ряд по гармоническим функциям. Фильтрация сводится к умножению спектральных коэффициентов на соответствующие значения передаточной функции фильтра. Если спектр представлен в комплексной форме, то сигнал описывается совокупностью амплитудного и фазового спектров (АС и ФС), а фильтры — амплитудно-частотными и фазо-частотными характеристиками (АЧХ и ФЧХ). АЧХ представляет собой зависимость коэффициента передачи фильтра от частоты. ФЧХ отражает сдвиг фазы выходного сигнала по отношению ко входному в зависимости от частоты. В этом случае фильтрация эквивалентна перемножению АС на АЧХ и алгебраическому сложению ФС с ФЧХ.
Классический спектральный анализ из-за наличия большого количества операций перемножения занимает очень много процессорного времени и при значительном числе отсчетов сигнала неосуществим в реальном темпе обработки. Для сокращения времени спектрального анализа дискретных сигналов разработаны специальные алгоритмы, учитывающие наличие связей между различными отсчетами сигнала и устраняющие повторяющиеся операции. Одним из таких алгоритмов является быстрое преобразование Фурье (БПФ).
В зависимости от расположения полосы пропускания на оси частот фильтры подразделяются на:
* фильтры нижних частот (ФНЧ) (Low Pass), типичные АЧХ и ФЧХ которых показаны на рис. 1.22;
* фильтры верхних частот (ФВЧ) (High Pass), их АЧХ и ФЧХ показаны на рис. 1.23;
* полоснопропускающие (полосовые) фильтры (Band Pass) (рис. 1.24);
* полоснозадерживающие (режекторные) фильтры (Band Stop) (рис. 1.25).
На рисунках по горизонтальным осям отложено значение частоты, по вертикальным осям отложены значения передаточных функций K(f) или фазовых сдвигов (t) в зависимости от частоты.
Тот участок АЧХ, где коэффициент передачи не равен нулю, соответствует полосе пропускания фильтра. В полосе задерживания (или подавления), напротив, коэффициент передачи фильтра должен быть минимальным (в идеальном случае нулевым).
Характеристики, представленные на рис. 1.22-1.25 являются идеализированными: реальные фильтры, строго говоря, не позволяют обеспечить равенство передаточной функции нулю вне полосы пропускания. Колебания в полосе подавления пусть и значительно ослабленные, все равно проникают через фильтр.
Реальные фильтры низких и высоких частот характеризуются следующими основными параметрами:
* частотой среза;
* шириной полосы пропускания;
* неравномерностью характеристики в полосе пропускания;
* крутизной ската характеристики в области перехода от полосы пропускания к полосе задерживания.
Для полосового фильтра добавляется еще один параметр — добротность, под которой понимают отношение центральной частоты фильтра к полосе его пропускания. ривязка графических объектов, первое знакомство с квантизацией
Все операции по перемещению любых графических объектов и частей, в частности, выполняются с помощью мыши. Однако разрешающая способность любого манипулятора ограничена. Без специальных средств было бы очень трудно, например, совместить начало перемещаемой части с началом такта в том масштабе, в котором выполняется основная работа в секции треков.
Средство это существует во многих редакторах, включая Cubase SX. Называется оно Snap (привязка).
Режим привязки включается кнопкой (Snap), расположенной на панели инструментов окна проекта. Справа от этой кнопки расположено поле Snap Mode Selector (выбор режима привязки), показанное на рис. 4.41. Щелчком на нем открывается меню, содержащее различные режимы привязки. Каждый режим имеет свое графическое обозначение и название. Перечислим их.
* Grid — привязка к узлам невидимой сетки;
* Events — привязка к границам (началам и окончаниям) сообщений;
* Shuffle — режим "перетасовки", при котором перемещаемые части или аудиосообщения могут следовать только друг за другом;
* Magnetic Cursor ( ) — привязка к указателю текущей позиции;
* Grid + Cursor () — комбинация режимов Grid и Magnetic Cursor;
* Events + Cursor ( ) — комбинация режимов Events и Magnetic Cursor;
* Events + Grid + Cursor ( ) — комбинация режимов Events, Grid и Magnetic Cursor.
Рис. 4.41. Поля Mode Selector, Grid Selector, Quantize Setup (слева направо)
Наиболее универсальным можно считать режим Grid. Когда он включен, перемешаемые пользователем графические объекты (включая локаторы) "прилипают" к узлам невидимой сетки. Шаг сетки задается в поле Grid Selector, расположенном справа от поля Snap Mode Selector (рис. 4.41):
* Ваr — использовать шаг сетки, равный такту;
* Beat — использовать шаг сетки, равный доле;
* Use Quantize — использовать шаг сетки такой же, как и шаг квантизации.
Квантизация предназначена для коррекции неидеальности "живой" игры музыканта. Понятие квантизации бок о бок идет с понятием привязки объектов к сетке, но применяется квантизация только к сообщениям типа Note (сообщение о нажатии MIDI-клавиши).
Традиционная квантизация — это привязка начальных позиции и протяженности сообщения типа Note к узлам невидимой сетки, расположенной вдоль оси времени, поэтому моменты возникновения и длительности звуков будут кратны шагу сетки. С точки зрения пользователя квантизация выглядит так: выделяете одну или несколько MlDl-частей (или отдельные сообщения внутри части) и подаете специальную команду. После этого начала или длительности нот (в зависимости от команды) притягиваются к ближайшим узлам сетки. Существует еще режим автоматической квантизации, включаемый кнопкой AQ, расположенной на транспортной панели. В этом режиме квантизации будут подвергаться все записываемые сообщения типа Note.
Шаг квантизации выбирается в меню, вызываемом щелчком на поле Quantize Selector (рис. 4.41), расположенном справа от поля Grid Selector. Кроме стандартных пресетов, в данном меню вы можете выбрать команду Setup, открывающую окно диалога Quantize Setup. В данном окне вы можете более тонко настроить работу квантизации. В частности, можно сделать привязку нот к узлам сетки нежесткой. Это позволит частично сохранить неидеальность живой игры и тем самым избежать ощущения "компьютерности".
Подробно о квантизации мы расскажем в главе 6.
В завершение раздела заметим, что если включен режим привязки к сетке, то это распространяется и на объекты, создаваемые при записи (части и аудиосообщения).
Операции над частями и аудиосообщениями
Над частями и аудиосообщениями можно производить какие угодно операции: перемещать, разрезать, копировать, удалять, объединять и т. д. Но для того чтобы выполнять какие-либо действия над объектами проекта, предварительно их следует выделить.
Выделение
В верхней области секции треков имеется панель инструментов. Проверьте, чтобы кнопка (Object Selection) на панели инструментов окна проекта быть нажата — это означает, что курсор мыши будет работать как инструмент для выделения и перемещения графических объектов. Чтобы выделить одну часть или аудиосообщение, достаточно щелкнуть на нем кнопкой мыши. Чтобы снять выделение, нужно щелкнуть на любом свободном месте секции треков.
Группа треков выделяется следующим образом. С помощью курсора мыши, словно в графическом редакторе, рисуется прямоугольник, полностью охватывающий те части и аудиосообщения, которые следует выделить. Охваченные этим прямоугольником объекты оказываются выделенными (рис. 4.42, а, б, в). Еще один способ выделения нескольких частей: нажмите и удерживайте нажатой кнопку <Shift>, затем "перещелкайте" нужные части. Если вам требуется выделить все объекты, расположенные на одном треке, то для этого существует специальная команда. Щелкните правой кнопкой мыши на поле нужного трека в списке треков, возникнет контекстное меню трека, в котором следует выбрать команду Select All Events. В главном меню Cubase SX имеется большой набор команд для выделения объектов проекта. Все они собраны в подменю Edit > Select. Перечислим те из них, что доступны из окна проекта:
* All — выделить все объекты (сочетание клавиш <Ctrl> + <A>);
* None — снять выделение со всех объектов (сочетание клавиш <Ctrl> + <Shift> + <A>);
* In Loop — выделить все объекты, полностью или частично попадающие в область между левым и правым локаторами;
* From Start to Cursor — выделить все объекты, расположенные на интервале от начала проекта до указателя текущей позиции;
* From Cursor to End — выделить все объекты, расположенные после указателя текущей позиции;
* All on Selected Tracks — выделить все объекты на выделенных треках.
Рис. 4.42. Выделение группы аудиосообщений
Чтобы выделить сразу несколько треков, следует "перещелкать" их поля в списке треков, удерживая нажатой клавишу <Ctrl>. Альтернативный вариант — щелкнуть на поле первого трека, входящего в группу выделяемых треков, затем, удерживая нажатой клавишу <Shift>, щелкнуть на поле последнего трека группы.
Удаление, отмена последней операции
Самая простая операция с выделенными объектами (частями или аудиосообщениями) — их удаление — выполняется нажатием клавиши <Delete> или <Backspace>, либо командой главного меню программы Edit > Delete, либо командой Edit > Delete контекстного меню, вызываемого щелчком правой кнопкой мыши на области секции треков, содержащей части или аудиосообщения.
Но и это еще не все. На панели инструментов окна проекта имеется кнопка (Erase) — ластик. Если данная кнопка нажата, то щелчок на объекте приводит к его удалению.
Отменить удаление (как и любую другую последнюю из операций, выполненных над объектами проекта) можно командой главного меню Edit > Undo или нажав комбинацию клавиш <Ctrl> + <Z>. В отличие от предыдущих версий Cubase, в Cubase SX поддерживается бесконечное количество отмен (вплоть до первой операции в сеансе работы с проектом). Однако существуют и такие операции, которые не могут быть отменены в принципе. На невозможность отмены мы будем обращать ваше внимание особо.
Если вы уже воспользовались командой Edit > Undo, то имеется возможность ее отменить (вернуть все в то состояние, которое было до ее выполнения). Для этого существует команда Edit > Redo (клавиши <Ctrl> + <Shift> + <Z>). Еще одна команда, связанная с рассматриваемой темой, — Edit > History, вызывает окно диалога Edit History (история редактирования). В данном окне присутствует список всех команд, которые были выполнены в текущем сеансе работы с проектом. Если вы хотите отменить сразу несколько команд, то вместо того, чтобы многократно подавать команду Edit > Undo, удобнее щелкнуть на нужной команде в истории. Ваш проект незамедлительно перейдет в то состояние, в котором он находился после команды, выбранной вами в списке. Это похоже на путешествие во времени. Однако в отличие от машины времени возможности Cubase SX вполне реальны. Причем вы можете путешествовать по истории редактирования как назад, так и вперед (естественно, только до тех команд, которые вы реально подавали). Почему "естественно"? Потому, что настоящей машины времени все же не существует и Cubase SX не может знать того, какие команды вы будете подавать в будущем.
Перемещение
Чтобы переместить одиночный объект, не обязательно его предварительно выделять. Хватайте его и тащите на нужное место (при условии, что кнопка на панели инструментов окна проекта нажата). Как только вы захватите объект мышью, он выделится автоматически.
Если требуется переместить сразу группу объектов, то предварительно все их следует выделить. После этого следует ухватиться за любой из объектов данной группы и перетащить его на новое место.
При перетаскивании объекты раздваиваются. Вы хватаете объект мышью и тащите, при этом вы перетаскиваете его изображение. Но до тех пор, пока вы не отпустите кнопку мыши и не "положите" объект на новое место, на его старом месте остается копия его изображения.
Если вам требуется переместить один или несколько объектов за пределы видимой области, то ваши действия должны быть таковыми:
* схватите объект(ы) левой кнопкой мыши и подведите курсор к правой или левой границе секции треков, программа начнет перематывать видимую область проекта в соответствующем направлении;
* когда появится нужное вам место, отодвиньте курсор от границы вглубь секции треков;
* установите перетаскиваемый объект в требуемое место и отпустите левую кнопку мыши.
Не обязательно перемещать объекты методом Drag and Drop. Вы можете воспользоваться буфером обмена для их перемещения. Скопируйте или вырежьте части и аудиосообщения в буфер обмена, затем вставляйте в требуемое место трека, определяемое указателем текущей позиции. Обратите внимание на то, что объекты всегда вставляются на тот же трек, с которого они были скопированы или вырезаны в буфер обмена.
Перечислим соответствующие команды главного меню:
* Edit > Cut (клавиши <Ctrl> + <X>) — вырезать в буфер (скопировать выделенные объекты в буфер, а исходные копии удалить);
* Edit > Сору (клавиши <Ctrl> + <С>) — копировать в буфер;
* Edit > Paste (клавиши <Ctii> + <V>) — вставить из буфера;
* Edit > Paste at Origin (клавиши <Alt> + <V>) — вставка объектов из буфера обмена на то же место, в котором они находились до копирования или вырезания.
Не забывайте и о существовании контекстного меню, вызываемого щелчком правой кнопки мыши над секцией треков. В нем продублированы все команды для работы с буфером обмена.
Будьте внимательны! Все аудиосообщения, хранимые на одном треке, должны иметь одинаковый формат. То есть на одном треке должны храниться или только стереофонические аудиосообщения, или только монофонические. В случае конфликта (когда на одном треке хранятся сообщения разных форматов) какие-то сообщения будут воспроизводиться, а какие-то не будут.
Кстати, если переместить аудиосообщение или часть в ту область секции треков, где треки отсутствуют, то для этого объекта будет создан новый MIDI- или аудиотрек (в зависимости от типа объекта).
Обратите внимание на одну деталь. Когда вы осуществляете захват графического объекта и начинаете его перемещать, то перемещение происходит не сразу, а спустя короткий, но ощутимый интервал времени. Задержка нужна для того, чтобы исключить случайное перемещение объектов, когда вы на них щелкаете. За длительность задержки отвечает специальный параметр, называемый Drag Delay. Доступ к нему осуществляется через окно Preferences, вызываемое командой главного меню File > Preferences. Параметр Drag Delay доступен в разделе Editing и задается в миллисекундах.
Разрезание
Переходим к разрезанию. Что значит выражение "разрезать часть или сообщение"? Все просто: была одна часть, разрезали ее — стало две части.
Самый простой способ разрезания объектов — с помощью инструмента Split, которому соответствует кнопка на панели инструментов секции треков. Нажмите эту кнопку и попробуйте разрезать несколько частей или аудиотреков, щелкая на них левой кнопкой мыши.
Рис. 4.43. Разрезание аудиоссобщения
Если включен режим Snap (привязка), то разрезы будут появляться не обязательно там, где вы щелкнули, а в месте, которое соответствует условиям привязки (например, в ближайшем узле сетки). Причем еще до того, как вы разрежете объект, место будущего разреза будет отмечено тонкой горизонтальной линией, а около курсора мыши (в форме ножниц) будет отображаться подсказка с координатами будущего разреза (рис. 4.43, а).
После щелчка левой кнопкой мыши на границе раздела возникнет синяя линия — соприкасающиеся гранимы двух новых объектов. Теперь можно воспользоваться инструментом и отнести один из отрезанных объектов на новое место (рис. 4.43, б).
Если вам требуется разрезать сразу несколько частей, расположенных на разных треках, то удобнее воспользоваться командой главного меню Edit > Split at Cursor (клавиши <Alt> + <X>), которая выполняет разрезание предварительно выделенных объектов по линии указателя текущей позиции проекта. Аналогичная команда имеется и в контекстном меню аудиосообщений.
Стоит упомянуть еще об одной команде главного меню: Edit > Split Loop. Аналогичная команда тоже имеется и в контекстном меню секции треков. В данном случае разрезание объектов произойдет по границам области проекта, определяемой положениями левого и правого локаторов.
Интересную особенность имеет разрезание аудиосообщений. Как мы уже говорили, аудиосообщение — это ссылка на звуковой файл и набор атрибутов. Когда вы разрезаете аудиосообщение, то в результате получаются два новых аудиосообщения, каждое из которых ссылается на один и тот же звуковой файл. С самим файлом не производится никаких операций. В дальнейшем вы можете раздвинуть границы аудиосообщений на всю длину этого файла. В этом случае у вас получится два абсолютно одинаковых аудиосообщения и не останется никаких следов разреза.
А теперь настало время поговорить о перемещении границ аудиосообщений и частей.
Склеивание, заполнение пауз
Склеить несколько объектов в один достаточно просто. Делается это с помощью инструмента (Glue), расположенного на панели инструментов окна проекта. Вы просто щелкаете на нужной части или по аудиосообщению, и данный объект сливается со следующим за ним на треке объектом. Причем совершенно неважно, на каком расстоянии друг от друга расположены склеиваемые объекты.
Рис. 4.44. Склеивание двух объектов
Склеивание проиллюстрировано рис. 4.44, а, б. Следует сделать замечание относительно склеивания аудиосообщений. Дело в том, что как такового склеивания аудиосообщений не происходит. В результате "склеивания" аудиосообщения объединяются в одну часть, но по своей сути остаются разными сообщениями. Если вы захотите их объединить в одно сообщение, то следует их выделить (достаточно выделить часть, в которой они находятся) и воспользоваться командой главного меню Audio > Bounce Selection. Но прибегать к данной команде стоит лишь в том случае, когда это действительно необходимо. Данная команда относится к категории разрушающего редактирования. На основании выделенных аудиосообщений рассчитывается новое сообщение, которое заменяет собою исходные. При этом учитываются все атрибуты исходных сообщений (амплитудная огибающая, метки начала и окончания сообщения и др.). Перед заменой аудиосообщений на вновь рассчитанное будет выдано соответствующее предупреждение, и вы можете отказаться от своей затеи.
В данном разделе стоит упомянуть еще об одной интересной команде Cubase SX, позволяющей заполнять паузы между аудиосообщениями. Команда вызывается из главного меню Audio > Close Gaps (аналогичная команда имеется и в контекстном меню аудиосообщений) и работает применительно к выделенному сообщению, за которым следует пауза. Допустим, у нас имеется два аудиосообщения, расположенные так, как показано на рис. 4.44, а. С помощью упомянутой команды можно было бы заполнить пустое пространство между ними за счет растяжения левого сообщения. Правда, в данном случае применять ее нет смысла, но при использовании лупов и грувов (см. главу 12) она бывает незаменимой.
Копирование
Как мы уже говорили, основной способ копирования частей и аудиосообщений — копирование через буфер обмена: команды Edit > Copy (копировать в буфер) и Edit > Paste (вставить из буфера) главного меню или контекстного меню секции треков. Аналогичные команды имеются в подавляющем большинстве приложений Windows, и вы наверняка знаете, как ими пользоваться. Больший интерес представляют специфические команды копирования, которые есть только в Cubase SX.
Начнем с рассмотрения довольно простой команды Edit > Duplicate. Она создает копию выделенного объекта, которая располагается следом за ним. Эту и следующие команды копирования можно применять одновременно к нескольким объектам, которые могут располагаться даже на разных треках.
Если требуется размножить выделенные сообщения в больших количествах, удобнее воспользоваться командой Edit > Repeat (ее можно вызвать сочетанием клавиш <Ctrl> + <K>). Откроется диалоговое окно Repeat Events, в котором следует указать, сколько копий выделенных объектов следует сделать (параметр Count), и при необходимости установить флажок Shared. После нажатия кнопки ОК предварительно выделенные объекты будут размножены и размещены последовательно друг за другом. Если был установлен флажок Shared, то все эти объекты окажутся связанными между собою: любое изменение одного из связанных объектов повлечет аналогичные изменения во всех его копиях. Визуально связанные объекты отличаются от нормальных наличием символа . Чтобы развязать объекты, следует выделить их и воспользоваться командой Edit > Convert to Real Copy. В случае применения этой команды к связанным аудиосообщениям, будут созданы копии использованных в них звуковых файлов.
Еще более интересна команда копирования: Edit > Fill Loop. Она выполняет многократное копирование выделенных объектов таким образом, чтобы заполнить копиями область проекта, ограниченную левым и правым локаторами.
Применение любых команд копирования к аудиосообщениям приводит к созданию связанных копий. Чтобы развязать их, пользуйтесь командой Edit > Convert to Real Copy. Управление темпом Сведение композиции
Сведение — процесс формирования законченной композиции из многодо-рожечного проекта. Причем занятие это, безусловно, творческое. Однако за годы существования звукозаписи выработались некие рекомендации, в соответствии с которыми следует выполнять сведение. Этой проблеме можно было бы посвятить отдельную книгу, причем желательно, чтобы ее авторами были несколько звукорежиссеров, продюсеров, инженеров, обладающих многолетним опытом работы в сфере звукозаписи. Только в этом случае можно было бы получить более-менее объективное руководство по сведению. Но пока такой книги нет. Разумеется, мы не берем на себя смелость рассчитывать, что данная глава сможет ее заменить. Она адресована музыкантам, готовящим demo-запись в своей домашней студии на базе Cubase SX. Ее следует воспринимать как набор самых общих рекомендаций, выполнение которых позволит избежать грубых ошибок.
Если в проекте задействованы аппаратные синтезаторы или программные синтезаторы, работающие в качестве самостоятельных приложений (не являющихся плагинами VSTi и не подключенные к Cubase SX no протоколу ReWire), то перед сведением соответствующие партии следует переписать на отдельные аудиотреки.
Запись партий аппаратных синтезаторов осуществляется точно так же, как и запись любых внешних по отношению к компьютеру источников звука.
Линейный или цифровой выход внешнего синтезатора коммутируется с линейным или цифровым входом звуковой карты (если это еще не было сделано).
В проекте Cubase SX создается аудиотрек, он подготавливается к записи аудиоданных с того порта, к которому подключен синтезатор.
MIDI-трек, управляющий внешним синтезатором, переключается в режим Solo.
Проект запускается на воспроизведение (звучит только партия внешнего синтезатора), выполняется регулирование уровня записываемого сигнала.
Проект переключается в режим записи.
Вряд ли отдельные партии внешнего синтезатора следуют сквозь весь проект. Поэтому чтобы не расходовать дисковое пространство попусту, следует пользоваться режимами punch in и punch out (см. разд. 4.4.3, подраздел "Способы переключения программы в режим записи").
С внешними программными синтезаторами дело обстоит несколько проще. Обычно в них имеются средства экспорта воспроизводимого ими сигнала в звуковой файл. Такое средство, например, имеется в программном сэмплере Gigastudio. Важно проследить, чтобы формат экспортируемого звукового файла был таким же, как у остальных файлов проекта Cubase SX (см. разд. 2.11). Если это невозможно, то должны совпадать хотя бы частоты сэмплирования. Потом звуковой файл с партией внешнего программного синтезатора можно импортировать в проект Cubase SX командой главного меню File > Import > Audio File или средствами окна Pool (см. разд. 12.4).
Есть ли смысл перебрасывать партии VSTi на аудиотреки? Особого смысла нет. Это следует делать лишь в том случае, когда нужно освободить ресурсы процессора для других VSTi и эффектов. При этом, естественно, возрастет нагрузка на дисковую систему. В Cubase SX имеется индикатор загрузки процессора и дисков, вызываемый командой главного меню Devices > VST Performance. С его помощью вы всегда можете держать ситуацию под контролем.
Важный вопрос — использовать ли эффекты и обработки, встроенные во внешний синтезатор? Вопрос актуален потому, что качество эффектов в аппаратных синтезаторах, как правило, превосходит качество эффектов, реализуемых посредством VST-плагинов, входящих в поставку Cubase SX. Если речь идет об эффектах, которые уместно использовать в режиме вставки (хо-рус, флэнжер, дистошн и др.), то их использовать можно смело. Эффекты, которые обычно используются в качестве эффектов параллельного действия и формируют акустическое пространство композиции (реверберация, задержка), должны быть едиными для разных треков проекта. То есть от реверберации, задержки и др. эффектов, реализованных в синтезаторе, иногда лучше отказаться в пользу менее качественных VST-плагинов.
Если в дальнейшем вы предполагаете воспользоваться услугами профессиональной студии, то от эффектов синтезатора следует однозначно отказаться. Свой материал вы все равно понесете в студию в "сухом" виде (аудиотреки без каких-либо обработок).
Вокальные партии имеет смысл почистить от шумов. Если для записи вокала использовать хороший конденсаторный микрофон (например, Nevaton МС 416), качественные предусилитель и звуковую карту, а запись проводить в более-менее заглушенном помещении, то шума аппаратуры как такового фактически не будет. Останется удалить шумы, издаваемые самим вокалистом в паузах между фразами или непосредственно во время исполнения. Делать это лучше с помощью специализированного звукового редактора, например, Cool Edit Pro 2. Может возникнуть вопрос — как передать звуковые сообщения из Cubase SX во внешний звуковой редактор? Это как раз не проблема. Ведь все звуковые файлы, используемые в проекте, хранятся в соответствующем каталоге в папке Audio. Однако прежде чем приступать к редактированию этих файлов, Cubase SX лучше закрыть.
Итак, мультитрековый проект сформирован и готов к сведению.
Начнем с основных задач, решаемых при сведении:
Применение обработок
Панорамирование
Подбор громкости треков
Применение эффектов
В каком порядке следует осуществлять сведение? Некоторые звукорежиссеры советуют заглушить все треки, кроме барабанов и басов, и с них начинать сведение, а вокальные партии оставить "на потом". Другие специалисты дают прямо противоположные рекомендации — начинать сведение с вокала. Но практика показывает, что, в каком бы порядке сведение не выполнялось, коррективы в настройки различных треков придется вносить неоднократно.
Наиболее часто используемой при сведении обработкой является компрессия. Цель компрессии — понизить динамический диапазон сигнала, записанного на треке, и таким образом устранить сильные перепады громкости, повысить разборчивость вокала. Соответственно, компрессия применяется в режиме вставки только для тех треков, для которых она действительно нужна (вокал, акустические инструменты). Компрессию стоит использовать разумно. Иногда вместо компрессии предпочтительнее использовать автоматизацию для удержания заданного уровня громкости. Зачастую компрессором пользуются как эффектом для изменения характера звучания ритмической секции.
В поп-музыке очень часто используется эффект хорус. Если требуется применить хорус к вокальной партии, то предпочтительнее реализовать этот эффект естественным путем еще на этапе записи. То есть несколько раз выполнить запись одной и той же вокальной партии, с размещением полученных дублей в параллель на разных треках. А механизм регионов (см. разд. 4.4.3, подраздел "Режимы записи, циклическая запись, регионы аудиосообщений" и разд. 12.2.3) может существенно облегчить вам работу по манипулированию дублями. Еще большего эффекта можно достичь, если развести дубли вокальной партии в разные точки панорамы.
Эквализация (обработка треков частотными фильтрами) используется для того, чтобы подчеркнуть какие-то особенности тембра инструмента или, наоборот, ограничить его спектр. Все это относится к задаче повышения прозрачности (разборчивости) композиции. Каждый из инструментов по отдельности может звучать сколь угодно красиво, "сочно" и "жирно". Однако общий микс из таких инструментов будет представлять собой мутную кашу: спектры инструментов накладываются друг на друга и человеческое ухо уже с трудом может выделить отдельные партии инструментов. За счет разумной эквализации можно существенно повысить прозрачность композиции.
Основным элементом современной танцевальной музыки является большой барабан (base drum). Основная часть энергии большого барабана сосредоточена в диапазоне частот 100—250 Гц. Спектр бас-гитары или замещающего ее электронного инструмента накладывается на спектр большого барабана и может занимать полосу частот от 40 Гц до 800 Гц. Это не страшно, т. к. большой барабан обычно работает в паре с бас-гитарой (они взаимодополняют друг друга). Но, тем не менее, следует достигнуть некоего частотного баланса между большим барабаном и бас-гитарой. Присутствие сигналов других инструментов в диапазоне частот ниже 300 Гц нежелательно: они будут мешать большому барабану и бас-гитаре, что приведет к неразборчивости ритмической и мелодической основы композиции. В начале ударного звука большого барабана обязательно должен присутствовать начальный щелчок. Щелчок занимает полосу от 1 кГц и выше. Этот щелчок также важен для ощущения ритма. Иногда этот щелчок стоит подчеркнуть.
Некоторым музыкантам постоянно "не хватает низов". Когда "болезнь" переходит в более тяжелую стадию, они начинают применять более радикальные меры — программными средствами генерируют сэмплы, содержащие очень низкие звуки (вплоть до инфразвука). Основное лекарство от этой болезни заключается в покупке нормальных мониторов (которые способны воспроизводить низкочастотные звуки). Второе средство — образование. Не углубляясь в подробности, скажем, что инфразвук и постоянная составляющая в сигнале — злейший враг звукозаписи, который загружает звуковые тракты и в то же время не воспроизводится ни одной акустической системой (а может даже и вывести ее из строя). При записи через звуковую карту инфразвуковые составляющие сигнала отсекаются фильтром. Мы провели эксперимент — импортировали в проект Cubase SX звуковой файл с синусоидальными инфразвуковыми колебаниями, сгенерированными программно (частота колебаний 10 Гц). При воспроизведении индикаторы уровня сигнала показывали присутствие сильного сигнала, но ничего, естественно, слышно не было. Затем мы экспортировали проект в звуковой файл и выполнили его анализ специальными программными средствами. Результаты эксперимента таковы: инфразвук беспрепятственно прошел сквозь Cubase SX. Этот факт имеет большое значение. В последнее время производится огромное количество VSTi и нельзя поручиться за то, что какие-то из них не генерируют инфразвуковых сигналов. Вам придется самостоятельно выявлять инфразвук и бороться с ним с помощью фильтров.
Вообще современные синтезаторы и сэмплеры (как программные, так и аппаратные) обладают широкими возможностями в плане корректировки тембра. Поэтому в первую очередь следует пытаться достигнуть частотного баланса композиции за счет подбора тембров.
Эквализацию вокала лучше вообще не делать, т. к. любая обработка человеческого голоса заметна очень сильно. Необходимость в корректировке вокала отпадет сама собою, если использовать качественный звукозаписывающий тракт (конденсаторный микрофон, хороший микрофонный предусилитель, качественный АЦП). Единственное, что может понадобиться, — обработка вокала фильтром верхних частот, чтобы отсечь низкочастотные компоненты сигнала (ниже 300 Гц). Все равно они не несут никакой полезной информации и только делают звук мутным.
Эквалайзер можно использовать и в качестве эффекта. Например, если требуется передать, что до источника звука очень большое расстояние, соответствующий трек можно обработать эквалайзером так, чтобы подавить высокочастотные и низкочастотные компоненты. Вспомните ситуацию, когда вы стоите на дороге, а мимо вас проезжает одиночная машина. По мере ее удаления со звуком мотора происходят такие вещи, словно невидимый звукорежиссер крутит на микшере ручки трехполосного эквалайзера. От шума машины остаются только средние частоты. Высокочастотные колебания поглощаются воздухом и окружающими предметами, низкочастотные безвозвратно рассеиваются во всех направлениях (в том числе уходят под землю) и до вас доходит лишь малая их часть. Средние частоты тоже поглощаются и рассеиваются, но не так интенсивно.
В центр помещается основной вокал и партии всех инструментов, обладающих низкочастотным тембром (большой барабан, бас-гитара). Человеческий слуховой аппарат не в состоянии определить направление на источник низкочастотного сигнала. По этой причине низкочастотные сигналы равномерно распределяются между стереоканалами (располагаются в центре панорамы). Все остальные инструменты и бэк-вокал можно панорамировать как угодно. Тем не менее, следует придерживаться здравого смысла. В реальной жизни не существует такой ситуации, при которой здоровый человек воспринимал бы звуковой сигнал от удаленного источника только одним ухом.
А помещение источника в крайнюю точку стереопанорамы как раз соответствует такой ситуации.
Как бы вы не панорамировали инструменты, оба стереоканала должны быть загружены примерно одинаково. Если вы помещаете какой-то инструмент в левую часть панорамы, значит, должны поместить что-то и в правую часть панорамы, чтобы сбалансировать стереокартину.
Размещение всех инструментов около центра панорамы также можно считать грубой ошибкой. Фактически переходя к монофоническому формату, вы сами себе осложняете жизнь. Вам будет очень сложно добиться разборчивости отдельных партий, если все они размещены в одной точке.
Кстати, о моно. Как бы вы не разбрасывали инструменты по стереопанора-ме, моносовместимость при этом никак не пострадает. Проблемы с моносовместимостью могут появиться только вследствие применения эффектов, воздействующих на фазу сигнала в стереоканалах. К таким эффектам относятся всевозможные расширители стереобазы. Еще одной причиной мононесовместимости может стать применение очень коротких задержек, сопоставимых с периодом одного звукового колебания.
Регуляторы панорамы и фейдеры громкости — это еще не все инструменты, влияющие на формирование акустической картины. С их помощью можно задавать направление на источник звука и расстояние до него (чем слабее сигнал, тем дальше источник). Однако равноудаленные от слушателя источники изначально могут иметь разные громкости.
Наиболее часто применяемый эффект — реверберация. Благодаря наличию реверберации у слушателя возникает ощущение реалистичности звуковой картины. Ведь в реальном мире реверберация присутствует в любой среде, где может распространяться звук. Уровень реверберации следует подбирать осторожно. Если немного переборщить, то никакой реалистичности не останется.
Реверберация — это еще один инструмент, позволяющий передавать расстояние до кажущегося источника звука. Если реверберация очень слабая — значит, кажущийся источник не громкий, но располагается очень близко от слушателя. Если уровень реверберации сопоставим с уровнем прямого сигнала от источника, значит источник сильный и располагается на значительном удалении от слушателя.
Реверберацию следует применять в качестве эффекта параллельного действия (в режиме посыла), поскольку на одном участке композиции тип реверберации должен быть общим для разных треков. Ведь не может же быть такого, что расположенные в одном помещении инструменты вызывают разную реверберацию.
Родственный реверберации эффект — задержка — может применяться не только в качестве эха, но и в качестве специального эффекта. Используя однократную очень короткую задержку (около 20 мс) можно получить очень интересный результат, если переместить трек в одну крайнюю точку панорамы, а сигнал с выхода задержки — в противоположную крайнюю точку панорамы. Причем уровни необработанного задержкой и задержанного сигнала следует сделать примерно одинаковыми. В результате у слушателя возникнет комбинация сразу нескольких ощущений. Источник звука будет казаться растянутым на всю ширину стереопанорамы. И одновременно с этим будет казаться, что звук приходит со стороны незадержанного сигнала.
Не следует применять эффекты, основанные на задержке (включая реверберацию), к большому барабану и бас-гитаре. Применение эффектов к источникам низкочастотных сигналов — это уже спецэффект, который можно использовать иногда, но не на протяжении всей композиции.
Вообще любые эффекты нужно применять небольшими порциями. Ведь назначение любого эффекта — привлечь внимание слушателя к каким-то определенным звукам. А если вся ваша композиция будет состоять только из эффектов, то ничего хорошего из этого не выйдет.
Формат 5.1 следует считать не альтернативой формату стерео, а его развитием. Поэтому большая часть рекомендаций, относящихся к вопросам сведения в стерео, годится и для формата 5.1. Некоторые особенности сведения в круговую панораму мы описали в разд. 1.12.4.
Свести многотрековый проект в стерео проще, чем в моно. В распоряжении звукорежиссера по сравнению с монофоническим форматом имеется дополнительное измерение, в котором можно размещать звуковые источники. Проще добиться прозрачности композиции, поскольку источники можно разместить на стереопанораме так, чтобы они не мешали друг другу. Однако вместе с появлением стерео появился дополнительный критерий оценки качества фонограммы — стереофоничность. Это свойство характеризует степень, в которой звукорежиссеру удалось реализовать возможности сте-реоформата для воплощения идеи композиции. С одной стороны сводить в стерео проще, чем в моно, а с другой стороны, звукорежиссер обязан выкладываться, чтобы максимально задействовать возможности формата.
Когда появился формат 5.1, стало еще проще. На круговой панораме инструментам стало еще просторнее, и можно сделать так, что они совсем не будут мешать друг другу. Однако вместе с новыми возможностями звукорежиссер получает дополнительные негласные обязанности. Он обязан использовать все средства, появление которых обусловлено переходом к новому формату.
Следует учитывать, что в отличие от стереосистемы, каналы системы 5.1 не являются равноценными в плане информативности. Они по-разному расположены относительно слушателя. На фронтальные каналы ложится основная информационная нагрузка. А тыловые каналы следует считать вспомогательными, поскольку человек в принципе плохо воспринимает информацию, поступающую сзади (воспринимает ее "периферийным" слухом). Основное назначение тыловых каналов — создание общей акустической атмосферы, эффекта присутствия. Канал низкочастотных эффектов предназначен для передачи сигналов, занимающих полосу частот от 20 до 80 Гц. Понятно, что в такой узкой полосе частот в принципе невозможно передать много звуковой информации.
Итак, как осуществлять панорамирование? Как и в случае стерео, при панорамировании в 5.1 в центр помещается основной вокал и партии всех инструментов, обладающих низкочастотным тембром. Для формирования звукового образа в центре можно использовать непосредственно центральный канал (это является предпочтительным) или каналы L и R. В последнем случае образ посередине панорамы будет фантомным (как в стерео). В случае необходимости можно задействовать все три канала L, С и R для усиления образов на фронтальной части панорамы. Однако ситуация, когда в нескольких каналах присутствует один и тот же сигнал, является нежелательной. Ведь неизвестна конфигурация акустической системы у слушателя и неизвестно его расположение относительно этой системы. Возможно возникновение неприятных эффектов, связанных с интерференцией звуковых волн. Не исключен конфликт фантомного образа, создаваемого каналами L и R в центре панорамы с образом, формируемым центральным каналом.
Итак, все, что должно располагаться в центре, желательно воспроизводить через центральный канал. Пары каналов L-C и C-R следует использовать для формирования образов, расположенных не в самом центре, а на фронтальной части панорамы.
Тыловые каналы можно использовать для второстепенных партий, которые не несут основную информационную нагрузку: подклады (pads), шумы, реверберация/эхо от источников, размещенных во фронтальной части панорамы, кратковременные эффекты, допускающие отвлечение внимания слушателя от фронтальной части панорамы.
Естественно, не должно быть никакой резкой границы между фронтальной и тыловой частью круговой панорамы. Информационная нагрузка композиции должна быть плавно смещена во фронтальную часть панорамы. Равномерная информационная загрузка всех каналов (как в стерео) нежелательна. Иначе у слушателя может возникнуть ощущение, что он слушает оркестр не со стороны, а изнутри.
Конечно, никаких существенных ограничений на использование различных каналов системы 5.1 в поп-музыке быть не может. Время все расставит на свои места. Поживем — увидим, какие рекомендации будут выработаны мировой звукорежиссурой лет через 5.
В канал LFE можно направить сигнал инструментов, обладающих низкочастотным тембром (большой барабан, бас-гитара). Когда средствами Cubase SX вы направляете сигнал с трека в канал LFE, не происходит никакой его обработки. То есть сигнал, подаваемый в канал LFE, может занимать полосу частот от 20 Гц до 20 кГц и выше (в зависимости от формата звуковых данных). Это не очень хорошо. Поэтому мы рекомендуем средствами окна VST Master Effects (см. разд. 5.6.3) подключить к каналу LFE VST-плагин монофонического фильтра нижних частот (рис. 14.1). Такой плагин, например, имеется в пакете Waves Gold (http://www.waves.com). Фильтр нижних частот следует настроить так, чтобы он подавлял компоненты сигнала, частота которых выше 80 Гц. Кстати, заодно можно защитить канал LFE и от возможных инфразвуковых составляющих, для чего следует настроить плагин на работу в качестве полосового фильтра, пропускающего частоты от 20 Гц до 80 Гц.
Рис. 14.1. Подключение ФНЧ к каналу LFE
Остальные каналы L, С, R, Ls и Rs можно обработать фильтром верхних частот. Тем самым вы разгрузите перечисленные каналы от низкочастотных составляющих сигналов, которые в принципе не могут воспроизводиться акустической системой, но занимают определенные ресурсы. Интересен вопрос совместимости многоканальной фонограммы с форматом стерео. Ведь слушатель в любой момент может переключить свою систему в режим стерео. Зачем это нужно? Например, для того, чтобы послушать DVD-Audio в машине. Что при этом произойдет? Это зависит от алгоритма mixdown кодека (mixdown — микширование для уменьшения количества каналов). Обычно канал С подмешивается к каналам L и R с понижением уровня. Каналы Ls и Rs тоже подмешиваются к каналам L и R соответственно. Канал LFE может быть подмешан к каналам L и R, а может быть отброшен. Подмешивание может происходить без всякой дополнительной обработки. Для нас это проще, так как в данном случае мы можем проконтролировать совместимость фонограммы 5.1 со стерео с помощью специального VST-плагина Mix6to2 (рис. 14.2). Данный плагин подключается к мастер-секции микшера Cubase SX для реализации mixdown 6 каналов в 2.
Рис. 14.2. Окно плагина Mix6to2
Сам по себе Mix6to2 представляет собою простой микшер. Однако вы можете не тратить время на его настройку, т. к. присутствуют все необходимые пресеты, для реализации mixdown каналов различных систем объемного звучания в стерео.
Однако плеер конечного слушателя может выполнять mixdown 5.1 в стерео с применением специальной обработки, после которой, как предполагается, объемность звуковой картины будет сохранена. Достигается это путем изменения фазы каналов Ls и Rs. Что с конкретной фонограммой получится в результате — остается только гадать.
Cubase SX можно использовать для создания звукового трека к фильму. При этом можно использовать студийный видеомагнитофон, синхронизированный с Cubase SX по временному коду (см. разд. 2.9) или импортировать видеофайл непосредственно в проект. Cubase SX может выступать в роли плеера видеофайлов, что позволяет подгонять звук и музыку под видеоизображение. Для воспроизведения видео может использоваться один из трех API: DirectShow, QuickTime, Video for Windows. Если установлена плата ввода/вывода видео и соответствующие драйверы, то воспроизведение видеоданных может осуществляться на аппаратном уровне с выводом видеосигнала на отдельный видеомонитор.
Если же у вас нет никакого специального оборудования, видео может воспроизводиться программно, в одном из окон Cubase SX. Однако любые операции с видео, даже простое воспроизведение, создают ощутимую нагрузку на процессор.
Результатом работы над звуковой дорожкой, в конечном счете, будет звуковой файл, который нужно будет объединять с видео с помощью видеоредактора или другого специального программного обеспечения. Поэтому качество, с которым видео будет воспроизводиться в Cubase SX, не имеет особого значения. Главное, чтобы вы. могли ориентироваться в видеофильме. Специально для работы в Cubase SX вы можете создать версию видеофайла с низкой разрешающей способностью видеоизображения и, как следствие, не создающего существенной нагрузки на процессор при воспроизведении.
Импорт видео в проект осуществляется командой File > Import > Video File или средствами окна Pool (см. разд. 12.4). После импорта видеофайла в проект автоматически будет создан видеотрек, на котором будет размещено импортированное видеосообщение (рис. 14.3). При импорте видеофайлы никогда не копируются в каталог проекта. В проекте на эти файлы сохраняется лишь ссылка. Если видеофайл содержит звуковую дорожку, то она будет импортирована в проект в виде звукового сообщения, размещенного на аудиотреке.
Рис. 14.3. Видеотрек содержит видеосообщение
Видеосообщение представляет собой поименованный объект, содержащий ссылку на видеофайл. Вы можете выполнять минимальный набор действий над видеосообщениями (перемещать, разрезать, удалять, изменять атрибуты, которых очень немного). На видеотреке может располагаться несколько видеосообщений. В проекте может быть всего один видеотрек. При записи/воспроизведении проекта видео будет воспроизводиться в отдельном окне (рис. 14.4), которое вызывается командой главного меню Devices > Video или клавишей <F8>.
Для того чтобы настроить параметры вывода видеоизображения, доступные в Cubase SX, в списке Devices окна Device Setup, вызываемого командой Devices > Device Setup, выберите Video Player (рис. 14.5). В правой части окна будут доступны следующие параметры:
Playback Method — способ воспроизведения (DirectShow Video, QuickTime, Video for Windows);
Video Window — размер окна, в котором будет выводиться видеоизображение (Big Size — размер окна будет соответствовать разрешающей способности видеоизображения, Small Size — четверть площади исходного видеоизображения, Tiny Size — совсем маленькая картинка).
Рис. 14.4. Окно, в котором воспроизводится видео
Рис. 14.5. Параметры вывода видео
Опции отображения видеосообщений доступны в секции Event Display > Video окна Preferences, вызываемого командой главного меню File Preferences (рис. 14.6).
Рис. 14.6. Опции отображения видеосообщений
Вернее, опция фактически одна: Show Video Thumbnails — отображать маленькие картинки из видеоизображения вдоль видеосообщения. В поле Video Cache Size задается размер буфера, выделенного для этой цели. Если прорисовка картинок будет занимать слишком много времени, можно попытаться увеличить размер буфера.
Подведем итог. Вы можете импортировать видео в Cubase SX, создавать звуковую дорожку под это видео и экспортировать ее в виде звукового файла.
Какие бы вы задачи не решали с помощью Cubase SX, командой, завершающей работу над проектом, будет команда главного меню File > Export > MIDI File или File > Export > Audio Mixdown. Первая команда производит экспорт MIDI-информации из проекта. При этом, естественно, теряются все аудиосообщения, аудиоэффекты реального времени, автоматизация. Но и эта команда может быть полезной в том случае, если вы использовали Cubase SX исключительно в качестве MIDI-секвенсора. Вторая команда вам понадобится, если вы использовали Cubase SX по основному назначению — в качестве виртуальной звуковой студии. В конечном счете, вы захотите превратить свой проект в готовый продукт и довести его до слушателя.
В самом начале главы мы предупреждали вас о необходимости переноса партий MIDI-инструментов (не VSTi) на аудиотреки. Во-первых, выполнять сведение в MIDI не совсем правильно, хотя бы из-за того, что вы не сможете применять пространственное панорамирование и обработку VST-плагинами. Во-вторых, экспортировать можно или MIDI-, или аудиоинформацию. Соответственно, если вы хотите получить из своего проекта трек для записи на CD Digital Audio, то вся информация проекта должна быть представлена в виде аудиотреков и/или MIDI-треков, управляющих VSTi.
Прежде чем воспользоваться командой File > Export > Audio Mixdown, следует выделить экспортируемый фрагмент проекта с помощью левого и правого локаторов.
С термином mixdown мы недавно встречались. В данном случае он имеет такой же смысл — микширование неограниченного числа треков в одну фонограмму, количество каналов которой будет соответствовать используемому формату (стерео — 2 канала, 5.1 — шесть каналов). В данном случае экспорт означает вывод аудиоинформации не через выходные порты (VST Outputs, см. разд. 2.6), а в один или несколько звуковых файлов. Причем Cubase SX производит расчет экспортируемой информации не в режиме реального времени. То есть вы можете задействовать в своем проекте сколько угодно VST-плагинов и сколько угодно аудиотреков. Ваша система может не справляться с воспроизведением такого проекта. Однако экспорт такого "перегруженного" проекта в звуковой файл пройдет без сучка и задоринки.
Итак, командой File > Export > Audio Mixdown открывается диалоговое окно Export Audio Mixdown, показанное на рис. 14.7.
Нужно выбрать папку, куда следует экспортировать звуковой файл. В поле File Name вводится имя файла, в списке Files of type выбирается тип звукового файла. По умолчанию выбран тип "Wave File (.wav)", но доступны еще несколько типов, включая mрЗ.
В списке Coding выбирается способ кодирования звуковой информации в файле из тех способов, что доступны для данного типа файлов.
Для типа "Wave File (.wav)" доступен единственный способ кодирования "PCM/uncompressed Waves". В результате получится WAV-файл без применения какого-либо сжатия.
Вид остальной части окна Export Audio Mixdown зависит от того, какой тип звукового файла был выбран. Мы рассмотрим только случай экспорта проекта в обычный WAV-файл.
В списке Channels следует выбрать вариант сохранения информации, принадлежащей разным каналам. Приведем опции, доступные для форматов стерео и 5.1:
Mono — свести все каналы в моно;
Stereo Split — сохранить стереоканалы в виде двух монофонических файлов;
Stereo Interleaved — сохранить стереоканалы в виде одного стереофонического файла;
6 Chan. Split — сохранить каналы 5.1 в виде шести монофонических файлов;
6 Chan. Interleaved — сохранить каналы системы 5.1 в виде одного шестиканального файла.
Рис. 14.7. Окно Export Audio Mixdown
Формат WAV-файлов допускает хранение большого количества каналов (больше двух), однако многоканальные WAV-файлы поддерживаются далеко не всеми программами. Поэтому в большинстве случаев звук формата 5.1 целесообразно экспортировать в шесть отдельных монофонических файлов. В названиях этих файлов будут содержаться номера. Нумерация файлов будет соответствовать порядку расположения каналов системы 5.1 в мастер-секции микшера Cubase SX. Чтобы в дальнейшем не запутаться, сразу после экспорта имеет смысл дополнить названия этих файлов буквами, обозначающими каналы системы 5.1 (L, R, Ls, Rs, С, LFE).
В списке Resolution выбирается количество двоичных разрядов, используемых для представления звуковых отсчетов. Что следует в этом списке выбирать? Если вы предполагаете осуществлять мастеринг средствами специализированных программ (например, таких как T-RackS 2, то выбирать нужно такую форму представления звуковых данных, которая поддерживается приложением для мастеринга. Во всяком случае, количество разрядов должно быть более 16.
Не исключен вариант, что мастеринг уже фактически выполнен в среде Cubase SX. Для этой цели существуют специальные плагины, которые следует подключать к мастер-секции микшера, например, iZotope Ozone 2 (http://www.izotope.com). В этом случае количество разрядов должно соответствовать конечному носителю фонограммы. Например, 16 для CD Digital Audio и от 16 до 24 для DVD-Audio.
В списке Sample Rate задается частота сэмплирования для экспортируемых файлов. Мы настоятельно рекомендуем оставить этот параметр таким, чтобы он соответствовал частоте сэмплирования, принятой для данного проекта. В случае необходимости конвертировать формат файла лучше с помощью специализированного звукового редактора, например, Cool Edit Pro 2 ).
В группе Include доступны следующие опции:
Automation — учитывать при экспорте автоматизацию;
Effects — учитывать при экспорте обработки и эффекты.
При экспорте сведенного проекта эти опции следует включить, иначе вся ваша работа по сведению просто окажется бессмысленной!
В группе Import доступны следующие опции, позволяющие импортировать полученные в результате экспорта файлы в проект:
Pool — импортировать в пул, но не размещать на аудиотреке;
Audio Track — импортировать с размещением на аудиотреке.
Опции групп Include и Import полезны в том случае, если вы хотите осуществить внутреннее переведение: перебросить несколько звуковых сообщений или партий VSTi в один новый звуковой файл.
Если все готово, можно нажимать кнопку Save. Экспорт проекта, состоящего из нескольких треков и длительностью в несколько минут, займет ощутимый промежуток времени. При этом в виде файлов будет сохранена вся информация, которая выводится через выходные аудиопорты при воспроизведении выделенного локаторами фрагмента проекта. Если какие-то треки или отдельные аудиосообщения отключены (Disable) или замьютированы (Mute), то в сохраненном миксе они присутствовать не будут.
Может возникнуть вопрос: понятно, что делать со стереофоническими WAV-файлами (их можно записать на CD Digital Audio) или с файлами трЗ (их можно опубликовать в Internet), но что делать с шестью файлами, соответствующими каналам системы 5.1? Возможные варианты:
с помощью специального программного обеспечения их можно преобразовать в формат АСЗ (Dolby ® Digital) и опубликовать в Internet, на CD-ROM или в качестве звуковой дорожки к фильму на DVD;
с помощью специального программного обеспечения их можно преобразовать в двухканальный WAV-файл, содержащий сигнал, закодированный в формате Dolby ® Pro Logic, и записать его в качестве трека на обыкновенный CD Digital Audio;
с помощью программного обеспечения, поставляемого вместе с приводом DVD-R, их можно записать на DVD-Audio.
Как видите, в любом случае требуется специальное программное обеспечение, описание которого выходит за рамки данной книги. Однако если уж вы научились работать с Cubase SX, то освоить это "специальное программное обеспечение" сможете и подавно. Программа Sonic Foundry Soft Encode (http://www.sonicfoundry.com)позволяет группу отдельных монофонических WAV-файлов кодировать в АСЗ-файлы. Вы последовательно импортируете монофонические WAV-файлы и указываете, каким каналам системы 5.1 они соответствуют. В случае необходимости настраиваете опции и командой File > Save As сохраняете АСЗ-файл.
Конечно, даже в этой относительно простой программе существует какое-то количество опций и сервисных функций. Но нет такого программного средства, которое не мог бы освоить человек. Ведь созданы эти средства людьми и для людей.
