АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция

Обработка сигналов измерительной информации. Сжатие данных

Читайте также:
  1. Алфавитный подход к измерению информации.
  2. Алфавитный подход к измерению информации.
  3. Блок 3. Кодирование информации.
  4. В13. Знание о дискретной форме представления числовой, текстовой, графической и звуковой информации.
  5. Ввод и редактирование информации. Exсel.
  6. Вихретоковые ИП. Фазовый метод выделения измерительной информации.
  7. Вклад главной компоненты в разброс данных.
  8. Вопрос. Объектные типы данных.
  9. Вопрос24 Методика работы по восприятию неречевых сигналов в разных видах деятельности посредством организации различных форм работы с детьми.
  10. Вы неоднократно говорили, что в России нет целенаправленной политики в области средств массовой информации.
  11. ГЛАВА 1 МАТЕМАТИЧЕСКИЕ МОДЕЛИ СИГНАЛОВ
  12. Глава 1. Графическое представление данных. Определение основных статистических характеристик исходных данных

Сигналы, с помощью которых передаются разнообразные сообщения, обладают, как правило, очень большой избыточностью в информационном смысле. Поясним это примером. Согласно теореме Котельникова функцию X(t) с граничной частотой спектра можно однозначно восстановить по значениям дискретных ординат, взятых через интервал Т = 1/2fгр.

В этих ординатах содержится полная информация о функции преобразования Х (t). Тем не менее, трудности восстановления функции преобразования приводят к тому, что практически дискретизацию по времени ведут с интервалом в десятки раз меньшим.

Для сжатия данных требуется применять устройства обработки информации. Например, если на приемной стороне имеется устройство, способное умножать дискретные ординаты Хi на функцию вида

sin 2pfгр(t - iT)/2pfгр(t - iT)

и суммировать получаемые функции, то можно на передающей стороне выполнять дискретизацию с периодом Т, соответствующим требованию теоремы Котельникова. Необходимо лишь иметь в виду, что при этом восстановление функции Х(t) будет происходить с большим запаздыванием во времени.

Можно получить сжатие данных с помощью более простой обработки сигналов на приемной стороне. Например, вместо ступенчатой аппроксимации функции X(t) можно применить аппроксимацию прямолинейными отрезками, соединяющими вершины дискретных ординат. При той же допустимой погрешности можно выбрать большее значение интервалаТ, чем при ступенчатой аппроксимации. Если же аппроксимировать функцию отрезками парабол, соединяющими вершины дискретных ординат, то интервал Т можно еще увеличить. Разумеется, степень сжатия данных при этом далеко не та, что при обработке по теореме Котельникова, но зато и обработка много проще и задержка по времени меньше.

Весьма эффективен метод сжатия данных с неравномерным шагом дискретизации по времени. Шаг увеличивается при медленных изменениях X(t) и уменьшается при быстрых. В простейшем случае это делается так: очередная ордината Хi передается тогда, когда изменение Х со времени предыдущей передачи достигает заданного значения d (рисунок 2.16), которое определяется требуемой точностью преобразования.

 

 

Но больший эффект сжатия данных получается, если установить на передающей и приемной сторонах одинаковые устройства предсказания поведения функции X(t). Предсказание ведется на малый интервал времени t, и с этим же интервалом передающее устройство выполняет отбор ординат X(t). Но передача их ведется существенно реже - только тогда, когда значение Х в момент очередного отбора ординаты отличается от предсказанного значения больше чем на S. Если же предсказание оказывается достаточно точным и передачи по каналу связи не происходит, то приемник воспроизводит предсказанное значение Х. Основой для предсказаний (прогнозирования) служат, с одной стороны, хранящиеся в оперативной памяти сведения о поведении X(t) в предшествующий отрезок времени, равный нескольким шагам t, и с другой стороны - сведения о динамических характеристиках случайного процесса X(t), например о его автокорреляционной функции, хранящиеся в постоянной памяти устройства предсказания.

Известны и другие методы сжатия данных. Среди них полезно упомянуть метод статистического кодирования, при котором используются кодовые комбинации неравной длины. Короткие комбинации приписываются значениям Хi, чаще повторяющимся при передаче, длинные - значениям, реже повторяющимся. Для этого используется код, предложенный Шенноном и Фэно. Обязательным условием его применения является наличие сведений о законе распределения измеряемой величины.


1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34 | 35 | 36 | 37 |

Поиск по сайту:



Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Студалл.Орг (0.003 сек.)