Автор работы: Пользователь скрыл имя, 24 Февраля 2015 в 18:19, контрольная работа
13. Что такое мгновенная мощность сигнала? Как она вычисляется?
25. Сформулируйте равенство Парсеваля и неравенство Бессселя применительно к рядам Фурье
37. Изобразите наглядно формулу Эйлера для косинуса на комплексной плоскости (в виде двух комплексно сопряженных экспонент).
Если переходная характеристика цепи известна (или может быть вычислена), то из формулы можно найти реакцию этой цепи на ступенчатое воздействие при нулевых НУ.
154. Свойства преобразования Фурье.
Свойствами преобразований Фурье определяется взаимное соответствие трансформации сигналов и их спектров.
1. Линейность. Преобразование Фурье относится к числу линейных интегральных операций, т.е. спектр суммы сигналов равен сумме спектров этих сигналов.
ansn(t) Û anSn(w).
2. Свойства симметрии преобразования определяются косинусными (четными, действительными) и синусными (нечетными, мнимыми) частями разложения и подобием прямого и обратного преобразований.
Сигнал s(t) |
Спектр S(w) |
Четный |
Вещественный, четный |
Нечетный |
Мнимый, нечетный |
Произвольный |
Действительная часть – четная. Мнимая часть – нечетная |
3. Изменение аргумента функции (сжатие или расширение сигнала) приводит к обратному изменению аргумента ее фурье-образа и обратно пропорциональному изменению его модуля. Так, если s(t) Û S(w), то при изменении длительности сигнала с сохранением его формы (растяжении сигнала по временной оси), т.е. для сигнала с новым аргументом s(x) = s(at) при x=at, получаем:
s(at) Û s(at)exp(-jwt) dt = (1/a) s(x)exp(-jxw/a) dx
s(at) Û (1/a) S(w/a)
Выражение действительно при а>0. При а<0 происходит зеркальный поворот сигнала относительно вертикальной оси, а замена переменной t=x/a вызывает перестановку пределов интегрирования и, соответственно, изменение знака спектра:
s(at) Û -(1/a) S(w/a)
Обобщенная формула изменения аргумента:
s(at) Û (1/|a|) S(w/a), a ≠ 0
Если под аргументом функции и ее спектра понимать определенные физические единицы, например, время - частота, то отсюда следует: чем короче по своей длительности сигнал, тем шире по частоте его спектр, и наоборот.
От изменения аргумента функций следует отличать изменение масштаба представления функций. Изменение масштаба аргументов изменяет оцифровку числовых осей отображения сигналов и их спектров, но не изменяет самих сигналов и спектров. Так, при масштабе оси времен t=1 секунда, масштаб оси частот f=1/t=1 герц, а при t=1 мксек f=1/t=1 МГц (t=at, f=1/at, a=10-6).
4. Теорема запаздывания. Запаздыв
s(t-to)Û s(t-to)exp(-jwt) dt = s(x)exp(-jwx)exp(-jwto) dx = S(w)exp(-jwto).
очевидно, что амплитуды гармоник
сигнала при его сдвиге
|S(w) exp(-jwto)| = |S(w)|.
Фазовый спектр сдвигается на -wto с линейной зависимостью от частоты:
S(w) exp(-jwto)= R(w) exp[j(j(w)]exp(-jwto)= R(w) exp[j(j(w)-wto)].
5. Преобразование производной (
s(t) = d[y(t)]/dt = d[ Y(w) exp(jwt) dw]/dt = Y(w) [d(exp(jwt))/dt] dw =
= jw Y(w) exp(jwt) dw Û jw Y(w)
Дифференцирование сигнала отображается в спектральной области простым умножением спектра сигнала наоператор дифференцирования сигнала в частотной области jw, что эквивалентно дифференцированию каждой гармоники спектра. Умножение на jw приводит к обогащению спектра производной сигнала высокочастотными составляющими (по сравнению с исходным сигналом) и уничтожает составляющие с нулевой частотой.
6. Преобразование интеграла сигнала в частотной области при известном спектре сигнала может быть получено из следующих простых соображений. Если имеет место
s(t) = d[y(t)]/dt Û jw Y(w) = S(w),
то должна выполняться и обратная операция: y(t) = s(t) dt Û Y(w) = S(w)/jw.
Отсюда следует:
s(t)dt Û (1/jw)S(w)
Оператор интегрирования в частотной области (1/jw) при w>1 ослабляет в амплитудном спектре высокие частоты и при w<1 усиливает низкие. Фазовый спектр сигнала смещается на -900 для положительных частот и на 900 для отрицательных.
7. Преобразование свертки сигналов y(t) = s(t) * h(t):
Y(w) = y(t) exp(-jwt) dt = s(t) h(t-t) exp(-jwt) dtdt.
Y(w) = s(t) dt h(t-t) exp(-jwt) dt.
По теореме запаздывания:
h(t-t) exp(-jwt) dt = H(w) exp(-jwt).
Отсюда:
Y(w) = H(w) s(t) exp(-jwt) dt = H(w)·S(w).
s(t) * h(t) Û S(w) H(w). (4.28)
8. Преобразование произведения сигналов y(t) = s(t)·h(t):
Y(w) = s(t) h(t) exp(-jwt) dt = s(t) [(1/2p) H(w') exp(jw't) dw'] dt =
= (1/2p) s(t)H(w') exp(-j(w-w')t) dw'dt =
(1/2p) H(w') dw' s(t) exp(-j(w-w')t) dt =
= (1/2p) H(w') S(w-w') dw' = (1/2p) H(w) * S(w)
Таким образом, произведение функций в координатной форме отображается в частотном представлении сверткой фурье-образов этих функций, с нормировочным множителем (1/2p), учитывающем несимметричность прямого и обратного преобразования Фурье функций s(t) и h(t) при использовании угловых частот.
9. Производная свертки двух функций s'(t) = d[x(t) * y(t)]/dt.
Это выражение позволяет выполнять вычисление производной сигнала с одновременным сглаживанием весовой функцией, которая является производной сглаживающей функции (например, гауссиана).
10. Спектры мощности. Временная функция мощности сигнала в общей форме определяется выражением:
w(t) = s(t) s*(t) = |s(t)|2.
Спектральная плотность мощности, соответственно, равна преобразованию Фурье произведения s(t)·s*(t), которое отобразится в спектральном представлении сверткой Фурье-образов этих функций:
W(f) = S(f) * S*(f) = S(f) S*(f-v) dv
Но для всех текущих значений частоты f интеграл в правой части этого выражения равен произведению S(f)·S*(f), так как для всех значений сдвига v ≠ 0 в силу ортогональности гармоник S(f) и S*(f-v) значения их произведения равны нулю. Отсюда:
W(f) = S(f) * S*(f) = |S(f)|2
Спектр мощности – вещественная неотрицательная четная функция, которую очень часто называют энергетическим спектром. Спектр мощности, как квадрат модуля спектра сигнала, не содержит фазовой информации о частотных составляющих, а, следовательно, восстановление сигнала по спектру мощности невозможно. Это означает также, что сигналы с различными фазовыми характеристиками могут иметь одинаковые спектры мощности. В частности, сдвиг сигнала не отражается на его спектре мощности.
11. Равенство Парсеваля. Полная энергия спектра сигнала:
Es = W(f) df = |S(f)|2 df.
Так как координатное и частотное представление по существу только разные математические отображения одного и того же сигнала, то равной должна быть и энергия сигнала в двух представлениях, откуда следует равенство Парсеваля:
|s(t)|2 dt = |S(f)|2 df,
т.е. энергия сигнала равна интегралу модуля его частотного спектра – сумме энергий всех частотных составляющих сигнала. Аналогично для энергии взаимодействия сигналов:
x(t) y*(t) dt = X(f) Y*(f) df.
Из равенства Парсеваля следует инвариантность скалярного произведения сигналов и нормы относительно преобразования Фурье:
áx(t),y(t)ñ = áX(f),Y(f)ñ, ||x(t)||2 = ||X(f)||2.
Не следует забывать, что при представлении спектров в круговых частотах (по w) в правой части приведенных равенств должен стоять множитель 1/2p.
166. Что означает "хорошая"
автокорреляционная функция в
смысле качества обнаружения
сигнала согласованным
Корреляция – это та же свёртка, только один из сигналов инвертируется слева направо.
Автокорреляция (автокорреляционная функция) характеризует степень связи между сигналом и его сдвинутой на τ копией.
Взаимнокорреляционная функция характеризует степень связи между 2-мя разными сигналами.
График автокорреляционной функции можно получить, отложив по оси ординат коэффициент корреляции двух функций (базовой и функции сдвинутой на величину ), а по оси абсцисс величину . Если исходная функция строго периодическая, то на графике автокорреляционной функции тоже будет строго периодическая функция. Таким образом, из этого графика можно судить о периодичности базовой функции, а следовательно, и о её частотных характеристиках. Автокорреляционная функция применяется для анализа сложных колебаний, например, электроэнцефалограммы человека.
178. Какие вы знаете
законы распределения
Закон распределения непрерывной случайной величины нельзя задать также, как для дискретной. Он неприменим в силу того, что нельзя перечислить все бесконечное несчетное множество значений, а вероятности каждого отдельно взятого значения непрерывной случайной величины равны нулю.
Для описания закона распределения непрерывной случайной величины Х предлагается другой подход: рассматривать не вероятности событий Х=х для разных х, а вероятности события Х<х. При этом вероятность P(X<x) зависит от текущей переменной, т. е. является некоторой функцией от х.
Равномерный закон распределения. Непрерывная случайная величину Х имеет равномерный закон распределения (закон постоянной плотности) на отрезке [a; b], если на этом отрезке функция плотности вероятности случайной величины постоянна, т.е. f(x) имеет вид
Нормальный закон распределения (закон Гаусса). Непрерывная случайная величина Х имеет нормальный закон распределения с параметрами и (обозначают ), если ее плотность вероятности имеет вид:
193. В чём физический
смысл плотности распределения
вероятности случайной
Непрерывную случайную величину можно задать, используя функцию, которую называют плотностью распределения или плотностью вероятности (иногда ее называют дифференциальной функцией).
Плотностью распределения вероятностей непрерывной случайной величины называют функцию — первую производную от функции распределения :
Из этого определения следует, что функция распределения является первообразной для плотности распределения.
Заметим, что для описания распределения вероятностей дискретной случайной величины плотность распределения неприменима.
Зная плотность распределения, можно вычислить вероятность того, что непрерывная случайная величина примет значение, принадлежащее заданному интервалу. Вычисление основано на следующей теореме.
Вероятность того, что непрерывная случайная величина примет значение, принадлежащее интервалу , равна определенному интегралу от плотности распределения, взятому в пределах.
Вероятностный смысл плотности распределения.
Как уже известно, разность определяет вероятность того, что примет значение, принадлежащее интервалу . Таким образом, предел отношения вероятности того, что непрерывная случайная величина примет значение, принадлежащее интервалу ., к длине этого интервала (при ) равен значению плотности распределения в точке .
Функция определяет плотность распределения вероятности для каждой точки.
205. Для нормального распределения
совпадают ли мода с
Нормальное распределение
Симметричное колоколообразное распределение. У нормального распределения среднее, мода и медиана совпадают. Большинство параметрических тестов разработаны для анализа параметров, имеющих нормальное распределение.
Нормальное распределение имеет плотность::
В этой формуле , фиксированные параметры, – среднее, – стандартное отклонение.
Стандартным нормальным распределением называется нормальное распределение с математическим ожиданием 0 и стандартным отклонением 1.
217. В чём проявляется
и как объясняется эффект
Пусть на входе линейной цепи действует случайный стационарный процесс с распределением, отличным от нормального. Если полоса частот его энергетического спектра больше полосы пропускания цепи, то распределение случайного процесса на выходе приближается к нормальному. Чем уже полоса пропускания цепи, тем эффект нормализации проявляется сильнее.
Эффект нормализации на примере воздействия случайным образом расположенных на оси времени коротких импульсов на высокодобротный контур. Постоянная времени контура велика по сравнению со средней величиной интервалов между импульсами. В момент прихода каждого импульса на контуре возникают медленно затухающие колебания.
При спектральном подходе эффект нормализации объясняется тем, что спектр колебания в контуре является суммой спектров отдельных импульсов входной последовательности. Внутри каждого из этих парциальных спектров фазы спектральных составляющих коррелированны, а между фазами корреляции нет из-за случайной расстановки импульсов на оси времени. Чем уже полоса пропускания контура, тем меньшую роль играет корреляция фаз в парциальных спектрах.
229. В чём заключается
критерий максимального
Критерий максимального правдоподобия приема сигналов
Критерий принятия решения, описывался формулой следующим образом.
Популярный критерий выбора порога для принятия двоичного решения в выражении (3.7) основан на минимизации вероятности ошибки. Вычисление этого минимального значения ошибки начинается с записи связи отношения плотностей условных вероятностей и отношения априорных вероятностей появления сигнала. Поскольку плотность условной вероятности также называется правдоподобием , формулировка
есть критерием отношения правдоподобий.
Правило минимизации вероятности ошибки гласит, что если отношение правдоподобий больше отношения априорных вероятностей, то следует выбирать гипотезу .
Для равновероятных сигналов оптимальный порог , проходит через пересечение функций правдоподобия. Следовательно, используя формулу видим, что этап принятия решения заключается в эффективном выборе гипотезы, соответствующей сигналу с максимальным правдоподобием.
В этом случае критерий принятия решения можно рассматривать как сравнение правдоподобий и . Более вероятное значение переданного сигнала соответствует наибольшей плотности вероятности.
Информация о работе Контрольная работа по дисциплине "Физика"