¿Por qué los sistemas lineales muestran fidelidad sinusoidal?


9

Estoy buscando una prueba de fidelidad sinusoidal. En DSP estudiamos mucho sobre sistemas lineales. Los sistemas lineales son homogéneos y aditivos. Una condición más que satisface es que si una señal es una onda senoidal o costera, la salida solo cambia la fase o la amplitud. ¿Por qué? ¿Por qué la salida no puede ser una salida totalmente diferente cuando se da una onda sinusoidal como entrada?


1
Bienvenido a DSP. Gran pregunta!
Phonon

55
Tu comprensión es incompleta. Un sistema lineal (es decir, homogéneo y aditivo) no tiene necesariamente la propiedad de que una sinusoide de entrada produzca una sinusoide de la misma frecuencia pero posiblemente de amplitud y fase diferentes. Debe imponer la restricción adicional de que el sistema también es invariante en el tiempo. Por ejemplo, si la entrada x(t) produce la salida , el sistema es homogéneo y aditivo y, por lo tanto, lineal, pero no satisface el SISO (salida senoidal sinusoide ) propiedad. x(t)cos(2π109t)
Dilip Sarwate

Dilip (o alguien) debería poner como respuesta: "No lo hacen". Solo los sistemas lineales invariantes en el tiempo lo hacen.
hotpaw2

2
Como una nota, otra forma de formular esta pregunta sería "¿Por qué las funciones propias exponenciales de los sistemas lineales invariantes en el tiempo?"
Jason R

Respuestas:


8

Un complemento algo visual a las otras respuestas.

Estás hablando de sistemas que son lineales e invariantes en el tiempo.

Las funciones exponenciales tienen una propiedad peculiar (y puede definirse realmente por ella): hacer una traducción de tiempo da como resultado la misma función multiplicada por una constante. Entonces

ett0=et0et

Gráficos de Mathematica

El exponencial rojo también podría ser el azul dividido por o movido 1 segundo a la derechae

En general, esto también es válido para exponenciales complejos

¿Puedes imaginar en tu mente la trama de un armónico complejo como ? Si es así, verá que es como un resorte: gira a lo largo del plano complejo a medida que pasa el tiempo.x(t)=ej2πt

Gráficos de Mathematica

Girar ese resorte (multiplicando por un número complejo en el círculo unitario) es lo mismo que traducirlo. Probablemente hayas tenido este efecto visual en algún momento de tu vida.

ingrese la descripción de la imagen aquí

Es el principio de cualquier tornillo estándar también.

Supongamos que ingresamos esto en un sistema lineal invariante en el tiempo. Obtiene una salida Ahora, ingrese una versión rotada de este resorte. Debido a la linealidad, la salida debe ser girar en la misma cantidad. Pero desde una rotación equivale a un tiempo de la traducción, y el sistema es invariante en el tiempo, la salida también tiene que ser el tiempo traducido por la misma cantidad. Entonces, tiene que satisfacer la misma propiedad que la entrada: rotarla debe ser equivalente a una traducción de tiempo particular. Esto solo ocurre cuando la salida es un múltiplo del resorte original.y y yyyyy

¿Cuánta traducción? Bueno, es directamente proporcional a la rotación al igual que sucedería con un resorte. Cuanto más apretados son los lazos del resorte (cuanto más rápido gira), menos tiempo se traduce para una cierta rotación. Cuanto más apretados estén los bucles de un tornillo, más rondas tendrás que hacer para que se ajuste por completo. Y, cuando termine la mitad de las rondas, el tornillo estará a la mitad ... La salida debe satisfacer la misma relación, por lo que el resorte de salida gira a la misma frecuencia que la entrada.y

Por fin un recordatorio

cos(t)=ejt+ejt2

sin(t)=ejtejt2j

Entonces, lo que sucede con los exponenciales en realidad no necesita suceder con cosenos y senos en el caso más general. Pero si el sistema también es real, es una historia diferente ...

En general, por este mismo razonamiento, cualquier exponencial es una "función propia" (la salida es proporcional a la entrada) de los sistemas lineales invariantes en el tiempo. Es por eso que para estos sistemas, las transformadas Z y las transformadas de Laplace son tan útiles


¿Cómo / de dónde sacaste esa animación?
Spacey

@Mohammad lo tomó de la página de Wikipedia en el tornillo de Arquímedes
Rojo

¿De dónde sacaste esa trama de sacacorchos? :) math.stackexchange.com/q/144268/2206
endolito el

@endolith oh, acabo de hacerlo en Mathematica. Los tuyos son más agradables;)
Rojo

4

Considere un sistema con entrada y salida y ( t ) . Tomando nota de la respuesta de Lars1, denotamos esta relación x ( t ) y ( t ) . Se dice que el sistema es un sistema lineal invariante en el tiempo (LTI) si cumple las siguientes propiedades:x(t)y(t)x(t)y(t)

H. Si , entonces α x ( t ) α y ( t ) .x(t)y(t)αx(t)αy(t)

A. Si y x 2 ( t ) y 2 ( t ) , entonces x 1 ( t ) + x 2 ( t ) y 1 ( t ) + y 2 ( t ) .x1(t)y1(t)x2(t)y2(t)x1(t)+x2(t)y1(t)+y2(t).

T. Si , entonces x ( t - τ ) y ( t - τ ) para cualquier número real τ .x(t)y(t)x(tτ)y(tτ)τ

Las propiedades H y A juntas son equivalentes a la propiedad L

L. Si y x 2 ( t ) y 2 ( t ) , entonces α x 1 ( t ) + β x 2 ( t ) α y 1 ( t ) + β y 2 ( t ) .x1(t)y1(t)x2(t)y2(t)αx1(t)+βx2(t)αy1(t)+βy2(t)


La entrada periódica a un sistema invariante en el tiempo produce una salida periódica.
Suponga que es una señal periódica con período T , es decir, x ( t - n T ) = x ( t ) para todos los enteros n . Luego, a partir de la propiedad T , se deduce inmediatamente que y ( t ) es también una señal periódica con periodo T . Por lo tanto, podemos expresar y ( t ) como una serie de Fourier:x(t)Tx(tnT)=x(t)ny(t)Ty(t)

dondeω=2π/Tes la frecuencia fundamental.

y(t)=a02+n=1ancos(nωt)+bnsin(nωt)
ω=2π/T

Dado que y sin ( ω t ) son señales periódicas, tenemos que para cualquier sistema invariante en el tiempo, ya sea lineal o no, cos ( ω t )cos(ωt)sin(ωt) De hecho, paralinealsistemas invariante en el tiempo (LTI),todoelpn,qn,rn,ysnson ceroexcepto parap1,q1,r1,s

cos(ωt)p02+n=1pncos(nωt)+qnsin(nωt)sin(ωt)r02+n=1rncos(nωt)+snsin(nωt).
pn,qn,rn,sn . Para ver por qué esto es así, calculemos la respuesta del sistema LTI a cos ( ω t - θ ) de dos maneras diferentes y comparemos los resultados.p1,q1,r1,s1cos(ωtθ)

Como , obtenemos de la Propiedad L y las ecuaciones anteriores que cos ( ω t - θ )cos(ωtθ)=cos(θ)cos(ωt)+sin(θ)sin(ωt) Por otro lado, dado quecos(ωt-θ)=cos(ω(t-θ/ω)) es solo una versión retrasada decos(ωt), de Propiedad

cos(ωtθ)p0cos(θ)+q0sin(θ)2+n=1(pncos(θ)+rnsin(θ))cos(nωt)+n=1(qncos(θ)+snsin(θ))sin(nωt).
cos(ωtθ)=cos(ω(tθ/ω))cos(ωt)T obtenemos ese Estas dos series de Fourier deben ser las mismas sin importar el valor deθque elijamos. Coeficientes comparando, vemos que p0/2no puede ser igual(p0cos(θ)+r0cos(θ
cos(ωtθ)p02+n=1pncos(nωtnθ)+qnsin(nωtnθ)=p02+n=1(pncos(nθ)qnsin(nθ))cos(nωt)+n=1(qncos(nθ)+pnsin(nθ))sin(nωt).
θp0/2 para todos θ a menos que p 0 = r 0 = 0 . De manera similar, para cualquier n > 1 , p n cos ( n θ ) - q n sin ( n θ ) no puede ser igual a p n cos ( θ ) + r n sin ( θ ) etc. para todos θ a menos que p n = q(p0cos(θ)+r0cos(θ))/2θp0=r0=0n>1pncos(nθ)qnsin(nθ)pncos(θ)+rnsin(θ)θ . Sin embargo, para n = 1 , p 1 cos ( θ ) - q 1 sin ( θ ) = p 1 cos ( θ ) + r 1 sin ( θ ) implica que r 1 = - q 1 , y de manera similar, s 1 = p 1 . En otras palabras, para un sistema LTI, pn=qn=rn=sn=0n=1p1cos(θ)q1sin(θ)=p1cos(θ)+r1sin(θ)r1=q1s1=p1 Ahora,p1cos(ωt)+q1sin(ωt)=Bcos(ωt-ϕ) dondeB=
cos(ωt)p1cos(ωt)+q1sin(ωt)sin(ωt)q1cos(ωt)+p1sin(ωt).
p1cos(ωt)+q1sin(ωt)=Bcos(ωtϕ) yϕ=arctan(q1/p1). Por lo tanto, las propiedadesTyHnos dan que Acos(ωt-θ)ABcos(ωt-ϕ-θ). Cualquiersinusoide de frecuenciaωrad / s puede expresarse comoAcos(ωtB=p12+q12ϕ=arctan(q1/p1)
Acos(ωtθ)ABcos(ωtϕθ).
ω para la elección adecuada de A y θ , y por eso el resultado anterior es lo que necesitamos.Acos(ωtθ)Aθ

Propiedad SISO de sistemas lineales invariantes en el tiempo: si la entrada a un sistema LTI es una sinusoide, la salida es una sinusoide de la misma frecuencia pero posiblemente amplitud y fase diferentes.

Esto no es exactamente el resultado que quería el OP: quería una prueba de que un sistema lineal (uno en el que las Propiedades H y A (equivalente, Propiedad L ) tienen pero no necesariamente la Propiedad T ) tiene la propiedad SISO, sino como desarrollo muestra arriba, la propiedad T debe mantenerse para probar incluso el resultado más débil que la entrada periódica da como resultado la salida periódica.


Como comentario final, tenga en cuenta que no es necesario utilizar números complejos o teoremas de convolución o transformadas de Fourier o LaPlace, impulsos, funciones propias, etc. para probar la propiedad SISO. Se deduce de las propiedades L y * T y la identidad trigonométrica

cos(αβ)=cos(α)cos(β)+sin(α)sin(β).

¿Qué pasaría si no es periódica (no periódica podría ocurrir para frecuencias inconmensurables)? ¿Necesita T ser finito? ¿Podríamos ganar algo en términos de generalidad al requerir que x ( t ) sea ​​cuadrado integrable en el intervalo de tiempo de observación? x(t)Tx(t)
Lars1

x(t)=A1cos(ω1t)+\A2cos(ω2t)ω1/ω2
A1cos(ω1t)+\A2cos(ω2t)A1B1cos(ω1tϕ1)+\A2B2cos(ω2tϕ2)
which output is not periodic either. So there is no problem.
Dilip Sarwate

@Sarwate: Not quite what I meant to say, sorry. Was wondering if e.g. x(t)=cos(πt)+cos(2t) would be handled by the case above. If we require a finite observation time interval with tT=[0;T] any square integrable signal can be written as a Fourier series in the observation interval. For finite T this is likely the most general approach and your derivations still hold as far as I can see. Obviously the Fourier series approach forces periodicity outside T but if we only care about the signal t\ont this does not really matter.
Lars1

@Lars1 I don't agree with your comment that the enforced periodicity outside [0,T] does not matter. If input x(t) produces output y(t) in an LTI system, then applying the SISO property to the Fourier series does not give y(t) restricted to [0,T]. Instead, what is obtained is one period of the periodic response y^(t) to the periodic signal x^(t) where for each time instant t, <t<,
x^(t)=x(tmodT).
In other words, the T-second segment of x(t) repeated periodically (with period T) along the time axis.
Dilip Sarwate

E.g. in nonlinear RF systems we often choose a sum of incommensurate sinusoidals to ensure a unique frequency mapping from input to output. These result in a non-periodic signal, and I just was curious to why you had to assume periodicity above which to me seems to exclude most practically relevant signals. Square integrable x(t) and y(τ) in finite observation intervals can be written as Fourier series. I did not (intend to) claim that t was defined on the same interval for x and y BTW and y could be a time offset version. I'll stop here to avoid further confusion.
Lars1

3

Here's the idea of the proof. Let's assume we can describe the output of a system by a convolution,

y(t)=kt(tτ)f(τ)dτ

Notice that the function (aka "kernel") kt(t) as I've written it here may change as t varies. However, we usually make an important assumption about kt(t) - that it doesn't change with time. This is called "linear time-invariance" (also check out the Wikipedia page on Toeplitz matrices). If our system is linear time-invariant, kt is the same for any t, and so we'll just ignore the subscript and write

y(t)=k(tτ)f(τ)dτ

Now, let's say f(t) is a sinusoid, say f(t)=eiωt. So, we have

y(t)=k(tτ)eiωτdτ=k(τ)eiω(tτ)dτ=eiωtk(τ)eiωτdτ

Notice that the last equation has no dependence on t! As a result, let's define K(ω):=k(τ)eiωτdτ.

Thus, we've discovered that

y(t)=K(ω)eiωt

or, in other words, y(t) is a sinusoid oscillating at the same frequency as the input, but weighted by a complex number K(ω) which is constant with respect to t (and thus may shift the amplitude and phase of the output with respect to the input).

EDIT: The comments noted this answer was pretty loose. My goal was to avoid details like different forms of the Fourier transform, but I ended up conflating the Fourier and Laplace transforms. What I called Fourier transform previously was only the Fourier transform if s was purely imaginary. I decided that clarifying this route would necessarily add too much notation, so I'm relegating it to italics.

Now, take the Laplace transform, to end up with (since Laplace transform takes convolution to multiplication),

Y(s)=K(s)F(s)

Now, if f is a sinusoid, say f(t)=eiωt, its Laplace transform is a delta function at that ω. That is, F(s)=δw(s). So, the Laplace transform of the output is also a delta function at that frequency:

Y(s)=K(s)δω(s)=K(ω)δω(s)

Since K(ω) is just some complex number that depends on the input frequency, the output y(t) will be a sinusoid with the same frequency as the input, but with potentially different amplitude and phase.

Incidentally, I just noticed you can find the same idea written out in the time domain at Wikipedia. A higher-level explanation (which you can ignore if it's too mathy) is that linear systems theory is defined through the convolution operation, which is diagonalized by the Fourier transform. Thus, a system whose input is an eigenvector of the Fourier transform operator will output only a scaled version of its input.


-1 What is s and how does it relate to ω? And could you explain what is meant by δω(s)? Your equation Y(s)=K(s)δωs) is sheer nonsense.
Dilip Sarwate

@DilipSarwate I suspect he's using Laplace transform notation instead of Fourier notation.
Jim Clay

@sydeulissie El problema es que usted afirma que K (w) es "solo un número complejo", pero no ha dicho por qué es solo un número complejo en cada frecuencia. Ese es el corazón de la prueba.
Jim Clay

3
This has a correct outline but many problems in the details. Not downvoting, but it should be fixed.
Phonon

1

Say we have a system with input x1(t) which generates the output y1(t)=G(x1(t)), and with an input x2(t) we get the output y2(t)=G(x1(t)). The system is linear if:

ax1(t)+bx2(t)y(t)=G(ax1(t)+bx2(t))=aG(x1(t))+bG(x2(t))=ay1(t)+by2(t)

where a and b are (real or complex) constants. If the equations above are not fulfilled the system is nonlinear. The equation can be used for real and complex signals in time and frequency domains. This is the same as the superposition principle must be valid. As Sarwate illustrates in a comment this does not prevent the system from generating new frequencies. We are probably often just used to indirectly assume time invariance. The reason is likely that it is often possible to map a time varying system to a time invariant system by applying one or more external controlling signals.

From the definition of linearity and further requiring a time invariant system we can directly see that two (or more signals) can not interfere and generate new frequency components while still complying with the linearity requirement. The principle of superposition also follows directly from the linearity definition.

Also from the linearity definition the concept of convolution for linear time invariant systems follow. For nonlinear systems we for example have Volterra series which is a multi-dimensional convolution integral - the 1-dimensional convolution integral is a special case of the Volterra series. This is way more complicated than linear techniques though. But based on the convolution integral for a linear system the derivation follows the one shown by @sydeulissie.

To demonstrate a simple counter example of a nonlinear relation where new frequencies are generated we could use G:y(t)=x2(t). Let us first show that this is indeed nonlinear. If we apply the input x1(t) we get the output y1(t)=x12(t) and if we apply the input x2(t) we get the output y2(t)=x22(t). The output y(t) is then:

y(t)={ax1(t)+bx2(t)}2=a2x12(t)+b2x22(t)+2abx1(t)x2(t)

or:

y(t)=a2y1(t)+b2y2(t)±2aby1(t)y2(t)ay1(t)+by2(t)

and we have thus proved x2 to be nonlinear (which can hardly be surprising). If we apply a single sinusoidal signal x(t)=Acos(2πf0t+ϕ0) to the system G we have the output:

y(t)=x2(t)=A2cos2(2πf0t+ϕ0)=A22+A22cos(2π2f0t+2ϕ0)

The output here contains a DC component and another component at the frequency 2f0. The nonlinear function x2 thus generates new frequency components.

In conclusion it can be observed that a linear system may generate frequency components not present in the input (if the system is time variant). If the system is linear time invariant the output can not include frequency components not present in the input.

Thanks to @Sarwate for the most relevant comment.


You are right. I forgot to mention that I refer to time invariant systems. The example you provide is a time varying system where your example does not hold. Normally such a signal as the cos(t) is applied at an external port as a signal in which case the linearity is not fulfilled. I have noted the time invariant part in the answer above.
Lars1

@DilipSarwate So is that that only LTI systems have that property?
Phonon

Just checked a couple of books to be on the safe side. Actually there seems to be some difference in the details. One definition in Yang and Lee's book on circuit systems from 2007 says: "A system is said to be linear if the superposition principle holds, i.e. its output to a linear combination of several arbitrary inputs is the same as the linear combination of the outputs to individual inputs". In that respect Sarwate's example is linear - but not time invariant. Other refs are less precise though. Thanks to @Sarwate.
Lars1

1
Comment referred to by Lars1 with typographical errors corrected: Consider the system that produces output x(t)cos(t) from input x(t). Then, ax1(t)+bx2(t) produces output
(ax1(t)+bx2(t))cos(t)=ax1(t)cos(t)+bx2(t)cos(t)
so that the system is linear but without the claimed property.
Dilip Sarwate

@Sarwate How is the system which produces output x(t) cos(t) time varying? I am a beginner in DSP's
Hobyist

1

Como señaló Dilip Sarwate, solo los sistemas lineales invariantes de desplazamiento (LSIV) tienen la propiedad SISO (sinusoide in-senoidal).

La respuesta corta a su pregunta es que los exponenciales complejos miȷωtare son las funciones propias de un sistema LSIV. Según la definición de función propia, si la entrada es función propia (seno / cos puede representarse por exponencial complejo de acuerdo con la fórmula de Euler), la salida es solo el producto de la entrada y el valor propio correspondiente, que podría ser un número complejo, y eso es de dónde provienen los cambios de fase / amplitud.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.