Teoria dei sistemi

di Mario Bon

prima stesura 25 dicembre 2012

ultima revisione 7 aprile 2017

 

La Teoria dei Sistemi è una branca della Matematica Applicata che si applica a tutti i sistemi. Dato che qualsiasi oggetto ordinale (animato o inanimato) è un sistema, la Teoria dei Sistemi si applica  a “tutto”. In particolare si applica al cervello e la possibilità di studiarlo senza doverlo “aprire” è molto interessante.

La Teoria dei Sistemi è un caso particolare della Teoria dei Segnali che, a sua volta, è un caso particolare della Meccanica Quantistica.  Ciò consente di utilizzare il formalismo di Dirac anche se in un contesto formale molto più semplice. 

La Teoria dei Sistemi e  la Teoria dei Segnali si fondano sulle qualità dello spazio-tempo e sulla costanza della velocità della luce. Gli altri principi fisici utilizzati sono la conservazione della carica e le eq. di Maxwell.

La Teoria dei Sistemi dovrebbe far parte del bagaglio culturale di chiunque si occupi di scienza o di tecnologia ma anche di medici, neuroscienziati e chiunque altro.

 

Lo scopo della Teoria dei Sistemi è ottenere la funzione di trasferimento di un sistema attraverso lo studio della relazione tra  lo stimolo (applicato al suo ingresso) e la risposta (che appare alla sua uscita) ovvero senza interessarsi dell’interno del sistema in esame (in sostanza senza aprirlo).

La funzione di trasferimento è quella funzione matematica che, noto uno stimolo arbitrario, consente di prevedere la risposta del sistema in esame con errore noto.

 

Tutto quanto segue si riassume nella seguente frase:

 

Dato che il prodotto scalare pre-hermitiano è commutativo (<a|b>=<b|a>) la Teoria dei Sistemi e la Teoria dei Segnali, nell’ipotesi di linearità, coincidono.

 

E l’articolo potrebbe finire qui. Anzi è finito qui: quello che è spiegazione di quanto detto.

 

Un “sistema” è costituito da un insiemi di parti in relazione tra loro ovvero un “sistema” è insieme dotato di struttura. In questo caso, diversamente da quanto avviene nella Teoria Assiomatica degli Insiemi, si distinguono:

 

-          l’insieme delle parti detto insieme supporto

-          la struttura (insieme delle relazioni che intercorrono tra le parti)

 

Quando in un sistema vengono distrutte le relazioni esso degenera in insieme di parti.  Se consideriamo quante cose si possono fare con qualche transistor e un po’ di resistenze si capisce come la struttura sia più importante dell’insieme di supporto.

 

Un sistema si rappresenta con una “scatola” dotata di ingressi e di uscite. All’ingresso si applicano gli stimoli, alle uscite di presentano le risposte. Gli stimoli sono le cause, le risposte sono gli effetti. Prima c’è la causa (stimolo) e poi viene l’effetto (risposta).

 

Negli oscillatori almeno un uscita  e collegata ad un ingresso (per realizzare la controreazione positiva)

 

Il sistema espone una o più proprietà emergenti. Le proprietà emergenti sono proprietà che non appartengono agli elementi dell’insieme di supporto ma che sono presenti quando il sistema è considerato come oggetto singolo. Il “come” sia fatto il sistema al suo interno, per la Teoria dei Sistemi, non è di alcuma rilevanza. Quello che conta è che quando all’ingresso viene applicato uno stimolo (per esempio un segnale in tensione) all’uscita appare  la risposta (per esempio una tensione proporzionale allo stimolo).  L’amplificatore audio è un esempio di sistema che svolge una funziona ben definita: aumentare la potenza dello stimolo presente al suo ingresso. Nell’amplificatore di tensione lo stimolo e la risposta sono omogenei (entra tensione ed esce tensione). Nell’altoparlante invece lo stimolo è una tensione monodimensionale e la risposta è un campo di pressione tridimensionale. Nell’altoparlante stimolo e risposta non sono omogenei e lo stimolo subisce due  trasformazioni: da tensione a movimento del diaframma  che, a sua volta, produce una variazione di pressione acustica (che sarà percepita come suono da chi ha questa facoltà).

Tutti i sensi del nostro corpo (vista, udito, olfatto, gusto, tatto, ecc.) si servono di trasduttori che trasformano gli stimoli provenienti dalla realtà esterna in segnali elettrici ed  elettrochimici che si propagano lungo i nervi.

 

Per quanto riguarda la riproduzione del suono, si deve fare una osservazione:  i microfoni non “sentono” suoni ma producono una tensione (monodimensionale) in risposta ad una variazione di pressione (tridimensionale). Gli altoparlanti,invece, ricevono in ingresso una tensione monodimensionale e producono un campo acustico tridimensionale.

Nel passaggio da campo acustico tridimensionale a tensione in uscita del microfono fino a campo acustico tridimensionale prodotto dall’altoparlante, il segnale subisce la perdita di due dimensioni su tre (soppresse dal microfono). Poi il sistema di altoparlanti le ricostruisce arbitrariamente (in particolare l’altezza è del tutto arbitraria). Se ne deduce che la stereofonia non è in grado di riprodurre il campo acustico originale se non in situazioni molto particolari o grazie ad un Intervento Divino Diretto (sistemi con IDD).

 

Rappresentazione di un generico  sistema con un quadrupolo

Esempio di blocco funzionale o sistema

In particolare un amplificatore ideale di tensione

 

I sistemi si dividono in due classi:

 

 

Il rumore aggiunto si intende generato all’interno del sistema. Il più delle volte questo rumore viene riferito all’ingresso per poter trattare il sistema come se non aggiungesse rumore.

 

Sistema  che non aggiunge rumore

Sistema che aggiunge rumore

 

Per semplicità ci occupiamo dei sistemi che non aggiungono rumore e, in prima istanza, trascuriamo il rumore generato all’interno del sistema  che potrà comunque essere considerato in un secondo momento (di solito, se possibile, riferendolo all’ingresso). 

Gli unici sistemi di interesse sono i  sistemi fisicamente realizzabili e, tra questi, almeno in elettroacustica, i sistemi lineari. Ogni sforzo viene fatto per poter trattare un sistema fisico approssimandolo con un sistema lineare (vedasi analisi ai piccoli segnali).

In generale, detto x(t) lo stimolo  e T la trasformazione eseguita dal sistema, si scrive Vout(t) = T[x(t)]. Se la trasformazione T è un omomorfismo (una trasformazione tra spazi vettoriali) il sistema acquista importanti proprietà  e può essere analizzato con una certa facilità. Se T è una trasformazione non lineare (introduce distorsione non lineare) allora l’analisi del sistema diventa più complicata. In particolare non è più ammesso commutare più sistemi lineari collegati tra loro in cascata (in serie).

 

Per un sistema lineare

Vout(t) = T2[T1[x(t)] = T1[T2[x(t)]

Per un sistema non lineare

Vout(t) = T2[T1[x(t)] è diverso da T1[T2[x(t)]

 

La tabella che segue riassume le proprietà dei sistemi:

A causa della anisotropia del tempo qualsiasi funzione h(t) nel dominio del tempo, per rappresentare il funzionamento del sistema, deve essere monodroma ovvero del tipo y=h(t). 

 

sistema

Proprietà

Causale

 

causa/effetto

prima/dopo

 

 

un sistema è causale se la risposta (effetto) segue l’applicazione dello stimolo (causa). In sostanza il sistema rispetta l’anisotropia del tempo (prima e dopo). La velocità di propagazione del segnale attraverso il sistema è finita e non supera la velocità della luce.

Si possono trattare anche sistemi non casuali ma non in tempo reale (cioè solo per segnali registrati che mettono contemporaneamente a disposizione presente passato e futuro del segnale).

Sistema

invariante

o

tempo  invariante

 

esiste h(t)

 

(*)

un sistema è detto invariante o tempo invariante se, anticipando o ritardando lo stimolo, la risposta anticipa o ritarda dello stesso intervallo di tempo. Un sistema tempo invariante non dilata e non comprime gli intervalli di tempo.  In sostanza il sistema rispetta l’omogeneità del tempo.

 

 

Un sistema tempo invariante è caratterizzato e completamente definito dalla risposta impulsiva h(t). La trasformata di Fourier di h(t) è detta funzione di trasferimento e si indica con H(jw).

 

La funzione h(t) è detta “risposta impulsiva” perché è la risposta del sistema quando lo stimolo è la delta di Dirac ( |h(t)> = <h(T)| d(t-T)>). La trasformata di Fourier di h(t) è H(jw) che viene detta “funzione di trasferimento”. È interessante notare che l’integrale di convoluzione, nel dominio della frequenza, si trasforma in un prodotto rendendo i calcoli molto più semplici (ed è questo il motivo per cui si sente parlare di trasformate e di spettri).

 

Il fatto che la caratteristica dei componenti del sistema cambino nel tempo non ha nulla a che vedere con il concetto di invarianza o tempo invarianza (per esempio la variazione di valore dei componenti con la temperatura o con l’invecchiamento o un generatore comandato o altro).

 

(*) Sistemi invarianti ed elementi dipendenti dal tempo

Una certa confusione deriva dal fatto che Desoer e Kun (Fondamenti di Teoria dei Circuiti - - pag 36ISBN 88-204-0729-9) definiscono come elemento tempo-invariante un componente il cui valore non cambia nel tempo. È un problema di traduzione (in particolare del traduttore).

Ma Desoer dice anche che, in un circuito tempo-invariante, sono presenti soltanto elementi passivi e generatori indipendenti. Il generatore dipendente viene giustamente considerato (da Desoer) un elemento dipendente dal tempo. In sostanza è una questione di termini.

Non si deve confondere un sistema invariante (o tempo invariante) con un sistema dove il valore dei componenti dipende dal tempo (tempo dipendente). Quando il valore di un compente dipende dal tempo quel componete si dice “dipendente dal tempo” o  “tempo dipendente”.  Un sistema realizzato con componenti dipendenti dal tempo  è  ancora lineare (tempo-invariante, causale, ecc.). Basti pensare che i generatori comandati (che sono elementi dipendenti dal tempo) non sono, in sé, causa di non linearità.-

In sostanza si deve distinguere il concetto di tempo_invarianza dal concetto di dipendenza_temporale.

 

La causalità e la tempo invarianza di un sistema sono conseguenza della omogeneità ed anisotropia del

tempo e della  velocità di propagazione finita dei segnali. Questi sono tra  i postulati della Teoria della Relatività dai quali nessun fenomeno o sistema può prescindere. Un sistema, per poter essere realizzato, deve rispettare le regole di questo Universo. Dalla omogeneità del tempo discende la conservazione dell’energia.   

 

Fisicamente realizzabile

Un sistema causale e  tempo invariante  è fisicamente realizzabile. Altre proprietà dipendono da come il sistema è effettivamente realizzato (per esempio con reti passive RLC o altro). Nel caso di sistemi realizzati con elementi passivi RLC, la funzione di trasferimento H(jw) si ricava direttamente dallo studio del circuito. Si capisce allora l’utilità, e la praticità, delle analogie elettro-meccaniche.

 

Matematici, fisici e ingegneri non amano le cose complicate e tanto meno fare i conti quindi hanno sviluppato una matematica e dei modelli che  semplificano il loro lavoro. Da questo punto in poi incontriamo proprietà più specifiche.

 

sistema lineare

 

(vale la sovrapposizione degli effetti)

un sistema è lineare se è fisicamente realizzabile e, per esso, vale il principio di sovrapposizione degli effetti.

Detti x(t) e y(t) due stimoli, il sistema è lineare se

   Vout(t) = T[Ax(t)+ By(t)] = A T[x(t)]+B T[y(t)]

I segnali sinusoidali sono invarianti in forma per trasformazioni lineari: entra una sinusoide ed esce una sinusoide. Questo consente di definire un guadagno e una fase.

 

In un sistema lineare la relazione tra stimolo e risposta è un omomorfismo (trasformazione tra spazi vettoriali).

Il principio di sovrapposizione vale anche se il valore dei componenti di un circuito (R, L, C e generatori) è funzione del tempo (cambia nel tempo).

sistema non lineare

 

(non vale la sovrapposizione degli effetti)

 

Un sistema NON è lineare se la forma della risposta dipende dall’ampiezza dello stimolo.

 

Se si considera la Legge di Stevens si comprende che i sensi sono sistemi non lineari.

Reale

 

h(t) reale

Dato un sistema lineare fisicamente realizzabile, se h(t) è una funzione reale allora il sistema è reale (e viceversa). In tal caso:

 

-          la parte reale di H(jw) è pari (il modulo di H(jw) è pari)

-          la parte immaginaria di H(jw) è dispari (la fase di H(jw) è dispari)

 

questa è una proprietà (o simmetria) delle funzioni reali. Dato che operiamo solo con funzioni reali e sistemi reali questo avviene sempre.

 

con memoria

un sistema possiede memoria se la risposta dipende dalla sua storia (per esempio un amplificatore, un filtro, un altoparlante, un uomo, ecc.). Se invece l’uscita dipende, istante per istante, dal valore istantaneo dello stimolo è detto “senza memoria”.

 

a fase minima

 

H(jw)H’(jw) = 1

è un sistema fisicamente realizzabile, lineare, reale e dotato di memoria caratterizzato da una funzione di trasferimento H(jw) che ammette inversa H-1(jw) tale che H(jw) H-1(jw) = 1. Questa proprietà (o simmetria) si traduce nel Teorema della Conservazione dell’Informazione.

Condizione necessaria affinché un sistema sia a fase minima è che esista un unico canale non dispersivo tra ingresso e uscita (o che sia equivalente ad un sistema di questo tipo).

In un sistema a fase minima la parte reale e la parte immaginaria di H(jw) sono legate da una relazione biunivoca e possono essere ottenute una dall’altra (vds trasformazione di Hilbert.)

Quindi una funzione a fase minima è nota quando sia nota la sua parte reale o la sua parte immaginaria (il modulo o la fase).

 

La proprietà dei sistemi a fase minima consente di definire “l’eccesso di fase”. L’eccesso di fase è la differenza di fase che si misura tra un generico sistema H1 (a fase non minima) ed il corrispondente sistema a fase minima H2. La fase del sistema a fase minima corrispondente di ottiene dal modulo dei H1.

 

A questo punto introduciamo  la distinzione tra sistemi stabili e instabili:

 

Stabile

Un sistema è stabile se ad ogni stimolo limitato in ampiezza corrisponde una risposta limitata in ampiezza.

Instabile

Un sistema è instabile se  uno stimolo limitato in ampiezza provoca una risposta non limitata in ampiezza.

 

Si noti che la stabilità deve essere verificata con ogni segnale mentre l’instabilità può manifestarsi con alcuni segnali particolari o quando il segnale supera certi limiti.

I sistemi instabili consentono di realizzare gli oscillatori (generatori di segnali). Un altro modo per generare segnali sfrutta le proprietà delle linee di ritardo. Ma esiste ancora un meccanismo che genera naturalmente segnali ed è legato al moto casuale dei portatori di carica: il rumore. Il rumore è di tre tipi:

 

rumore termico Johnson

Dovuto al moto casuale dei portatori di carica. Lo spettro è bianco

rumore Flicker

Si manifesta a bassa frequenza. Causato dalla ricombinazione casuale di portatori di carica e lacune (semiconduttori). Lo spettro è rosa e cresce verso le basse frequenze

rumore spot

Dovuto all’attraversamento casuale di barriere da parte dei portatori di carica

 

La struttura delle sinapsi sembra fatta apposta per evitare (o limitare al massimo) la generazione di rumore Spot. Il rumore termico è limitato dalla massa dei portatori di carica.

Il rumore deve essere un processo casuale (altrimenti va classificato come disturbo). Un segnale è casuale se:

 

-          il valore medio è nullo

-          il valore efficace è diverso da zero

-          l’autocorrelazione è una delta di Dirac in t=0 (o comunque possiede durata minima in relazione alla banda passante).

 

Il cosiddetto “rumore di quantizzazione” non è un rumore ma la differenza tra il segnale “vero” e il segnale convertito da un convertitore Analogico/Digitale. Tale differenza è correlata al segnale ma viene detta impropriamente rumore perché, per esempio, con un segnale musicale appare come un rumore non correlato. Apparire ed essere non sono la stessa cosa. In realtà il rumore di quantizzazione è sempre correlato al segnale (infatti se si converte due volte lo stesso segnale il rumore di quantizzazione varia solo per la componente termica casuale).

 

A questo punto dobbiamo dedurre che tutti i sistemi che potremo incontrare in questa parte di Universo sono esclusivamente sistemi fisicamente realizzati, reali, con o senza memoria,  in generale di tipo non lineare e che generano rumore. Ogni sforzo viene fatto per approssimare un sistema non lineare con un sistema lineare, e questo non perché manchino gli strumenti per trattare i sistemi non lineari, ma come metodo: per prima cosa si studia il sistema linearizzato e quindi si introducono le non linearità sotto forma di “distorsione”. Tutto funziona bene finché la distorsione è “bassa”.

Abbiamo così dato indirettamente la definizione di distorsione: la distorsione rappresenta la deviazione di un sistema dal suo comportamento lineare.  Quando un sistema presenta distorsione non lineare nella risposta sono presenti componenti spettrali che non erano presenti nello stimolo. La distorsione non lineare aggiunge cose che nello stimolo non erano presenti.

 

Tutti i sistemi di cui abbiamo esperienza sono reali. A volte sono anche a fase minima (amplificatori) e altre volte no (diffusori acustici). In generale i sistemi di interesse vengono supposti lineari per piccoli segnali (fanno eccezione i dispositivi digitali e alcuni dispositivi quali gli amplificatori in classe B).

In realtà i sistemi reali non sono lineari e producono rumore e distorsione. Per poterli analizzare come sistemi lineari si devono fare due ipotesi:

 

-          la distorsione non lineare è trascurabile in regime di piccoli segnali

-          il rumore generato all’interno del sistema può essere riferito all’ingresso del sistema (come fosse un generatore esterno). In questo modo il rumore entra a far parte dello stimolo. Se il rumore è casuale questo non costituisce un problema.

 

Affinché un sistema possa essere trattato come lineare la sua caratteristica statica di trasferimento deve essere derivabile nell’intorno della posizione di equilibrio.

La distinzione tra funzionamento lineare e distorsione  deriva dall’ottica. In ottica le aberrazioni sono trattate come fenomeni tra loro indipendenti. In elettronica le forme di distorsione non sono indipendenti ma sono intimamente legate una all’altra (distorsione armonica, sub armonica  e di intermodulazione).

 

Per quanto riguarda i sistemi a fase minima si devono fare delle osservazioni. Si è detto che per un sistema a fase minima, caratterizzato da H(jw), esiste l’inversa H-1(jw) tale che H(jw) H-1(jw) = 1. Questo significa che è possibile equalizzare la risposta del sistema e riottenere esattamente lo stimolo (questo in assenza di rumore). Le informazioni contenute nello stimolo sottoposto ad una trasformazione a fase minima, non vengono soppresse ma attenuate e possono essere recuperate applicando la trasformazione inversa. Questo è il significato del Teorema della Conservazione dell’Informazione.

Se ne deduce anche che le informazioni sono definite a livello di spettro.

 

Teorema della conservazione dell’informazione

Un sistema lineare conserva l’informazione quando tutta l’informazione presente nello stimolo si ritrova anche nella risposta. Per “informazione” si intende il contenuto spettrale presente nello stimolo.

 

La condizione necessaria e sufficiente affinché l’informazione si conservi è che esista l’inversa della funzione di trasferimento H-1(jw)  tale che H(jw) H-1(jw) = 1

La conservazione dell’informazione (o la condizione di fase minima) è una condizione molto stringente.

 

In base a questa definizione i filtri anti-alias non devono essere dispositivi a fase minima: se lo fossero la conservazione dell’informazione comporterebbe la produzione di bande laterali (i segnali non sarebbero rigorosamente limitati in banda contro le ipotesi del teorema di Shannon).

Le informazioni soppresse da un filtro anti-alias non sono (e non devono essere) recuperabili.

Le informazioni soppresse da un filtro AA non sono più conoscibili.

 

Fase Minima e misure acustiche ed elettroacustiche

 

Le onde stazionarie, che si formano in un ambiente chiuso, sono il risultato di fenomeni di interferenza. L’interferenza è il risultato della presenza di più sorgenti concorrenti. Ciò esclude che un ambiente possa essere rappresentato come un sistema a fase minima. Ne segue che l’effetto delle onde stazionarie (picchi e buchi) NON può essere equalizzato, a rigore, con dispositivi lineari a fase minima. In effetti i sistemi di correzione acustica, o DRC, funzionano sulla base di principi completamente diversi. In pratica, tuttavia, un equalizzatore parametrico può utilmente essere impiegato per migliorare la percezione delle frequenze basse in presenza di onde stazionarie.

 

Ricapitolando:

 

-          gli effetti dei fenomeni di interferenza NON possono essere equalizzati (a rigore)

-          gli effetti dei fenomeni di risonanza possono essere equalizzati (in teoria e anche in pratica).

 

Questa conclusione, che discende dalle proprietà dei sistemi a fase minima, è stata utilizzata da F. Toole il quale osserva che (per un sistema di altoparlanti)

 

-          i fenomeni di interferenza dipendono dalla posizione del punto di misura

-          i fenomeni di   risonanze non dipendono dalla posizione del punto di misura (si manifestano sempre alla stessa frequenza).

 

Ne segue che, eseguendo la media di più misure di risposta in frequenze in punti diversi dello spazio (attorno ad un diffusore acustico), le risonanze restano dove sono mentre i picchi ed i buchi causati dalla interferenza tendono a smussarsi e scomparire  (per esempio la diffrazione ai bordi). Quindi il risultato della media di più risposte in frequenza  è un modo per distinguere le risonanze dalle interferenze. In questo senso la media delle risposte in frequenza è riferibile alla qualità della riproduzione (anche se ha poco a che vedere con la risposta in frequenza vera e propria).  La distinzione tra interferenze e risonanze si ottiene anche valutando la waterfall e attraverso misure di dispersione verticale e orizzontale.

Toole utilizza le misure di risposta in frequenza per calcolare una quantità che chiama “indice di direttività” (che ha una certa correlazione con la qualità della riproduzione in opportune condizioni).

 

Questo paragrafo condensa gran parte dell’elettroacustica ed in particolare quello che riguarda le tecniche di misura. La teoria  di Toole, per gran parte, può essere dedotta direttamente dalla Teoria dei Sistemi. 

 

Classificazione dei Sistemi in base al numero di ingressi e di uscite

 

I sistemi vengono classificati anche in base al numero di variabili d’ingresso e d’uscita:

 

sistemi a un ingresso e una uscita

(SISO, dall’inglese single input-single output)

sistemi a un ingresso e molte uscite

(SIMO, dall’inglese single input-multiple output)

sistemi a molti ingressi e una uscita

(MISO, dall’inglese multiple input-single output).

Sistemi a molti ingressi e molte uscite

(MIMO, dall’inglese multiple input-multiple output)

 

Uno dei problemi più delicati affrontati dalla Teoria dei Sistemi, nei sistemi MIMO, è capire quale ingresso ha generato una certa risposta (cosa che si affronta applicando la correlazione).

 

Sistemi in  serie ed in parallelo

 

I sistemi lineari presentano importanti proprietà che facilitano la previsione della risposta di sistemi composti da più blocchi funzionali collegati in serie e/o in parallelo.  Si vedano le figure qui di seguito.

 

La risposta di un sistema lineare si calcola come convoluzione dello stimolo e della funzione caratteristica (o risposta all’impulso)  del sistema h(t)

 

Si noti come, scambiando lo stimolo con la funzione impulsiva il risultato non cambi

 

La figura a sinistra rappresenta la risposta di un sistema che introduce un ritardo.

(sistemi invarianti alla traslazione -> tempo invarianza o omogeneità del tempo)

 

 

Risposta di sistemi lineari tempo-invarianti posti in serie (cascata) ed in parallelo

 

Ora però si deve dire una cosa altrettanto importante:  Per i sistemi lineari sussistono delle simmetrie e valgono delle proprietà di commutazione che consentono di scambiare l’ordine dei blocchi in cascata e di scambiare lo stimolo con la funzione caratteristica. Queste proprietà non valgono per i sistemi non lineari. Quindi in generale l’operazione di prodotto delle funzioni di trasferimento NON è commutativa. Consideriamo due amplificatori A e B: in generale porre in cascata A e B è diverso che porre in cascata B e A.   La commutazione è ammessa solo per i sistemi lineari (in assenza di distorsione di intermodulazione). Si noti che ove non sia presente distorsione per intermodulazione non è presente nemmeno distorsione armonica.

 

Cosa manca

 

Nel connettere in serie ed in parallelo i blocchi funzionali abbiamo implicitamente supposto che l’impedenza di ingresso di ciascun blocco sia infinita e l’impedenza di uscita nulla. In tal modo, connettendo i blocchi, la funzione di trasferimento non cambia. Se queste condizioni (impedenza di ingresso e uscita) non sono rispettate è necessario passare alla rappresentazione matriciale   (per esempio la matrice parametri ibridi o matrice Z,   Y o A).

 

Approfondimenti

 

 

Convoluzione e Deconvoluzione

Uno stimolo vin(t), combinazione lineare di seni e coseni,  produce all’uscita di un sistema lineare stabile, una sovrapposizione lineare delle stesse funzioni seno e coseno ciascuna con ampiezza e fase appropriata. Ne segue che, nel dominio della frequenza, la risposta è rappresentata da:

 

Si Vout(jwi)  = Si H(jwi) Vin(jwi)  

 

Dove H(jwi) rappresenta l’ampiezza e la fase di ciascuna componente i_esima presente nella risposta del sistema.

H(jw) è la funzione di trasferimento (in forma complessa), vin(t) è lo stimolo  nel tempo, Vin(jw) e vin(t) espresso in serie di Fourier.

Antitrasformando H(jw) si ottiene h(t) detta funzione caratteristica del sistema o risposta impulsiva. Viste le proprietà della trasformazione di Fourier ne segue che la risposta di un sistema lineare è data dalla convoluzione dello stimolo vin(t) per la funzione caratteristica h(t)

 |vout(t)> = <h(t) | vin(T-t)> = h(t) Ä vin(t).

 

Valgono tutte le proprietà della convoluzione. Quindi

 

H(jw)= Vout(jw)/Vin(jw)    (deconvoluzione)

 

Il calcolo di H(jw) per deconvoluzione è sensibile sia al rumore presente nello stimolo che a quello presente nella risposta (e generato dal sistema). La deconvoluzione è sensibile anche alla distorsione non lineare. Per questo motivo si dice preferibile ricavare H(jw) dalla correlazione Rxy utilizzando come stimolo un segnale la cui autocorrelazione sia una Delta di Dirac (per esempio rumore bianco pseudocasuale o uno sweep lineare). In realtà il calcolo della convoluzione attraverso la correlazione è stata fatta per superare le limitazioni delle sequenze MLS di 2n-1 campioni. Con sequenze di 2n campioni il problema non si pone.  Il problema della distorsione viene parzialmente risolto dal rumore termico (che ha spettro continuo)

 

Ragionando sulle caratteristiche e sulle proprietà dei sistemi lineari si possono comprendere una quantità di cose. Anche per questa disciplina non mancano ottimi  testi a livello universitario. Basta comprarli e studiarli facendo anche tutti gli esercizi. Comprare i libri e tenerli sugli scaffali serve a poco.

 

 

Rappresentazione di un sistema controreazionato con un grafo lineare. È presente il generatore di rumore “interno” e anche un generatore di distorsione collegato all’uscita (prof. Domenico Toniolo)

 fine