0 Daumen
470 Aufrufe

Aufgabe:

Ich habe aus einer Messung 100 Diskretisierungspunkte eines Signals bestimmt.
Ich bilde aus diesen eine Funktion durch Interpolation um das Signal anzunähern.
Die Funktion (bzw. das Signal) verändert sich zeitabhängig aber ist immer 1ms lang.

Zu den Zeitpunkten t0,t1,t2,t3,t4,t5 sind die Werte der Funktion an den 100 Punkten bekannt. (6 Messungen an verschiedenen Zeitpunkten) Wenn ich zu jedem gemessenen Zeitpunkt die 100 Punkte interpoliere habe ich also 6 Funktionen die mein Signal zu verschiedenen Zeitpunkten beschreiben. Die 6 Funktionen ähneln sich stark - das Signal wird mit der Zeit "gedämpft",


Wie bestimmte ich die Werte der Funktion/des Signals zu einem unbekannten Zeitpunkt zwischen t0 und t5?


Ansatz:

Es wäre möglich ein Interpolationspolynom für jeden der 100 Diskretisierungspunkte über die Zeiträume t0 bis t5 zu bilden und somit die Veränderung eines Wertes anzunähern. Dann müsste ich aber 100 Interpolationspolynome über 6 Punkte ausrechnen...


Gibt es eine elegantere Lösung? Ich dachte irgendwie an Stammfunktion/Ableitung/Integral oder sowas aber ich steh auf dem Schlauch :(


Liebe Grüße

kappa12345

Avatar von

Nachfrage
du hast 6 Zeitpunkte ( x-Achse )
und du hast 100 Meßwerte ( y-Achse ) zu
diesen Zeitpunkten.
Liegen dir die Werte in einem Tabellenprogramm
vor ?
Dann könntest du diese zunächst einmal
plotten lassen.
Dann hättest du schon einmal eine Übersicht.

Ansonsten kann man mit einem Matheprogramm
eine Ausgleichsfunktion berechnen lassen.
Gib einmal ein paar Werte beispielhaft an.

Ich habe 100 Messwerte innerhalb von 1ms. Auf der Y-Achse ist die Amplitude auf der X-Achse die Zeit.


Diese Messung habe ich zu 6 mal durchgeführt. Die 6 Messungen wurden zu verschiedenen Zeitpunkten durchgeführt. Die Dämpfung des Systems hat sich zu jedem Zeitpunkt gesteigert.


Ich möchte das Signal in den Zeiträumen approximieren die ich nicht gemessen habe, also zwischen t0 und t5.


Die Werte liegen in Matlab vor.

Matlab kenne ich nicht.

Kann Matlab dir die 100 Meßwerte für den
Zeitraum 1 ms graphisch anzeigen ?

Dann könnte man sehen ob eine lineare
Regression ( Ausgleichsgerade ) ausreicht
oder eine andere Funktion benötigt wird.

Falls dir eine graphische Darstellung mit Matlab
gelingt kannst du das Bild als jpg - Datei
hierhin hochladen.

mfg Georg

1 Antwort

+1 Daumen

Aloha :)

Ich habe nicht genau verstanden, was du eigentlich genau an Messpunkten hast. Ich habe aber mitgenommen, dass du ein Signal von \(1\,ms\) Dauer mit 6 gemessenen Stützstellen rekonstruieren möchtest. Damit das möglich ist und keine Aliasing-Effekte auftreten, darf die maximale Frequenz in dem Signal \(3\,000\,Hz\) nicht überschreiten (Nyquist-Theorem). Wenn diese Bedingung erfüllt ist, kannst du das Signal mit einer sog. Sinc-Interpolation am besten wieder herstellen. Unter diesem Stichwort solltest du im Netz fündig werden.

Avatar von 148 k 🚀

Tschkbmb,
ich bin tief beeindruckt von deiner Antwort.
mfg Georg

Ich habe 100 Stützstellen innerhalb von 1ms und 6 verschiedene Messungen. Auf der Y-Achse ist die Amplitude und auf der X-Achse die 100 Stützstellen. Ich möchte die Veränderung zwischen den Messungen beschreiben zu Zeitpunkten an denen ich nicht gemessen habe.

Graphische Darstellung ( beispielhaft )

gm-70.jpg Meßdauer 1 ms
Abstand zwischen den Messungen ?
Vielleicht genügt es zunächst auch den Mittelwert von
100 Messungen zu berechnen und dann 6 Punkte in
ein erstes Diagramm einzutragen.

Damit darf das Signal eine maximale Frequenz von

100/(2·(1·10^-3 s)) = 50000 Hz = 50 kHz 

haben.

Ansonsten ist es ähnlich. Du Interpolierst das Signal in 6 Intervallen von 1 ms mit jeweils 100 Messwerten.

Dann vergleicht man die Interpolationen, rechnet noch die Dämpfung mit ein und Interpoliert dann das gesamte Signal.

Ich könnte mir also durchaus auch eine Fourier-Analysis vorstellen. Aber das hängt sicher auch von dem Signal ab.

Ein anderes Problem?

Stell deine Frage

Willkommen bei der Mathelounge! Stell deine Frage einfach und kostenlos

x
Made by a lovely community