0 Daumen
430 Aufrufe

Aufgabe:

IX
Ein Fallschirm sinkt mit einer mittleren Geschwindigkeit von 5,5 m/s.
a) Wie lange dauert es, bis ein in 5000 m Höhe abgesprungener Pilot den Erdboden erreicht?
b) Wie lange dauert es, wenn er zwischen 4000 m und 3000 m Höhe eine Wolke durchfällt, in der ein Aufwind von 3,5 m/s herrscht


Problem:

Komme mit der Aufgabe leider nicht weiter..

Avatar von

2 Antworten

0 Daumen

Hallo

Weg= Geschwindigkeit * Zeit, s=v*t, s und v sind gegeben, daraus t.

b) der Aufwind vermindert sein v um 3,5m/s

jetzt hast du s1=(5-3,5)m/s*t1 und s1=1000 m. dann s2=5m/s*t 2,  s2=(5000-1000)m

dann t=t1+t2

Gruß lul

Avatar von 106 k 🚀

Danke ihnen.....

0 Daumen

a)  5000m : (5,5m/s) = 909s

b) Bei den  1000m mit Aufwind sinkt er nur mit 2m/s also braucht er

dort 1000m : (2m/s) = 500s

und bei den restlichen 4000m braucht er 4000m : ( 5,5m/s)=727s

also insgesamt 1227s.

Avatar von 288 k 🚀

Ein anderes Problem?

Stell deine Frage

Willkommen bei der Mathelounge! Stell deine Frage einfach und kostenlos

x
Made by a lovely community