58
Map Matching Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf.

Map Matching - wuecampus2.uni-wuerzburg.de

  • Upload
    others

  • View
    4

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Map Matching - wuecampus2.uni-wuerzburg.de

Map Matching

Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf.

Page 2: Map Matching - wuecampus2.uni-wuerzburg.de

Map Matching

Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf. β†’ Direkte Verbindung zwischen Punkten ist

schlechte NΓ€herung

Page 3: Map Matching - wuecampus2.uni-wuerzburg.de

Map Matching

Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf.

Ergebnis mit minimaler FrΓ©chet-Distanz

Idee: Fahrer wÀhlen bevorzugt kürzeste Wege im Straßennetz.

Page 4: Map Matching - wuecampus2.uni-wuerzburg.de

Map Matching

Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf.

kΓΌrzeste Route

Idee: Fahrer wÀhlen bevorzugt kürzeste Wege im Straßennetz.

Page 5: Map Matching - wuecampus2.uni-wuerzburg.de

Map Matching Ansatz ΓΌber kΓΌrzeste Wege

Lou et al.: Map-Matching for Low-Sampling-Rate GPS Trajectories, Proc. ACM GIS 2009. P. Newson und J. Krum: Hidden Markov Map Matching Through Noise and Sparseness, Proc. ACM GIS 2009 Eisner et al.: Algorithms for Matching and Predicting Trajectories, Proc. ALENEX 2011

Ein Punkt etwa alle zwei Minuten (z.B. zur Aufzeichnung & Analyse von Taxirouten)

Page 6: Map Matching - wuecampus2.uni-wuerzburg.de

Map Matching Ansatz ΓΌber kΓΌrzeste Wege

Lou et al.: Map-Matching for Low-Sampling-Rate GPS Trajectories, Proc. ACM GIS 2009. P. Newson und J. Krum: Hidden Markov Map Matching Through Noise and Sparseness, Proc. ACM GIS 2009 Eisner et al.: Algorithms for Matching and Predicting Trajectories, Proc. ALENEX 2011

= Maximum-likelihood estimation + Markov Chains + Hidden Markov Models

Page 7: Map Matching - wuecampus2.uni-wuerzburg.de

Maximum-likelihood estimation Probability versus Likelihood

β€’ Flipping a coin:

– 𝑃[β„Žπ‘’π‘Žπ‘‘π‘ ] = 𝑝

– 𝑃 π‘‘π‘Žπ‘–π‘™π‘  = 1 βˆ’ 𝑝

β€’ Do three independent flips.

β€’ The coin is fair (p = Β½).

β€’ What is the probability of getting outcome x=(H,H,T)?

Model

Outcome?

Parameter value

𝑃 π‘₯ = 𝐻,𝐻, 𝑇 | 𝑝 = 12 = 1 2 β‹… 1 2 β‹… 1 βˆ’ 1

2 = 0.125 𝑃 π‘₯ = 𝐻, 𝐻, 𝑇 ; 𝑝 = 12

𝒑 is not a random variable!

Page 8: Map Matching - wuecampus2.uni-wuerzburg.de

β€’ Flipping a coin:

– 𝑃[β„Žπ‘’π‘Žπ‘‘π‘ ] = 𝑝

– 𝑃 π‘‘π‘Žπ‘–π‘™π‘  = 1 βˆ’ 𝑝

β€’ Did three independent flips.

β€’ The result was x=(H,H,T).

β€’ What is the likelihood that the coin is fair (p = Β½)?

Maximum-likelihood estimation Probability versus Likelihood

Model

Parameter value?

Outcome

Page 9: Map Matching - wuecampus2.uni-wuerzburg.de

β€’ Given the outcome π‘₯, how β€œlikelyβ€œ is a certain parameter value πœƒ?

β€’ Assuming parameter value πœƒ, what is the probability of outcome π‘₯?

β€’ Define likelihood function β„’ πœƒ π‘₯ = 𝑃[π‘₯; πœƒ]

β€’ The result was (H,H,T).

β€’ What is the likelihood that the coin is fair (p = Β½)?

β€’ β„’ 𝒑 = 𝟏 𝟐 | π‘₯ = 𝐻,𝐻, 𝑇 = 12 β‹… 1 2 β‹… 1 2 = 0.125

β€’ β„’ 𝒑 = 𝟎. 𝟏 | π‘₯ = 𝐻,𝐻, 𝑇 = 0.1 β‹… 0.1 β‹… 0.9 = 0.009

β€’ β„’ 𝒑 = 𝟐 πŸ‘ | π‘₯ = 𝐻,𝐻, 𝑇 = 23 β‹… 2 3 β‹… 1 3 = 0. 148

Maximum-likelihood estimation Likelihood functions

Not a probability!

Page 10: Map Matching - wuecampus2.uni-wuerzburg.de

β€’ Most probable outcome

– Given parameter 𝑝 = 23 …

– … the most probable outcome is

β€’ Maximum-Likelihood Estimate (β€œMLEβ€œ)

– Given outcome (𝑇, 𝐻, 𝑇)…

– …maximum-likelihood estimate is 𝑝 =

– This value of 𝑝 β€œbest explains the observed outcome.β€œ

– This value of 𝑝 makes the outcome ”least surprising.”

Maximum-likelihood estimation Predictions versus Estimates

(𝐻,𝐻, 𝐻).

13 .

Page 11: Map Matching - wuecampus2.uni-wuerzburg.de

β€’ Model? Parameter? Outcome?

β€’ Most probable outcome

– Given a path in a road network …

– … what is the most probable GPS trajectory to observe? (Noisy.)

β€’ Maximum-Likelihood Estimate (MLE)

– Given the observed GPS trajectory (noisy) …

– … what is the most likely path through the road network?

– β€œWhich path through the network best explains the observed GPS trajectory?β€œ

Maximum-likelihood estimation Maximum-likelihood map matching?

Page 12: Map Matching - wuecampus2.uni-wuerzburg.de

ΠœΠ°Ρ€ΠΊΠΎΠ² Chains

АндрСй ΠœΠ°Ρ€ΠΊΠΎΠ² 1856 - 1922

Π“Π΅ΠΎΡ€Π³Ρ–ΠΉ Π’ΠΎΡ€ΠΎΠ½ΠΈΠΉ 1868 - 1908

Борис Π”Π΅Π»ΠΎΠ½Π΅ 1890 - 1980

WacΕ‚aw SierpiΕ„ski 1882 - 1969

ΠŸΠ°Ρ„Π½ΡƒΡ‚ΠΈΠΉ Π§Π΅Π±Ρ‹ΡˆΡ‘Π² 1821 - 1894

Page 13: Map Matching - wuecampus2.uni-wuerzburg.de

ΠœΠ°Ρ€ΠΊΠΎΠ² Chains

Voronoi 1856 - 1922

Delaunay 1890 - 1980

Sierpinski 1882 - 1969

Chebyshev 1821 - 1894

Markov 1856 - 1922

Page 14: Map Matching - wuecampus2.uni-wuerzburg.de

β€’ Sequence of random variables 𝑋1, 𝑋2, 𝑋3, …

β€’ Markov Property: Pr 𝑋n+1 𝑋𝑛 = π‘₯𝑛, π‘‹π‘›βˆ’1= π‘₯π‘›βˆ’1, … , 𝑋1= π‘₯1 ] = Pr 𝑋𝑛+1 𝑋𝑛 = π‘₯𝑛 ]

β€’ β€œGiven the present, the future is independent of the past.”

β€’ Represent as Pr [𝑋1], Pr [𝑋2|𝑋1], Pr 𝑋3 𝑋2 , …

Markov Chains

Page 15: Map Matching - wuecampus2.uni-wuerzburg.de

β€’ Possible states 𝑍 = π‘†π‘œπ‘›π‘›π‘’, 𝑅𝑒𝑔𝑒𝑛

β€’ Pr [ 𝑋1 = 𝑅𝑒𝑔𝑒𝑛 ] = 0.3

β€’ Pr 𝑋1 = π‘†π‘œπ‘›π‘›π‘’ = 0.7

β€’ Pr 𝑋𝑛+1 = 𝑅𝑒𝑔𝑒𝑛 𝑋𝑛 = 𝑅𝑒𝑔𝑒𝑛 ] = 0.7

β€’ Pr 𝑋𝑛+1 = π‘†π‘œπ‘›π‘›π‘’ 𝑋𝑛 = 𝑅𝑒𝑔𝑒𝑛 ] = 0.3

β€’ Pr 𝑋𝑛+1 = 𝑅𝑒𝑔𝑒𝑛 𝑋𝑛 = π‘†π‘œπ‘›π‘›π‘’ ] = 0.2

β€’ Pr 𝑋𝑛+1 = π‘†π‘œπ‘›π‘›π‘’ 𝑋𝑛 = π‘†π‘œπ‘›π‘›π‘’ ] = 0.8

Markov Chains Example

Page 16: Map Matching - wuecampus2.uni-wuerzburg.de

β€’ Possible states 𝑍 = π‘†π‘œπ‘›π‘›π‘’, 𝑅𝑒𝑔𝑒𝑛

β€’ Pr [ 𝑋1 = 𝑅𝑒𝑔𝑒𝑛 ] = 0.3

β€’ Pr 𝑋1 = π‘†π‘œπ‘›π‘›π‘’ = 0.7

Markov Chains

Sonne Regen

0.8 0.7

0.2

0.3

Pr 𝑋2 = π‘†π‘œπ‘›π‘›π‘’ ?

Example

Page 17: Map Matching - wuecampus2.uni-wuerzburg.de

β€’ Possible states 𝑍 = π‘†π‘œπ‘›π‘›π‘’, 𝑅𝑒𝑔𝑒𝑛

β€’ Pr [ 𝑋2 = 𝑅𝑒𝑔𝑒𝑛 ] = 0.35

β€’ Pr 𝑋2 = π‘†π‘œπ‘›π‘›π‘’ = 0.65

Markov Chains

Sonne Regen

0.8 0.7

0.2

0.3

Pr 𝑋3 = 𝑅𝑒𝑔𝑒𝑛 ?

Example

Page 18: Map Matching - wuecampus2.uni-wuerzburg.de

β€’ Markov Chain

– At every time step, it has a certain state

β€’ But the states are hidden

– We cannot β€œsee” its state

β€’ Emission (β€œoutput”)

– At every time step, get an observation

– Probability distribution depends on state

– Emission at each step is independent

Hidden Markov Models

Page 19: Map Matching - wuecampus2.uni-wuerzburg.de

Hidden Markov Model

Page 20: Map Matching - wuecampus2.uni-wuerzburg.de

Hidden Markov Model

Gegeben:

Beobachtungen O = γ€ˆo1, . . . , on〉, je eine pro Zeitpunkt

mogliche Systemzustande Z

fur jeden Systemzustand z ∈ Z und jede Beobachtung o

– die Wahrscheinlichkeit Pr(o | z) oder

– die Wahrscheinlichkeitsdichte f (o | z),

dass o bei Zustand z beobachtet wird

fur jedes Paar von Zustanden z1, z2 ∈ Z die Wahrscheinlichkeit

Pr(z2 | was z1 before),

also die Wahrscheinlichkeit fur z2 bei Kenntnis, dass zuvor z1vorherrschte (Ubergangswahrscheinlichkeit)

fur jeden Zustand z ∈ Z die (a-priori-)Wahrscheinlichkeit Pr(z)

Page 21: Map Matching - wuecampus2.uni-wuerzburg.de

Hidden Markov Model

Gegeben:

Beobachtungen O = γ€ˆo1, . . . , on〉, je eine pro Zeitpunkt

mogliche Systemzustande Z

fur jeden Systemzustand z ∈ Z und jede Beobachtung o

– die Wahrscheinlichkeit Pr(o | z) oder

– die Wahrscheinlichkeitsdichte f (o | z),

dass o bei Zustand z beobachtet wird

fur jedes Paar von Zustanden z1, z2 ∈ Z die Wahrscheinlichkeit

Pr(z2 | was z1 before),

also die Wahrscheinlichkeit fur z2 bei Kenntnis, dass zuvor z1vorherrschte (Ubergangswahrscheinlichkeit)

fur jeden Zustand z ∈ Z die (a-priori-)Wahrscheinlichkeit Pr(z)

Page 22: Map Matching - wuecampus2.uni-wuerzburg.de

Hidden Markov Model

Gegeben:

Beobachtungen O = γ€ˆo1, . . . , on〉, je eine pro Zeitpunkt

mogliche Systemzustande Z

fur jeden Systemzustand z ∈ Z und jede Beobachtung o

– die Wahrscheinlichkeit Pr(o | z) oder

– die Wahrscheinlichkeitsdichte f (o | z),

dass o bei Zustand z beobachtet wird

fur jedes Paar von Zustanden z1, z2 ∈ Z die Wahrscheinlichkeit

Pr(z2 | was z1 before),

also die Wahrscheinlichkeit fur z2 bei Kenntnis, dass zuvor z1vorherrschte (Ubergangswahrscheinlichkeit)

fur jeden Zustand z ∈ Z die (a-priori-)Wahrscheinlichkeit Pr(z)

Page 23: Map Matching - wuecampus2.uni-wuerzburg.de

Hidden Markov Model

Gegeben:

Beobachtungen O = γ€ˆo1, . . . , on〉, je eine pro Zeitpunkt

mogliche Systemzustande Z

fur jeden Systemzustand z ∈ Z und jede Beobachtung o

– die Wahrscheinlichkeit Pr(o | z) oder

– die Wahrscheinlichkeitsdichte f (o | z),

dass o bei Zustand z beobachtet wird

fur jedes Paar von Zustanden z1, z2 ∈ Z die Wahrscheinlichkeit

Pr(z2 | was z1 before),

also die Wahrscheinlichkeit fur z2 bei Kenntnis, dass zuvor z1vorherrschte (Ubergangswahrscheinlichkeit)

fur jeden Zustand z ∈ Z die (a-priori-)Wahrscheinlichkeit Pr(z)

Page 24: Map Matching - wuecampus2.uni-wuerzburg.de

Hidden Markov Model

Gegeben:

Beobachtungen O = γ€ˆo1, . . . , on〉, je eine pro Zeitpunkt

mogliche Systemzustande Z

fur jeden Systemzustand z ∈ Z und jede Beobachtung o

– die Wahrscheinlichkeit Pr(o | z) oder

– die Wahrscheinlichkeitsdichte f (o | z),

dass o bei Zustand z beobachtet wird

fur jedes Paar von Zustanden z1, z2 ∈ Z die Wahrscheinlichkeit

Pr(z2 | was z1 before),

also die Wahrscheinlichkeit fur z2 bei Kenntnis, dass zuvor z1vorherrschte (Ubergangswahrscheinlichkeit)

fur jeden Zustand z ∈ Z die (a-priori-)Wahrscheinlichkeit Pr(z)

Page 25: Map Matching - wuecampus2.uni-wuerzburg.de

Hidden Markov Model

Pr(S | O) = f (O | S) Β· Pr(S)/f (O)

Gesucht:Folge S = γ€ˆz1, . . . , zn〉 von Zustanden, die sich am besten mitgegebenen Beobachtungen erklaren lasst, also Pr(S | O)maximimiert.

Page 26: Map Matching - wuecampus2.uni-wuerzburg.de

Hidden Markov Model

Pr(S | O) = f (O | S) Β· Pr(S)/f (O)

Gesucht:Folge S = γ€ˆz1, . . . , zn〉 von Zustanden, die sich am besten mitgegebenen Beobachtungen erklaren lasst, also Pr(S | O)maximimiert.

Page 27: Map Matching - wuecampus2.uni-wuerzburg.de

Hidden Markov Model

Pr(S | O) = f (O | S) Β· Pr(S)/f (O)

f (O | S) = f (o1 | z1) Β· . . . Β· f (on | zn)

Gesucht:Folge S = γ€ˆz1, . . . , zn〉 von Zustanden, die sich am besten mitgegebenen Beobachtungen erklaren lasst, also Pr(S | O)maximimiert.

Page 28: Map Matching - wuecampus2.uni-wuerzburg.de

Hidden Markov Model

Pr(S | O) = f (O | S) Β· Pr(S)/f (O)

Pr(S) = Pr(z1) Β·Pr(z2 | was z1 before) Β· . . . Β·Pr(zn | was znβˆ’1 before)

Gesucht:Folge S = γ€ˆz1, . . . , zn〉 von Zustanden, die sich am besten mitgegebenen Beobachtungen erklaren lasst, also Pr(S | O)maximimiert.

Page 29: Map Matching - wuecampus2.uni-wuerzburg.de

Hidden Markov Model

s t

z02

z12

z22

z01

z11

z21

z03

z13

z23

f (o1 | z01 ) Β· Pr(z02 | was z01 before) f (o2 | z02 ) Β· Pr(z03 | was z02 before)

f (o3 | z03 )Pr(z01 )

Z1 Z2 Z3

Page 30: Map Matching - wuecampus2.uni-wuerzburg.de

Hidden Markov Model

s t

z02

z12

z22

z01

z11

z21

z03

z13

z23

f (o1 | z01 ) Β· Pr(z02 | was z01 before) f (o2 | z02 ) Β· Pr(z03 | was z02 before)

f (o3 | z03 )Pr(z01 )

s-t-path of maximum weight product= state sequence S that maximizes Pr (S | O)

Z1 Z2 Z3

Page 31: Map Matching - wuecampus2.uni-wuerzburg.de

Hidden Markov Model – ein BeispielGegeben:

Folge von BeobachtungenO = γ€ˆo1, . . . , on〉 = γ€ˆnass, nass, trocken, nass, trocken〉Menge moglicher Systemzustande: Z = {Sonne, Regen}Beobachtungswahrscheinlichkeiten:

Pr(nass | Sonne) = 0.1Pr(trocken | Sonne) = 0.9Pr(nass | Regen) = 0.95Pr(trocken | Regen) = 0.05

Ubergangswahrscheinlichkeiten:

Pr(Regen | zuvor Regen) = 0.7Pr(Sonne | zuvor Regen) = 0.3Pr(Regen | zuvor Sonne) = 0.2Pr(Sonne | zuvor Sonne) = 0.8

A-Priori-Wahrscheinlichkeiten: Pr(Regen) = 0.3, Pr(Sonne) = 0.7

Gesucht: Folge S = γ€ˆs1, . . . , sn〉 von Zustanden, so dass Pr(S | O) maximal ist.

Page 32: Map Matching - wuecampus2.uni-wuerzburg.de

Hidden Markov Model – ein Beispiel

Sonne Sonne Sonne Sonne Sonne

Regen Regen Regen Regen Regen

s t

γ€ˆo1, o2, o3, o4, o5〉 = γ€ˆnass, nass, trocken, nass, trocken〉

Page 33: Map Matching - wuecampus2.uni-wuerzburg.de

Hidden Markov Model – ein Beispiel

s t

γ€ˆo1, o2, o3, o4, o5〉 = γ€ˆnass, nass, trocken, nass, trocken〉

Page 34: Map Matching - wuecampus2.uni-wuerzburg.de

Hidden Markov Model – ein Beispiel

s t

Pr(o1 | Sonne) Β· Pr(Sonne | war Sonne zuvor)

γ€ˆo1, o2, o3, o4, o5〉 = γ€ˆnass, nass, trocken, nass, trocken〉

1

2 4

3

6

5

8

7

10

9

Page 35: Map Matching - wuecampus2.uni-wuerzburg.de

Hidden Markov Model – ein Beispiel

s t

γ€ˆo1, o2, o3, o4, o5〉 = γ€ˆnass, nass, trocken, nass, trocken〉

Pr(nass | Sonne) Β· Pr(Sonne | war Sonne zuvor)

1

2 4

3

6

5

8

7

10

9

Page 36: Map Matching - wuecampus2.uni-wuerzburg.de

Hidden Markov Model – ein Beispiel

s t

0.1 Β· 0.8

γ€ˆo1, o2, o3, o4, o5〉 = γ€ˆnass, nass, trocken, nass, trocken〉

0.1 Β· 0.8 0.9 Β· 0.8 0.1 Β· 0.8

0.95 Β· 0.7 0.95 Β· 0.7 0.05 Β· 0.7 0.95 Β· 0.7

0.95 Β· 0.3 0.95 Β· 0.3 0.05 Β· 0.3 0.95 Β· 0.3

0.1 Β· 0.2 0.1 Β· 0.2 0.9 Β· 0.2 0.1 Β· 0.2

1

2 4

3

6

5

8

7

10

9

Page 37: Map Matching - wuecampus2.uni-wuerzburg.de

Hidden Markov Model – ein Beispiel

s t

γ€ˆo1, o2, o3, o4, o5〉 = γ€ˆnass, nass, trocken, nass, trocken〉

0.08 0.08 0.72 0.08

0.665 0.035

0.285 0.285 0.015 0.285

0.02 0.02 0.18 0.02

0.665 0.6651

2 4

3

6

5

8

7

10

9

Page 38: Map Matching - wuecampus2.uni-wuerzburg.de

Hidden Markov Model – ein Beispiel

s t

γ€ˆo1, o2, o3, o4, o5〉 = γ€ˆnass, nass, trocken, nass, trocken〉

0.08 0.08 0.72 0.08

0.665 0.035

0.285 0.285 0.015 0.285

0.02 0.02 0.18 0.02

0.665 0.665

Pr(trocken | Sonne)

Pr(trocken | Regen)

1

2 4

3

6

5

8

7

10

9

Page 39: Map Matching - wuecampus2.uni-wuerzburg.de

Hidden Markov Model – ein Beispiel

s t

γ€ˆo1, o2, o3, o4, o5〉 = γ€ˆnass, nass, trocken, nass, trocken〉

0.08 0.08 0.72 0.08

0.665 0.035

0.285 0.285 0.015 0.285

0.02 0.02 0.18 0.02

0.665 0.665

0.9

0.051

2 4

3

6

5

8

7

10

9

Page 40: Map Matching - wuecampus2.uni-wuerzburg.de

Hidden Markov Model – ein Beispiel

s t

γ€ˆo1, o2, o3, o4, o5〉 = γ€ˆnass, nass, trocken, nass, trocken〉

0.08 0.08 0.72 0.08

0.665 0.035

0.285 0.285 0.015 0.285

0.02 0.02 0.18 0.02

0.665 0.665

0.9

0.05

Pr(Sonne)

Pr(Regen)

1

2 4

3

6

5

8

7

10

9

Page 41: Map Matching - wuecampus2.uni-wuerzburg.de

Hidden Markov Model – ein Beispiel

s t

γ€ˆo1, o2, o3, o4, o5〉 = γ€ˆnass, nass, trocken, nass, trocken〉

0.08 0.08 0.72 0.08

0.665 0.035

0.285 0.285 0.015 0.285

0.02 0.02 0.18 0.02

0.665 0.665

0.9

0.05

0.7

0.31

2 4

3

6

5

8

7

10

9

Page 42: Map Matching - wuecampus2.uni-wuerzburg.de

Hidden Markov Model – ein Beispiel

s t

γ€ˆo1, o2, o3, o4, o5〉 = γ€ˆnass, nass, trocken, nass, trocken〉

βˆ’3.644 βˆ’3.644 βˆ’0.474 βˆ’3.644

βˆ’0.589 βˆ’4.837

βˆ’1.811 βˆ’1.811 βˆ’6.059 βˆ’1.811

βˆ’5.644 βˆ’5.644 βˆ’2.474 βˆ’5.644

βˆ’0.589 βˆ’0.589

βˆ’0.152

βˆ’4.322

βˆ’0.515

βˆ’1.737

log2

1

2 4

3

6

5

8

7

10

9

Page 43: Map Matching - wuecampus2.uni-wuerzburg.de

Hidden Markov Model – ein Beispiel

s t

βˆ’3.644 βˆ’3.644 βˆ’0.474 βˆ’3.644

βˆ’0.589 βˆ’4.837

βˆ’1.811 βˆ’1.811 βˆ’6.059 βˆ’1.811

βˆ’5.644 βˆ’5.644 βˆ’2.474 βˆ’5.644

βˆ’0.589 βˆ’0.589

βˆ’0.152

βˆ’4.322

βˆ’0.515

βˆ’1.7371

2 4

3

6

5

8

7

10

9

Page 44: Map Matching - wuecampus2.uni-wuerzburg.de

Hidden Markov Model – ein Beispiel

s t

βˆ’3.644 βˆ’3.644 βˆ’0.474 βˆ’3.644

βˆ’0.589 βˆ’4.837

βˆ’1.811 βˆ’1.811 βˆ’6.059 βˆ’1.811

βˆ’5.644 βˆ’5.644 βˆ’2.474 βˆ’5.644

βˆ’0.589 βˆ’0.589

βˆ’0.152

βˆ’4.322

βˆ’0.515

βˆ’1.737

βˆ’1.737

1

2 4

3

6

5

8

7

10

9

Page 45: Map Matching - wuecampus2.uni-wuerzburg.de

Hidden Markov Model – ein Beispiel

s t

βˆ’3.644 βˆ’3.644 βˆ’0.474 βˆ’3.644

βˆ’0.589 βˆ’4.837

βˆ’1.811 βˆ’1.811 βˆ’6.059 βˆ’1.811

βˆ’5.644 βˆ’5.644 βˆ’2.474 βˆ’5.644

βˆ’0.589 βˆ’0.589

βˆ’0.152

βˆ’4.322

βˆ’0.515

βˆ’1.737

βˆ’1.737

βˆ’0.515

1

2 4

3

6

5

8

7

10

9

Page 46: Map Matching - wuecampus2.uni-wuerzburg.de

Hidden Markov Model – ein Beispiel

s t

βˆ’3.644 βˆ’3.644 βˆ’0.474 βˆ’3.644

βˆ’0.589 βˆ’4.837

βˆ’1.811 βˆ’1.811 βˆ’6.059 βˆ’1.811

βˆ’5.644 βˆ’5.644 βˆ’2.474 βˆ’5.644

βˆ’0.589 βˆ’0.589

βˆ’0.152

βˆ’4.322

βˆ’0.515

βˆ’1.737

βˆ’1.737

βˆ’0.515

βˆ’2.326

1

2 4

3

6

5

8

7

10

9

Page 47: Map Matching - wuecampus2.uni-wuerzburg.de

Hidden Markov Model – ein Beispiel

s t

βˆ’3.644 βˆ’3.644 βˆ’0.474 βˆ’3.644

βˆ’0.589 βˆ’4.837

βˆ’1.811 βˆ’1.811 βˆ’6.059 βˆ’1.811

βˆ’5.644 βˆ’5.644 βˆ’2.474 βˆ’5.644

βˆ’0.589 βˆ’0.589

βˆ’0.152

βˆ’4.322

βˆ’0.515

βˆ’1.737

βˆ’1.737

βˆ’0.515

βˆ’2.326

βˆ’3.548

1

2 4

3

6

5

8

7

10

9

Page 48: Map Matching - wuecampus2.uni-wuerzburg.de

Hidden Markov Model – ein Beispiel

s t

βˆ’3.644 βˆ’3.644 βˆ’0.474 βˆ’3.644

βˆ’0.589 βˆ’4.837

βˆ’1.811 βˆ’1.811 βˆ’6.059 βˆ’1.811

βˆ’5.644 βˆ’5.644 βˆ’2.474 βˆ’5.644

βˆ’0.589 βˆ’0.589

βˆ’0.152

βˆ’4.322

βˆ’0.515

βˆ’1.737

βˆ’1.737

βˆ’0.515

βˆ’2.326

βˆ’3.548

βˆ’2.915

1

2 4

3

6

5

8

7

10

9

Page 49: Map Matching - wuecampus2.uni-wuerzburg.de

Hidden Markov Model – ein Beispiel

βˆ’4.137

s t

βˆ’3.644 βˆ’3.644 βˆ’0.474 βˆ’3.644

βˆ’0.589 βˆ’4.837

βˆ’1.811 βˆ’1.811 βˆ’6.059 βˆ’1.811

βˆ’5.644 βˆ’5.644 βˆ’2.474 βˆ’5.644

βˆ’0.589 βˆ’0.589

βˆ’0.152

βˆ’4.322

βˆ’0.515

βˆ’1.737

βˆ’1.737

βˆ’0.515

βˆ’2.326

βˆ’3.548

βˆ’2.915

1

2 4

3

6

5

8

7

10

9

Page 50: Map Matching - wuecampus2.uni-wuerzburg.de

Hidden Markov Model – ein Beispiel

βˆ’6.611

βˆ’4.137

s t

βˆ’3.644 βˆ’3.644 βˆ’0.474 βˆ’3.644

βˆ’0.589 βˆ’4.837

βˆ’1.811 βˆ’1.811 βˆ’6.059 βˆ’1.811

βˆ’5.644 βˆ’5.644 βˆ’2.474 βˆ’5.644

βˆ’0.589 βˆ’0.589

βˆ’0.152

βˆ’4.322

βˆ’0.515

βˆ’1.737

βˆ’1.737

βˆ’0.515

βˆ’2.326

βˆ’3.548

βˆ’2.915

1

2 4

3

6

5

8

7

10

9

Page 51: Map Matching - wuecampus2.uni-wuerzburg.de

Hidden Markov Model – ein Beispiel

βˆ’6.611

βˆ’4.137

s t

βˆ’3.644 βˆ’3.644 βˆ’0.474 βˆ’3.644

βˆ’0.589 βˆ’4.837

βˆ’1.811 βˆ’1.811 βˆ’6.059 βˆ’1.811

βˆ’5.644 βˆ’5.644 βˆ’2.474 βˆ’5.644

βˆ’0.589 βˆ’0.589

βˆ’0.152

βˆ’4.322

βˆ’0.515

βˆ’1.737

βˆ’1.737

βˆ’0.515

βˆ’2.326

βˆ’3.548

βˆ’2.915

βˆ’4.611

1

2 4

3

6

5

8

7

10

9

Page 52: Map Matching - wuecampus2.uni-wuerzburg.de

Hidden Markov Model – ein Beispiel

βˆ’7.200βˆ’6.611

βˆ’4.137

s t

βˆ’3.644 βˆ’3.644 βˆ’0.474 βˆ’3.644

βˆ’0.589 βˆ’4.837

βˆ’1.811 βˆ’1.811 βˆ’6.059 βˆ’1.811

βˆ’5.644 βˆ’5.644 βˆ’2.474 βˆ’5.644

βˆ’0.589 βˆ’0.589

βˆ’0.152

βˆ’4.322

βˆ’0.515

βˆ’1.737

βˆ’1.737

βˆ’0.515

βˆ’2.326

βˆ’3.548

βˆ’2.915

βˆ’4.611

1

2 4

3

6

5

8

7

10

9

Page 53: Map Matching - wuecampus2.uni-wuerzburg.de

Hidden Markov Model – ein Beispiel

βˆ’7.200βˆ’6.611

βˆ’4.137

s t

βˆ’3.644 βˆ’3.644 βˆ’0.474 βˆ’3.644

βˆ’0.589 βˆ’4.837

βˆ’1.811 βˆ’1.811 βˆ’6.059 βˆ’1.811

βˆ’5.644 βˆ’5.644 βˆ’2.474 βˆ’5.644

βˆ’0.589 βˆ’0.589

βˆ’0.152

βˆ’4.322

βˆ’0.515

βˆ’1.737

βˆ’1.737

βˆ’0.515

βˆ’2.326

βˆ’3.548

βˆ’2.915

βˆ’4.611 βˆ’8.255

1

2 4

3

6

5

8

7

10

9

Page 54: Map Matching - wuecampus2.uni-wuerzburg.de

Hidden Markov Model – ein Beispiel

βˆ’7.200βˆ’6.611

βˆ’4.137

s t

βˆ’3.644 βˆ’3.644 βˆ’0.474 βˆ’3.644

βˆ’0.589 βˆ’4.837

βˆ’1.811 βˆ’1.811 βˆ’6.059 βˆ’1.811

βˆ’5.644 βˆ’5.644 βˆ’2.474 βˆ’5.644

βˆ’0.589 βˆ’0.589

βˆ’0.152

βˆ’4.322

βˆ’0.515

βˆ’1.737

βˆ’1.737

βˆ’0.515

βˆ’2.326

βˆ’3.548

βˆ’2.915

βˆ’4.611 βˆ’8.255 βˆ’8.407

1

2 4

3

6

5

8

7

10

9

Page 55: Map Matching - wuecampus2.uni-wuerzburg.de

Hidden Markov Model – ein Beispiel

βˆ’7.200βˆ’6.611

βˆ’4.137

s t

βˆ’3.644 βˆ’3.644 βˆ’0.474 βˆ’3.644

βˆ’0.589 βˆ’4.837

βˆ’1.811 βˆ’1.811 βˆ’6.059 βˆ’1.811

βˆ’5.644 βˆ’5.644 βˆ’2.474 βˆ’5.644

βˆ’0.589 βˆ’0.589

βˆ’0.152

βˆ’4.322

βˆ’0.515

βˆ’1.737

βˆ’1.737

βˆ’0.515

βˆ’2.326

βˆ’3.548

βˆ’2.915

βˆ’4.611 βˆ’8.255 βˆ’8.407

O = γ€ˆo1, o2, o3, o4, o5〉 = γ€ˆnass, nass, trocken, nass, trocken〉S = γ€ˆRegen, Regen, Sonne, Sonne, Sonne〉

1

2 4

3

6

5

8

7

10

9

Page 56: Map Matching - wuecampus2.uni-wuerzburg.de

Algorithmus

Bring V in topologische Ordnung β†’ v1, . . . , vnv1.d = 0v1.Ο€ = ni lfor j = 2 to n do

vj .d = βˆ’βˆžvj .Ο€ = ni lfor vivj ∈ A do

if vi .d + w(vivj) > vj .d thenvj .d = vi .d + w(vivj)vj .Ο€ = vi

LongestPath(directed acyclic graph G = (V ,A))

u.d : Lange des langsten Wegs von v1 nach uu.Ο€: Vorganger von u im langsten Weg von v1 nach uw(uv): Gewicht von Kante uv

Page 57: Map Matching - wuecampus2.uni-wuerzburg.de

Algorithmus

Bring V in topologische Ordnung β†’ v1, . . . , vnv1.d = 0v1.Ο€ = ni lfor j = 2 to n do

vj .d = βˆ’βˆžvj .Ο€ = ni lfor vivj ∈ A do

if vi .d + w(vivj) > vj .d thenvj .d = vi .d + w(vivj)vj .Ο€ = vi

LongestPath(directed acyclic graph G = (V ,A))

u.d : Lange des langsten Wegs von v1 nach uu.Ο€: Vorganger von u im langsten Weg von v1 nach uw(uv): Gewicht von Kante uv

Laufzeit: O(|V |+ |A|)

Page 58: Map Matching - wuecampus2.uni-wuerzburg.de

Algorithmus

Bring V in topologische Ordnung β†’ v1, . . . , vnv1.d = 0v1.Ο€ = ni lfor j = 2 to n do

vj .d = βˆ’βˆžvj .Ο€ = ni lfor vivj ∈ A do

if vi .d + w(vivj) > vj .d thenvj .d = vi .d + w(vivj)vj .Ο€ = vi

LongestPath(directed acyclic graph G = (V ,A))

u.d : Lange des langsten Wegs von v1 nach uu.Ο€: Vorganger von u im langsten Weg von v1 nach uw(uv): Gewicht von Kante uv

Laufzeit: O(|V |+ |A|) Laufzeit Dijkstra: O(|V | log |V |+ |A|)