Upload
others
View
4
Download
0
Embed Size (px)
Citation preview
Map Matching
Problem: GPS-Punkte der Trajektorie weisen einen relativ groΓen Abstand zueinander auf.
Map Matching
Problem: GPS-Punkte der Trajektorie weisen einen relativ groΓen Abstand zueinander auf. β Direkte Verbindung zwischen Punkten ist
schlechte NΓ€herung
Map Matching
Problem: GPS-Punkte der Trajektorie weisen einen relativ groΓen Abstand zueinander auf.
Ergebnis mit minimaler FrΓ©chet-Distanz
Idee: Fahrer wΓ€hlen bevorzugt kΓΌrzeste Wege im StraΓennetz.
Map Matching
Problem: GPS-Punkte der Trajektorie weisen einen relativ groΓen Abstand zueinander auf.
kΓΌrzeste Route
Idee: Fahrer wΓ€hlen bevorzugt kΓΌrzeste Wege im StraΓennetz.
Map Matching Ansatz ΓΌber kΓΌrzeste Wege
Lou et al.: Map-Matching for Low-Sampling-Rate GPS Trajectories, Proc. ACM GIS 2009. P. Newson und J. Krum: Hidden Markov Map Matching Through Noise and Sparseness, Proc. ACM GIS 2009 Eisner et al.: Algorithms for Matching and Predicting Trajectories, Proc. ALENEX 2011
Ein Punkt etwa alle zwei Minuten (z.B. zur Aufzeichnung & Analyse von Taxirouten)
Map Matching Ansatz ΓΌber kΓΌrzeste Wege
Lou et al.: Map-Matching for Low-Sampling-Rate GPS Trajectories, Proc. ACM GIS 2009. P. Newson und J. Krum: Hidden Markov Map Matching Through Noise and Sparseness, Proc. ACM GIS 2009 Eisner et al.: Algorithms for Matching and Predicting Trajectories, Proc. ALENEX 2011
= Maximum-likelihood estimation + Markov Chains + Hidden Markov Models
Maximum-likelihood estimation Probability versus Likelihood
β’ Flipping a coin:
β π[βππππ ] = π
β π π‘ππππ = 1 β π
β’ Do three independent flips.
β’ The coin is fair (p = Β½).
β’ What is the probability of getting outcome x=(H,H,T)?
Model
Outcome?
Parameter value
π π₯ = π»,π», π | π = 12 = 1 2 β 1 2 β 1 β 1
2 = 0.125 π π₯ = π», π», π ; π = 12
π is not a random variable!
β’ Flipping a coin:
β π[βππππ ] = π
β π π‘ππππ = 1 β π
β’ Did three independent flips.
β’ The result was x=(H,H,T).
β’ What is the likelihood that the coin is fair (p = Β½)?
Maximum-likelihood estimation Probability versus Likelihood
Model
Parameter value?
Outcome
β’ Given the outcome π₯, how βlikelyβ is a certain parameter value π?
β’ Assuming parameter value π, what is the probability of outcome π₯?
β’ Define likelihood function β π π₯ = π[π₯; π]
β’ The result was (H,H,T).
β’ What is the likelihood that the coin is fair (p = Β½)?
β’ β π = π π | π₯ = π»,π», π = 12 β 1 2 β 1 2 = 0.125
β’ β π = π. π | π₯ = π»,π», π = 0.1 β 0.1 β 0.9 = 0.009
β’ β π = π π | π₯ = π»,π», π = 23 β 2 3 β 1 3 = 0. 148
Maximum-likelihood estimation Likelihood functions
Not a probability!
β’ Most probable outcome
β Given parameter π = 23 β¦
β β¦ the most probable outcome is
β’ Maximum-Likelihood Estimate (βMLEβ)
β Given outcome (π, π», π)β¦
β β¦maximum-likelihood estimate is π =
β This value of π βbest explains the observed outcome.β
β This value of π makes the outcome βleast surprising.β
Maximum-likelihood estimation Predictions versus Estimates
(π»,π», π»).
13 .
β’ Model? Parameter? Outcome?
β’ Most probable outcome
β Given a path in a road network β¦
β β¦ what is the most probable GPS trajectory to observe? (Noisy.)
β’ Maximum-Likelihood Estimate (MLE)
β Given the observed GPS trajectory (noisy) β¦
β β¦ what is the most likely path through the road network?
β βWhich path through the network best explains the observed GPS trajectory?β
Maximum-likelihood estimation Maximum-likelihood map matching?
ΠΠ°ΡΠΊΠΎΠ² Chains
ΠΠ½Π΄ΡΠ΅ΠΉ ΠΠ°ΡΠΊΠΎΠ² 1856 - 1922
ΠΠ΅ΠΎΡΠ³ΡΠΉ ΠΠΎΡΠΎΠ½ΠΈΠΉ 1868 - 1908
ΠΠΎΡΠΈΡ ΠΠ΅Π»ΠΎΠ½Π΅ 1890 - 1980
WacΕaw SierpiΕski 1882 - 1969
ΠΠ°ΡΠ½ΡΡΠΈΠΉ Π§Π΅Π±ΡΡΡΠ² 1821 - 1894
ΠΠ°ΡΠΊΠΎΠ² Chains
Voronoi 1856 - 1922
Delaunay 1890 - 1980
Sierpinski 1882 - 1969
Chebyshev 1821 - 1894
Markov 1856 - 1922
β’ Sequence of random variables π1, π2, π3, β¦
β’ Markov Property: Pr πn+1 ππ = π₯π, ππβ1= π₯πβ1, β¦ , π1= π₯1 ] = Pr ππ+1 ππ = π₯π ]
β’ βGiven the present, the future is independent of the past.β
β’ Represent as Pr [π1], Pr [π2|π1], Pr π3 π2 , β¦
Markov Chains
β’ Possible states π = πππππ, π ππππ
β’ Pr [ π1 = π ππππ ] = 0.3
β’ Pr π1 = πππππ = 0.7
β’ Pr ππ+1 = π ππππ ππ = π ππππ ] = 0.7
β’ Pr ππ+1 = πππππ ππ = π ππππ ] = 0.3
β’ Pr ππ+1 = π ππππ ππ = πππππ ] = 0.2
β’ Pr ππ+1 = πππππ ππ = πππππ ] = 0.8
Markov Chains Example
β’ Possible states π = πππππ, π ππππ
β’ Pr [ π1 = π ππππ ] = 0.3
β’ Pr π1 = πππππ = 0.7
Markov Chains
Sonne Regen
0.8 0.7
0.2
0.3
Pr π2 = πππππ ?
Example
β’ Possible states π = πππππ, π ππππ
β’ Pr [ π2 = π ππππ ] = 0.35
β’ Pr π2 = πππππ = 0.65
Markov Chains
Sonne Regen
0.8 0.7
0.2
0.3
Pr π3 = π ππππ ?
Example
β’ Markov Chain
β At every time step, it has a certain state
β’ But the states are hidden
β We cannot βseeβ its state
β’ Emission (βoutputβ)
β At every time step, get an observation
β Probability distribution depends on state
β Emission at each step is independent
Hidden Markov Models
Hidden Markov Model
Hidden Markov Model
Gegeben:
Beobachtungen O = γo1, . . . , onγ, je eine pro Zeitpunkt
mogliche Systemzustande Z
fur jeden Systemzustand z β Z und jede Beobachtung o
β die Wahrscheinlichkeit Pr(o | z) oder
β die Wahrscheinlichkeitsdichte f (o | z),
dass o bei Zustand z beobachtet wird
fur jedes Paar von Zustanden z1, z2 β Z die Wahrscheinlichkeit
Pr(z2 | was z1 before),
also die Wahrscheinlichkeit fur z2 bei Kenntnis, dass zuvor z1vorherrschte (Ubergangswahrscheinlichkeit)
fur jeden Zustand z β Z die (a-priori-)Wahrscheinlichkeit Pr(z)
Hidden Markov Model
Gegeben:
Beobachtungen O = γo1, . . . , onγ, je eine pro Zeitpunkt
mogliche Systemzustande Z
fur jeden Systemzustand z β Z und jede Beobachtung o
β die Wahrscheinlichkeit Pr(o | z) oder
β die Wahrscheinlichkeitsdichte f (o | z),
dass o bei Zustand z beobachtet wird
fur jedes Paar von Zustanden z1, z2 β Z die Wahrscheinlichkeit
Pr(z2 | was z1 before),
also die Wahrscheinlichkeit fur z2 bei Kenntnis, dass zuvor z1vorherrschte (Ubergangswahrscheinlichkeit)
fur jeden Zustand z β Z die (a-priori-)Wahrscheinlichkeit Pr(z)
Hidden Markov Model
Gegeben:
Beobachtungen O = γo1, . . . , onγ, je eine pro Zeitpunkt
mogliche Systemzustande Z
fur jeden Systemzustand z β Z und jede Beobachtung o
β die Wahrscheinlichkeit Pr(o | z) oder
β die Wahrscheinlichkeitsdichte f (o | z),
dass o bei Zustand z beobachtet wird
fur jedes Paar von Zustanden z1, z2 β Z die Wahrscheinlichkeit
Pr(z2 | was z1 before),
also die Wahrscheinlichkeit fur z2 bei Kenntnis, dass zuvor z1vorherrschte (Ubergangswahrscheinlichkeit)
fur jeden Zustand z β Z die (a-priori-)Wahrscheinlichkeit Pr(z)
Hidden Markov Model
Gegeben:
Beobachtungen O = γo1, . . . , onγ, je eine pro Zeitpunkt
mogliche Systemzustande Z
fur jeden Systemzustand z β Z und jede Beobachtung o
β die Wahrscheinlichkeit Pr(o | z) oder
β die Wahrscheinlichkeitsdichte f (o | z),
dass o bei Zustand z beobachtet wird
fur jedes Paar von Zustanden z1, z2 β Z die Wahrscheinlichkeit
Pr(z2 | was z1 before),
also die Wahrscheinlichkeit fur z2 bei Kenntnis, dass zuvor z1vorherrschte (Ubergangswahrscheinlichkeit)
fur jeden Zustand z β Z die (a-priori-)Wahrscheinlichkeit Pr(z)
Hidden Markov Model
Gegeben:
Beobachtungen O = γo1, . . . , onγ, je eine pro Zeitpunkt
mogliche Systemzustande Z
fur jeden Systemzustand z β Z und jede Beobachtung o
β die Wahrscheinlichkeit Pr(o | z) oder
β die Wahrscheinlichkeitsdichte f (o | z),
dass o bei Zustand z beobachtet wird
fur jedes Paar von Zustanden z1, z2 β Z die Wahrscheinlichkeit
Pr(z2 | was z1 before),
also die Wahrscheinlichkeit fur z2 bei Kenntnis, dass zuvor z1vorherrschte (Ubergangswahrscheinlichkeit)
fur jeden Zustand z β Z die (a-priori-)Wahrscheinlichkeit Pr(z)
Hidden Markov Model
Pr(S | O) = f (O | S) Β· Pr(S)/f (O)
Gesucht:Folge S = γz1, . . . , znγ von Zustanden, die sich am besten mitgegebenen Beobachtungen erklaren lasst, also Pr(S | O)maximimiert.
Hidden Markov Model
Pr(S | O) = f (O | S) Β· Pr(S)/f (O)
Gesucht:Folge S = γz1, . . . , znγ von Zustanden, die sich am besten mitgegebenen Beobachtungen erklaren lasst, also Pr(S | O)maximimiert.
Hidden Markov Model
Pr(S | O) = f (O | S) Β· Pr(S)/f (O)
f (O | S) = f (o1 | z1) Β· . . . Β· f (on | zn)
Gesucht:Folge S = γz1, . . . , znγ von Zustanden, die sich am besten mitgegebenen Beobachtungen erklaren lasst, also Pr(S | O)maximimiert.
Hidden Markov Model
Pr(S | O) = f (O | S) Β· Pr(S)/f (O)
Pr(S) = Pr(z1) Β·Pr(z2 | was z1 before) Β· . . . Β·Pr(zn | was znβ1 before)
Gesucht:Folge S = γz1, . . . , znγ von Zustanden, die sich am besten mitgegebenen Beobachtungen erklaren lasst, also Pr(S | O)maximimiert.
Hidden Markov Model
s t
z02
z12
z22
z01
z11
z21
z03
z13
z23
f (o1 | z01 ) Β· Pr(z02 | was z01 before) f (o2 | z02 ) Β· Pr(z03 | was z02 before)
f (o3 | z03 )Pr(z01 )
Z1 Z2 Z3
Hidden Markov Model
s t
z02
z12
z22
z01
z11
z21
z03
z13
z23
f (o1 | z01 ) Β· Pr(z02 | was z01 before) f (o2 | z02 ) Β· Pr(z03 | was z02 before)
f (o3 | z03 )Pr(z01 )
s-t-path of maximum weight product= state sequence S that maximizes Pr (S | O)
Z1 Z2 Z3
Hidden Markov Model β ein BeispielGegeben:
Folge von BeobachtungenO = γo1, . . . , onγ = γnass, nass, trocken, nass, trockenγMenge moglicher Systemzustande: Z = {Sonne, Regen}Beobachtungswahrscheinlichkeiten:
Pr(nass | Sonne) = 0.1Pr(trocken | Sonne) = 0.9Pr(nass | Regen) = 0.95Pr(trocken | Regen) = 0.05
Ubergangswahrscheinlichkeiten:
Pr(Regen | zuvor Regen) = 0.7Pr(Sonne | zuvor Regen) = 0.3Pr(Regen | zuvor Sonne) = 0.2Pr(Sonne | zuvor Sonne) = 0.8
A-Priori-Wahrscheinlichkeiten: Pr(Regen) = 0.3, Pr(Sonne) = 0.7
Gesucht: Folge S = γs1, . . . , snγ von Zustanden, so dass Pr(S | O) maximal ist.
Hidden Markov Model β ein Beispiel
Sonne Sonne Sonne Sonne Sonne
Regen Regen Regen Regen Regen
s t
γo1, o2, o3, o4, o5γ = γnass, nass, trocken, nass, trockenγ
Hidden Markov Model β ein Beispiel
s t
γo1, o2, o3, o4, o5γ = γnass, nass, trocken, nass, trockenγ
Hidden Markov Model β ein Beispiel
s t
Pr(o1 | Sonne) Β· Pr(Sonne | war Sonne zuvor)
γo1, o2, o3, o4, o5γ = γnass, nass, trocken, nass, trockenγ
1
2 4
3
6
5
8
7
10
9
Hidden Markov Model β ein Beispiel
s t
γo1, o2, o3, o4, o5γ = γnass, nass, trocken, nass, trockenγ
Pr(nass | Sonne) Β· Pr(Sonne | war Sonne zuvor)
1
2 4
3
6
5
8
7
10
9
Hidden Markov Model β ein Beispiel
s t
0.1 Β· 0.8
γo1, o2, o3, o4, o5γ = γnass, nass, trocken, nass, trockenγ
0.1 Β· 0.8 0.9 Β· 0.8 0.1 Β· 0.8
0.95 Β· 0.7 0.95 Β· 0.7 0.05 Β· 0.7 0.95 Β· 0.7
0.95 Β· 0.3 0.95 Β· 0.3 0.05 Β· 0.3 0.95 Β· 0.3
0.1 Β· 0.2 0.1 Β· 0.2 0.9 Β· 0.2 0.1 Β· 0.2
1
2 4
3
6
5
8
7
10
9
Hidden Markov Model β ein Beispiel
s t
γo1, o2, o3, o4, o5γ = γnass, nass, trocken, nass, trockenγ
0.08 0.08 0.72 0.08
0.665 0.035
0.285 0.285 0.015 0.285
0.02 0.02 0.18 0.02
0.665 0.6651
2 4
3
6
5
8
7
10
9
Hidden Markov Model β ein Beispiel
s t
γo1, o2, o3, o4, o5γ = γnass, nass, trocken, nass, trockenγ
0.08 0.08 0.72 0.08
0.665 0.035
0.285 0.285 0.015 0.285
0.02 0.02 0.18 0.02
0.665 0.665
Pr(trocken | Sonne)
Pr(trocken | Regen)
1
2 4
3
6
5
8
7
10
9
Hidden Markov Model β ein Beispiel
s t
γo1, o2, o3, o4, o5γ = γnass, nass, trocken, nass, trockenγ
0.08 0.08 0.72 0.08
0.665 0.035
0.285 0.285 0.015 0.285
0.02 0.02 0.18 0.02
0.665 0.665
0.9
0.051
2 4
3
6
5
8
7
10
9
Hidden Markov Model β ein Beispiel
s t
γo1, o2, o3, o4, o5γ = γnass, nass, trocken, nass, trockenγ
0.08 0.08 0.72 0.08
0.665 0.035
0.285 0.285 0.015 0.285
0.02 0.02 0.18 0.02
0.665 0.665
0.9
0.05
Pr(Sonne)
Pr(Regen)
1
2 4
3
6
5
8
7
10
9
Hidden Markov Model β ein Beispiel
s t
γo1, o2, o3, o4, o5γ = γnass, nass, trocken, nass, trockenγ
0.08 0.08 0.72 0.08
0.665 0.035
0.285 0.285 0.015 0.285
0.02 0.02 0.18 0.02
0.665 0.665
0.9
0.05
0.7
0.31
2 4
3
6
5
8
7
10
9
Hidden Markov Model β ein Beispiel
s t
γo1, o2, o3, o4, o5γ = γnass, nass, trocken, nass, trockenγ
β3.644 β3.644 β0.474 β3.644
β0.589 β4.837
β1.811 β1.811 β6.059 β1.811
β5.644 β5.644 β2.474 β5.644
β0.589 β0.589
β0.152
β4.322
β0.515
β1.737
log2
1
2 4
3
6
5
8
7
10
9
Hidden Markov Model β ein Beispiel
s t
β3.644 β3.644 β0.474 β3.644
β0.589 β4.837
β1.811 β1.811 β6.059 β1.811
β5.644 β5.644 β2.474 β5.644
β0.589 β0.589
β0.152
β4.322
β0.515
β1.7371
2 4
3
6
5
8
7
10
9
Hidden Markov Model β ein Beispiel
s t
β3.644 β3.644 β0.474 β3.644
β0.589 β4.837
β1.811 β1.811 β6.059 β1.811
β5.644 β5.644 β2.474 β5.644
β0.589 β0.589
β0.152
β4.322
β0.515
β1.737
β1.737
1
2 4
3
6
5
8
7
10
9
Hidden Markov Model β ein Beispiel
s t
β3.644 β3.644 β0.474 β3.644
β0.589 β4.837
β1.811 β1.811 β6.059 β1.811
β5.644 β5.644 β2.474 β5.644
β0.589 β0.589
β0.152
β4.322
β0.515
β1.737
β1.737
β0.515
1
2 4
3
6
5
8
7
10
9
Hidden Markov Model β ein Beispiel
s t
β3.644 β3.644 β0.474 β3.644
β0.589 β4.837
β1.811 β1.811 β6.059 β1.811
β5.644 β5.644 β2.474 β5.644
β0.589 β0.589
β0.152
β4.322
β0.515
β1.737
β1.737
β0.515
β2.326
1
2 4
3
6
5
8
7
10
9
Hidden Markov Model β ein Beispiel
s t
β3.644 β3.644 β0.474 β3.644
β0.589 β4.837
β1.811 β1.811 β6.059 β1.811
β5.644 β5.644 β2.474 β5.644
β0.589 β0.589
β0.152
β4.322
β0.515
β1.737
β1.737
β0.515
β2.326
β3.548
1
2 4
3
6
5
8
7
10
9
Hidden Markov Model β ein Beispiel
s t
β3.644 β3.644 β0.474 β3.644
β0.589 β4.837
β1.811 β1.811 β6.059 β1.811
β5.644 β5.644 β2.474 β5.644
β0.589 β0.589
β0.152
β4.322
β0.515
β1.737
β1.737
β0.515
β2.326
β3.548
β2.915
1
2 4
3
6
5
8
7
10
9
Hidden Markov Model β ein Beispiel
β4.137
s t
β3.644 β3.644 β0.474 β3.644
β0.589 β4.837
β1.811 β1.811 β6.059 β1.811
β5.644 β5.644 β2.474 β5.644
β0.589 β0.589
β0.152
β4.322
β0.515
β1.737
β1.737
β0.515
β2.326
β3.548
β2.915
1
2 4
3
6
5
8
7
10
9
Hidden Markov Model β ein Beispiel
β6.611
β4.137
s t
β3.644 β3.644 β0.474 β3.644
β0.589 β4.837
β1.811 β1.811 β6.059 β1.811
β5.644 β5.644 β2.474 β5.644
β0.589 β0.589
β0.152
β4.322
β0.515
β1.737
β1.737
β0.515
β2.326
β3.548
β2.915
1
2 4
3
6
5
8
7
10
9
Hidden Markov Model β ein Beispiel
β6.611
β4.137
s t
β3.644 β3.644 β0.474 β3.644
β0.589 β4.837
β1.811 β1.811 β6.059 β1.811
β5.644 β5.644 β2.474 β5.644
β0.589 β0.589
β0.152
β4.322
β0.515
β1.737
β1.737
β0.515
β2.326
β3.548
β2.915
β4.611
1
2 4
3
6
5
8
7
10
9
Hidden Markov Model β ein Beispiel
β7.200β6.611
β4.137
s t
β3.644 β3.644 β0.474 β3.644
β0.589 β4.837
β1.811 β1.811 β6.059 β1.811
β5.644 β5.644 β2.474 β5.644
β0.589 β0.589
β0.152
β4.322
β0.515
β1.737
β1.737
β0.515
β2.326
β3.548
β2.915
β4.611
1
2 4
3
6
5
8
7
10
9
Hidden Markov Model β ein Beispiel
β7.200β6.611
β4.137
s t
β3.644 β3.644 β0.474 β3.644
β0.589 β4.837
β1.811 β1.811 β6.059 β1.811
β5.644 β5.644 β2.474 β5.644
β0.589 β0.589
β0.152
β4.322
β0.515
β1.737
β1.737
β0.515
β2.326
β3.548
β2.915
β4.611 β8.255
1
2 4
3
6
5
8
7
10
9
Hidden Markov Model β ein Beispiel
β7.200β6.611
β4.137
s t
β3.644 β3.644 β0.474 β3.644
β0.589 β4.837
β1.811 β1.811 β6.059 β1.811
β5.644 β5.644 β2.474 β5.644
β0.589 β0.589
β0.152
β4.322
β0.515
β1.737
β1.737
β0.515
β2.326
β3.548
β2.915
β4.611 β8.255 β8.407
1
2 4
3
6
5
8
7
10
9
Hidden Markov Model β ein Beispiel
β7.200β6.611
β4.137
s t
β3.644 β3.644 β0.474 β3.644
β0.589 β4.837
β1.811 β1.811 β6.059 β1.811
β5.644 β5.644 β2.474 β5.644
β0.589 β0.589
β0.152
β4.322
β0.515
β1.737
β1.737
β0.515
β2.326
β3.548
β2.915
β4.611 β8.255 β8.407
O = γo1, o2, o3, o4, o5γ = γnass, nass, trocken, nass, trockenγS = γRegen, Regen, Sonne, Sonne, Sonneγ
1
2 4
3
6
5
8
7
10
9
Algorithmus
Bring V in topologische Ordnung β v1, . . . , vnv1.d = 0v1.Ο = ni lfor j = 2 to n do
vj .d = ββvj .Ο = ni lfor vivj β A do
if vi .d + w(vivj) > vj .d thenvj .d = vi .d + w(vivj)vj .Ο = vi
LongestPath(directed acyclic graph G = (V ,A))
u.d : Lange des langsten Wegs von v1 nach uu.Ο: Vorganger von u im langsten Weg von v1 nach uw(uv): Gewicht von Kante uv
Algorithmus
Bring V in topologische Ordnung β v1, . . . , vnv1.d = 0v1.Ο = ni lfor j = 2 to n do
vj .d = ββvj .Ο = ni lfor vivj β A do
if vi .d + w(vivj) > vj .d thenvj .d = vi .d + w(vivj)vj .Ο = vi
LongestPath(directed acyclic graph G = (V ,A))
u.d : Lange des langsten Wegs von v1 nach uu.Ο: Vorganger von u im langsten Weg von v1 nach uw(uv): Gewicht von Kante uv
Laufzeit: O(|V |+ |A|)
Algorithmus
Bring V in topologische Ordnung β v1, . . . , vnv1.d = 0v1.Ο = ni lfor j = 2 to n do
vj .d = ββvj .Ο = ni lfor vivj β A do
if vi .d + w(vivj) > vj .d thenvj .d = vi .d + w(vivj)vj .Ο = vi
LongestPath(directed acyclic graph G = (V ,A))
u.d : Lange des langsten Wegs von v1 nach uu.Ο: Vorganger von u im langsten Weg von v1 nach uw(uv): Gewicht von Kante uv
Laufzeit: O(|V |+ |A|) Laufzeit Dijkstra: O(|V | log |V |+ |A|)