内田 英明, 藤井 秀樹, 吉村 忍, 荒井 幸代
情報処理学会論文誌 53(11) 2409-2418 2012年11月15日
現在,多くの交通流シミュレーションでは定常状態の交通流を評価するモデルが採用されており,過渡的な現象を再現することは困難である.しかし,道路ネットワークの変更をともなう交通施策の評価においてこの過渡的な現象を無視することはできない.そこで本研究では,道路ネットワークが変化する状況下でどちらの現象も扱うことのできる経路選択モデルを新たに提案し,マルチエージェント型交通流シミュレータに実装する.はじめに,基本として用いた強化学習の枠組みに基づくQ-routingアルゴリズムの説明を行い,交通流シミュレーションに適用するため加えたいくつかの改良について説明する.不規則な格子状のネットワークにおいて,渋滞や信号制御に対する本経路選択モデルの基本的な振舞いを検証し,最後に岡山市内の現実のLRT延伸計画を対象としてシミュレーションを行い,延伸実行後に小規模な渋滞が発生する可能性を示す.また,この渋滞現象は運転者の保持する延伸前の走行経験がバイアスとして影響した結果,一時的に生じるもので,十分な時間経過の後定常状態に至ることを示す.This paper describes the impact of changes in road network on driver's behavior. In agent-based traffic simulations, agents typically choose the shortest route, while drivers in a real world choose their routes through their own past experience. Since traffic simulations are used extensively in the evaluation and verification of traffic policy, accurate simulation reproducing the routing behavior of the real world is strongly demanded. Thus, we newly develop a reinforcement learning based routing algorithm, and implement it in Traffic Simulator. Then we explains some improvements in the Q-routing for traffic simulation. Firstly, we perform a preliminary experiment using an irregular grid network with various loads or signal control, and get good performance, i.e. robustness of the improved Q-routing in the cases of heavy traffic with signal control. Second, the simulator with/without the improved Q-routing is applied to simulate the LRT expansion project in Okayama city, and we evaluate transient traffic behaviors after the implementation of the plan. We observe transient congestion phenomenon only in the simulation with the improved Q-routing. Though the detailed analysis of the results, we find that such transient traffic congestions are caused due to the bias of the drivers' past experience.