模式识别与人工智能
2025年4月11日 星期五   首 页     期刊简介     编委会     投稿指南     伦理声明     联系我们                                                                English
模式识别与人工智能  2008, Vol. 21 Issue (2): 254-259    DOI:
研究与应用 最新目录| 下期目录| 过刊浏览| 高级检索 |
Q学习中基于模糊规则的强化函数设计方法
赵晓华1,李振龙2,陈阳舟2,荣建1
1.北京工业大学 北京市交通工程重点实验室 北京 100022
2.北京工业大学 电子信息与控制工程学院 北京 100022
A Method to Design Reinforcement Function Based on Fuzzy Rules in QLearning
ZHAO XiaoHua1, LI ZhenLong2, CHEN YangZhou2, RONG Jian1
1.Key Laboratory of Transportation Engineering in Beijing, Beijing University of Technology, Beijing 1000222.
School of Electronic Information and Control Engineering, Beijing University of Technology, Beijing 100022

全文: PDF (498 KB)   HTML (1 KB) 
输出: BibTeX | EndNote (RIS)      
摘要 Q学习算法是求解信息不完全马尔可夫决策问题的一种强化学习方法.Q学习中强化信号的设计是影响学习效果的重要因素.本文提出一种基于模糊规则的Q学习强化信号的设计方法,提高强化学习的性能.并将该方法应用于单交叉口信号灯最优控制中,根据交通流的变化自适应调整交叉口信号灯的相位切换时间和相位次序.通过Paramics微观交通仿真软件验证,说明在解决交通控制问题中,使用基于模糊规则的Q学习的学习效果优于传统Q学习.
服务
把本文推荐给朋友
加入我的书架
加入引用管理器
E-mail Alert
RSS
作者相关文章
赵晓华
李振龙
陈阳舟
荣建
关键词 Q学习强化函数模糊规则交通信号控制Paramics微观交通仿真软件    
Abstract:Qlearning is a reinforcement learning method to solve Markovian decision problems with incomplete information. The design of reward function is an important factor that affects the learning results of Qlearning. A method to design the reward function of Qlearning based on fuzzy rules is introduced to improve the performance of reinforcement learning, and the method is applied to traffic signal optimal control. According to different traffic condition, the switching time and switching sequence of phase can be adapted. The performance of the system is evaluated by Paramics microcosmic traffic simulation software. And the results show that the learning effect of Qlearning based on fuzzy rules is better than that of conventional Qlearning for traffic signal control.
Key wordsQLearning    Reinforcement Function    Fuzzy Rules    Traffic Signal Control    Paramics Microcosmic Traffic Simulation Software   
收稿日期: 2006-06-07     
ZTFLH: TP391  
作者简介: 赵晓华,女,1971年生,副教授,博士,主要研究方向为智能交通、控制理论及应用.E-mail:zhaoxiaohua@bjut.edu.cn.李振龙,男,1976年生,副教授,博士,主要研究方向为交通信息与控制.陈阳舟,男,1962年生,教授,博士生导师,主要研究方向为控制理论及应用.荣建,男,1973年生,教授,博士,主要研究方向为交通信息与控制.
引用本文:   
赵晓华,李振龙,陈阳舟,荣建. Q学习中基于模糊规则的强化函数设计方法[J]. 模式识别与人工智能, 2008, 21(2): 254-259. ZHAO XiaoHua, LI ZhenLong, CHEN YangZhou, RONG Jian. A Method to Design Reinforcement Function Based on Fuzzy Rules in QLearning. , 2008, 21(2): 254-259.
链接本文:  
http://manu46.magtech.com.cn/Jweb_prai/CN/      或     http://manu46.magtech.com.cn/Jweb_prai/CN/Y2008/V21/I2/254
版权所有 © 《模式识别与人工智能》编辑部
地址:安微省合肥市蜀山湖路350号 电话:0551-65591176 传真:0551-65591176 Email:bjb@iim.ac.cn
本系统由北京玛格泰克科技发展有限公司设计开发 技术支持:support@magtech.com.cn