@article{oai:kitami-it.repo.nii.ac.jp:00007887, author = {前田, 康成 and 後藤, 文太朗 and 升井, 洋志 and 桝井, 文人 and 鈴木, 正清}, issue = {6}, journal = {情報処理学会論文誌}, month = {Jun}, note = {従来からマルコフ決定過程(MDP)を用いたロールプレイングゲーム(RPG)のモデル化が行われている.従来研究ではRPGが部分的にモデル化されている.本研究では,MDPを用いてより一般的なRPGのモデル化を行う.最初にMDPの真のパラメータ既知の場合に相当するRPGについて,報酬の期待値を最大にするアルゴリズムを提案する.次にMDPの真のパラメータ未知の場合に相当するRPGについて,ベイズ基準のもとで報酬を最大にするアルゴリズムを提案する.次にMDPの真のパラメータ未知の場合に相当するRPGについて,学習データを用いて報酬を近似的に最大にするアルゴリズムを提案する.In previous research a part of role-playing game (RPG) is represented with Markov decision processes (MDP). In this research we represent a more general PRG with MDP. We maximize an expected total reward under the condition that the true parameter of MDP is known in the first proposition. We maximize an expected total reward with respect to a Bayes criterion under the condition that the true parameter of MDP is unknown in the second proposition. We approximately maximize an expected total reward using learning data under the condition that the true parameter of MDP is unknown in the third proposition.}, pages = {1608--1616}, title = {マルコフ決定過程のロールプレイングゲームへの適用}, volume = {53}, year = {2012} }