@article{oai:kitami-it.repo.nii.ac.jp:00007886, author = {桑田, 修平 and 前田, 康成 and 松嶋, 敏泰 and 平澤, 茂一}, issue = {1}, journal = {情報処理学会論文誌数理モデル化と応用(TOM)}, month = {Mar}, note = {推薦問題を扱うためのより一般化されたマルコフ決定過程モデルに対して,ベイズ基準のもとで最適な推薦ルールを履歴データから求める方法を提案する.推薦問題に関する研究において,これまで,ある商品を推薦した結果どの商品が買われたのか(推薦結果)や,さらには,一定期間内に行った複数の推薦結果が考慮されることはほとんどなかった.これに対して,マルコフ決定過程モデルを用いることで上記2点を初めて考慮した手法が提案されている.提案法は,その従来研究のモデルを一般化した点に新規性がある.また,もう1つの新規性として,推薦ルールを求めるためのプロセスを統計的決定問題として厳密に定式化した点がある.従来のモデルを一般化することで,マルコフ決定過程モデルを用いた推薦手法の適用領域が拡大され,かつ,推薦する目的に対して最適な推薦が行えるようになった.人工データを用いた評価実験により,提案する推薦手法の有効性を確認した.In this paper, we propose a general markov decision process model for the recommendation system. Furthermore, by using historical data, we derive the optimal recommendation lists from the proposed model based on bayesian decision theory. In the recommendation research area, there were little studies that considered both the purchased items and the past recommended items within a given period. In these circumstances, markov decision process based recommend method that can take these two things into account has been proposed. Our method also uses both things as with the previous method. Here, the unique thing about this paper is not only that we generalize the existing model, but also that we formulate the process to get the recommendation lists as the statistical decision problem. As a result, we can obtain the most suitable recommendation lists with respect to the purpose of the recommendation for a wide variety of recommendation scene. By using artificial data, we show the experimental results that our method can obtain more rewards than the conventional method gets.}, pages = {20--30}, title = {推薦システムのための状態遷移確率の構造を未知としたマルコフ決定過程}, volume = {6}, year = {2013} }