ベイズフィルタリングを用いた 口コミの分類 ―自分好みの店の抽出―

Slides:



Advertisements
Similar presentations
『わかりやすいパターン認 識』 第 5 章 特徴の評価とベイズ誤り確率 5.4 ベイズ誤り確率と最近傍決定則 発表日: 5 月 23 日(金) 発表者:時田 陽一.
Advertisements

就職活動 マメ知識 ~自分自身の体験から~ 現代社会学科 4 年 No.1. こんな広告見たことありません か? でも・・・ 何をすればいいんだろう?
嗜好ベクトルの近似による サービス享受条件の自動設定 立命館大学大学院 理工学研究科 データ工学研究室 ◎川成宗剛,山原裕之, 原田史子, 島川博光 2007 年 9 月 6 日.
電子書籍の検索機能の改善 木下研究室 201002713 鴫原 善寿. 背景 スマートフォンなどの携帯端末の普及と ともに電子書籍に注目が浴びた。中でも amazon の kindle など電子書籍の専用端末も 現れた。 電子書籍はデータなので本棚もいらず、 持ち運びも容易になるなど様々な恩恵を もたらした。
SNS によるストレスの研 究 鴫原 康太. 本研究の目的 今回私がこの研究を行おうと思ったきっかけは、 SNS によるストレスを自分も少なからず感じるこ とがしばしばあったということが今回の研究を 行ったきっかけである。 「既読無視」「バカッター」など SNS のあり方、 使い方を誤って使ったり、
●母集団と標本 母集団 標本 母数 母平均、母分散 無作為抽出 標本データの分析(記述統計学) 母集団における状態の推測(推測統計学)
ユーザーイメージ収集 インターフェイスの開発
顔表情クラスタリングによる 映像コンテンツへのタギング
確率・統計Ⅰ 第12回 統計学の基礎1 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
国内線で新千歳空港を利用している航空会社はどこですか?
クチコミPress 掲載ガイド:2009年1月-3月 ご提案書.
コンピュータ囲碁の仕組み ~ 将棋との違い ~
実証分析の手順 経済データ解析 2011年度.
圧縮類似度を用いた方言の自動分類 ~ライス符号を用いた前処理~ ~連結クラスタリング法~ ~余弦類似度を用いた方言分類木の評価~
Presentation 沖縄キリスト教学院大学3年次 比嘉 祐美.
Bassモデルにおける 最尤法を用いたパラメータ推定
社会心理学のStudy -集団を媒介とする適応- (仮)
経営学部 経営学科 ITビジネスコース 菊地真実子
形態素解析および係り受け解析・主語を判別
日本大学 文理学部 情報システム解析学科 谷研究室 益田真太郎
K-POPCD販売に効果的な広告の作成.
おすすめPOPの分析 越智 大介.
自動車レビューにおける検索と分析 H208032 松岡 智也 H208060 中西 潤 H208082 松井泰介.
ユースケース図2-4~ FM11012 中島拓也.
プロジェクトの選択基準 と CBAの役割と限界
7. 音声の認識:高度な音響モデル 7.1 実際の音響モデル 7.2 識別的学習 7.3 深層学習.
識別子の命名支援を目的とした動詞-目的語関係の辞書構築
定兼邦彦 今井浩 東京大学理学系研究科 情報科学専攻
利用関係に基づく類似度を用いたJavaコンポーネント分類ツールの作成
あらまし アンサンブル学習の大きな特徴として,多数決などで生徒を組み合わせることにより,単一の生徒では表現できない入出力関係を実現できることがあげられる.その意味で,教師が生徒のモデル空間内にない場合のアンサンブル学習の解析は非常に興味深い.そこで本研究では,教師がコミティマシンであり生徒が単純パーセプトロンである場合のアンサンブル学習を統計力学的なオンライン学習の枠組みで議論する.メトロポリス法により汎化誤差を計算した結果,ヘブ学習ではすべての生徒は教師中間層の中央に漸近すること,パーセプトロン学習では
教育工学を始めよう ~研究テーマの選び方から論文の書き方まで~ (第1章)
環境リスクマネジメントに関する 検索システム
学生の相互評価を用いた モデリング支援システムの開発
雑音環境下における 非負値行列因子分解を用いた声質変換
深層学習を用いた音声認識システム 工学部 電気電子工学科 白井研究室 T213069 林健吉.
ソースコードの特徴量を用いた機械学習による メソッド抽出リファクタリング推薦手法
藤田保健衛生大学医学部 公衆衛生学 柿崎 真沙子
市場調査の手順 問題の設定 調査方法の決定 データ収集方法の決定 データ収集の実行 データ分析と解釈 報告書の作成 標本デザイン、データ収集
ルーブリック・チャート(評価) の活用と課題
信頼性設計法を用いた構造物の 崩壊確率の計算
Webコミュニティ概念を用いた Webマイニングについての研究 A study on Web Mining Based on Web Communities 清水 洋志.
エピソード記憶に訴えるBookmarkless Bookmarkの実現
不確実データベースからの 負の相関ルールの抽出
Javaソフトウェア部品検索システムSPARS-Jの実験的評価
ex-8. 平均と標準偏差 (Excel 実習シリーズ)
確率と統計2009 第12日目(A).
コードクローン分類の詳細化に基づく 集約パターンの提案と評価
コーディングパターンの あいまい検索の提案と実装
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
「アルゴリズムとプログラム」 結果を統計的に正しく判断 三学期 第7回 袖高の生徒ってどうよ調査(3)
情報経済システム論:第13回 担当教員 黒田敏史 2019/5/7 情報経済システム論.
C9 石橋を叩いて渡るか? ~システムに対する信頼度評価~
構造的類似性を持つ半構造化文書における頻度分析
設計情報の再利用を目的とした UML図の自動推薦ツール
保守請負時を対象とした 労力見積のためのメトリクスの提案
A-17 検索履歴のプライバシーを秘匿した ユーザクラスタリング
藤田保健衛生大学医学部 公衆衛生学 柿崎 真沙子
自然言語処理2015 Natural Language Processing 2015
ex-8. 平均と標準偏差 (Excel を演習で学ぶシリーズ)
ソフトウェア理解支援を目的とした 辞書の作成法
Webページタイプによるクラスタ リングを用いた検索支援システム
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
自然言語処理2016 Natural Language Processing 2016
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
ベイジアンネットワークと クラスタリング手法を用いたWeb障害検知システムの開発
グラフ-ベクトル変換を用いたグラフ構造表現による一般物体認識
雑音環境下における Sparse Coding声質変換 3-P-49d
混合ガウスモデル Gaussian Mixture Model GMM
教師がコミティマシンの場合のアンサンブル学習 三好 誠司(神戸高専) 原 一之(都立高専) 岡田 真人(東大,理研,さきがけ)
Presentation transcript:

ベイズフィルタリングを用いた 口コミの分類 ―自分好みの店の抽出― 情報理工学科 A0878536 牛窪 麻衣

研究背景 口コミサイトとは? ある商品やサービス等に対して,消費者が自由な評価を書き込むことや,閲覧することができるサイト 多くのユーザーに利用されている (私も利用者の一人です!) 口コミとは,ある商品やサービスに対して,利用者によって寄せられた評価やコメントのことを指します.これは,サービスを提供する側ではなく,実際の利用者の意見を反映しているものです. 現在では,口コミサイトとしてウェブページ上に投稿したり参照することのできるサイトが設けられています。これらのサイトは私たちの消費者行動にも大きな変化をもたらしていて,何かを買ったりサービスを受ける際に,事前に口コミを参考にしたりします. この図を見てください.これが現在の口コミサイト利用者数です. [1]NECビッグローブ2007年度調査より参照

ホームページhotpepper beautyより抜粋

HOTPEPPER Beauty お店からのアピール ホームページhotpepper beautyより抜粋

ホームページhotpepper beautyより抜粋

ホームページhotpepper beautyより抜粋

研究背景 口コミサイト 利点と欠点 利点 欠点 実際に利用経験を持つ消費者によって書かれている ・ 読むのが面倒 口コミサイト 利点と欠点 一般論と自身の体験談より 利点 実際に利用経験を持つ消費者によって書かれている ・ 読むのが面倒 広告会社や売り手にとって都合のよいことは 書かれていない 欠点 例えば,サービスを提供するサロン(美容院、ネイルサロん)の広告の場合,これは広告会社やサロンの営利目的のため作られているため,彼らにとって都合のよい情報が「多く」ふくまれている. 【欠点】黄泉のが面倒 人気サイトでは、一つのサロンにたいして40~50件もの口コミが投稿されていたりもする [1]NECビッグローブ2007年度調査より参照

研究の目的 提案手法 対象 口コミサイトに寄せられた口コミを自動で分類・抽出する [2]http://www.hotpepper_beauty 研究の目的 口コミサイトに寄せられた口コミを自動で分類・抽出する 目的① 全ての口コミに点数をつけ並べ替える 目的② 良い/悪い(自分にとって必要/不必要)に自 動分類する 提案手法 対象 HOTPEPPER beauty[2]に 投稿された口コミ ・ネイルサロンに着目  -全てのサロンに点数を付け、ランキング    にする  - good/bad に自動分類して不要な口コミ は読まなくても良いようにする ベイズフィルタリングを 口コミサイトへ適応   スパムメールフィルタリングの代表例 目的1:テキストデータを定量化する. 【学習していくプログラム】口コミは自由記述文で書かれているため,定まった形やルールがない.そのため,良いか悪いかを教えるたびに学習していくプログラムを利用する. 【提案手法】ベイズフィルタリングについて詳しくはのちほど. 【対象】ホットペッパーの掲載サロン数(すごいことをPR) ネイルサロンに着目した理由

ベイズフィルタリングの説明 ベイズフィルタリングは どのようにテキストの定量化を行い 評価するのか?

ベイズフィルタリングを用いたテキストの評価方法 概要 1.トレーニングを行う 分類器のトレーニングを行う 2.各単語の確率算出 トレーニングデータを基に,各単語が各カテゴリに出現する確率を算出する 3.ドキュメント全体の確率を算出 手順2の情報を基に,評価したいドキュメントが各カテゴリに出現する確率を算出する ベイズフィルタリングがどのようにテキストを評価しているのか,基本的な流れを説明します. よって,トレーニングが大事である.   分類 分類

ベイズフィルタリングは正答例を見せることで その都度学習していくプログラム ベイズフィルタリングを用いたテキストの評価方法 1.分類器のトレーニングを行う ベイズフィルタリングは正答例を見せることで その都度学習していくプログラム Ex) 【トレーニングの様子】   「スタッフ が 良い」‘good’   「対応 が 丁寧」‘good’   「残念です」‘bad’

ベイズフィルタリングを用いたテキストの評価方法 2.各単語の確率を算出する ―トレーニングデータを基に, 各単語が各カテゴリに出現する確率を算出する 単語 good(頻度) Bad(頻度) スタッフ 0.5 0.0 が 1.0 良い 対応 丁寧 残念 です 【トレーニング例】 スタッフ が 良い ‘good’         対応 が 丁寧   ‘good’ 残念です       ‘bad’

ベイズフィルタリングを用いたテキストの評価方法 3.ドキュメント全体の確率を算出する 評価したいドキュメントがあるカテゴリに属する確率 Ex) A=評価したいドキュメント  Pr(good|A )= 0.7 Pr(bad|A )= 0.3 ドキュメントAはgoodカテゴリ に分類されると推測できる! では、評価したいドキュメントがあるカテゴリに属する確率はどのように算出するのか? 【ベイズの定理】    Pr(A|B)  = Pr(B|A) × Pr(A)/Pr(B) Pr(カテゴリ|ドキュメント) =Pr(ドキュメント|カテゴリ)×Pr(カテゴリ)/Pr(ドキュメント)

ベイズフィルタリングを用いたテキストの評価方法 3.ドキュメント全体の確率を算出する 【トレーニングデータ】 スタッフ が 良い ‘good’         対応 が 丁寧   ‘good’ 残念です       ‘bad’ 単語 good(頻度) Bad(頻度) スタッフ 0.5 0.0 が 1.0 良い 対応 丁寧 残念 です Pr(カテゴリ|ドキュメント) =Pr(ドキュメント|カテゴリ)×Pr(カテゴリ)/Pr(ドキュメント) Pr(ドキュメント|カテゴリ)の算出 →☆単純な単語の掛け合わせでOK          Ex. 「対応 が 丁寧」の場合 Pr(カテゴリ)の算出 あるカテゴリが全体に占める確率 Pr(good)=2/3=0.66 Pr(bad)=1/3=0.33 Pr(good|A) =0.25×0.66=0.16 Pr(bad|A) =0×0.33 =0 ドキュメントAは goodである! Pr(ドキュメント)の算出  必要なし!

この方法を 口コミサイトに適応させる!

Bの方が良い内容であると言えるだろうか? ベイズフィルタリングのチューニング 1 算出した数値は,このままでは比較に使えない これまで, Pr(good|A)=1.8 Pr(bad|A)=0.7 Pr(good|B)=3.0 Pr(bad|B)=1.7 Pr(good|A)=1.8 Bの方が良い内容であると言えるだろうか? 言えない。 新たに,比較したいテキスト間で共通に使える数値を設定しないといけない. テキストの比較に用いる数値= (スコア) Pr(good|ドキュメント) Pr(bad|ドキュメント) で算出。

ベイズフィルタリングの チューニング完了

解析を行う 【対象】 HOTPEPPER beautyに掲載されている190件のネイルサロンに寄せられた口コミ 消費者の嗜好4パターン[3]を想定 嗜好1: 可愛くて褒められる仕上がりのネイルサロン 嗜好2: 施術が早くて,丁寧なサロン 嗜好3: 初めてでも安心して通えるサロン 嗜好4: 店の対応や接客が良いサロン しきい値の設定は,口コのは良い口コミの方がおおいから、ただスコアで分けても意味がないことを言う. [3]Hotpepper beauty ネイルサロンの基礎知識を参照

190件のサロンを対象に解析を行った 嗜好1:可愛くてほめられる仕上がりンネイルサロン 解析結果 上位のスコア間に       嗜好1:可愛くてほめられる仕上がりンネイルサロン 上位のスコア間に 大きな差が出る対数分布の形 スコアは,最高198.2,最低1.5 y = -25.42 log x + 137.08 の曲線に近くなった. グラフのR-2 乗値は0.9589

全ての嗜好は共通して,上位のスコアに 大きな差が出る対数分布の形をとった 解析結果

被験者による評価実験 目的 本研究のプログラムが,どの程度使えるものなのかを被験者を用いて評価する 評価基準 プログラムによる並べ替え 被験者による並べ替え 対象 被験者20名(各嗜好に5名ずつ) 差!

被験者対象実験結果 嗜好1 96%で一致 順位 1 2 3 4 5 システム (サロンNo) A (No.129) B (No.163) C 嗜好1 96%で一致 順位 1 2 3 4 5 システム (サロンNo) A (No.129) B (No.163) C (No.188) D (No.137) E (No.105) 被験者1 被験者2 被験者3 被験者4 被験者5

被験者対象実験結果 誤差は? <システムの性能> 平均すると89.5 %であり,システムの性能は高いと言える. 嗜好1 96%で一致 嗜好2 74%で一致 順位 1 2 3 4 5 システム (サロンNo) A (No.129) B (No.163) C (No.188) D (No.137) E (No.105) 被験者1 被験者2 被験者3 被験者4 被験者5 順位 1 2 3 4 5 システム (サロンNo) A (No.130) B (No.161) C (No.132) D (No.51) E (No.175) 被験者1 被験者2 被験者3 被験者4 被験者5 嗜好3 96%で一致 嗜好4 94%で一致 順位 1 2 3 4 5 システム (サロンNo) A (No.130) B (No.89) C (No.108) D (No.26) E (No.43) 被験者1 被験者2 被験者3 被験者4 被験者5 順位 1 2 3 4 5 システム (サロンNo) A (No.100) B (No.89) C (No.108) D (No.26) E (No.43) 被験者1 被験者2 被験者3 被験者4 被験者5 <システムの性能> 平均すると89.5 %であり,システムの性能は高いと言える. 誤差は?

誤差は何からきたものか? 順位の高いサロンにおいて,並べ替え 結果にばらつきがみられた. 誤差は何からきたものか?  順位の高いサロンにおいて,並べ替え 結果にばらつきがみられた. 順位 1 2 3 4 5 システム (サロンNo) A (No.129) B (No.163) C (No.188) D (No.137) E (No.105) 被験者1 被験者2 被験者3 被験者4 被験者5 1 位のサロンと2位のサロン間に77 もの差があるが,「1 位と2 位のサロンの口コミに違いを感じなかった」と回答する被験者も数名見受けられた. 構成したシステムと,人の感じ方に違いがあるのでは? ★ ★

構成したシステムと人との感じ方の違い システムは,【可愛い】という表現が出現すればするだけ,単純にスコアが加算されていくように構成されている 人間は,【かわいい】という表現に出くわす機会が一定量を超えると,それ以上プラスの評価にはつながらないのではないか?

まとめ 課題 ①口コミを自動分類したい ②ベイズフィルタリングを適応させた ③解析結果を被験者実験により評価した ④精度は高い ①口コミを自動分類したい ②ベイズフィルタリングを適応させた ③解析結果を被験者実験により評価した ④精度は高い 課題 ①人間の評価感度に近づける ②単語の前後関係を意識した評価方法の提案 以上です.ご清聴ありがとうございました.

ベイズフィルタリングをそのまま口コミに適応させていいのか? 問題点は3つ。

①確率の掛け算のため,長文なるとエラーが起こる ベイズフィルタリングのチューニング 1 ①確率の掛け算のため,長文なるとエラーが起こる Pr(ドキュメント|カテゴリ)の求め方は 「スタッフ の 接客  が  丁寧 で  良い 」   0.5×0.3×0.4×0.6×0.8×0.6×0.8=0.013 単語一つ一つの小数の掛け算で求めていたため   少し長い文になると     2.61404079e-23   もっと長い文になると    エラーが起きてしまう そこで,各単語のスコアが1以上になるように変更した 「スタッフ の 接客 が  丁寧  で  良い」  0.5 ×0.3×0.4×0.6×0.8×0.6×0.8 = 0.013 →1.5 ×1.3×1.4×1.6×1.8×1.6×1.8 = 16.17267 できれば、何文字くらいでエラー??

②あまりトレーニングできていない単語が多い ベイズフィルタリングのチューニング 2 ②あまりトレーニングできていない単語が多い 口コミは自由記述文で書かれているため, 不正確な日本語が多く含まれる. (かわいい≒かわいー) 「仮の確率・重み」の設定 重み付き確率は実例を基に算出した確率と仮の確率との平均に 重みを付けて返す. 例えば,【money】という単語が一度だけbad カテゴリでトレーニングされた場合,(重み:1,仮の確率:0.5) Good=0.0   Good=0.5 Bad=1.0   Bad=0.75 式 実装しましたとか言うと,なんかやったっぽい!  アニメーションで段階的に!!  【設定】  重み=1.0   仮確率=1.0 従来の算出法 重みづけを行ったもの

評価基準 被験者による評価実験 システムによる解析結果と,被験者による順位付け結果を比較する 3つが一致!! 3/6の割合で結果が一致したといえる 順位 1 2 3 4 システム A B C D 被験者 順位が大きいものから 矢印は、 小さいものへと向かう B B B A A A C D C D C D システム 被験者 両者の比較