「自分が研究に向いてるかよくわかんない」って先生に言ったら「研究が辛いのか博士課程が辛いのかよく分けて考えた方が良い」と言われた。
多分一番辛いのは人生だと思う。
論文を出したり、原稿をこしらえたり、共著の原稿を見たりしていたら、いつの間にか7月も終わりになっていた。
原稿を書いていると(というか、おそらく自分が苦手な作業をしていると)、「なんで俺こんなことしてるんだろ…」ってなることが多々ある。
自分だけで作業をしているならまだ自分自身がちょっと辛い思いをするだけなので別にいいんだけど、できたものが共著者のところに行くと思うと結構気が重い。
同期はもうちょっと割り切った感じのやり方をした方がいいと言っていたけど、どのくらいが適当な割り切り具合なのかはまだよくわからない。
原稿を出したあとは体調が優れなかったので眠れるようにして何日か寝た。
これから論文の修正をする。
最近、ちょっと(手元のノートにも、はてダにも)記録をつけなかったら、全くもって今週何をやっていたのか思い出せなくなってしまった。
ちょっと頭ヤバいかもしれない。
一応、ここは日記なので、できる限り日記をつけることを心がけようと思う。
前々から、よりひめに固有表現認識まで行かなくても、Statusに埋め込まれている名前やIDなどのエンティティを認識させてやりたいと思っていたので、それを実現するコードを書いた。
よりひめ(@Yorihime)、ツイートのユーザに関するエンティティを理解して、ちゃんと名前を呼んでくれるようになった(時々失敗する)。
— みまティー (@mima_tea) 2015, 6月 16
2015/6/19 エンティティ認知のアップデートをしたので、ついでにまとめも更新しました。「人工無能(@Yorihime)と人々と」 http://t.co/jpZkKujVj9
— みまティー (@mima_tea) 2015, 6月 19
よりひめを割と真面目に動かし始めて、かつトゥギャッターなんかにページを作ってから、ちょくちょくよりひめのフォロワーが増えたり、自分のフォロワーが増えたりして、どうやら人工知能(この表記が正しいのかは考えない)に興味があるような人がいるように見えるんだけど、そういう人を見ていて時々思うことがいくつかある。一応言っておくが、特に文句を言っているつもりはない。
まず、なんとなく用例ベース対話システム(つまり弱いAI)だと種明かしをしてあると、考えたり学習したりしないもののように見えるらしい。
これは理由は簡単で、中身の想像がつくからだと思う。
大体原理が分かると人工知能じゃなくて、人工無能とか言い出すので、アレは人工知能で、これは人工無能って言うのは、己の無能をアピールしていることになるのではないだろうか
— HANGYO, Masatsugu (@mhangyo) 2015, 6月 23
あと、良く見るのは「機械が人間の言動を”理解”していない」という話だと思う。
考えてないとも近いことだと思うけど、個人的にはこれには疑問があって、そもそも人間はどのくらい人の言ってることを理解しているのかと思う。一度、マニュアルが完璧な中国語の部屋を想像してから理解とは何か考えてみると良いと思う(ただし、これに関しては中国語の部屋がもつ強いAIへのや機能主義への反論を是としているわけではない)。
まー、書くだけ書いたけどそんなことはどうでもよくて、ああいう対話システムの本懐は暇になったり喋りたいときに相手になってくれればそれはそれでいいんだけど。と言っても聞き役対話に拡張するつもりはないが。
いろいろ書いたけど、今週の進捗は
今日の進捗です pic.twitter.com/cSBnhATWLP
— みまティー (@mima_tea) 2015, 6月 25
前に言っていた通り、過去n発話文の対話履歴を考慮するようにアルゴリズムを改良して、よりひめをリリースした。
と言っても特に変わりはない感じで、やっぱり頭悪い応答ばっかりしている気がする。
固有表現抽出をした方がいいとか、推論に基づく用例マッチングをした方がいいとかいろいろ意見をもらっていたりするので、今やっている作業が落ち着いたらまたバージョンアップしようと思う。
もしかしたら、[O] UniDic に固有表現やUnicode 絵文字などを足す mecab-unidic-NEologd を公開しましたとかを導入するとよいかもしれない。
Twitterから用例を学習しているので、かなり絵文字やアニメタイトル・キャラクター名なんかが入っている。
用例ベースの対話システムを作っているといつも思うんだけど、人工知能とかがバズワードになってもてはやされる一方で、大多数の人工知能を名乗るものやそれに乗っかっているものって知能なるものを身に着けていなくて、まだまだ全然できていないと思いつつ、伸び代も感じる。
用例ベースの対話システムなんてその最たるもので、某白と黒のかわいい奴とか、Siriとかしゃべコンとか賢いと思うけど、人の強さを思い知る。
考えるって行為は、ある意味客観的な処理でないと思っていて、それを成り立たせている要素に身体性というやつがある(と思っている)。
botにも身体性って必要だと思うんだよね
— HANGYO, Masatsugu (@mhangyo) 2015, 5月 27
身体性:身体(実体)があることにより環境から学習されるもの、学習すること。身体があることによる制約。みたいなイメージ。
— HANGYO, Masatsugu (@mhangyo) 2015, 5月 27
個性って大抵身体性の気はしている
— みまティー (@mima_tea) 2015, 5月 27
単純に体を作ってセンサーを乗っけただけだと身体性は生まれない気がするんですよね。
— みまティー (@mima_tea) 2015, 5月 27
あくまで環境から学習される何かであって、環境そのものではない、というのは重要な感じがする。なんか主観性と類似のものに見えてきた。
— みまティー (@mima_tea) 2015, 5月 27
これを対話システムに組み込むことは結構難しくて、身体性というのはタスクや目的によらず設定される環境なので、実際に設定されてみないと(しかも、設定はランダムでなく成り立った環境依存)分からないし、突飛な設定をするとその身体性はユーザに理解されないという問題もある。
こういう単純に目的を解決する以外の問題を取り扱うようになったら、きっと対話システムは一歩本来の意味の人工知能に近づくんだろうなぁ、と思っていたりする。
そういう意味では、Takuya Hiraokaの説得対話は対話システムの信念空間が身体性に近い役割を持っているのかもしれない。
人間ですら意識的に理解していない領域を実装しようと思うのは、おもしろい一方でまったくもって理解されなかったり難しすぎて手におえなかったりするよなぁと思ったりもする。
今週の土日はかなり休んだ。ビールもたくさん飲んだ。
とりあえず溜まっていた洗濯物と洗い物を済ませて、残った時間を趣味のプログラム書きに費やす。
土日は出来る限り息抜きをするといった手前、プログラムを書くのはどうかと思うが、まぁ思ったとおりに動いて気分が良ければそれでいい。
過去1発話もマッチング時に考慮するようにした。多分過去n発話考慮する拡張もできるから今度やる。
— みまティー (@mima_tea) 2015, 5月 23
あとは研究室に行ってボトルアクアの世話をする。
これを作ってから割りと研究室に行くのがスムーズになった・・・気もしなくもない。
ラボトルリウム、無濾過無加温無エアレだけどまー根付いたっぽい pic.twitter.com/kYbTxWjrOY
— みまティー (@mima_tea) 2015, 5月 24