ロボアドバイザーや人工知能がこれだけ注目されるようになると、金融のプロを凌駕(りょうが)するような投資ができると考える人が少なからず出てくる。なかには「市場の流れを的確に分析して自動的に儲けてくれるAIが登場しないかな」と淡い期待を寄せる人もいるだろう。しかし、そのようなことはありえない。
なぜなら金融市場はいくらコンピューターがデータ収集と分析を行ったところで正確な予測など不可能だからである。
モデル化できなければ予測できない
正確な予測ができない背景について、少し物理の歴史の話をしたい。
ティコ・プラーエ(1546-1601)というデンマーク人天文学者がいた。1609年にガリレオ式望遠鏡が発明される以前に、なんと20数年以上もの間、毎日、肉眼で天体観測の記録を取り続けた人物である。当時の隣人たちからすれば、ただの変人だろう。
肉眼で観測したデータなど不正確で役に立たないと思われるかもしれないが、そのデータは物理の世界を大きく動かす宝の山であった。
それに目をつけたのがプラーエの助手であったドイツ人天文学者・数学者のヨハネス・ケプラー(1571-1630)だ。ケプラーはそのデータを徹底的に分析(いまで言うデータマイニング)して「ケプラーの法則」を導き出した。「星の動き方は円ではなく楕円であり」(第一法則)、「惑星と太陽を結ぶ線分が描く面積は同じ時間幅の中では一定である」(第二法則)ことを証明したのである。
その直後に登場したのがイギリスのアイザック・ニュートン(1642-1727)だ。
ニュートンが万有引力を見つけたのはりんごが落ちる瞬間を目の当たりにしたからではない。プラーエのデータとケプラーの法則に基づき、これをモデル化したのである。
実はケプラーは、データマイニングをする一方で数多くの式を残していて、その考えはかなり整理されていた。よってニュートンと同世代の学者は万有引力に近い考え方はすでに持っていたのである。
ニュートンが素晴らしいのはその考えの裏にある本質を見抜いてモデル化したことだ。
ケプラーは「動きはこうだ」という分析はしたが、「なぜそう動いているのか?」という問いに答えるモデルまでは提示していなかった。一方のニュートンは、自ら考案した微分積分という新しい数学的手法を用いながらケプラーの式を改良し、「それは引力があるからだ」と結論付け、「引力を用い、万物の動きを計算できる方程式」を編み出した。これにより、万物の動きについての原理原則が明確となり、ものの動きの予測ができるようになった。
観測とデータマイニングだけではなく、モデル化までできて初めて将来の予測が可能になるのである。
テクニカル分析は感覚的な「データマイニング」
金融の世界はどうだろうか。各金融機関は世界中から優秀な金融工学の専門家を集め、過去の値動きを見ながら、俗にいうテクニカル分析をしきりに行う。「こういうパターンできているからこうなりそうだ」と。
しかし、彼らが行っていることはデータマイニングでしかない。しかも、そこから導き出される未来予想は多分に分析者の恣意が入った感覚的なものである。過去の値動きの裏にあるモデル、すなわち方程式を見つけない限り、数学的な意味での予測が不可能なことは、述べたとおりである。
では仮に金融の世界で万有引力なみの方程式が発見されたとしたらどうか。それでもやはり金融市場の予測は難しい。なぜならモデルが正しくても金融市場には新しい情報が入ってくるからだ。これを「外力」と言う。
再び物理法則で例えるならば、規則正しく動く振り子の動きは予測できる。しかし、そこに飼い猫が現れて振り子を横からパンチしたら、その動きは全く異なるものとなってしまう、というようなものだ。
コンピューターには予測できなかったBrexit
今年の6月、イギリスの国民投票でEU離脱が過半数を上回った。多くの人が予測していなかった事態に市場は荒れに荒れた。離脱に投票したイギリス国民ですら「そうは言っても常識的な人たちが残留に投票するだろう」と思っていた節がある。こうした人間の感情や集団心理によるアクシデントは市場にとっては典型的な外力であり、予測できない。
もちろんEU離脱に賭けたディーラーもいる。しかし、それは厳密に未来を予測したわけではなく、期待値を計算した結果である。つまり、「残留」と「離脱」の実現確率と、それぞれが実現した場合の値動きの大きさからはじき出した期待リターンは「離脱」の方がはるかに大きいと合理的に判断したのである(事実として、私はこのような合理的な判断をした人々を知っている)。
しかし、人工知能はこうした判断を下すことが苦手である。なぜならBrexitのようなプログラムが想定していない外力がかかる状況を扱えないからだ。
人工知能のシステムを作るとき、最初に行うことはプラーエが行ったように大量のデータを記憶させることである。しかし、なかには雲で星空が見えないこともある。その場合、人工知能はそれらをイレギュラーなデータとして除外する。ただ、雲があってもうっすらと星が見えることもある。その場合、どの程度までを正規のデータとして、どの程度からをイレギュラーとして除外すればいいのかの線引きは、人間の判断が入らざるを得ないきわめて難しい問題なのだ。
正しい法則を抽出するためには、そのモデル方程式上での外力となるイレギュラーなデータを除外しなければならないが、イレギュラーの範囲を少し変えるだけで分析結果は大きく違ってくるのである。これは実際にビッグデータを分析したことのある方であれば経験的にお分かりのことと思う。