グリーンブラッドの魔法の公式
前回の記事では、EBIT/EVとEBIT/CAPという割安性と資本収益率の2点に優れた企業の株がアウトパフォームするというグリーンブラッドの魔法の公式の最近のリターンについて紹介しました。グリーンブラッドが紹介した指標だけでなく、さまざまな指標の組み合わせを検討してみましたが、少なくとも検討した限りではこの10年間は書籍にかかれているほどの旨味は見られませんでした。
本記事では解析した内容について紹介すると共に、解析の限界、未検討の事項についても紹介します。
データ
データはWedサイト(MacrotrendsやYahoo Finance)などから、15年分の決算と、株価変動のデータを取得しています。その中から様々な指標を取り出してテーブルを作成しました。
抽出した指標は、株価(決算の翌日の株価終値)、決算翌日から1年間(3年間)のリターン(配当調整済み)、Gross Margin、Operating Margin、EBIT Margin、EBIT/EV、EBIT/Cap、ROE、ROA、ROI、PER、PSR、PBRと、参考にRevenue、Shares Outstanding、AssetTurnover、FCF、CurrentRatio、MarketCap、Liabilities、CurrentAssetsなどです。
対象株式のグルーピングと標準化手法
抽出した指標の中から資本収益率としてGross Margin, Operating Margin, EBIT, ROE, ROA, EBIT/CAPの1つを選択、割安性の指標としてPER, PSR, PBR, EBIT/EVの1つを選択して、スクリーニングに使用します。
ただし、今回時系列データを採用しており、2010年のPERと2018年のPERでは同じ15でも意味する割安性が変わってしまう、などの問題があるため、各四半期ごとに集計して相対的に割安性・資本収益性を評価することにしました。
なので集計したデータをいくつかの方法で順位付けしてます。四半期ごとに集計したデータを「平均、標準偏差を揃える」、「max、minを揃える」、「ランキングを付けて並べる」などの方法でプロットしてみましたが、セレクトがあまりにも偏ります。一番左の標準化データをプロットしても標準化がうまく行ってなさそうな感じが伝わってきますね。PSRやPERはセールスやEPSが低い企業は異常に高くなるのが原因でしょうか。プロットの色はリターンを示してます。最終的に3番目のランキング形式でのセレクトを最終的に行っています。この際に外れ値は除いています。PERであれば数値が異常に高い企業や、負の値の企業は除いています。
平均・標準偏差を揃えた場合 |
最大値、最小値を均一に圧縮 |
単純に順位付けをしただけ |
リターンの比較
一旦ランキングを並べた上で、割安性、資本収益性が共に上位20%以上であるような株式のみを買った場合に、全ての株式で得られたリターンの平均をどれほど上回るかを調べました。リターンを箱ひげ図に比較したものは前の記事を参考にしてください。リターンも絶対値ではなく、四半期ごとに集計したランキング(0-100で数値が高いほどリターン高い)にしています。
別に統計学的検定を行ったわけではないのであくまで印象のみの話になりますが、解析期間においては割安、資本収益率でスクリーニングした株式が一貫して全体平均を上回るというわけではありませんでした。
もちろん、グリーンブラッドもPERやROAなどの指標はスクリーニングに使用しなかったように、一貫性が見られないことは予め予想がついたことです。しかし、魔法の公式に従ったスクリーニングでもリターンのオーバーパフォームは見られませんでした。もちろん1. 実際にオーバーパフォームなし、2. 実際にはオーバーパフォームしていたが解析が間違っていた(指標の計算が間違っている、標準化に問題あり)、3. たまたまこの時期だけオーバーパフォームしていないだけ、などが考えられます。なのでこの結果だけで指標のスクリーニングに意味がないと決めつけるのは早合点でしょう。
全体を通して見てみると、あくまで印象ですが、粗利率(Gross Margin)が高かったり、PSRが低かったりする企業はなんとなくリターンが良かったように思います。これは、粗利は大きかったものの研究開発などにお金をかけた企業が成長した、とか、セールスの伸びが先行したが株価に反映されていなかった企業が利益の伸びなどで株価が大きく伸びた、などのストーリーが考えられます。
ヒストリカルな解析を参考にするときには投資時点での相場環境がその過去と比較できるのかどうかも考える必要があると思います。
第3の要素の解析
それぞれの割安性・資本収益率の指標ごとに、他の要素が強く関与していないかも検討しています。たとえば、Gross MarginとPSRで選んだ株式について、リターンが高かった群(上位40%)、リターンが低かった群(下位40%)に分けてみて、その他の指標の値に大きな差が出ていなかったか、などを見ています。
が、組み合わせにより差がある指標が異なっていたり、そもそも比較群のサンプルが10個くらいだったりなどと解釈困難なデータが無数に生成されただけなので今回は紹介は割愛させていただきます。
外れ値の扱いや、欠損値の補正などの問題で結果が容易に変わってしまう、という事情もあります。
制約と今後深めていければいい点
2019年時点のS&P500の銘柄のみを検討している
雑なグラフですが0から数えて57番目まで、解析した企業の数が載っています。直近の2019年のQ1では約500社を解析しました。右に行くに連れて徐々に減っているのは、過去のS&P500銘柄を解析していないためです。純粋にS&P500銘柄のみで検討したわけではない解析になっています。
本来なら時期ごとのS&P500の企業を解析すべきですね。
各々の時点で算出した各指標が正しい保障がない
これは自分の能力の問題ですが、指標から得たファイナンス指標が正しい保障がありません。算出の多くにはtrailing 12-months (TTM)の指標を求めたり、複数のファイナンスデータから合成して作っていますが、ずれている可能性があります。優先株とかが含まれる計算が特に怪しいです。
時代的にテック株が市場のリターンを牽引した時期だったため過小評価している可能性がある
ルックバック期間は2005年以降のデータです。リーマン・ショック後の市況はテック株が牽引した時期でした。成長株ブームが続いていたということもあり、高収益割安企業はたまたまリターンが少なかっただけかもしれません。
そもそもS&P500企業の全体の中から選んだ
もっとセレクションを複雑にする方法もあると思います。例えば、株主還元を行っている企業を配当の有無でセレクトしてみたり、万年不人気株を除外するためにモメンタムの情報を使ってみたり、セクターごとに解析をグルーピングしてみたり、それらを複数組み合わせてみたり。利用できそうな指標はあまりにも多いので興味ある方はぜひ挑戦してみてください。
複雑なモデルの適応は?
ごちゃごちゃと多くの変数がでてきたので、Random ForestとかSVMなどの機械学習手法によりリターンを高めるモデルを作ってみる、と言うことも可能ではあります。ただ、理論的な裏付けがないモデルが普遍的に通用するとは思えないため、あえて今回はそうした複雑なモデルの適応は見送っています。
ところで
レイ・ダリオのPRINCIPLESの日本語版を読んでいますが、帝王と呼ばれるレイ・ダリオがヘッジファンドを運営する中で、マクロ経済を踏まえた解析を非常に精緻に行い、コンピュータ・サイエンスを非常に早い時期から取り入れた、というエピソードが出てきます。
ヘッジファンドのメンバーのように優秀な人達(ハーバード・ビジネス・スクールを出てるような人も多い。)がフルタイムでしのぎを削り合いやっと利益の機会を見つけられるような世界で、まだまだこのような浅い解析ではそう簡単に美味しいところは見つけられないと思います。
また、単純な情報を基準にセレクトした株式の旨味は市場の合理性におそらく打ち消されてしまうくらいに現代の米国市場は合理的なのだろうと思います。もっと時間・時代的な要素を加味して行く必要もあるように思います。
またふと思いついたら解析をしてみようかと思います。
コメント