ピープルアナリティクス概論 ピープルアナリティクスのポイント ~Voice!for HRM Vol.9 ~

«
»

ピープルアナリティクス のポイント

今回は、実際に、現場の人事や担当者が、ピープルアナリティクスを実施・導入するにあたってのポイントや注意すべき点について解説いたします。

わずかな予測精度の誤差が売上や投資意思決定に影響するマーケティングデータや経済データの分析と違って、人事データの分析は、精度そのものよりも意味・解釈性に重きを置き、正確性・最新性・公平性を確保する必要があることから、説明性の高い手法が選ばれやすいといえます。また、Excelなどの表計算ソフトを使って集計や可視化を行うだけでも十分な場合もあり、ノートPCでも対応が可能です。

一方、従業員の行動や振る舞いに関するデータや、センサーのログデータ、音声・画像・動画といった構造化されていないデータの活用には、専門的な知識や分析技術が求められます。

分析対象となる人事データについても、サンプル数が少ない、欠損や外れ値が多い、分析対象の分布が偏った不均衡データとなっているなど、そのままだと分析が難しい場合もあります。人事データ特有の欠損や時系列性に注意し、適切に前処理・データクレンジングを行うことで、データを分析できる形に整える必要があるといえます。

さらに、もともとのデータのバイアス、データ収集時のバイアス、分析する際の技術的なバイアス、運用時の人による認知バイアスなど、あらゆるプロセスでバイアスと呼ばれる偏りが発生し、結果を歪める可能性があることにも注意する必要があります。

バイアスの排除については、近年様々な角度から研究がなされています。もともと、属性や所属に紐づくステレオタイプとしてのバイアス、自分自身に都合の良い情報だけを解釈する確証バイアス、一部の特徴を過大評価するハロー効果、評価が中央に集まりやすくなる中心化傾向、自分に近い人を評価する類似性バイアス、自己を過大に評価してしまうダニング・クルーガー効果などの人によるバイアスを排除し、データを活用することで、エビデンスベースの判断をしていこうという流れがありました。しかし、アメリカのアマゾンがAI採用において、性別によって不利になる予測モデルを作ったり、人事以外でもアメリカの医療処置システムにおいて白人と黒人間で不公平な判断を下したりと、データ活用やAI・機械学習もバイアスの影響を受けることがわかりました。適切にデータ活用を行うためにも、不公平の原因となる、データバイアス、選択バイアス、アルゴリズムに関連する帰納バイアスが存在することを念頭において分析を進め、作成した予測モデルをきちんと検証することも重要なのです。

物事を説明するときに、複雑さを排除した単純な理論の方が良いという「オッカムの剃刀(かみそり)」という方法論がありますが、その考え方はデータ分析においても有効です。多様な人事データを組み合わせて、複雑な仮定や条件のもとで難易度の高い分析を行うと、解釈が難しい結果が導かれる場合があります。先のバイアスを見落として、従業員に不利になる結果を導くリスクもあり、分析に潜む落とし穴にはまらないためにも、何を知りたいかを明らかにした上で、仮説を設定し、シンプルな分析から始めることが推奨されます。どんなデータで、何の傾向を把握・予測し、結果を何に活用するかを意識しながら分析を進めることが重要なのです。場合によっては、社内の統計リテラシーの高い社員をプロジェクトに巻き込んだり、外部の専門家を活用したりすることも有効でしょう。

データドリブンな人事、データドリブンな経営

新型コロナウイルス感染症の影響によって、ビジネス環境が激変し、多くの企業が変革を余儀なくされています。人事領域でも、テレワーク主体の働き方の変化や、DX(デジタルトランスフォーメーション)の加速 によって、従業員の生産性やモチベーションの低下、ストレスの増加といった歪みも生まれています。
人事においては、従業員のエンゲージメントを高め、人財価値を向上させ、企業業績に貢献することが、よりいっそう求められているといえるでしょう。また、このようなVUCAと呼ばれる不透明な時代だからこそ、経営においても、資産としての、ヒト、モノ、カネ、情報を、データからのファクトとしてきちんと捉え、迅速に意思決定を行うことが求められているといえます。人事、各部門を跨いで、経営レベルでデータ活用を推進していくことが、企業が競争優位性を保ち続けるためにも重要になってくるといえるでしょう。

スターツリー株式会社
代表取締役 山田隆史