労務ハック

労務管理 × 社労士試験対策

AI人事評価 ブラックボックス問題

経団連報告書(2026年4月)を踏まえた実務解説
AIが採用スクリーニングや人事評価を行う時代、「なぜその判断になったのか」を説明できるかが問われています。 経団連の2026年4月報告書は「最終的な意思決定は人間が行うべき」と明示し、AI活用に伴う説明責任・透明性・公平性の確保を企業に求めています。

ブラックボックス化とは何か

問題の構造

機械学習・深層学習(Deep Learning)を使ったAIは、大量のデータからパターンを学習して判断を下す。 しかしそのロジックは人間が直接読み解けない形(「ブラックボックス」)になることが多い。

採用・評価・配置に適用した場合、「なぜ不採用なのか」「なぜ低評価なのか」を当事者・企業・第三者が説明できない状態が生じる。

人事領域における主な懸念

懸念事項 具体例
評価バイアスの継承 過去データに性別・年齢・学歴バイアスが含まれると、AIがそれを学習・再現する
不服申立ての困難 評価根拠を示せないと、労働者が異議を申し立てる機会が実質的に奪われる
均等法・障害者雇用との抵触 AIが性別・障害を間接的に不利益要因としていると、差別的取扱いに該当しうる
使用者責任の所在 AIの判断に起因するトラブルでも、雇用関係上の責任は使用者が負う

国内外の規制動向

EU AI規制法(2024年8月発効)

EUは採用スクリーニング・昇進・解雇に使うAIを「高リスクAI」に分類。以下を義務化:

  • リスクアセスメントの実施と文書化
  • 人間による監視(Human Oversight)の確保
  • 透明性の開示(影響を受ける労働者への説明)
  • 差別的アウトカムが生じないための検証

日本の現状(2026年時点)

  • AI利用に関する包括的な規制法は未整備(ガイドライン・指針段階)
  • 経団連報告書は「説明責任の確保」「人間の最終判断」を業界自主基準として提示
  • 厚生労働省の職場情報提供ガイドラインでもAI活用の透明性を要請
  • 公正採用・均等法との関係で間接差別規定(均等法7条)が適用されうるe-Gov↗

経団連報告書の「3つの原則」

① 人間中心
最終的な意思決定は人間が行う。AIは判断支援ツールであり判断主体ではない。
② 透明性
AIの活用方法・判断根拠を従業員・応募者に説明できる状態を維持する。
③ 公平性
評価データのバイアスを定期的に検証し、差別的アウトカムを防ぐ仕組みを持つ。

社労士・HR担当者に求められる対応

就業規則・労使協定への対応

  • 人事評価にAIを用いる場合、就業規則(絶対的必要記載事項:賃金・評価)への明記を検討
  • 採点基準・評価ロジックの概要を説明するための情報開示ルールの整備
  • 異議申立て手続きを設けることで不服対応の窓口を明確化

均等法・その他の法令との整合確認

法令 AIとの関係で注意すべき点
男女雇用機会均等法
第7条(間接差別)e-Gov↗
合理的理由のない一律要件がAIに組み込まれていないか確認
障害者雇用促進法
第35条(差別禁止)e-Gov↗
採用AIが障害を不利益要因として学習していないか検証
個人情報保護法
(プロファイリング)e-Gov↗
AI評価に用いる個人データの取得・利用目的の適切な通知・同意

HR担当者・社労士が今すぐできるチェックポイント

  • 採用・評価にAIツールを使っている場合、ベンダーから「説明可能AI(XAI)」対応を確認
  • 評価結果を従業員に開示する際、AIの判断根拠の概要を添付できるか確認
  • AIに学習させているデータに性別・年齢・出身校等のバイアスが含まれていないか定期検証
  • 「AIが出した結果だから」と最終判断を委ねていないか管理職に教育
  • 不服申立て窓口と対応フローを就業規則または内規に明記