ChatGPTの出現により、AI人工知能が2022年のキーワードになりました。 人工知能はますます広く使用されるようになり、今では求職者の面接やスクリーニングにも使用される可能性があります。

6月初旬、ファーストフード店の店員に応募した米国ノースカロライナ州の求職者は、異なる面接経験をしました。

彼女の名前はオリビアですが、オリビアは求職者に間違った指示を与えるだけでなく、多くの不合理な質問をするため、会社の幹部や会社の従業員ではなく、チャットボット、より正確には物議を醸すチャットボットです。

ChatGPTの発売以来、AIは広く議論されているトピックであり、仕事では多くの人がAIを就職活動の良いヘルパーと呼び、今では「面接」でさえAIで処理できるようになりました。

鈍く非人道的なインタビューロボット

オリビアのような人事チャットボットは、ヘルスケア、小売、レストランなどの業界で、不適切な応募者を除外し、適切な応募者との面接をスケジュールするためにますます使用されています。

ほとんどの採用チャットボットは、ChatGPTのようなチャットボットほど高度でも複雑でもなく、主にレジ係、倉庫従業員、カスタマーサービスアシスタントなど、多数の応募者がいるポジションをスクリーニングするために使用されます。 したがって、彼らがインタビュー対象者に尋ねる質問は、「ツールの使用方法を知っていますか?」など、かなり単純です。 または「週末のスケジュールに対応できますか?」 など、簡単な質問です。

ただし、これらのボットにはまだ欠陥があり、最も一般的なのは、インタビュアーの回答が大規模な言語モデルによって事前設定された標準的な質問を満たしておらず、チャットボットが誤った判断を下すことです。

専門家は、これにより、障害のある人、面接の言語に慣れていない人、または年配の求職者の入学がより困難になる可能性があると述べています。

米国雇用機会均等委員会(EEOC)の弁護士であるアーロン・コノパスキー氏は、オリビアのようなチャットボットは人道的な感覚やより柔軟な思考モデルを持つことができず、データベースのいわゆる標準的な回答を満たさない回答を見ると、直接不入場の判断を下し、雇用市場ですでに不利な立場にある面接官がより不利な立場に陥ることを懸念しています。

(同じスクリーニング:メタアルゴリズムバイアス非難! アルゴリズムにある差別にどのように対処しますか? )


ペクセルの サンケットミシュラ による 写真

チャットボット導入後、人事レイオフは次のステップですか?

雇用・労働法の教授であるポーリン・キム氏は、「チャットボットが応答にかかる時間や、正しい文法や複雑な文章を使用しているかどうかに焦点を当てている場合は、偏見について心配し始めてください」と述べています。 ワシントン大学の調査によると、企業がインタビュー対象者を拒否する理由について透明性がない場合、面接プロセスのバイアスを検出するのは難しい場合があります。

AIアプリケーションとの面接で潜在的な差別を認識したニューヨーク市は、7月初旬に、チャットボット面接などの自動化ツールを使用して、雇用主が性別や人種的偏見のツールを確認することを義務付ける新しい法律を制定しました。 実際、2020年にイリノイ州は、AIを適用して面接のパフォーマンスを分析し、面接対象者に通知して同意を得ることを義務付ける法律を可決しました。


ペクセルの アルテムポドレス による 写真

それでも、採用コストの削減を検討している企業にとって、面接プロセスへのAIの導入と人事部門の予算削減は間近に迫っています。

民主主義と技術センターの労働者の権利と技術に関する政策顧問であるマシュー・シェーラー氏は、人材は常に会社のコストセンターであり、収益を生み出す部門ではないため、チャットボットに置き換えることが最も速いと思われると述べました。

人工知能採用マシンを立ち上げたスタートアップのRecruitBotチームは、反対の見方をしました。

彼らは、面接プロセスでのAIの使用と人事部門の関与は必ずしも相互に排他的ではないと主張しています。

それどころか、人工知能は、複数の求職者のデータをスクリーニングする機械学習を通じて、企業が既存の従業員と同様の求職者をより迅速に見つけるのに役立つ、人事部門の優れたヘルパーのようなものです。

(あなたが望むものを推測してください:OpenAIには暗黙の差別と偏見がありますか? ダイバーシティとインクルージョンがAI時代の鍵となる|AI for DEI)

人工知能も偏っていますが、どうすればよいですか?

しかし、人工知能のバイアスは依然として解決すべき問題であり、人工知能の隠れたバイアスに直面して多くの議論があり、2つのアクションが実行されています。

人間と機械の協力が正のフィードバックループを生み出す

この段階では、採用を担当するためにAIに完全に依存することはできず、AIに偏っている場合、人間が介入してフィードバックを提供し、モデルをトレーニングするためのデータを提供し、このフィードバックの結果を通じて正のフィードバックループを確立する必要があります。

継続的なフィードバックを通じて、AIは多様性、平等、包括性の価値により一致するデータを学習し、より適切な意思決定を行うことができます。

要するに、昇進と入学を含む主要な決定には人間の介入が必要であり、AIテクノロジーに完全に任せることはできません。


ペクセルエドモンドダンテス による  写真

仕様書の作成

高度な技術が発達する前に、人的資源を人工知能に急いで置き換えることは、差別や偏見の発生を悪化させるだけであり、技術の使用と規制当局の審査が続くように、関連する規範を確立することが急務です。

AIバイアスとDEIのマルチインクルーシブ対話はどのように行われますか?

この段階では、人工知能の隠れたバイアスの状態から抜け出すことができないことに気付いた後、ダイバーシティ、平等、包括性(DEI)を追求したい組織が人工知能とDEIのバランスを取り、両者が対話の場を維持できるようにする方法についてさらに考えることができますか?

同じことを2つの項目にまとめることができます。

AI を使用して、多様性に富み、バイアスをプロアクティブに特定する組織を構築する

調査研究機関のPwCは2022年にAI人工知能に関する調査を行い、最大62%の企業が従業員のパフォーマンスを採用および管理するためにDEIの価値を宣伝していることがわかりましたが、AIを使用してDEIを実際に推進する人はほとんどいません。

よりインクルーシブなチームを構築するには、リーダーは、求人掲示板の書籍「Beyond D&I: Leading Diversity with Purpose and Inclusiveness」など、AIを通じてDEI戦略を従業員の日常体験にうまく統合する必要がありますケイ・フォーマネックの著者であるケイ・フォーマネックは、野心的なリーダーを探している求人情報の例を提供しています、それは男性的な仕事の枠組みに陥る兆候です。 女性はその仕事に適しているとしても、履歴書を提出しない傾向があります。


ペクセルの コットンブロスタジオ による 写真

Kay Formanekによると、女性は、チームと一緒にビジネスをリードできるリーダーを探している、チームを立ち上げることができる人を探している、女性の求職者を引き付ける可能性が高い他の物語など、より女性的な言葉を求めています。

人工知能技術の介入に依存して、企業が求人から偏った言葉を排除し、求人の提示を回避し、過小評価された求職者を排除し、より多様な求職者を引き付けて、企業の人材プールを拡大する目的を達成するのに役立ちます。

従業員の帰属意識を高める

さらに、人工知能は従業員の定着率を高める上で大きな役割を果たすこともできます。

従業員をビジネスから遠ざける要因は、従業員が疎外され、孤立し、従事していないと感じていることと大きく関係していることを考えると、企業はAIテクノロジーを使用して、離職のリスクが高い部門や役割、仕事のステータスに不満を持っている従業員、さらにはリモートで働いているために疎外感を感じる従業員を特定できます。

これは、勤務地、カレンダー、パフォーマンス、給与、ワークロードなどのデータを分析して、従業員のワークロードと組織へのコミットメントを調べることによって行われます。 従来のアンケートによる従業員の仕事満足度調査と比較して、人工知能はよりリアルタイムかつ詳細な分析を実現できるため、企業は従業員の仕事や環境に対する満足度をより深く理解し、職場への帰属意識を高めることができます。


ペクセルジョップウェル による  写真

AIのユーザーとして、AIバイアスは社会的バイアスを永続させる可能性がある一方で、その能力は多様性、平等、包括性を高めるツールにもなる可能性があることを認識する必要があります。

技術は中立であり、その価値判断の良し悪しは、ユーザーがそれをどのように使用するかに完全に依存し、責任、偏見の意識的な承認、技術の厳格なレビュー、人工知能の賢明な使用があり、いつの日かようやくAIとのバランスを見つけ、AI時代の便利さを享受するでしょう。