AIがインタビュアーになり、キャンパスネットワークの活動をチェックする責任がある場合、それはどのような潜在的な危機をもたらす可能性がありますか? 人材管理における人工知能の応用と、それがダイバーシティとインクルージョンにどのように影響するかについて話します。

人事もAIに取って代わられる可能性があることをご存知ですか?

予定された面接時間になると、深呼吸をして印象的な自己紹介の準備をします。 意外なことに、目の前の画面に現れたのは仮想チャットボットと点滅するテキストでした。

(あなたが望むものを推測してください:ChatGPT-4が来ています! あなたのライティングスタイルを学び、ハイスコアでアメリカ司法試験に合格することができます| DEIのためのAI

ダイアログボックスが表示されます:「飲食関連の実務経験はありますか?」 「はい、3〜5年」ボタンをタップして躊躇し、ある時点で実際の面接官が会議室に足を踏み入れることを期待します。

「ありがとう、今日の面接は終わりました、入学結果を待ってください」と書かれた最後の画面まで、あなたは指で面接を終えたばかりだとは信じられず、ショックで面接スペースから出て行きました。

AI採用:大企業による人材獲得の新潮流

eコマース大手のアマゾンと世界最大のレストランチェーンであるマクドナルドがAIを使用して草の根の従業員を採用することを発表しているため、業界は人材採用がAIの新時代の到来を告げることを発表することに野心的であるようです。

2014年以来、Amazonは才能のスクリーニングに効果的であると宣伝する一連のアルゴリズムを積極的に開発してきました。 この問題に精通している人々によると、コンピュータープログラムは求職者の履歴書を自動的に採点します:「もちろん、私たちがやりたいのは、100の履歴書をフィードし、スコアが最も高い5人の候補者を吐き出すことです。これらは私たちが認めることに決めた人々です。」 [1]


クリスティーナ@wocintechchat.com による写真 on スプラッシュ解除

2018年、AmazonがAI採用ツールをすべて停止するという決定は、ロイターなどのメディア報道を引き起こしました。 この背後にある理由は、研究者がソフトウェアに深刻なジェンダーバイアスがあることを発見したためです。

アップル、フェイスブック、グーグル、マイクロソフトでは、技術職の80%近くを男性が占めています[2]。

したがって、Amazonが人事データを使用してモデルをトレーニングすると、当然、機械学習の結果につながり、女性的な特徴(たとえば、「女性」サッカーキャプテン)の経験を積極的に評価し、より男性的な動詞(「実行」や「キャプチャ」など)に重みを付けます。

(続きを読む:チャットボットにインタビューしていますか? AIバイアスは面接にどのように影響しますか? |AI for DEI)

AIは仕事不足に対する新しい解決策ですか、それともより多くの問題を引き起こしていますか?

しかし、多国籍企業はAIの活用を諦めず、人的資源管理コストを節約し、効率化に努めています。

マクドナルドは、アプライスルーと呼ばれる採用プログラムをリリースし、求職者がAmazon AlexaまたはGoogle音声アシスタントを介してエントリーレベルのポジションに応募できるようにすると主張しています。 流行の影響下で、世界的な労働力不足が広がり、さまざまなファーストフード事業者がそれに続くようになりました。

(同じスクリーニング:AI使用はリストを読む必要があります! レポートを自動的に生成して履歴書を書く方法を教える10冊の人工知能の本! )

2023年、アメリカのビジネストレンド新聞Insiderは、「マクドナルドと他の4つのファーストフードレストランのポジションに応募しましたが、チャットボットと自動化された申請手順により、まったく認められませんでした」というタイトルの記事を公開しました。

著者のアマンダは、5つのレストランチェーンに履歴書を届け、採用ロボットに遭遇した方法について説明します。 しかし、これらの仮想人事の一部は、彼女を国民の祝日の面接にスケジュールし、彼女を空にしました、そしていくつかは最後の最後まで給与の詳細を明らかにしませんでした。 彼女が情報を記入した後、フォローアップしなかった人もいました。


アンスプラッシュオースティンディステルによる写真

これらのソフトウェアは、電子機器に精通していない人は言うまでもなく、読み書きができ、電子機器や情報を使用するスキルを持っているアマンダのような無数の求職者を誤って締め出しました。

チャットプログラムの適用は、科学技術能力のない貧困層、高齢者、一部の身体的および精神的障害者を直接拒否することに相当し、情報格差を深めます。 ロボットはまた、障害のある求職者や実在の人物のような特別なニーズを持つ求職者に合わせた代替手段を提供することはできません。

AI学生追跡ソフトウェアのリスク:性別と人種的偏見を伴う個人情報の開示

リスクの高い生徒を個別に指導し、インターネット上での生徒の大量の情報活動を管理するには、学校の人的資源がもはや十分ではなくなった場合、従来の学校の警備員をAIに置き換えて、電子機器を積極的に追跡し、生徒の背景を分析するのは良い方法でしょうか?

(続きを読む:多様性と包括性はあなたの言論の自由を制限しますか? 米国の10以上の州がDEIの締め付けを計画しており、公立キャンパスの多様性と包括性は徐々に沈黙しています。 )

ワシントンの民主主義と技術センター(CDT)の調査によると、学校の教師の88%が学校のデバイスに「オンライン活動監視ソフトウェア」をインストールしたと報告し、なんと40%が学校も生徒の個人用デバイスでも活動監視技術を使用していると述べました。

多くの検出および報酬メカニズムも社会保障制度にリンクされています。 教師の3分の1は、デバイスのデジタル監視のために生徒が「困っている」と答え、学校の警備員や法執行機関の部外者からさえ心配していました。


レットジョーダン による写真 on アンスプラッシュ

センターの評価レポートはさらに、一部の学校で使用されているアルゴリズムが、生徒が送受信したメッセージ、閲覧したドキュメント、アクセスしたWebサイトをスキャンして、「ゲイ」(ゲイ、レズビアン)に関連する単語を探し、学校の教師にこの情報に自動的にフラグを立てることを発見しました。

報告書は、そのような行動は同意なしに強制的にカミングアウトすることに相当し、LGBTQ +の人々に心理的トラウマを引き起こすと主張しています。

(何を推測しますか:国際トランスジェンダープレゼンスデー:キャンパスで差別が起こったとき、私たちはまだゲイ教育を教科書から追い出しますか? )

包括的な調査によると、キャンパスでの人工知能がLGBTQ +と障害のある学生に与える影響が最も否定的であることがわかっていますが、皮肉なことに、ネットワーク異常活動警告システムはもともと学生、特に脆弱なグループの安全を確保するために構築されました。

さらに、ほぼすべての教師(99%)が、学校が「コンテンツフィルタリングソフトウェア」を使用して生徒のオンラインコンテンツへのアクセスを制限していると述べています。

しかし、これらのコンテンツ上映により、障がい者やLGBTQ+の生徒が生活に必要な指導を受けることが難しくなり、民主的自由を危うくし、法律で認められているコンテンツフィルタリングやブロッキングの範囲を超えた権威主義時代の書籍禁止効果が得られたことが指摘されました。

AIはダイバーシティとインクルージョンの推進力ですか、それともジェンダーブラインドで人種差別主義者ですか?

明らかに、長い間「不可欠」と考えられてきた「管理群衆」の性質と実行は、革命的な逆転を遂げました。 新しいテクノロジーが支配する時代の到来に直面して、人工知能は実在の人々よりも公平で無私無欲なのか、それとも偏っているのかと思わざるを得ません。

(同一審査:OpenAIには暗黙の差別や偏見があるのか? ダイバーシティとインクルージョンがAI時代の鍵となる|AI for DEI)

一部の採用プラットフォームは、AI支援採用には、偏見を排除し、公平性を維持する上でかけがえのない機能があると考えています。

  1. 変動する中立的な質問はなく、採用コピーライティングや職務記述書における差別的な言葉を排除するための支援はありません。
  2. 求職者の個人情報をきっぱりと隠蔽し、身元を明らかにすることによる不当な影響を排除する
  3. 資格、スキル等を客観的な判断に条件付け、公平な資格審査を実現
  4. プリセットなしで追加情報を収集し、声のトーンや体の動きなどによって求職者にストレスを与えたり制限したりしません

しかし、ケンブリッジ大学の研究[3]は、AIがアルゴリズムを使用して性格特性、言語パターン、顔の表情を分析できるという主張を痛烈に批判し、これらの新しいテクノロジーが心を読んだり顔を見たりできると企業をだまして信じ込ませることは誤解を招き、潜在的に危険です。


アンスプラッシュヒテシュ・チョウダリーによる写真

研究者たちは、コンピュータサイエンスの大学院生と協力して、衣服、照明、背景の変化が性格の非常に異なる解釈につながる可能性があることを示しました。 これは、人工知能を使用して候補者の性格特性が要件を満たしているかどうかを判断しようとすることは、今日のテクノロジーでは依然として不可能であることを証明しています。

この研究者グループは、ビッグデータと機械学習を使用して人種差別をなくすことができると主張したとしても、人種や性別を実際に操作するデータの背後にある電力システムではなく、アルゴリズムを使用して数値のバランスをとるだけであることを懸念しています。 研究者たちは、AIは最終的には多様性を採用するという目的の達成を支援するためにのみ使用すべきであり、独立した判断のためのツールとして使用すべきではないと示唆しています。

(続きを読む:仕事を見つけて求人を書くのに数秒しかかかりませんか? YouratorAIツールは、履歴書と求人を自動的に生成します! )

ストリーミングプラットフォームがあなたに映画や音楽を推薦するのと同じように、人々をスクリーニングするアルゴリズムがあなたに「推薦リスト」で際立っているのは誰ですか? ダイバーシティ推進の観点から、学校や職場でのAI活用は、より慎重に検討する必要があります。