アルゴリズムは抽象的に見えますが、アルゴリズムから切り離すことができないとき、アルゴリズムが客観的で公正でない場合、アルゴリズムに大きく依存しているアルゴリズムにどのように対処すべきか、人間社会の隅々に長い間浸ってきました。

Facebookの親会社であるMetaは最近、採用広告を掲載するためのアルゴリズムが性差別的であると疑われているとして、ヨーロッパの人権団体から4つの告発に直面しました。 皮肉なことに、Metaは、プラットフォーム上の不動産広告とクレジット広告を差別したとされる500万ドルの手数料を支払っていました。

アルゴリズム差別の問題を排除することを約束したメタは、再び論争を引き起こし、人々は、性差別の浸透を回避しながらアルゴリズムのメリットを享受する方法を疑問に思わずにはいられません。


撮影者 コットンブロ スタジオ ペクセルで

メタは、ジェンダーのステレオタイプをアルゴリズムで再現したとして非難されています

Facebookのアルゴリズムが性差別に潜在しているかどうかを調べるために、国際的な非営利団体であるGlobal Witnessは、2月から4月にかけて、オーディエンスの性別を特定せずにフランスとオランダで一連の求人広告を掲載しました。

グローバルウィットネスは、広告リンクのクリックを最大化するように要求するだけであり、残りはFacebookのアルゴリズムに任されており、最終的に誰が広告を見るかを決定します。

Facebookのアドマネージャープラットフォームから入手したデータから、グローバルウィットネスは、Facebookがさまざまなユーザーに推奨する広告が、多数の性別のステレオタイプで潜んでいることを発見しました。 たとえば、オランダのFacebookユーザーの85%が教師の欠員の広告を見たのは女性であり、ウェイターの欠員の広告を見た人の96%は女性でしたが、パイロットとして欠員を見た女性はわずか4%でした。

フランスの研究の結果、同様の結果が見つかりました–女性の93%が教師としての役職を見、女性の86%が心理学者としての役職を見て、女性の6%が役職をパイロットと見なしました。


ペクセルピクサベイ による 写真

ヨーロッパ、アジア、その他の国々で同様の調査結果があり、グローバルウィットネスはFacebookのアルゴリズムバイアスが世界的な問題にまで高まっていると疑わざるを得ません。

そのため、この偏見が職場の不平等と賃金格差を悪化させないようにするために、グローバル・ウィットネス、ビューロー・クララ・ウィッチマン、ファム財団の3つの非営利団体が、Metaのアルゴリズムにおけるジェンダーのステレオタイプについて人権およびデータ保護当局に苦情を申し立てました。

(あなたが見たいものを推測してください:「陽気で親切な機械技術者であるシスターハナ」韓国のナビゲーションシステムはAIの性別の固定観念を打ち破ります)

Metaによる新しいアルゴリズムの導入、バイアスを減らすことはできますか?

アムネスティ・インターナショナルの大規模技術説明責任チームの責任者であるパット・デ・ブルンも、アルゴリズムの偏見について懸念を表明し、公の言説の分野としてのFacebookは、アルゴリズムが社会にすでに存在する不正を再現し増幅することを許すべきではないと主張した。

特に低所得世帯が仕事を見つけるためにFacebookを使用することが多い場合、アルゴリズムに偏りがある場合、最大の影響はすでに疎外されている人々になります。

Metaの広報担当者であるAshley Settle氏は、広告主はMetaに雇用、不動産、クレジット広告を掲載する際に性別を選択することは許可されておらず、そのような広告のオーディエンスプロファイルに対する制限は、米国やカナダを含む40を超えるヨーロッパ諸国で実施されていると述べました。

さらに、Ashley Settle氏は、Metaは引き続き学者、人権団体、その他の専門家と協力して、アルゴリズムの公平性に対する最善の解決策を研究し、解決すると述べ、今年初め、Facebookは広告配信のバイアスを減らすための新しい機械学習テクノロジーも開始しました。

(同じスクリーニング:意思決定においてAIが人間に取って代わるか? 無意識の偏見を脇に置き、多様性と包括性を受け入れ、ChatGPTを使用して人間が持つ必要のある能力を持ちます)

アルゴリズム論争事件を読んだ後、性別のステレオタイプの再現を避けながらアルゴリズムの利点を享受する方法は、まだ解決する必要がありますが、アルゴリズム論争事件から、受動的な情報受信者だけでなく、人生に隠された偏見にもっと意識的に注意を払うことができます。