性差別や人種差別、AIに偏見潜む:DEIウォッシュに懸念

画像生成AI「ダリ」が作った「優秀なビジネスパーソン」の画像(2023年3月5日作成)
画像生成AI「ダリ」が作った「優秀なビジネスパーソン」の画像(2023年3月5日作成)

対話型AI(人工知能)「チャットGPT」の登場で、AIと人間との距離が一気に縮まった。一方、学習データのバイアス(偏見)によって、公平性が失われるなど倫理的なリスクを抱える。活用の仕方によっては、企業は意図せずとも「DEIウォッシュ」(※)を引き起こす可能性もある。(オルタナ副編集長=吉田広子)

※DEIは、ダイバーシティ(多様性)、エクイティ(公平性)、インクルージョン(包摂)を意味する。ウォッシュとは、実態が伴わないのに見せかけること。環境に配慮したように見せかける「グリーンウォッシュ」やLGBTQに配慮したように見せかける「ピンクウォッシュ」などもある

米アップルと米ゴールドマン・サックスは2019年8月、共同で開発したクレジットカード「アップル・カード」の提供を開始した。ところが、同年11月、著名なIT起業家が「妻の方がクレジットスコアは高いにもかかわらず、自分(夫)の利用限度額は妻の20倍だった。AIのアルゴリズムに性差別があるのではないか」と主張した。

米アップル共同創業者のスティーブ・ウォズニアック氏をはじめ、同様のケースがSNSに多数投稿された。その後、米ニューヨーク州金融サービス局が調査を開始。2021年3月、「法律に違反する差別の証拠はなかった」と結論付けたものの、与信判断に関する透明性の欠如や、公平性に対する懸念を指摘した。

サステナX

このほか、米アマゾンが開発した「人材採用AI」に女性差別的傾向を持つことが判明し、運用停止を余儀なくされた。米国の一部の州で使用されている「再犯予測プログラム」に関しては、同じ条件の場合、白人よりも黒人の方が、危険性が高いと評価される傾向にあることが分かり、物議をかもしている。

社会の偏見を「再生産」

では、なぜこうした問題が発生するのか。それは、AIが、現実社会に存在している差別やバイアスをそのまま「学習」してしまうからだ。

最近、文章や画像、動画などのコンテンツを自動で作り出す「生成AI」が相次いで登場した。「チャットGPT」で知られる米オープンAIは、画像生成AI「ダリ」も無償で提供している。

試しに、「優秀なビジネスパーソンの画像」と英語で入力してみると、生成された16枚の画像のうち9枚が白人男性だった。続いて白人女性が3枚、黒人男性が2枚、インド系男性が1枚、顔なしの男性が1枚という結果になった(2023年3月5日時点)。

ハーバード大学発のAIスタートアップ・米ロバスト・インテリジェンスの佐久間弘明氏は、「そもそもAIは完璧ではない。学習データにバイアスが温存されていれば、推論結果がそれを反映してしまうリスクがある」と説明する。同社は「責任あるAI」を掲げ、公平性を担保するために、データの「偏り」を是正するシステムなども提供する。

欧州では、AI活用に関する法整備が進んでいる。欧州委員会は2021年4月、AI規制法案を発表し、2024年に全面施行になる見込みだ。AIのプロバイダーもユーザーも対象になる。

※本記事は、オルタナ72号(2023年3月30日発売)の第一特集「ウォッシュ監視――国連も行政も」から一部抜粋して掲載しています。ますます厳しくなる国内外のグリーンウォッシュへの規制について、事例を交えながら、最新動向を紹介しています。お求めはこちら(BASE)から

yoshida

吉田 広子(オルタナ輪番編集長)

大学卒業後、米国オレゴン大学に1年間留学(ジャーナリズム)。日本に帰国後の2007年10月、株式会社オルタナ入社。2011年~副編集長。2025年4月から現職。執筆記事一覧

執筆記事一覧
キーワード: #ビジネスと人権

お気に入り登録するにはログインが必要です

ログインすると「マイページ」機能がご利用できます。気になった記事を「お気に入り」登録できます。