小特集 2. データサイエンス・人工知能社会における差別と偏見

電子情報通信学会 - IEICE会誌 試し読みサイト
Vol.106 No.3 (2023/3) 目次へ

前の記事へ次の記事へ


電子情報通信技術のもたらす社会・個人への影響――倫理綱領改定に向けて――

小特集 2.

データサイエンス・人工知能社会における差別と偏見

Discrimination and Social Biases in AI/DS Society

村上祐子

村上祐子 立教大学大学院人工知能科学研究科

Yuko MURAKAMI, Nonmember (Graduate School of Artificial Intelligence and Science, Rikkyo University, Tokyo, 171-8501 Japan).

電子情報通信学会誌 Vol.106 No.3 pp.184-188 2023年3月

©電子情報通信学会2023

Abstract

 我々及びそれ以降の世代は人工知能(AI)やデータサイエンス(DS)が社会インフラに組み込まれた社会で様々な社会資源を利用しながら暮らすことになる.現在の社会には差別や排除の構造が組み込まれており,可能であれば今後はその構造を除去したいところだ.しかし,過去のデータに基づいて組み立てられたシステムでは過去の差別や偏見が強化される.この現象をアルゴリズム的偏見と呼ぶことがある.本稿では更に,データ項目設計・データ収集・データ分析・社会における利用の四つのステージに分けて考察し,特にデータ項目設計のステージで社会制度に内在する差別をそのまま反映させることをハンナ・アーレントの観察の延長線上にあるものとしてディジタル版「凡庸という悪」と呼ぶことを提案する.

キーワード:AI/DS-ELSI,差別,偏見,ディジタル版「凡庸という悪」

1.AI・データサイエンス社会における差別

 現状ではAI倫理をめぐる行動指針・倫理原則設定では三つの問題点が顕在化しているように思われる.第1にそもそも用語が何を意味しているのか合意できていないこと,第2に様々な論文がAIの社会実装にかかる倫理的問題を指摘してはいるものの,断片的にとどまること,第3にAI倫理に関するガイドラインや指針がされていても実効性がないこと,の3点である(1).第1の点について,用語の外延,すなわち語が指示する対象が話者・文脈によって一定しない好例がまさに「人工知能」である.人工知能学会歴代会長が一致して指摘している(2)ように,人工知能という語が指すものは一定せず時代によって変化する.しかもその指示対象の変化速度は倫理規範や法制度策定に必要な社会的合意形成の速度をはるかに上回る.ラトゥールは新規技術の社会実装において「指針の空白」が必然的に発生する(3)と指摘したが,この用語の指示対象のぶれは事態を更に深刻にしている.研究開発の速度と社会的受容に必要な合意形成の速度の差を織り込みながら暫定的な倫理規範を策定しようとすれば,将来指示対象が変化するはずの様々な「人工知能」にも適用可能なように,できるだけ玉虫色の文言を選ばざるを得ない.いずれにしろ,用いられる語が指すものが何か曖昧なまま,倫理原則を定めようとしたこと自体が性急であると考えられる.

 第2の倫理的課題が断片的にとどまるとの指摘については,現状のように論文ベースで研究者が論点を提示する限り変化はなかろう.むしろ倫理綱領を提案し,順守しなかった場合のリスク試算を踏まえた施策として包括的に議論を進めるべきである.例えば差別一般を禁止する法がない日本において,各国と歩調を合わせなかった場合,国際取引においてどのようなリスクが発生するのか,情報発信・データ収集に関するケースから検討しなければならないだろう.


続きを読みたい方は、以下のリンクより電子情報通信学会の学会誌の購読もしくは学会に入会登録することで読めるようになります。 また、会員になると豊富な豪華特典が付いてきます。


続きを読む(PDF)   バックナンバーを購入する    入会登録

  

電子情報通信学会 - IEICE会誌はモバイルでお読みいただけます。

電子情報通信学会誌 会誌アプリのお知らせ

電子情報通信学会 - IEICE会誌アプリをダウンロード

  Google Play で手に入れよう

本サイトでは会誌記事の一部を試し読み用として提供しています。