解説 AIの倫理とトラストの標準化動向

電子情報通信学会 - IEICE会誌 試し読みサイト
Vol.104 No.1 (2021/1) 目次へ

前の記事へ次の記事へ


ICT標準化解説シリーズ

 解説 

AIの倫理とトラストの標準化動向

Standardization of Ethics and Trust of Artificial Intelligence

江川尚志

江川尚志 正員 日本電気株式会社コーポレート技術戦略本部

Takashi EGAWA, Member (Corporate Technology Strategy Division, NEC Corporation, Tokyo, 108-8001 Japan).

電子情報通信学会誌 Vol.104 No.1 pp.60-63 2021年1月

©電子情報通信学会2021

A bstract

 AIに関する各種の標準化が様々な標準化機関で進行中である.これら標準化のテーマの一つが「AIに対するユーザや社会の信頼をいかに確保するか」であり,対象AIが「良いAI,信頼できるAI」であることを標準を利用して証明することである.これはAIが満たすべき倫理の検討から始まり,安全性やセキュリティなども含めた従来のソフトウェア品質の概念の拡張としてのトラストの確保,に焦点が移りつつある.これら標準化活動を概観する.

キーワード:AI,標準化,倫理,トラスト

1.AIで必要となる標準群

 標準とは様々な立場の関係者が集まり,議論し,合意した事柄を記述した文書である.B2B2Cの各位,アカデミア,規制当局など幅広い立場から適切な代表者が集まって合意された標準は業界全体の共同契約書として権威を持ち,広く使われる.このため,異なる立場の関係者の間で齟齬が発生しやすい事柄,例えば品質にまつわる問題を解決するため標準は広く使われてきた.

 関係者の間で齟齬が発生しやすいAI特有の事柄として「このAIは良い存在で,信頼できる」が挙げられる.深層学習はその性能のゆえに,人々に失業への恐怖,キリスト教の影響を受ける国々を中心に人間のレゾンデートル(存在意義)を機械が侵すことへの嫌悪などを抱かせることとなった.これはAIを開発し運用する人々と,社会との間の齟齬である.また技術的特性が広く知られるにつれ,判断理由を人間に理解できるように説明できないブラックボックス問題,学習データ中のバイアスがAIの判断にバイアスをもたらす問題,などが懸念されるようになった.これはAIを開発し運用する人々と,その顧客との間の齟齬である.

 こうした問題の解決の一助として現在,AI倫理,品質,安全性,マネジメント,ガバナンスなど様々な標準が開発されつつある.本稿ではこれらを概観する.

2.標準化議論での中心テーマのシフト:倫理からトラストへ


続きを読みたい方は、以下のリンクより電子情報通信学会の学会誌の購読もしくは学会に入会登録することで読めるようになります。 また、会員になると豊富な豪華特典が付いてきます。


続きを読む(PDF)   バックナンバーを購入する    入会登録

  

電子情報通信学会 - IEICE会誌はモバイルでお読みいただけます。

電子情報通信学会誌 会誌アプリのお知らせ

電子情報通信学会 - IEICE会誌アプリをダウンロード

  Google Play で手に入れよう

本サイトでは会誌記事の一部を試し読み用として提供しています。