LoveTech Media編集部コメント
AIの社会実装を手がける株式会社ABEJAが、7月30日に、AIに関する課題について外部の有識者が倫理、法務的観点から討議する委員会「Ethical Approach to AI」(EAA)を設立する。
「AIと倫理」は、今世界の中でもっとも議論がなされているテックテーマの一つと言えるだろう。
現在、多くの文脈で使われるAIは、大量のデータを学習させることによって、様々な傾向と相関を抽出する。
例えばSNSやニュースキュレーションサイトでは、これまでのサイト閲覧データ等を学習し、その人自身の興味関心に即したニュースや広告が配信される。必要な情報が適切に届く仕組みとしてありがたがる声がある一方で、これが世の中の情報におけるフィルターバブル現象(※)を助長しているとの意見も多い。
※フィルターバブル:インターネットで、利用者が好ましいと思う情報ばかりが選択的に提示されるで、思想的に社会から孤立するさまを表す語
また別の例では、ある企業の採用選考の際には入社志望者のライフログやアセスメント傾向を分析し、自動で入社適正を判断するかもしれない。企業にとっては採用選考プロセスの効率化と工数省力化に繋がるが、一方でAIによる判断根拠を確認できないので、選考判断がブラックボックスの中でなされ、「新たなる人種差別に繋がる」という議論もなされている。
もちろんこれは一例ではあるが、こうした現状を背景に日本をはじめ各国でAIに関する倫理的、法的、社会的な側面からの議論が活発になり、AIの開発、利用に関する指針づくりが相次いでいる。
代表的なAI倫理規定には、以下のようなものがある。
- 人工知能学会「人工知能学会 倫理指針」
- 総務省AIネットワーク社会推進会議「国際的な議論のためのAI開発ガイドライン案」
- 内閣府 人間中心のAI社会原則検討会議「人間中心のAI社会原則」
- Future of Life Institute「Asilomar AI Principles」
- 米国電気電子学会(IEEE) 「Ethically Aligned Design Version2(EADv2:倫理的に配慮されたデザイン第2版)
- 欧州委員会「ETHICS GUIDELINES FOR TRUSTWORTHY AI(AI倫理指針)」
今回は上述のような国レベルの機関や標準化団体によるガイドライン策定ではなく、ABEJAという1 民間企業による委員会組成ということで、具体的には社内コンプライアンスにかかわるテーマのうち、「AIの法務・倫理」に関する事項に関して議論する場となる。
ただし、客観性、独立性を担保するため全員、外部識者で構成し、同社代表取締役社長CEOの岡田陽介氏は、個別案件や同社の考えなどについて説明する立場として、討議に参加する予定だという。
具体的な討議内容は以下の通り。
- 個別案件への助言や提言:ABEJAの業務で直面するAIと倫理に関連した課題や案件について都度討議、業務の実現や改善につながるような建設的な助言・提言を示していく
- 社内のAI利用原則・行動指針の策定:日本、EUなどのAI倫理指針などの動向や社内メンバーの意見を反映させつつ、ABEJA社内で共有されるべきAIの利用原則と行動指針の策定を目指す。策定にあたっては、現場で働くメンバーと委員が意見を交わす機会を設ける
- 出席者による知見の共有:ガイドライン作りや個別案件の協議に際し、海外の政策・法務の動向、専門の知見に基づく踏まえておくべき視点などについて、委員がスピーチなどで情報を共有。議論のきっかけや判断の参考にする
今後はこのように、企業が独自のAI倫理委員会なるものを設け、各案件における倫理面検討事案発生時の検討窓口として機能させる動きが加速していくかもしれない。
今回はその先駆けとなる取り組みとして、その動きに注目して参りたい。
以下、リリース内容となります。