ビジネス

【G検定の最強情報集】話題のAI倫理ガイドライン(IEEE、EU、日本)

AIは、医療、防犯、セキュリティー、金融、交通安全、農業、製造業など様々な業界で活躍しています。一方、AIを間違った方法で使うことで社会にダメージを及ぼすリスクがあります。AI 倫理に関するガイドラインを設立し、それを政府と民間、そして国際的なレベルで合意が取れることで、AI に対する信頼性が高まり、結果として技術の進化に有利な展開をもたらします。

AIを作る人とAIを使う人の双方のベネフィットのために、世界中の様々な政府団体、学術団体(学会や研究所など)、企業において、AI 倫理のガイドラインや指針が相次いで発表されています。

これらのガイドラインのかなり詳細なレベルまでG検定で出題されます。G検定を取得するかどうかに限らず、AI関連の仕事もしくはAIを安全に活用することに少しでも興味を持つ方にはぜひ知っておいていただきたい内容です。

今回は、いくつか有名なガイドラインを国内外から紹介します。

  • Ethically Aligned Design (EAD) (米国電気電子学会(IEEE))
  • Ethics guidelines for trustworthy AI(EU)
  • 人間中心のAI社会原則(内閣府)

そして、今回解説するものも含め、いくつかのAI倫理ガイドラインが総務省のAIガイドライン比較表にまとめられています。
AIガイドライン比較表

 

Ethically Aligned Design (EAD)

米国電気電子学会(IEEE)はAIがもたらす様々な倫理的課題について検討するためIEEE Ethically Aligned Design (EAD)という報告書を作成しました。この報告書は、世界中からの人工知能、法、倫理、哲学など他領域にわたる研究者、企業関係者、市民やNPO、政策関係者などの意見を集約して、IEEE Global Initiative委員会によって作成されたものです。

EADは、知的な機械システム(Autonomous and Intelligent System)に対する恐怖や過度な期待を払拭すること、倫理的に調和や配慮された技術を作ることによってイノベーションを促進することを目的としています。

ドキュメント名は以下です。ドキュメント名の通り、人間社会のウェルビーイングをAIを用いて改善することが狙いです。

Ethically Aligned Design:A Vision for Prioritizing Human Wellbeing with Artificial Intelligence and Autonomous Systems(AI/AS)

引用:Ethically Aligned Design

2016年12月に公開されたEAD_version1では8項目、2017年12月の改訂版の version2では13項目が整備されました。

  1. 倫理的に調和したデザインをするための一般原則
  2. 自律型知的システムに価値観を組み込む
  3. 倫理的な研究や設計のための方法論やガイド
  4. 汎用人工知能や人工超知能の安全性や便益
  5. 個人データとアクセス制御
  6. 自律型兵器システムの再構築
  7. 経済 / 人道的課題
  8. 法律
  9. アフェクティブコンピュー ティング
  10. 政策
  11. ICT における伝統的倫理観
  12. 複合現実
  13. ウェルビーイング

 

Ethics guidelines for trustworthy AI

EUのAIハイレベル専門家会合(AI HLEG)によって発表された“Ethics guidelines for trustworthy AI”(信頼性を備えたAIのための倫理ガイドライン)は、2019年に本ガイドライン策定に関する試験導入段階を開始し、EU域内だけではなくEU域外からも企業、研究所、政府当局等から参加機関を募集します。参加機関は、EUが発足した欧州AI連合(European AI Alliance)に登録する必要があります。

参加機関からのフィードバックをもとに見直しを経て最終的には国際的なAIガイドラインに発展させる方針です。G7やG20の場で採択を目指しています。

参考:Ethics guidelines for trustworthy AI

Ethics guidelines for trustworthy AIは7つの倫理原則で構成されています。(2022.07現在)

  • 人間の代理機能・人間による監督:人間の代理や基本的権利を支持する役割を担い、人間の自立性を損なわない
  • 堅牢性と安全性:AIのライフサイクルを通じてエラーや非一貫性を対処するための安全、信頼、堅牢性が担保されたアルゴリズム
  • プライバシーとデータガバナンス:市民が自分のデータを完全に管理でき、懸念されるデータは活用されない
  • 透明性:AIシステムの透明性を確保
  • ダイバーシティと差別禁止:人間の活動、スキル、要求を十分考慮し、アクセスできる状態にする
  • 社会・環境ウェルビーイング:社会と環境の観点からプラスの効果を生むものにする
  • アカウンタビリティ:AIシステムと結果に関する責任とアカウンタビリティを確保

引用:Ethics guidelines for trustworthy AI

 

人間中心のAI社会原則

2018年に内閣府において「人間中心のAI社会原則検討会議」が設置され、ここでは、有識者会議の議論に基づき、「人間中心のAI社会原則」の原案が公開され、人間がAIに過度に依存したり、AIが人間の行動を制限したりするのではなく、人間が自身の能力を発揮するための道具としてAIを使いこなして、人間の尊厳が尊重される社会の構築を目指しています。

参考:人間中心のAI社会原則検討会議

 

いかがでしたか?

さらに知りたい方は是非、元ドキュメントを読んでみてください。

執筆担当:ヤン ジャクリン (GRI分析官・講師)

 

yan
データ分析官・データサイエンス講座の講師