G検定

AIに関する法律・倫理をなぜ学ぶ?

今は、AIが社会の中で多くの役割を果たし、私たちがAIと共存する時代となっています。AI開発やデータ分析に携わる方は、技術の知識だけではなく、AIを社会・産業に応用するために必要な法律・倫理の様々な体制についての知識を持つことが重要です。

… とよく聞きますが、なぜでしょうか?

本記事では、私たちがなぜAI関連の法律・倫理を学ぶべきなのか、逆に知らないことによるリスクを解説します。

AI関連の法規制と倫理ガイドラインの重要性は近年、政府、企業、学術機関など多くの団体に認識されるようになってきました。一方で、AI・データサイエンスの開発者、分析担当、経営者、営業企画担当、技術の恩恵を受ける方、全てのレイヤーに十分に理解が浸透しているかどうかは疑わしいです。AIの技術を安全に、有意義に社会の中で活用するためには、技術を作る側だけではなく、利用する側にもリテラシーが求められます。

そもそもAI倫理とは何でしょうか?

「倫理」という言葉は様々な定義が可能です。よく使われる表現は以下です。

  • 社会で行動する際に、良し悪しを判断するための根拠
  • 社会の秩序を保つために、社会の一員として生活を営む上でのルール

倫理は、「社会規範」、「モラル」、「道徳」、「正義」といった用語と一緒に使われることが多いです。

上記はAIの分野でも考えなければいけないことです。AI倫理とはAI特有の問題ではなく、AIを作る・使う人間の問題です。

一般的に倫理は「法律」を含むと考えられます。ところで、「法律」は比較的、明確に定義されているものであるのに対し、「倫理」は様々な価値観や不確定さに揉みれて、一意に定まらない場合がよくあります。

倫理を考える上で社会全体に及ぼす影響を考えることが重要です。以下では、いくつかのAIと社会にまつわるテーマを取り上げながら、AI倫理の大切さを考えていきたいと思います。

AIのバイアス問題は人間の差別問題を浮き彫りにする

AIが人種やジェンダーを軸とする差別的な結果を出力する事例が過去にいくつもあります。以下の2つが有名な例です。

ここで「AIは怖い」と考える方もいますが、怖いのはAIではなく人間です。

AI(機械学習)は無から学習することはないです。現実の社会で生きる人間が生み出したデータを学習し、学習したパターンに基づいて将来予測を行います。したがって、これらのとんでもない差別的な出力結果は、決してAI自体の問題ではなく、むしろ人間社会に潜むバイアスを反映し、浮き彫りにしてくれる存在です。私たちへの警告と考えるべきです。逆にいうと、AIのバイアス問題を解決するために、まずは人間社会におけるバイアスや差別を解消しなければいけません。

顔認識システムの廃止

上で挙げた例において、AIサービスを提供する企業の「企業倫理」が問われます。企業が会社の信頼を保つためには、人権の保護や社会・環境に対する配慮を決して疎かにしてはいけません。

近年、学習データに含まれるバイアスにより、顔認識システムは非白人の認識精度が低くなっていることにより、人種差別などによる出来事が多く起きています。これを踏まえて、大手IT企業のGoogle、Amazon、米IBM、Microsoftは汎用顔認識技術からの撤退を表明し、そして、警察など法執行機関への顔認識技術の提供を中止すると発表しました。企業だけではなく、米国の自治体(2019年中にマサチューセッツ州とカリフォルニア州の複数の都市など)レベルでも警察の顔認識技術の利用を禁止しはじめています。

今後、技術的に解決する見込みが出てきた際に事態が変わるかもしれませんが、少なくとも現時点では「顔認識技術は人種差別、性差別を助長するので社会に害を及ぼしうる」ことが米国を中心に、主流の考え方になりつつあります。

(余談)顔認識は有益な使い道もあるが、同時に安全への脅威でもあります。顔をインターネット上に投稿する前に、前節で取り上げた「データ汚染」(画像への摂動)を加えさせてくれるツールが開発されています。しかし、このような摂動ツールは、セキュリティの十分な保護を与えないことを示しています。

参考論文:Data Poisoning Won’t Save You From Facial Recognition

AIが事故を起こした際の責任体制

AI搭載のシステムが事故を起こした場合は、誰が刑事的責任を問われ、誰が賠償金を払えばいいのでしょうか。AIを設計したデータサイエンティスト?ソースコードを開発したエンジニア?製造したメーカー?直接な利用者?

いまだに結論が出ていません(2022年6月現在)。

例えば、今まで自動運転車が起こした重大な事故は、どの回もメーカーが法的責任を問われることが決定されていません。これらの時、自動運転のレベルは「レベル3」でしたので、「基本は自動車のシステムが運転を行うのですが、緊急時には運転者が操作をしなければなりません」と決まっており、「運転者がスマホに夢中で注意を怠っていた」場合、責任は運転者にあるのではないかという観点があるためです。

自動運転の他に、既に医療用AIが実用化されている今、AIによる医療ミスの責任体制の議論も急がれるべきです。

ちなみに、自律的に機能しようとするAIシステムの「責任体制」を語る上で、「トロッコ問題」がよく使われます。「トロッコ問題」は1967年に哲学の論文で発表された、倫理にまつわる葛藤(ジレンマ)の有名な話です。ある存在がとる行動によってどのように、どれくらい他人が犠牲になるのかを考えさせてくれる話です。参考:トロッコ問題(wikipedia)

 

AIの倫理・法律に関する取り組み

AIのブラックボックス問題を解消し、AI技術を安全・公平に活用するための法整備と倫理ガイドラインの設定が国レベルで盛んに行われています。

次回の記事では、いくつかの取り組みを紹介したいと思います。

 

執筆担当者:ヤン ジャクリン (GRI 分析官・講師)

 

yan
データ分析官・データサイエンス講座の講師