政策・法律

「AI利活用ガイドライン」とは?人工知能活用の際の注意点を解説

AI Start Lab 編集部 2020.10.6
AI・人工知能が進化することで、さまざまなことが便利になってきている。

しかし、発展途上の技術であることから不安に感じることもあるだろう。これからAIを開発する人や実際に利用する人を対象に、「AI利活用ガイドライン」が出された。

総務省が開催した「AIネットワーク社会推進会議」で、AIに関する課題が話し合われ、報告書が作成された。その中の「AI利活用ガイドライン」には、AIを開発する立場、利用する立場それぞれについての留意事項がまとめられている。

総務省から出されたガイドラインの概要を紹介していく。

AI利活用ガイドラインが作られた背景や目的


AI関連の開発が加速度的に進んでおり、今後もAIを利活用するシーンが増えてくることが想定されている。日本では、政府が主導しAIに関する枠組みについて議論してきた。

たとえば、2019年の3月に出された「人間中心のAI社会原則」である。

この原則では、AIの影響力を考慮し、ポジティブな面にもネガティブな面にも目を向けている。特に、ネガティブな面を極力避け、利益を多くの人が享受できるように、3つの基本理念がつくられた。

「人間中心のAI社会原則」では、理念や原則が具体的にされたものの、実際の開発場面などで留意すべきことについては議論が不十分であった。

そのため、「AI利活用ガイドライン」が取りまとめられたのである。

ガイドラインの主な目的は、AIの利益を享受しつつもリスクを抑え、AIの利活用が促進されることである。

またAIは、データを蓄積して学習していき、開発当初には想定されていない変化をする可能性がある。

そのため、開発者だけでなくAIを利用していく人に対しても留意点を示されることとなった。

AIを利用してビジネスを行う場合には、このガイドラインに沿った取り組みをしていくことで、顧客からの信頼を勝ち取ることにつながるだろう。

AIを利活用する場合の原則 



では、具体的な利活用の原則とはどのようなものなのだろうか。

ここでは、「AI利活用ガイドライン」で定められた10の原則を紹介する。ただし、細かく紹介することは難しいため、詳細を知りたい場合には適宜ガイドラインを参考にしてほしい。

  • 適正利用の原則
  • 適正学習の原則
  • 連携の原則
  • 安全の原則
  • セキュリティの原則
  • プライバシーの原則
  • 尊厳・自律の原則
  • 公平性の原則
  • 透明性の原則
  • アカウンタビリティの原則

適正利用の原則では、AIを活用する範囲や方法についての留意点が紹介されている。

AIを活用する際には、どのような目的で利用するのか、また、AIの能力がどの程度なのかを認識した上で利用することに留意することが必要だ。

またAIから与えられる判断については鵜呑みにせず、基準をもって使用可否の判断をすることが求められている。

また、適正学習の原則では、AIが学習する際に利用するデータそのものについての留意点が紹介されている。

AIは学習するデータによって判断基準が変化していく。だからこそ、一定の質を保つことが求められる。そして、データの質を保ったとしても、判断の精度が良くないこともある。

そのため、精度に関する基準を作っておくとよい。もしも基準を下回る場合には、データの質を検討していくことが求められている。

連携の原則では、AIを相互に連携させる際の留意点について説明されている。

特に、データの形式などを標準化することで連携しやすくすることや、連携することによるリスクに関しても事前に検討しておく必要があることも触れられていた。

安全の原則では、AIを利用した人々の生命や財産などに危害を及ぼすことがないように求めている。

また、仮に危害を及ぼしてしまった場合の対応策を、あらかじめ検討しておくことも求めているようだ。

セキュリティの原則では、AIのセキュリティ対策をするよう求めている。

もちろん、セキュリティ対策はその時々で進化していくため、時代にあった水準で対策することが必要となるだろう。

また、万が一セキュリティが侵害されてしまった場合の対応策を考えておくことも期待されている。

AIを利活用する際にはプライバシーへの配慮が必要


ここからは、原則の後半部分を紹介する。

プライバシーの原則では、AIを最終的に利用する人々やデータを提供する人々のプライバシーを尊重することが求められている。

日本国内では、個人情報保護法を基準としてプライバシーに配慮する必要がある。

そして、AIが個人のデータを無許可で提供できないような対策をすることも留意する必要があるとしている。

尊厳・自律の原則では、人間がAIにコントロールされることがないよう留意点がまとめられている。

また、AIのシステムを提供する場合やビジネスとして活用する場合には、顧客の意思決定をAIが左右することを踏まえておくことが必要である。

AIの判断に依存することのないよう、対策をすることが求められるだろう。

公平性の原則では、AI自体の判断に偏りや誤差があることを踏まえることを求めている。

一般的には、AIによる判断は多数が尊重されやすい傾向にある。このような傾向を踏まえた上で、AIの判断を利用していくべきだろう。

透明性の原則では、AIを利用する人々が安心して利用できるよう、必要に応じてデータを提示することが期待されている。

また、トラブル時の原因究明などを行うために、ログの保存をすることも期待されており、ログ取得の頻度などを検討する必要性があることも述べられていた。

最後は、アカウンタビリティの原則である。AIをどのように利活用していくのかという方針を作成することが求められている。

その方針は、AIの動作変更や利用終了時にも通知することが求められるであろう。

実際にAIを利活用する際の流れとは



ガイドラインでは、AIを実際に利活用する際の流れも紹介されている。ここでは、流れを簡単に紹介していく。

AI開発の段階から携わり運用をしていく場合には、計画の段階からはじまる。

利活用の目的を検討したりする段階だ。それが完了したら、AIのソフトを検証したりデータの収集をしたりしていく。検証が終わったら、AIを実際のシステムに導入してテストを実施。

ここでは、必要に応じて他システムとの連携がとれるかどうかも確認することに注意が必要だ。

そこまでが完了したら、AIを実際に利用する人が使えるように準備を進める。

実際に利用者が利用をはじめたら、AIを監視・運用していく。データが変化していくことを考慮しながら管理していくことになるだろう。

続いて、AIを利用する立場の場合を紹介する。こちらの場合には、AIを利用する前が大切だ。

利用する前に、AIを提供する企業などから提供される情報をよく確認することが求められる。その後、AIを利用し、必要に応じて利用を停止したり、アップデートをさせたりしていく。

このような手順で利活用を行うとよいだろう。実際のガイドラインには、図でAI利活用の流れが紹介されている。必要に応じて参考にしてほしい。

ガイドラインをもとに、誰もがAIから利益を得られることを期待


本記事では、「AI利活用ガイドライン」について紹介してきた。

ガイドラインを参考に利活用を行うことで、どのステークスホルダーもAIについての利益を得られるようにしていきたいものだ。

このガイドラインは、AIを開発する立場だけでなく、利用する立場でも参考にできる。

本記事では紹介しきれていない事項もあるため、詳しく知りたい場合には、ガイドラインで詳細を確かめてほしい。


AI利活用ガイドライン
https://www.soumu.go.jp/main_content/000637097.pdf
人間中心のAI 社会原則 - 内閣府
https://www8.cao.go.jp/cstp/aigensoku.pdf

画像出典元:Shutterstock
印刷ページを表示
WRITTEN by

AI Start Lab 編集部

AI・人工知能のビジネス活用についての情報をさまざまな視点からお伝えしていきます。

AIのビジネス活用に関する
最新情報をお届け

会員登録

会員登録していただくと、最新記事やAI関連のイベント情報を受け取れたり、その他会員限定コンテンツの閲覧が可能です。是非ご登録ください。