【特別コラム連載】会計ファイナンス人材×AI第9回 ビジネスでのAI利用の注意点 後編

目次
シャドーAIのリスク
外山:みなさん、こんにちは。
前回はAIを利用する上で注意すべき点について解説しました。今回も前回の続きになりますが、特に生成AIに関する比較的新しい論点にフォーカスしたいと思います。
鈴木:よろしくお願いします。前回の話の中では、社内で『AIガイドライン』を策定し、信頼できるAIを用いるべきだという点が、特に重要だと感じました。
外山:ビジネス用途でAIを使用する場合、信頼できるAIサービスを選定するという点は重要です。
ただ、適切なAIサービスを『AIガイドライン』に載せたとしても、従業員が会社から許可されていないAIを使ってしまう危険性はあります。これがシャドーAIと呼ばれる問題です。
鈴木:なぜ会社から許可されていないAIを使ってしまうのでしょうか?
外山:今や、多くの人がプライベートでもAIを使用しています。使い慣れたAIを仕事でも利用したいと考えてしまうのも、不思議はないでしょう。
ただ、シャドーAIには様々な危険性があります。まずはクラウドサービス全体に通じる話ですが、個人のアカウントでログインした状態で会社の情報を入力されてしまうと、外部に漏洩するリスクがあります。自宅のPCや個人のスマートフォンからもアクセスできてしまうわけですからね。
また、社内の『AIガイドライン』に沿わない、安全性の低いAIサービス(またはプラン)を利用すると、送信したデータがAIの学習に使用される可能性もあります。
鈴木:社内のデータが、許可されていない外部サービスに送信されるというのは問題ですね…
それだけでなく、知らないうちにAIによる生成物が社内外に流出しているという状況も、リスクだと言えそうです。
外山:そうですね。AIを使ったということが共有されていれば、周りの人たちもハルシネーションなどに注意することができますが、シャドーAIでは防ぎようがありません。
それに、ハルシネーションとまでいかなくても、性能が低いAIを使われた場合は、会社が求める精度に満たない成果物が作られてしまうこともあり得るでしょう(ちなみに、AIが生成した低品質な生成物は、AIスロップ(Slop)などと呼ばれます)。
AI生成物の信頼性
鈴木:許可されていないAIを勝手に使うのは論外だと思いますが、会社から与えられたAIであっても、AIが作成した成果物を100%信頼することはできませんよね。前回、ハルシネーションを完全に避けることは原理的に不可能だと学びました。
外山:ハルシネーションは確かに注意すべきリスクですが、たとえ回答が正確なものであっても、リスクが無いわけではありません。
鈴木:どういうことでしょうか。
外山:AIの回答が正確で、それを用いた成果物のクオリティが高いものだったとしても、その生成過程を説明できなければ、正確性を人間が担保できない状態だと言えます。このような状態をブラックボックスと呼びます。ニューラルネットワークのような高度な機械学習は、基本的に生成過程がブラックボックスになってしまうことに注意が必要です。
鈴木:最小二乗法くらいでしたら、「直線を仮定し、各データとの距離が最も短くなるパラメーターを計算する」などと説明できます。直感的にも納得できるものだと思います。
それに比べ、ニューラルネットワークの計算は非常に複雑なので、学習や予測の仕組みを正確に理解するのは難しそうですね(『第4回 機械学習とは何か』参照)。
外山:現在の最先端の生成AIは、パラメーター数が1兆を超える、非常に複雑なニューラルネットワークでできており、人間が意味を理解できるようなものではないのです。
それに、単に複雑だというだけではありません。そもそもニューラルネットワークの学習には解法が存在しないため、最小二乗法のようにはパラメーターを算出できないのです。
鈴木:解法が存在しないのですか。では、どのようにしてパラメーターを決めているのでしょうか?
外山:ニューラルネットワークの学習をするには、少しずつパラメーターを変えて、最も精度が高くなる値を模索するような手法を用いるのです。このため、選ばれたパラメーターも、数学的な必然性があるものではないのです。大量の試行錯誤の結果、精度が十分に高くなったと判断した時点の値を採用しているにすぎません。
鈴木:AIの学習には非常に時間がかかるようですが、1兆個ものパラメーターに対して、そのような手間をかけていたのですね…。パラメーター数が多くて複雑だというのに加え、決定した値に必然性がないのでしたら、パラメーターの意味を理解することなど不可能でしょうね。
外山:ただ、大規模言語モデルは言語を出力するため、生成過程がブラックボックスであっても、最終的な成果物は人間でも理解可能だという特徴があります。つまり、その成果物が正しいかどうか、または、その成果物を採用するかどうか、といった点は、人間が判断することができるのです。人間が責任を持つことができると言っても良いかもしれません。
鈴木:たしかに、AIによる成果物を、「理由は分かりませんが、AIがこう作成しました」とだけ言って提出されても困りますよね。ブラックボックスだからこそ、人間が出力内容を確認し、責任を持つということが重要になりますね。
著作権関連のリスク
鈴木:他に生成AIによるリスクといえば、著作権の問題もあります。AIによるフェイク画像で、著作権が侵害されるというニュースを目にするようになりました。
外山:AIと著作権の論点は色々ありますが、まず初めに、AIは著作者になれないという点から確認しておきましょう。AIは著作権を取得することができないということです。
この点、まだ判例はありませんが、特許権については、2026年3月の最高裁決定により、AIを発明者とする特許出願は認められないことが確定しました。
鈴木:AI自身が著作権を取得できないというのは、私たちの常識に照らしても当然のことだと感じます。では、AIを使って作品を作った場合、作った人は著作権を取得できるのでしょうか?
外山:まず、AIに入力するプロンプト自体は、著作権の対象となり得ます。とはいえ、それによってできた作品が著作物になるかは別問題ですね。
この点については、文化庁の見解が参考になると思います(太字化は筆者による)。
| 「人が思想感情を創作的に表現するための「道具」としてAIを使用したものと認められれば、著作物に該当し、AI利用者が著作者となると考えられます。」 「人がAIを「道具」として使用したといえるか否かは、人の「創作意図」があるか、及び、人が「創作的寄与」と認められる行為を行ったか、によって判断されます。」 「どのような行為が「創作的寄与」と認められるかについては、個々の事例に応じて判断することが必要ですが、生成のためにAIを使用する一連の過程を総合的に評価する必要があると考えられます。」 出典:文化庁著作権課「AIと著作権」(令和5年6月) |
あくまで人間が主導し、AIは道具だといえるような状況が必要な上、プロンプトにも独創性が認められれば、AI生成物にも著作権が認められ得るようですね。言うまでもなく、この場合の著作者は、AIではなく人間です。
鈴木:AIによって作られた作品が、他人の著作権を侵害することもあり得ると思います。人が作成したものと、AIが作成したもので、著作権侵害の判断基準は変わらないのでしょうか?
外山:著作権侵害については、「類似性」及び「依拠性」によって判断するという、判例の考え方が確立しています。類似性の判断は客観的なものなので、人とAIで差はなさそうです。他方、依拠性というのは、他者の著作物を参考にしたかという主観的な問題なので、人間とAIでは別に考える必要がありそうです。
文化庁の見解を読むと、例えば「〇〇という作品の××というキャラクターの画像を描いて」などと、明示的に作品名を指定したプロンプトをAIに与えた場合などは、依拠性が認められる可能性が高いです。社外に発表する資料を作る際などは、注意した方が良さそうですね。
著作物を学習させるリスク
外山:著作権の話の最後に、AIに著作物を学習させる際のリスクについても見ておきましょう。
鈴木:著作権のある文章や画像などを、AIの学習のための素材として使って良いかという話ですね。
外山:実は、日本の著作権法にはAI開発に関する条文があるのです。第30条の4では「著作物に表現された思想又は感情を自ら享受し又は他人に享受させることを目的としない場合」には、「必要と認められる限度において、」著作権者の許諾なく著作物を利用できることとされています(出典:内閣府AI戦略チーム「第3回会合 配布資料」(令和5年5月))。
AIには思想や感情などは存在しないと考えられることから、AIに学習させる用途のみでなら、著作物を利用しても良いという解釈もできるわけです。
鈴木:では、無条件にAIに学習させても良いという結論になるのでしょうか?
外山:第30条の4は2018年の著作権法改正で導入された条文ですが、当時想定していたのは、機械学習によってデータ分析を行う場合などだと思われます。
現在のAIは、学習したデータを生成することもできるわけで、このようなAIに対しても著作物を与えて良いのかという判断は、今後の課題となるでしょう。著作権法第30条の4にも、著作権者の利益を不当に害することとなる場合は、規制されうるとの旨が書かれています。
鈴木:日本はコンテンツ産業を非常に重視しているので、著作物を再現できるようなAIは野放しにできませんよね。この問題については、他の国々との足並みをそろえる必要もありそうです。
エージェントのリスク
外山:最近のAIは、チャットで回答をしてくれるだけなく、ファイルやソフトウェアの操作をしてくれるものも増えています。これをエージェントと呼ぶのでした。非常に便利ですし、可能性を感じる技術ですが、今までになかったようなリスクも現れつつあります。
鈴木:マイクロソフト社のOffice製品にも、AIがファイルを作成・編集してくれるモードが搭載されました。そのような機能も、エージェントと呼んで良いのですよね?
外山:そのような特定のソフトウェア操作に特化したエージェントもありますね。他には、ブラウザの操作や、PC自体を操作するエージェントもあります。操作できる範囲が広いほど、リスクも高まると言って良いでしょう。
鈴木:ファイルやソフトの操作をするということは、誤って重要なファイルを消してしまったり、意図しない相手にメールをしたりすることも起こり得るということですよね。ハルシネーションとはリスクのレベルが違います。AIに誤った指示を出した場合の影響が大きくなりますね。
外山:ユーザーによるミスだけではなく、悪意のある他者からの、プロンプト・インジェクションにも注意が必要です。プロンプト・インジェクションとは、プロンプトを用いたAIへの攻撃を指します。
例えば、第三者が作成した文書ファイルを読み込ませた場合に、AIが意図しない行動を行うといったことがあり得るわけです。
鈴木:その文書ファイルには、悪意のあるプロンプトが書かれていたということでしょうか?
外山:そうなのですが、大抵の場合、プロンプト・インジェクションは人間には見えないような工夫がされています。例えば、背景と同じ色の文字や、非常に小さい文字で書いてあったりするわけです。
鈴木:信頼性の低いファイルやサイトは、AIに参照させない方が良さそうですね…。AIに与える権限の範囲についても、慎重に考えるべきかもしれません。
外山:他には、中長期的な話にはなりますが、AI利用によるスキル喪失もリスクと言えるでしょう。
エージェントは自らPC作業をすることができるため、これにより、人間が持っていた知識や技能が使われなくなったり、スキルを習得する機会を失ったりすることが危惧されています。
鈴木:公認会計士の業務でいうと、開示書類にまつわる話を例にとれば、監査業務において開示書類の検討をAI任せにすることにより、会計士自身に開示に関する知見が蓄積されなくなり、注記の文章の違和感に気づきにくくなったり、開示書類の作成に携わる組織内会計士であれば、不自然に他社例を引用した注記を作成してしまうといったことがあるかもしれません。
AIによって仕事の負担が減るのは良いですが、それによってスキルが失われるとしたら、皮肉な話ですよね。特に、新人の方や、新しいスキルを身につけたいと考えている人は、危機意識を抱くかと思います。
外山:AIによって代替できる仕事は、AIに任せるという割り切りも必要だとは思います。AIはこれからさらに進化していくはずで、既存のスキルが陳腐化していくことも大いにあり得ますから。
とはいえ、AIが作成したものの正否を判断できる人は必要なわけで、なかなか難しい問題です…
鈴木:AIが作った成果物であっても、その責任は人間がとる必要がある、という話につながりますね。
外山:AIの高性能化によって、今までにないリスクが顕在化しつつありますが、それを過度に恐れ、AIを避けてしまったら、それが最大のリスクになると思います。AIに対するリテラシーを高めるには、AIを使うことが一番です。使いながら考えるということでも良いと思います。
外山 哲郎
有限責任パートナーズ綜合監査法人
金融系、ゲーム系、など幅広い分野でスマートフォンアプリやWebサイトの開発に携わる。 2017年からAI業務に従事。データ分析や、医療の分野でのAI活用の研究・開発などに携わる。 ライターとしても活動(ニコニコニュース(ニコニコ動画))。 2024年7月 有限責任パートナーズ綜合監査法人入所。 現在は、IT専門家として監査業務に携わる他、法人内のDXおよびAI活用を推進している。
鈴木 爽矢
有限責任パートナーズ綜合監査法人
2022年大学3年生時に公認会計士試験合格。 大学時代にはCPA会計学院で監査論のチューター及び広報部のマーケティング業務を行う。 その後大手監査法人、コンサルティング会社を経て現職の有限責任パートナーズ綜合監査法人に入所。 現在は主に、IPO準備会社や上場企業の会計監査に従事し、財務デューデリジェンスなどの非監査業務にも携わっている。