
生成AIを業務に活用する際の注意点。安全な利用のために情シスが取り組む対策とは
生成AIは、ユーザーの指示に沿って文章・画像・動画などのコンテンツを生成するAI技術の一種です。これまで人間が行ってきた創造的なタスクをこなす革新的な技術として、業務やビジネス活動での活用が広がっています。
一方で、生成AIには技術面に関するさまざまな注意点があります。情報システム部門(以下、情シス)や管理部門の担当者は、生成AIの注意点を踏まえたうえで、安全な活用に向けた対策を講じることが重要です。
この記事では、生成AIを業務に使用する際の注意点と情シスが取り組む対策について解説します。
\情シス向け!社内システムの運用管理業務のサポートはこちら/
目次[非表示]
生成AIを業務に活用する際の注意点
生成AIには、既存の情報を基に新しいコンテンツを生成する特性からさまざまな課題・リスクが存在します。社内で生成AIを活用する際には、以下の注意点を理解しておく必要があります。
ハルシネーションの発生
ハルシネーションは、生成AIが誤情報・偽情報を真実かのようにもっともらしく生成する現象です。生成AIは、学習データに基づいて出力結果を出しますが、不正確または虚偽の情報を生成するケースが見られています。
ハルシネーションが発生する原因には、以下が考えられています。
▼ハルシネーションの原因
- AIモデル自体のアーキテクチャに対する技術的な問題
- 学習データの不足
- 虚偽や不正確なデータを使用した学習
- 曖昧なプロンプトの入力 など
誤情報・偽情報を使用して企画書や資料、提案書などを作成することで、業務における重要な判断や意思決定にも影響を及ぼす可能性があります。
公平性に欠けるコンテンツの出力
生成AIは、学習データの偏りや学習過程で生じるバイアスによって、公平性に欠けるコンテンツが出力されることがあります。
差別や倫理的な問題を招きかねないコンテンツを使用してしまうことで、社会的な評価の失墜につながるリスクが懸念されます。
学習に伴うバイアスの存在を踏まえたうえで、データセットの品質確保と人の尊厳やモラルを守るための対策が求められます。
AIモデルのブラックボックス化
AIモデルのブラックボックス化は、生成AIの回答において推論のプロセスや根拠が分からず、内部構造が不透明になる状態を指します。
機械学習やディープラーニングの技術によって膨大なデータを処理する生成AIでは、プロンプトに対して「なぜその結果を出力したのか」といったロジックをユーザー側で把握することが困難になります。
その結果、出力された情報の信頼性・正確性・公平性を担保できなくなり、業務での活用において問題を引き起こす可能性があります。
プロンプト経由での機密情報の漏えい
生成AIの利用によって情報漏えいのリスクがあることも注意点の一つです。
生成AIのなかには、ユーザーが入力した情報をAIモデルの学習データに利用するものがあります。顧客情報や社外秘の技術情報などを入力することで、ほかのユーザーへの回答に情報が使用され、外部に流出してしまいます。
実際に生成AIの利用によって社内の機密情報が漏洩した事例も発生しています。
▼プロンプト経由で機密情報が漏洩した企業の事例
- 生成AIへの修正指示のために入力した社内機密のソースコードが流出した
- 音声データから議事録を作成する生成AIを利用して会議の情報が流出した
プライバシーや知的財産権の侵害リスク
生成AIによって作成した文章・画像・動画などのコンテンツを利用することで、他人のプライバシーや知的財産権を侵害するリスクがあります。
▼権利侵害の可能性があるケース
- 自社の制作物として公表したコンテンツが既存の著作物と類似している
- 商用の制作物が商標・意匠に登録済みのロゴ・デザインと類似している など
企業による権利侵害が認められた場合には、差止請求や損害賠償請求などが行われることも考えられます。
生成AIや学習データへのサイバー攻撃
生成AIツールや学習データへのサイバー攻撃が行われるリスクがあります。
▼生成AIの活用で懸念されるサイバー攻撃の例
手法 | 概要 |
データポイズニング | 意図的に悪意のある情報を学習データに混入してAIモデルの性能低下や誤作動を引き起こさせる |
プロンプトインジェクション | 悪意のあるプロンプトを入力して機密情報の出力や誤作動を引き起こさせる |
サイバー攻撃によって社内の機密情報が窃取されたり、意図しない出力が行われたりする可能性があるため、セキュリティ対策の強化が求められます。
生成AIの安全性を高めるには。情シスが取り組む対策
社内のITインフラを管理する情シスは、生成AIの注意点を踏まえたうえで安全に利用するための対策を行うことが重要です。
➀従業員向けガイドラインの作成
業務に生成AIを利用する際のルールを定めたガイドラインを作成します。
生成AIに関する従業員のリテラシーを高めるとともに、用途の制限や適切な活用方法などを明記にすることにより、ハルシネーションへの対策とプロンプト経由での情報漏えいの防止につながります。
▼ガイドラインの規定例
- 生成コンテンツの使用前に情報の正誤・真偽・類似性を精査する
- 偏見や非倫理的な内容が含まれていないかチェックリスクで判断する
- 個人情報や機密情報に該当する情報が含まれていないか確認する など
②透明性・信頼性・公平性が確保された生成AIツールの選定
生成AIの安全性を高めるには、透明性・信頼性・公平性を確保するための情報提供や仕組みの構築を行っているツールを選定することが重要です。
▼生成AIツールの選定時に確認すること
- AIモデルに使用する学習データの収集やアノテーションの手法
- AIモデルの学習過程・推論過程・判断根拠におけるログ情報の提供可否
- データセットの利用目的や範囲に関する規約
- ツールに対する技術的なリスクと対策の仕組み
- 権利侵害が発生した際の責任区分や対応 など
出力結果に対する検証可能性の確保やデータセットの品質管理が行われているツールを選ぶことで、ブラックボックス化やハルシネーションの回避につながります。
なお、代表的な生成AIツールはこちらの記事で解説しています。
③学習データの精査・アクセス制御
生成AIの公平性やプライバシーを守るには、学習データにバイアスが含まれていないか、定期的に精査を行うことが必要です。
また、プロンプト経由での情報漏えいを防ぐには、ユーザーが入力した情報を学習データに使用しないようにする“オプトアウト設定”を行うことも重要です。
AIモデルのカスタマイズが可能なツールの場合は、自社が所有するデータセットで再学習させる“ファインチューニング”を行うことで、ハルシネーションを防止して出力結果の精度を高められます。
④ログの監視・管理
生成AIにおけるログの監視・管理は、出力結果に対する検証可能性を確保するとともに、AIモデルの倫理的な問題やサイバー攻撃を防ぐために必要といえます。
▼監視対象となるログ
- 生成AIツールへのアクセスログ
- ユーザーによるプロンプトログ
- 生成AIによる出力ログ など
これらのログを監視・管理することで、生成AIの出入力状況を可視化して不正アクセスや学習データへの攻撃などを早期に発見できます。また、AIモデルに生じているバイアスや精度に関するボトルネックを特定して問題の修正につなげられます。
なお、AI技術を取り入れたサイバー攻撃対策はこちらの記事で解説しています。
まとめ
この記事では、生成AIについて以下の内容を解説しました。
- 生成AIを業務に活用する際の注意点
- 安全性を高めるために情シスが取り組む対策
生成AIは、従業員のタスクを支援して業務を効率化する画期的な技術といえます。しかし、信頼性・公平性の確保、プライバシー・知的財産の保護といった課題や、情報漏えいやサイバー攻撃が起こるリスクなども存在します。
情シスでは、生成AIの活用にあたって従業員のリテラシー強化や安全なAIツールの選定、運用における技術的な対策を行うことが重要です。
『FGLテクノソリューションズ』では、専門的かつ幅広いIT関連業務をサポートするITアウトソーシングを承っております。生成AIを活用するためのツール選定や環境構築、運用管理などもお任せください。