2024.10.30
ChatGPTを活用する際に抑えておくべきリスク・注意点について
日々進化を続け、私たちの生活に身近なものになりつつあるAIですが、ChatGPTの登場により、その流れも一気に加速しましたね。恐らく、「この便利さを仕事でも活かせないものか…」と考える企業様も多いことでしょう。
しかし便利な反面、内容によっては精度が高くなかったり、「そもそもセキュリティ上問題ないのか?」などの懸念により、なかなか全社的に導入できている企業様も少ないと思います。
そこで今回は、ChatGPTの利用に際して、抑えておくべき注意点やリスクなどについてご紹介していこうと思います。
セキュリティ面についても深堀りしてご紹介していきますので、ぜひ最後までお付き合いください!
目次
ChatGPT利用時に想定されるリスク・対処法について
情報漏洩に関するリスク
機密情報などを送信することによって情報が漏洩してしまう危険性があることを認識しておく
【対処法】非公開情報・機密情報を送信しない
参考記事:『アマゾンに続きマイクロソフトも…ChatGPTに「機密情報」を共有しないよう社員に警告』
参考記事:『アマゾン社員が業務でChatGPTを利用する事案が発生。「機密情報を共有しないように」と顧問弁護士が注意喚起』
「送信してはいけない情報」と「機密情報の判断基準」は?
- 公開されるとマズイものは、送信しない!
⇒共有された情報は保護されず、公開される可能性があることを認識しておくこと。 - 個人情報は送信しない!
⇒個人情報保護法等の法令、情報セキュリティ、プライバシー侵害の問題となり得るため。 - 「発明」に関わる内容は特に注意!
⇒チャットボットとの会話の内容は、システムだけでなく人間のトレーナーも確認する可能性があり、このことが、「公開」とみなされる可能性があり、その発明が特許保護の対象から外れてしまう恐れがあるため
参考記事:『【ChatGPTによる情報漏えい】社内の極秘情報を共有する場合は情報は保護されるのかなど。 – 倫理的ハッキング(ハッカー)ラボラトリー|サイバーセキュリティ相談』
参考記事:『ChatGPTの利用は「公開」にあたるのか? – Open Legal Community』
情報の正確性・信頼性に対するリスク
生成された回答を過信しすぎない
【対処法】生成された回答をそのまま使用せず(使用しても問題ないかを)、検証・裏付けの確認を行うこと
不正確な情報や信頼性の低い情報を生成することを認識しておく
【対処法】特にリサーチ業務や市場調査でChatGPTを利用する場合は、データが取得できなかったり、古いデータを参照してしまう可能性があるため、最新の情報との齟齬確認や精査を行うこと
最新のデータにアクセス出来ない点を理解しておく
【対処法】ChatGPT学習モデルは2021年9月までとなっているため、正確性について専門家等に相談したり、裏付け調査を行うこと
表現の偏り、倫理に関するリスク
不快な回答や偏った見方による回答が返ってくる可能性があることを認識しておく
【対処法】生成された回答をそのまま使用せず、一度客観的な視点で読み返し、必要に応じて修正する
可用性(サービス停止や利用ルールの変更)に対するリスク
今後OpenAIが規約を更新した際、「これまで良しとされていた使い方」ができなくなる可能性があることを認識しておく
【対処法】ChatGPTの利用規約の更新を意識し、更新情報を公式サイトやニュース記事などで追う
まとめ
いかがでしたでしょうか?
ChatGPTは、便利な反面、そこまで精度が高いわけでもないため、上記の様な「運用上のリスクを踏まえたルール化」が非常に重要になってくると思います。
今後ChatGPTの全社導入を検討されている方の参考になれば幸いです!
この記事を書いた人 : 担当者
リープ・DX担当者です。文字の大きさ、量、字間、行間等を確認するために入れています。この文章はダミーです。文字の大きさ、量、字間、行間等を確認するために入れています。