質問だけではなく、要約からプログラミングまで幅広い用途で活躍するChatGPT。しかし、便利なあまりに社員が機密情報まで共有してしまう事例が相次いでいます。サムスンでは今回、ChatGPTの解禁からたった20日程度で、3件も情報流出が起こっていたことが判明しました。
*Category:テクノロジー Technology *Source:Android Authority ,Economist
韓国メディア「Economist」によると、サムスン社内で起こった最初の事件は、社員が半導体設備計測データベースのソースコードをChatGPTにコピー&ペーストしたというもの。この社員は、コードの修正プログラムを見つけるためにChatGPTを利用していたと言われています。
サムスン電子DS部門の役職員A氏は、半導体設備計測データベース(DB)ダウンロードプログラムのソースコードを実行中にエラーを確認した。問題となったソースコードを全てコピーしてChatGPTに入力し、解決方法を問い合わせた。サムスン電子の設備計測に関するソースコードがオープンAIの学習データとして入力されたことになる。
他にも、同じような情報流出が2件報告されています。一例では、社員がChatGPTに議事録を作る録音した会議内容を全てChatGPTに流してしまったこともあったそうです。
従業員B氏は、歩留まり・不良設備の把握のために作成したプログラムコードをChatGPTに入力する事故を起こした。関連ソース全体をChatGPTに入力し、コードの最適化を要請した。社員C氏は、スマートフォンで録音した会議内容をNaver Clovaアプリケーション(アプリ)を通じて文書ファイルに変換した後、ChatGPTに入力した。会議録作成要請が目的だ。
問題なのは、ChatGPTが送信されたクエリを削除しないことです。Open AIは、これらのプロンプトが保存され、AIモデルの改良に使用される可能性があるため、ユーザーは機密データを入力するべきではないと明確に警告しています。
サムスンは以前、従業員が仕事でChatGPTを使用することを禁止していましたが、その後、この事件の3週間前にAIツールの使用禁止を解除することを決定していました。現在サムスンはChatGPTのプロンプトに1024バイトの制限を設けることで、この問題を解決しようとしているとのこと。
このような問題が起こったのはサムスンだけではありません。以前にはAmazonでも同様の問題が起こっており、機密情報を共有しないように社員に通達しました。世界的な大企業でさえChatGPTは管理が難しく、日本企業も他人事ではない問題です。
「機密情報を共有してはいけない」というのは当然のように感じられますが、ChatGPTはあまりに便利なだけについ過信しがちになるのは、使ってみればよく分かるはずです。ただ禁止するだけではなく、AIやChatGPTにどのようなリスクがあるのかをしっかりと社内で共有し、その上でどう付き合うのかを決めるべきでしょう。
オリジナルサイトで読む : AppBank
ChatGPTは危険。サムスン社員の大失態から日本企業が学ぶべきこと