サムスンの従業員がChatGPTに機密データを入力したとされる。これを受けて、電子機器大手のサムスンはその使用を禁止し、新たなセキュリティポリシーと独自のテンプレートを発表する予定だ。
サムスンはChatGPT、Bard、Bing Chatおよび同様のAI生成ツールの社内使用を禁止したと、ブルームバーグが社内メモを引用して報じた。サムスンの広報担当者はメモの存在を確認した。
メモによると、サムスンは、これらのツールに入力されたデータが外部サーバーに保存され、削除されることなく、他のユーザーと共有される可能性があることを懸念している。4月初めには、サムスンの開発者がChatGPTに社内のソースコードを挿入する事件があった。
ChatGPTを使うと解雇される可能性がある
サムスンによる生成AIの禁止は、同社が提供するすべてのコンピューターとモバイルデバイス、そして社内ネットワークに適用される。ChatGPTなどを個人的に使用する従業員は、個人情報や会社関連の情報を入力する権限はない。メモによれば、これに従わない者は解雇される可能性があるという。
ブルームバーグによると、サムスンは生成AIのブロック機能に取り組んでいる。その目的は、まだ開発されていない技術の使用に関する安全ガイドラインが施行されるまで、生成AIのさらなる使用を一時的に停止することであり、原理的には従業員の「生産性と効率」を向上させることができる。
ブルームバーグによると、サムスンは文書の翻訳や要約のための独自のAIツールにも取り組んでいるという。
独自のAIモデルが業界のトレンドになる可能性
企業や個人のデータのセキュリティは、AIの開発において現在茨の道となっている。OpenAIやマイクロソフトのような企業はこれまで、大規模なAIモデルを事前に訓練し、改良するために利用可能なすべてのデータを収集するという、無頓着なものから無謀なものまで様々なアプローチをとってきた。
企業でジェネレーティブAIを使用するもうひとつの潜在的リスクは、AIがすでに他社が所有しているコンテンツを生成してしまうことだ。法律やプライバシー上の理由から、特に大企業は、基礎となる学習データについて正確な知識を持つ自社独自のAIシステムを訓練し、ローカルで実装することを好むかもしれない。
OpenAIは、少なくとも入力データを保存したりAIの最適化に使用したりしないChatGPTの商用版で、このような可能性のある展開に対抗したいと考えている。しかし、オープンAIは、GPT-4の学習に使用されたデータのコーパスに関する情報をまだ提供していない。The Decoderからの情報です。