グーグルの親会社アルファベットは、AIチャットボットと個人情報やビジネス情報を共有しないよう従業員に警告している。これには同社独自のチャットボット、バルドも含まれる。
欧州連合(EU)がバードの加盟国でのサービス開始を許可する前にグーグルと交渉している最中で、プライバシーが議題となっているが、親会社のアルファベットがAIチャットボットについて従業員に警告しているとの報道があった。
この件に詳しい関係者がロイターに明かしたもので、同ニュースサイトが報じている。それによると、従業員がチャットボットに機密資料を提供することは禁止されており、後に同社がこれを確認したという。関連する動きとして、グーグルはプライバシーポリシーに、機密情報や極秘情報をバードに提供しないよう求める注意書きを追加した。
グーグルは “技術の限界について透明性を保つ “ことを目指している。
ロイターの情報筋によると、アルファベットはまた、バードが生成したコードを本番で利用しないよう従業員に指示している(バードは最新のアップデート後にこれが可能になる)。Alphabetは声明の中で、Bardは不要なコードを提案することはできるが、プログラマーを助けることはできると述べている。ロイターによると、グーグルは「自社技術の限界について透明性を確保したかった」という。
ChatGPTを使ったOpenAIのように、グーグルはユーザーがBardに入力したデータを使ってAIモデルをさらに訓練する。政治的圧力の後、OpenAIはオプトアウトする方法を導入したが、これは以前のチャットが即座に削除されるため、利便性が損なわれることを意味した。
チャットボットについてこのような警告を発しているのはグーグルだけではない。サムスンは最近、従業員がチャットボットに機密コードを挿入しているのを発見し、ChatGPTとBardの使用を禁止した。
社内メモによれば、禁止に従わない者は解雇される可能性があるという。各社は、チャットボットに関するデータが流出したり、AIトレーニング用のデータを準備する際などに第三者がOpenAIやそのパートナーから知見を得ることを懸念している。
アルファベットでさえ、自社のものを含むチャットボットについて従業員に警告を発するようになったという事実は、こうした新しいツールの作成者でさえ、こうしたシステムの信頼性に不安を感じていることを示している。ソースはThe Decoderより。