米グーグル持ち株会社、米アルファベットが、自社の「Bard(バード)」も含め、対話AI(人工知能)の使用方法について従業員に注意喚起していると、ロイター通信が報じた

JBpressですべての写真や図表を見る

機密情報の入力禁止

 グーグルは、米オープンAIの「Chat(チャット)GPT」に対抗するべく、BardをはじめとするAIサービスの開発に力を入れている。しかし、情報漏えいへの懸念を理由に機密情報を対話AIに入力しないよう従業員に指示した。ロイターによると、アルファベットは、同社が長年導入している情報保護に関する社内規定を例に示し、その事実を認めた。

 利用者がChatGPTやBardに入力する会話は、サービス提供会社の担当者が内容を読む可能性がある。AIは、機械学習の際にプログラムによって吸収されたデータを再現できる、と研究者らは指摘している。

 また、アルファベットはエンジニアらに対して、AIが生成したコンピューターコードをそのまま使用しないようにと警告した。

 グーグルはロイターの質問に対し、「Bardは望ましくないコードを提案する可能性があるが、それでもプログラマーの助けになる」と述べた。グーグルはまた、自社技術の限界について透明性を確保するとも述べた。

 世界では現在、一般公開されているAIサービスの使用について従業員に警告する企業が増えており、こうした動きが企業の新しいセキュリティー標準になりつつある。ロイターによると、韓国サムスン電子や米アマゾン・ドット・コム、ドイツ銀行なども対話AIの利用に基準を設けている。

アップルも社内で利用制限

 アップルは今回のロイターのコメント要請に応じなかったが、米ウォール・ストリート・ジャーナルは先ごろ、アップルがChatGPTのような外部の生成AIの利用を制限していると報じた。アップルも同様の技術を開発しており、機密情報の漏えいを懸念しているという。

 同紙によると、アップルはChatGPTのほか、米マイクロソフト傘下のギットハブGitHub)が提供する、ソフトウエアコード作成の自動化ツール「Copilot(コパイロット)」の使用も制限している。これらサービスの基盤となる大規模言語モデル(LLM)では、機能改善のためにデータが開発企業に送信される。利用企業は意図せずに機密情報を流出させてしまう恐れがある。

 アマゾンもエンジニアに対し、ChatGPTではなく自社のAIツールを使用するよう促している。関係筋によると、アップルも独自のLLMを開発している。

米専門職の4割が仕事に活用 7割上司に報告せず

 業界別のSNS(交流サイト)を運営する米フィッシュボウルが23年1月下旬にIT企業や金融機関などで働く専門職約1万1793人を対象に実施した調査では、43%(5067人)がチャットGPTなどの対話AIを仕事関連で使っており、そのうち68%が上司に利用を報告していないと答えた。

 一方、ChatGPTでは23年3月、一部利用者のAIとのやりとり履歴タイトルが、他の利用者に見えてしまうという不具合が見つかり、オープンAIはサービスを一時停止した。米ZDネットによれば、これがきっかけとなりイタリア政府はChatGPTを一時的に禁止した。オープンAIはその後、チャット履歴を削除できる機能を追加した。

 こうしたなか、グーグルマイクロソフトは、企業顧客向けに、AIモデルがデータを取り込まないようにする高価格版のサービスを導入する。マイクロソフトのコーポレート副社長ユスフ・メディ氏は、「企業が従業員に仕事で一般向け対話AIを使ってもらいたくないと考えるのは当然で、理解できる」と述べた。同社の場合、企業向けサービスには無料版のBingに比べて「はるかに厳格なポリシーがある」(同氏)という。

 (参考・関連記事)「Apple、ChatGPTの社内利用を制限 情報漏えい懸念 クックCEO直属部下、大規模言語モデルの開発を指揮

[もっと知りたい!続けてお読みください →]  グーグル、対話AI搭載の検索エンジン ついに披露

[関連記事]

EU議会のAI規制法案 ChatGPTも対象の修正案採択

生成AIの脅威、「デジタルの毒」の温床に

(写真:AP/アフロ)