ChatGPTのような人工知能(AI)生成プラットフォームがもたらすリスクの増大に警鐘を鳴らし、欧州の規制当局や法執行機関は、人類のデジタル未来への突進を減速させる方法を模索している。

エッセイ、詩、スプレッドシート、コンピューター・コードといった形でユーザーからの問い合わせに応えるChatGPTは、ガードレールがほとんどない状態で、12月以来16億回以上のアクセスを記録している。

欧州連合(EU)の法執行協力機関であるユーロポールは3月末、ChatGPTは現在使用されている数千のAIプラットフォームのひとつに過ぎず、フィッシングやマルウェアの作成、さらにはテロ行為において犯罪者を手助けする可能性があると警告した。

「潜在的な犯罪者が特定の犯罪分野について何も知らない場合、ChatGPTは調査プロセスを大幅にスピードアップし、その後のステップで悪用できる重要な情報を提供することができる。

「このように、ChatGPTは、家に侵入する方法から、テロリズム、サイバー犯罪、児童性的虐待に至るまで、予備知識なしに多数の潜在的犯罪分野について学ぶために使用することができる。

先月、イタリアでは不具合によりユーザーファイルが流出したため、ChatGPTを一時的に禁止した。イタリアの個人情報保護審議会Garanteは、このプログラムの作成者であるOpenAIに対し、ユーザー情報の行き先の問題に対処し、プラットフォームに年齢制限を設けるまで、プライバシー侵害で数百万ドルの罰金を科すと脅した。スペイン、フランス、ドイツは個人情報流出に関する苦情を調査しており、今月にはEUの欧州データ保護委員会が、27カ国のEU全体で規制を調整するタスクフォースを結成した。

「欧州議会で最終決定がなされ、中央AI当局を設立する人工知能法案の共同提案者であるEU議員のドラゴス・トゥドラチェ氏は、Yahoo Newsにこう語った。

「何が起きているのか、どのようにルールを構築するのかを明確に見極めなければならない」。

アマゾンのアレクサやオンライン・チェス・ゲームなど、人工知能は数年前から日常生活の一部となっているが、ChatGPTほどAIの可能性を感じさせるものはない。

「ChatGPTは、人間にはほとんどない知識を持っています」と、バルセロナを拠点とし、科学に基づくイノベーションに焦点を当てたコンサルタント会社、Futurity Systemsの共同設立者であるマーク・ビュンガーは言う。彼がほとんどの人間よりも知っていることの中に、コンピューターのプログラミング方法があります。だから、おそらく次のベスト・バージョンをプログラムするのはとても上手で、とても速いだろう。そしてそのバージョンはさらに優れたものになり、人間には理解できないようなものをプログラムするようになるだろう」。

驚くほど効率的なテクノロジーは、個人情報の窃盗や学校での盗作など、あらゆる種類の不正行為への扉を開くものでもある、と専門家は言う。

「教育者にとっては、提出されたコースがOpenAIのChatGPTやグーグルのBardのような生成AIシステムによって支援された、あるいは完全に書かれた可能性があることは懸念材料です」と、エジンバラ・ロボティクス・センターのニック・テイラー副所長はYahoo Newsに語った。

OpenAIとマイクロソフトは、OpenAIを資金面で支援しているが、ライバルとなるチャットボットを開発している。

「AIは何十年も前から存在していましたが、誰でも使えるようになったので、今成長しています」と、フューチュリティ・システムズのCEO、セシリア・タム氏は語った。11月30日にChatGPTが無料トライアルとして公開されて以来、プログラマーたちは何千もの新しいチャットボットを開発するためにChatGPTを適応させてきた、とタムは言う。

もうひとつのバリエーション、AutoGPT(Autonomous GPTの略)は、より複雑な目標指向タスクを実行することができる。「例えば、『1日に1000ユーロ稼ぎたい。そうすれば、そのゴールに向かうすべての中間ステップを発見することができる。

しかし、もし誰かが『1000人殺したい。そのためのすべてのステップを教えてください。

ChatGPTモデルには提供できる情報に制限があるにもかかわらず、彼女は「人々はそれをハッキングすることに成功している」と指摘する。

チャットボットやAI全般の潜在的なリスクから、テクノロジーに特化したシンクタンクであるFuture of Life Instituteは先月、AI開発の一時停止を求める公開書簡を発表した。イーロン・マスクとアップルの共同創業者スティーブ・ウォズニアックが署名し、次のように指摘している。

「AI研究所は、ますます強力になるデジタルの頭脳を開発・配備しようとする無秩序な競争に陥っている。

署名者たちは、規制を策定するためにGPT-4よりも強力なAIシステムの開発を6ヶ月間休止することを求め、この分野の主要プレーヤーが自発的にそうしない場合は、各国政府に「モラトリアムを制定」するよう求めた。

AI法の共同提案者であるEU議会議員のブランド・ベニフェイは、この考えを否定する。「モラトリアムは現実的ではありません。「この非常に強力なAIの課題にどう取り組むかについて、世界的な議論も必要だ」。

今週、AIに取り組んでいるEUの議員たちは、バイデン大統領とウルスラ・フォン・デア・ライエン欧州委員会委員長に対し、AIの「開発、管理、配備のための予備的な原則」を確立するために「ハイレベルの世界サミットを招集する」よう求める「行動への呼びかけ」を発表した。

Tudorache氏はYahoo Newsに対し、来年制定される見込みのAI法は「AIアプリケーションに対処するための新たな権限を規制当局にもたらす」ものであり、EUの規制当局に高額の罰金を科す権限を与えるものだと述べた。この法律には、様々なAI活動のリスクランキングも含まれており、「ソーシャルスコアリング」のような使用も禁止されている。「ソーシャルスコアリング」とは、事実上すべてのソーシャルインタラクションを利点の尺度でランク付けするような、ディストピア的な監視スキームである。

「消費者は、ChatGPTがどのようなデータを使用し、保存しているのか、そしてそれが何に使用されているのかを知るべきです」と、欧州消費者団体(BEUC)のコミュニケーション担当副代表セバスチャン・パントはYahooニュースに語った。「どのようなデータが使用されているのか、データ収集がデータ保護法を遵守しているのか、私たちにはまだわかりません」。

米国は、FTCのアルバロ・ベドヤ委員が最近、「AIは今や、誰を雇い、誰を解雇し、誰がローンを組み、誰が病院に入院し、誰が家に帰されるかを決めるために使われている」と懸念を示したにもかかわらず、AIを規制するための具体的な措置を講じることにまだ遅れをとっている。

バイデンは最近、AIは危険な存在になりうるかとの質問に対し、「まだわからない。

データ保護に焦点を当てたシンクタンク、フューチャー・オブ・プライバシー・フォーラムのグローバル・プライバシー担当バイス・プレジデント、ガブリエラ・ザンフィール=フォルトゥナ氏は、消費者の個人データ保護に関する考え方の違いは、数十年前にさかのぼるとヤフーニュースに語った。

「EUは、基本権憲章に規定を設けるほど、この新しいデジタル時代、コンピュータ化時代において、人々の権利が個人データの自動化によってどのような影響を受けるかを重要視している」とザンフィール=フォルトゥナ氏は述べた。

ドイツ、スウェーデン、フランスなどのヨーロッパ諸国は、50年前にデータ保護法を採用している。「米国の立法者たちは、過去数十年間、この問題にあまり関心がなかったようだ。

一方、『テクノロジーvs.ヒューマニティ』の著者であるゲルト・レオンハルト氏らは、ChatGPTやより高度なAIが、軍や銀行、環境問題に取り組む人々によって使用されたときに何が起こるかを心配している。

「レオンハルトは言う。「AIコミュニティでは、気候変動の解決をAIに頼んだら、人類は皆殺しにされるというジョークがまかり通っている。我々にとっては不都合だが、最も論理的な反応だ。

参考文献:Yahoo.