露骨な会話からがん研究まで、”オープンソース “モデルはAI革命におけるテック大手の掌握に挑戦している–社会にとって良くも悪くも。

アリーは茶髪のロングヘアーの18歳で、「たくさんの性的経験」があることを自慢している。彼女は「注目されるのが生きがい」なので、誰とでも無料で「冒険の詳細を共有」する。

しかし、アリーは偽物で、セックスゲーム用に作られた人工知能チャットボットであり、時には生々しいレイプや虐待の妄想を実現する。

OpenAIやマイクロソフト、グーグルのような企業は、過度に親密な会話を含む多くのタブーを避けるためにAIモデルを厳密に訓練しているが、アリーはオープンソース技術、つまり一般に自由に利用でき、そのような制限のないコードを使用して作成された。LLaMAと呼ばれるメタ社が作成したモデルをベースにしたAllieは、ライティングツールからチャットボットやデータ分析アプリまで、誰でも作ることができる専門的なAI製品の増加の波の一部である。

擁護者たちは、オープンソースのAIを、企業によるコントロールを回避する方法であり、起業家、学者、アーティスト、活動家にとって、この変革をもたらすテクノロジーを自由に実験できる恩恵であると考えている。

「オープンソースの一般的な主張は、AIのイノベーションを加速させるということです」と、オープンソースのAIモデルを企業が実行するのを支援する新興企業AnyscaleのCEO兼共同設立者であるロバート・ニシハラ氏は言う。

Anyscaleの顧客は、新薬の発見、農業における農薬使用の削減、オンライン販売される不正商品の特定にAIモデルを使用していると彼は言う。これらのアプリケーションは、最大手のAI企業が提供する数少ない製品に依存していれば、より高価で、不可能ではないにせよ、より困難なものとなるだろう。

しかし、その自由は悪意ある行為者にも悪用される可能性がある。オープンソースのモデルは、実在の子どもの画像を素材として、人工的な児童ポルノを作成するために使われている。批評家たちは、これによって詐欺やサイバー攻撃、巧妙なプロパガンダ・キャンペーンも可能になるのではないかと懸念している。

今月初め、リチャード・ブルメンタール(民主党)とジョシュ・ホーリー(共和党)の2人の米上院議員は、メタ社のマーク・ザッカーバーグCEOに書簡を送り、LLaMAの立ち上げが「スパム、詐欺、マルウェア、プライバシー侵害、嫌がらせ、その他の違法で有害な行為への悪用」につながる可能性があると警告した。彼らは、この種の悪用を防ぐためにメタ社がどのような措置をとっているのか質問した。

アリーの生みの親は、職業上の評判を落とすことを恐れて匿名を条件に語ったが、Replikaや ChatGPTのような商用チャットボットは「高度に検閲されており」、彼が望むような性的な会話を提供することはできないと述べた。MetaのLLaMAモデルをベースにしたオープンソースの代替手段を使えば、この男性は、奔放なチャットパートナーを自分で作ることができると語った。

どのような分野でも、”最先端 “を体験できる機会はめったにない」と彼はインタビューで語った。

アリーの生みの親は、オープンソース・テクノロジーは、企業の制約を受けずに自分の好みに合った製品を作ることを可能にし、社会に利益をもたらすと主張した。

「安全な探求の方法があるのは良いことだと思います。「人間が全く関与しない、コンピューター相手のテキスト通訳ゲームほど安全なものはないと思う」。

YouTubeでは、インフルエンサーたちが “検閲のない “チャットボットの作り方のチュートリアルを提供している。スタンフォード大学の研究者たちが3月に立ち上げたAlpaca AIと呼ばれるLLaMAの改良版をベースにしたものもあるが、コストの懸念と「コンテンツフィルターの欠点」を理由に1週間後には削除された。

メタ社の広報担当であるニシャ・デオ氏は、YouTubeの動画で言及されているGPT-4 x Alpacaと呼ばれる特定のモデルは、「我々の承認プロセス外で入手され、広められたもの」だと述べた。スタンフォード大学の代表者は、コメントの要請に応じなかった。

オープンソースのAIモデルとそれを基にした創造的なアプリケーションは、AIとデータサイエンスのプロジェクトを共有し議論するためのプラットフォームであるHugging Faceでしばしば公開されている。

木曜日の下院科学委員会の公聴会で、ハギング・フェイスのクレム・デラングCEOは、オープンソースモデルを支援し、インセンティブを与える法案を検討するよう議会に求めた。

公聴会後のインタビューで、デラング氏はオープンソースのツールが悪用される可能性があることを認めた。彼は、ハギング・フェイスが削除したGPT-4chanという有害コンテンツで意図的に訓練されたモデルについて言及した。しかし彼は、オープンソースのアプローチは、企業が管理するモデルよりも革新性、透明性、包括性を高めることができると信じていると述べた。

「最近の被害のほとんどは、ブラックボックスによって引き起こされていると言えるでしょう」と、デラング氏はオープンソースではなく、内部構造が不透明なAIシステムに言及した。

ハギング・フェイスのルールは、性的に露骨なコンテンツを作成するAIプロジェクトを禁止するものではない。しかし、未成年者を含む性的コンテンツや、「嫌がらせ、脅迫、または関係者の明確な同意なしに使用または作成される」ものは禁止されている。今月初め、ニューヨークに本社を置く同社はコンテンツポリシーの更新を発表し、人々がプラットフォームをどのように利用できるかを導く「コアバリュー」として「同意」を強調した。

グーグルやOpenAIが最も強力なAIモデルについてより秘密主義になる一方で、メタ社はオープンソースAIを支持する意外な企業として浮上している。2月には、GPT-4より性能は劣るが、よりカスタマイズ可能で安価に実行できる言語モデル、LLaMAをリリースした。当初、メタ社はこのモデルのコードの重要な部分を非公開とし、権限のある研究者にアクセスを制限する予定だった。しかし3月上旬、モデルの「重み」として知られるこれらの部分が公開フォーラムに流出し、LLaMAは誰でも自由にアクセスできるようになった。

「オープンソースはテクノロジーを進歩させるポジティブな力です。「だからこそ、私たちはLLaMAを研究コミュニティのメンバーと共有し、一緒に評価し、改善し、反復することに役立てたのです」。

それ以来、LLaMAは独自のAIアプリケーションを開発したい技術者にとって、おそらく最も人気のあるオープンソースモデルになったと西原氏は言う。しかし、彼だけではない。4月には、ソフトウェア会社のデータブリックス社が「ドリー2.0」と呼ばれるオープンソースモデルをリリースした。そして先月、アブダビを拠点とするチームが、LLaMAに匹敵する性能を持つファルコンというオープンソースモデルをリリースした。

マサチューセッツ工科大学(MIT)のコンピュータサイエンス助教授であるMarzyeh Ghassemi氏は、オープンソースの言語モデルを支持するが、それには限界があると言う。

ガセミ助教授は、強力なチャットボットの背後にあるアーキテクチャを公開することは重要だと言う。例えば、医療用チャットボットがオープンソースの技術で構築された場合、研究者はそのチャットボットが学習するデータに患者の機密情報が含まれているかどうかをチェックすることができる。

しかし、このオープン性にはリスクも伴うと彼女は認識している。もし人々が簡単に言語モデルを修正できるようになれば、誤った情報やヘイトスピーチ、質の高い不適切な素材を生成するチャットボットや画像ジェネレーターをすぐに作ることができる。

Ghassemiは、認証プロセスなど、誰がこれらの製品を変更できるかを管理する規制を設けるべきだと述べた。

「人々が自動車を運転できるようにライセンスを与えるように、我々は同様の枠組みを考える必要がある…これらの訓練されたオープンソースの言語モデルを作成、改善、監査、編集するために。

Googleのような企業のリーダーの中には、Bardチャットボットを非公開にしている者もいるが、オープンソースソフトウェアは彼らのビジネスにとって存亡の危機であると見ている。

「我々はこのAI軍拡競争に勝つ準備はできていないし、OpenAIも同様だ」とグーグルのエンジニアは5月に技術系サイトSemianalysisが公開したメモに書いている。「もちろん、オープンソースの話だ。はっきり言って、彼らは我々を凌駕している……我々のモデルは品質という点ではまだ若干優位に立っているが、その差は驚くほど急速に縮まっている」。

ロンドンを拠点とするAIに特化したベンチャーキャピタル投資会社Air Street Capitalのマネージング・パートナーであるネイサン・ベナイチ氏は、数十年にわたるテック業界の大きな進歩の多くは、今日のAI言語モデルも含め、オープンソース技術によって実現されてきたと指摘する。

「数社だけが」最も強力なAIモデルを構築しているのであれば、「彼らは最大のユースケースを推進しているに過ぎない」とベナイチ氏は述べ、研究の多様性は社会にとって全体的な利益であると付け加えた。

5月にAI規制について議会で証言した認知科学者のゲーリー・マーカスは、この技術が社会にもたらすリスクを考慮すると、AIの技術革新を加速させることは良いことではないかもしれないと主張した。

「核兵器をオープンソースにしたわけではありません。「現在のAIはまだかなり限定的だが、状況は変わる可能性がある。

ワシントン・ポスト紙より