OpenAIの最も強力なAIモデルであるGPT-4は、マイクロソフトのBingチャットボットで無料で利用できる。おそらくコスト上の理由から、マイクロソフトはチューリング言語モデルも使用しているのだろう。

Bingのチャットボットはローンチから3ヶ月経った今でも、OpenAIのオリジナルのChatGPTよりも、ミスをしたり、信頼できない回答をしたりする傾向がある。Bingのチャットボットは一貫してOpenAIのAIモデルに依存していないのです。

新しいBingはPrometheusと呼ばれるAIモデルを搭載しているとマイクロソフトはサービス開始時に述べた。このシステムは、回答が「単純」に分類された質問をマイクロソフトのチューリング言語モデルに割り当てる、と研究・AI部門の責任者ジョルディ・リバスはワイアードのインタビューで語った。

マイクロソフトがランディングページで説明しているように、チューリングモデルはBingの検索結果にも不可欠な要素だ。マイクロソフトによると、チューリングモデルは、並べ替え、自動入力、広告の関連性評価などを担当しているという。

AIスタートアップSilo AIの創設者であるピーター・サリンは、最初の回答は通常チューリング・モデルによって出されるが、その他のクエリはGPT-4によって処理されるため、より良い結果が得られるだろうと示唆している。こうすることで、マイクロソフトは計算コストを削減できる。

リバスは、ビングのチャットボットからの最初の回答は一般的に質が劣るという考え方を否定する。不正確な回答は、ユーザーの最初のクエリにコンテキストがないことが原因である可能性が高いと彼は言う。

GPT-4はランニングコストが高い

OpenAIはChatGPTの収益と経費の数字をまだ公表していない。調査会社SemiAnalysisのアナリスト、ディラン・パテルは、ChatGPTのコストは現在OpenAIの1日あたり約70万ドル、1リクエストあたり36セント、1ヶ月あたり合計2億ドル以上と見積もっている。

OpenAIは有料のAPIで収益を上げており、特にGPT-4 APIは高額で、ChatGPTを経由してGPT-4にアクセスするためには月額20ドルのChatGPT Plusサブスクリプションモデルが必須となっている。OpenAIが儲かるか損するかは今のところ不明だ。

SimilarWebの予測によると、1月のアクティブユーザーは約1億人。上記の数字に基づけば、仮にそのうちの10%程度が有料アカウントを持っていれば、ChatGPTの純粋な運営費でおおよそ賄えることになる。しかし、これは非常に不安定な計算である。

The Informationによると、高い計算コストは主にNvidiaのグラフィックカードを使用しているためで、マイクロソフトはこれを独自のAIチップに置き換える予定だという。一方、ChatGPTや同様のサービスのインフラをAzureで提供している同社は、高価なGPT-4の使用を最小限にしようとしているらしい。

マイクロソフトのAIチャットボットは、2023年2月初めからBingに統合されており、検索の未来の可能性を垣間見せてくれる。リンクのリストを生成する代わりに、AIは質問されたことにコンパクトに要約して答える。せいぜい、チャットボットの発言を外部から検証できるように、関連情報源へのリンクを含む程度だ。これは、ネイティブのChatGPT統合に対するBing上のGPT-4の最大の利点です。