プログラミング支援特化の生成AIツール「Perplexity Copilot」が新たなアップデートを実施しました。
今回のアップデートでは、OpenAIが先日、開発者向けに提供を開始したGPT-3.5 Turboのfine-tuningのAPIが導入されています。
このAPIの導入により、品質を保ったまま処理速度が向上し、推論コストも削減され、GPT-4と同じくらい高い性能となっています。
先日GPT-3.5 Turboのfine-tuningの提供が開始
米国時間の2023年8月22日、OpenAIはGPT-3.5 Turboのfine-tuningを、開発者向けに提供開始しました。
fine-tuningとは、既存の機械学習モデルを特定のタスクやデータセットに適応させるために行う微調整のことです。fine-tuningをすることで下記のようなことが可能になります。
- 操作性の強化: より具体的な指示への対応が強化され、日本語に対する応答も常時可能となりました。
- 高品質な出力の確保: 応答形式をJSONなどの高品質な形式に変換する際の信頼性が上昇しました。
- トーンのカスタマイズ: ブランドの認知度を上げるための独自のトーン調整が容易に行えるようになりました。
- 効率の向上: プロンプトの短縮を最大90%実現し、4kトークンまで対応しています。
今回の「Perplexity Copilot」のアップデートはGPT-3.5 Turboのfine-tuningのAPIを導入して行われました。
OpenAIは、今秋にGPT-4のfine-tuningのリリースする予定だとしています。
記事全体の概要 米国時間2023年8月22日、GPT-3.5 Turboのfine-tuningが開発者向けに提供が開始されました。更に、今秋にはGPT-4のfine-tuningのリリース予定とのことです。 今回PROMPT[…]
GPT-3.5 Turboのfine-tuningの導入によるパワーアップ
①品質を維持しながら処理速度を大幅に向上
今回のアップデートにより、「Perplexity Copilot」は品質の維持を確保しながら、処理速度が大幅に向上しました。特に複雑な問いかけに対しても、高い精度と速度を実現しています。
下記グラフは品質や処理速度を総合的に評価したものです。
②待ち時間が平均3.15秒から0.65秒に短縮
処理速度の向上によって、待ち時間は平均3.15秒から0.65秒に短縮されました。(下記ツイートリプライの動画)
この改善により、ユーザーはプロンプトに対する出力を待つ時間が減少し、よりスムーズな操作が可能になります。
③推論コストが約3分の1に
また、推論コストも削減されています。(生成AIは学習した情報をもとに、確率の高い文章や画像を推論して出力します。)
下記グラフは1トークンにかかるコストの入力、出力それぞれにかかるコストを表したものです。これを見ると推論コストが約3分の1ほど削減されていることが分かります。
Perplexityはこの効率化によって、Perplexityの機能強化への投資を継続することができ、今後の機能強化やサービス向上につなげるとしています。
まとめ
「Perplexity Copilot」は、GPT-3.5 Turboのfine-tuningのAPIを導入したことで、品質を維持したまま処理速度が向上し、プロンプトに対して出力するまでの待ち時間も短縮、さらにコストまで削減されました。
今後GPT-4のfine-tuningのAPIが公開されて、「Perplexity Copilot」だけでなく、様々なサービスの利便性が向上することに期待しましょう。