「Perplexity Copilot」がGPT-3.5 Turboのfine-tuningのAPIを導入してパワーアップ

プログラミング支援特化の生成AIツール「Perplexity Copilot」が新たなアップデートを実施しました。

今回のアップデートでは、OpenAIが先日、開発者向けに提供を開始したGPT-3.5 Turboのfine-tuningのAPIが導入されています。

このAPIの導入により、品質を保ったまま処理速度が向上し、推論コストも削減され、GPT-4と同じくらい高い性能となっています。

先日GPT-3.5 Turboのfine-tuningの提供が開始

米国時間の2023年8月22日、OpenAIはGPT-3.5 Turboのfine-tuningを、開発者向けに提供開始しました。

fine-tuningとは、既存の機械学習モデルを特定のタスクやデータセットに適応させるために行う微調整のことです。fine-tuningをすることで下記のようなことが可能になります。

  • 操作性の強化: より具体的な指示への対応が強化され、日本語に対する応答も常時可能となりました。
  • 高品質な出力の確保: 応答形式をJSONなどの高品質な形式に変換する際の信頼性が上昇しました。
  • トーンのカスタマイズ: ブランドの認知度を上げるための独自のトーン調整が容易に行えるようになりました。
  • 効率の向上: プロンプトの短縮を最大90%実現し、4kトークンまで対応しています。

        今回の「Perplexity Copilot」のアップデートはGPT-3.5 Turboのfine-tuningのAPIを導入して行われました。

        OpenAIは、今秋にGPT-4のfine-tuningのリリースする予定だとしています。

        関連記事

        記事全体の概要 米国時間2023年8月22日、GPT-3.5 Turboのfine-tuningが開発者向けに提供が開始されました。更に、今秋にはGPT-4のfine-tuningのリリース予定とのことです。 今回PROMPT[…]

        GPT-3.5 Turboのfine-tuningの導入によるパワーアップ

        ①品質を維持しながら処理速度を大幅に向上

        今回のアップデートにより、「Perplexity Copilot」は品質の維持を確保しながら、処理速度が大幅に向上しました。特に複雑な問いかけに対しても、高い精度と速度を実現しています。

        下記グラフは品質や処理速度を総合的に評価したものです。

        ②待ち時間が平均3.15秒から0.65秒に短縮

        処理速度の向上によって、待ち時間は平均3.15秒から0.65秒に短縮されました。(下記ツイートリプライの動画)

        この改善により、ユーザーはプロンプトに対する出力を待つ時間が減少し、よりスムーズな操作が可能になります。

        ③推論コストが約3分の1に

        また、推論コストも削減されています。(生成AIは学習した情報をもとに、確率の高い文章や画像を推論して出力します。)

        下記グラフは1トークンにかかるコストの入力、出力それぞれにかかるコストを表したものです。これを見ると推論コストが約3分の1ほど削減されていることが分かります。

        Perplexityはこの効率化によって、Perplexityの機能強化への投資を継続することができ、今後の機能強化やサービス向上につなげるとしています。

        まとめ

        「Perplexity Copilot」は、GPT-3.5 Turboのfine-tuningのAPIを導入したことで、品質を維持したまま処理速度が向上し、プロンプトに対して出力するまでの待ち時間も短縮、さらにコストまで削減されました。

        今後GPT-4のfine-tuningのAPIが公開されて、「Perplexity Copilot」だけでなく、様々なサービスの利便性が向上することに期待しましょう。