OpenAIが2024年12月に開催している「12 Days of OpenAI」 今回は9日目から12日目(最終日)までの発表内容をまとめてみました。前回の4日間で個人的に気になったものは、Voiceモードでビデオを使用する事が出来るようになった事やVoiceモード中でも検索できるようになった事です。
早々とSoraの発表が有ったので、少し落ち着いた感じの4日間だったようには思いますが、それぞれ単体での発表で有れば食いつくような内容だったのは間違いありません。
それでは9日目から12日目(最終日)までの発表を見ていきましょう。
これまでの発表内容(9日目から12日目)
9日目(12月18日): Dev Day Holiday Edition
9日目は、OpenAIのAPIを活用する開発者とスタートアップに焦点を当てた特別な1日でした。この日は、より多くの開発者が活用できるようにAPIの新機能がいくつか発表されました。
まず、o1モデルがプレビュー段階を終了し、正式に公開されました。このモデルは、複雑な課題に対する推論能力が向上しており、新たに次の機能が追加されました。
- 関数呼び出し: APIを通じて外部の機能を簡単に利用可能。
- 構造化出力: JSON形式でデータをフォーマットし、一貫性を持たせる。
- 開発者メッセージ: 開発者がモデルの動作を直接制御できる仕組み。
- 画像入力: 科学や製造業など幅広い分野で利用可能な画像解析機能。
また、リアルタイムAPIも進化し、WebRTC対応によるリアルタイム音声対話が可能になりました。この技術は、音声アシスタントや会話型アプリケーションをより低遅延で実現します。
さらに、ユーザーの好みに応じたモデル調整を可能にする「優先調整型ファインチューニング」が導入され、カスタマーサポートや文章作成の分野で役立つツールとなりました。
10日目(12月19日): 電話とWhatsAppでのChatGPT
10日目は、ChatGPTが新しいプラットフォームで利用できるようになるという重要な発表が行われました。
ChatGPTは、米国内で1-800-CHAT-GPTに電話をかけることで、音声を通じて対話が可能になりました。また、WhatsAppでも世界中からアクセスでき、チャット形式でさまざまな質問やリクエストに対応します。
さらに、基本的な対話にはアカウント不要で利用できるようになり、画像や検索機能といった追加機能はログインユーザー向けに提供されています。
これにより、データ接続が不安定な場所でもAIの恩恵を受けることができるようになり、多くの人々が手軽にAIを活用できる環境が整いました。
11日目(12月20日): デスクトップアプリとの連携
11日目では、ChatGPTのデスクトップ環境での活用がさらに広がりました。
MacおよびWindows用のネイティブデスクトップアプリが強化され、キーボードショートカットを使った素早いアクセスや、他のアプリケーションとの連携機能が追加されました。例えば、ターミナルでのデータ解析結果を即座にグラフ化し、視覚的に表示することが可能です。
また、XcodeやVS Codeなど、主要な統合開発環境(IDE)との連携により、コードの生成やデバッグ作業を効率化できます。さらに、Apple NotesやNotionなどの文書作成ツールとも連携し、ライティングの補助やリサーチのサポートを行います。
12日目(12月21日): O3とO3 Miniの発表
12日間の締めくくりとして、OpenAIは最新のAIモデル「O3」とその軽量版「O3 Mini」を発表しました。
O3モデルは、これまで以上に高度な推論能力を持ち、競技プログラミングや高度な数学の分野で人間を超える成果を上げています。一方、O3 Miniはコスト効率に優れたモデルで、低コストで高品質な結果を提供します。これにより、幅広い開発者が高度なAIを利用できる環境が整います。
さらに、これらのモデルは外部研究者による安全性テストのために公開され、AIの透明性と安全性向上が図られています。また、新しい安全技術「熟考的整合性」により、不適切なプロンプトの検出と防止がより効果的になっています。
まとめ
これで「12 Days of OpenAI」は終了です。最後の4日間は、「新たな可能性を見せた4日間」でした。というテーマが感じられます。特に気になったのは11日目のデスクトップアプリでの連携機能の拡張です。「AIをバリバリ使いこなす」というよりは、今まで使ってきた他のツールと連携し、そこで貯めてきた情報をGPTに取り込む事でそれぞれのツールの使い方の枠を広げる感じがしました。特にNotionはNotoアプリというよりはデータベースとして注目しているので、こちらで蓄積された情報を渡すことができると営業系のお仕事してる方は分析がしやすくなるのではないでしょうか?早くWindowsのデスクトップアプリでも使えるようになるのを首を長くして待ってます!
全体の流れを振り返ると
最初の4日間: 期待感を高める発表でユーザーを引き込む段階。
真ん中の4日間: 基本機能の強化と拡張でAIの基盤を固める段階。
最後の4日間: 新しい技術を示し、AIの可能性をさらに広げた段階。
という感じでした。AI技術の進化と私たちの生活や仕事に対し影響度がさらに増してきています。「AIってどう使ったらよいか分からない」ではなく、気付いたら色々なものに組み込まれ、「使わないと取り残されていく」そんな焦りも出てきます。
しかし、全体を通してみると何度も言いますが単発で出しても良いような発表を12日間にまとめて発表してきたというのはすごい事です。後発のAIに押され気味な気がしていたこの頃でしたが意地を見せてくれた12日間でした。
2025年もAI界隈は目が離せない状況が続くのかと思うと楽しくてしょうがないですね♪
コメント