Apple Intelligenceがライブ翻訳、よりスマートなAI、開発者アクセスで拡張

Apple Intelligenceがライブ翻訳、よりスマートなAI、開発者アクセスで拡張

  • Lamiyi
  • 0
  • rhahw
Apple Intelligenceがライブ翻訳、よりスマートなAI、開発者アクセスで拡張

Appleは、Apple Intelligenceの機能拡張を発表しました。iPhone、iPad、Mac、Apple Watch、そしてVision Proに新機能が追加されます。同社の世界開発者会議(WWDC)で発表されたこのアップデートでは、ライブ翻訳、より強力なビジュアルインテリジェンスが導入され、さらに大きな動きとして、Appleのデバイス内基盤モデルがサードパーティ開発者に開放されます。

Apple Intelligenceがライブ翻訳、よりスマートなAI、開発者アクセスで拡張

重要な新機能の一つはライブ翻訳で、メッセージ、FaceTime、電話アプリに直接統合されます。Appleによると、これによりユーザーはリアルタイムで多言語コミュニケーションが可能になり、プライバシー保護のためすべての処理がデバイス上で行われるとのことです。この機能は、FaceTime通話中に翻訳されたライブキャプションを、通話中に音声翻訳を提供します。これは、AppleがAirPodsにライブ翻訳機能を搭載する計画があるという以前の噂を裏付けるものです。


Apple Intelligenceがライブ翻訳、よりスマートなAI、開発者アクセスで拡張Apple Intelligenceがライブ翻訳、よりスマートなAI、開発者アクセスで拡張

Appleは開発者向けに、新しいFoundation Modelsフレームワークを通じて、デバイス上の大規模言語モデルへのアクセスを開放します。これにより、開発者はクラウドAPIのコストを負担することなく、オフラインで動作し、ユーザーのプライバシーを維持するAI搭載機能をアプリに組み込むことができます。Appleは、このフレームワークがSwiftのネイティブサポートを備えているため、統合が容易であることを強調しました。

ビジュアルインテリジェンスもアップグレードされ、画面に表示されているものすべてを検索したり、操作したりできるようになりました。この機能は、写真やウェブページ内のイベントを認識し、カレンダーへの追加を提案したり、閲覧中のコンテンツについてChatGPTに質問したりすることができます。GenmojiとImage Playgroundも強化され、絵文字とテキストの説明を組み合わせて新しい画像を作成できるようになりました。


Apple Intelligenceがライブ翻訳、よりスマートなAI、開発者アクセスで拡張

Apple Watchに「Workout Buddy」という新しいフィットネス体験が登場します。Apple Intelligenceを活用してユーザーのワークアウトデータとフィットネス履歴を分析し、セッション中にパーソナライズされた音声によるモチベーション向上を提供します。これは、AppleがヘルスケアアプリにAIを活用したコーチング機能を搭載する計画があるとの以前の報道と一致するものです。

Apple Intelligenceがライブ翻訳、よりスマートなAI、開発者アクセスで拡張

その他のアップデートには、AppleのAIモデルに直接アクセスできる、よりインテリジェントなショートカット、AIで分類されたリマインダー、Apple Walletの注文追跡概要などが含まれます。これらの新機能は、本日より開発者によるテストが開始され、来月にはパブリックベータ版がリリースされます。最終リリースは今秋を予定しており、対応デバイスにはiPhone 16全モデル、iPhone 15 Pro、iPad mini(A17 Pro)、M1チップ以降を搭載したiPadおよびMacモデルが含まれます。

Apple Intelligenceがライブ翻訳、よりスマートなAI、開発者アクセスで拡張

WWDC の最新情報をもっと知るには、iClarified アプリをダウンロードするか、TwitterFacebookYouTubeRSSで iClarified をフォローしてください。

Apple Intelligenceがライブ翻訳、よりスマートなAI、開発者アクセスで拡張Apple Intelligenceがライブ翻訳、よりスマートなAI、開発者アクセスで拡張