AppleはiPhone 16で「Visual Intelligence」という新機能を発表しました。これは、ユーザーが周囲とより賢くやり取りできるよう支援することを目的としています。新機能は、デバイス右側のタッチセンサー式ボタン「Camera Control」を使って起動し、特定の対象物を指示することで、その情報を認識し、提供することができます。たとえば、レストランを指示するとメニューや営業時間、評価が表示され、イベントのチラシを撮影するとカレンダーに直接追加できます。また、犬の品種を特定したり、製品をクリックしてオンライン購入場所を検索したりすることもできます。さらに、Camera Controlは第三者ツールへのアクセスの入り口にもなる予定で、Googleを利用して製品を検索したり、ChatGPTで問題解決を行ったりできる機能も提供されます。この際、Appleはプライバシーを考慮しており、ユーザーが何を認識したり検索したりしているかの具体的な情報にはアクセスしないとしています。Visual Intelligenceは、デバイス内でデータを処理するため、Appleがユーザーのクリック内容を把握することはないと主張しています。