iOS 26のApple Intelligenceにより、デバイスが写真の内容を理解し、強力な自動化が可能になりました。今回の解説では、新しい「ショートカット」アクションを使用して画像を解析し、人の有無などの内容に基づいて自動的に仕分けする方法をご紹介します。この機能を使えば、写真ライブラリの整理という面倒な作業が自動化されたワークフローに変わり、時間と手間を大幅に節約できます。
🏟️📣「毎週このようなショートカットが欲しいですか? ショートカットコミュニティに参加しましょう。」
この機能の中核となるのは、強化された「モデルを使用」アクションです。以前はテキストのみに限定されていましたが、このアクションで画像を入力として受け取れるようになりました。自然言語で画像について質問し、構造化された回答を受け取ることができます。特に重要な追加機能は、「ブール値」(単純な「はい」か「いいえ」)の出力をリクエストできるようになったことです。これにより、ショートカット内に強力な条件分岐ロジックを直接組み込めます。例えば、写真に人が写っているかどうかを確認し、その結果に基づいて特定の動作を実行するワークフローを作成できます。


最高の精度を得るには、「モデルを使用」アクションのプロンプトを具体的に記述してください。単に「人」とするよりも、「人、人間」とすることで精度が向上する場合があります。また、複数の解析ショートカットを連結することも可能です。例えば、最初に人が写っている写真を仕分けし、次に残りの写真に対して別のショートカットを実行して、風景写真とペットの写真を分けるといった使い方ができます。
Apple Intelligenceを搭載した「ショートカット」の画像解析機能は、写真ライブラリとの関わり方を根本から変えるものです。デバイスが視覚的な内容を理解できるようになることで、これまで不可能だった方法で仕分け、フィルタリング、メタデータ生成を自動化できます。この機能を活用すれば、最小限の手間で写真を完璧に整理できる、自分専用のインテリジェントなワークフローを構築できます。
私は、時間を節約し、デバイスをよりスマートに感じさせるシンプルなAppleショートカットを作るのが大好きです。もっと詳しく知りたい方は、データベース、今週のショートカット、ライブ配信、そして他のメンバーからのサポートが受けられる私のショートカットコミュニティにぜひ参加してください。こちらから登録できます