随着 iOS 26 中 Apple Intelligence 的推出,你的设备现在能够理解照片的具体内容,从而实现强大的自动化功能。本文将深入探讨如何利用全新的“快捷指令”操作来分析图像,并根据其包含的内容(例如是否有人物出现)进行自动分类。这一功能将繁琐的照片库整理任务转变为自动化的工作流,为你节省大量的时间和精力。
🏟️📣“想要每周获取类似的快捷指令吗? 加入快捷指令社区。
该功能的核心在于“快捷指令”中增强的**「使用模型」操作。以往该操作仅限于文本处理,现在则可以接收图像作为输入。你可以用自然语言对图像提问,并获得结构化的回复。其中一个关键的更新是支持请求布尔值**输出(即简单的“是”或“否”),这让你能直接在快捷指令中构建强大的条件逻辑。例如,你现在可以创建一个工作流,先检查照片中是否有人,然后根据结果执行特定的后续操作。


为了获得最佳效果,请在**「使用模型」**操作中使用准确的提示词。相比于只写“人”,使用“人,人类”可以提高准确度。你还可以将多个分析快捷指令串联起来。例如,先分拣出有人物的照片,然后对剩余照片运行第二个快捷指令,将风景照与宠物照分开。
在 Apple Intelligence 的助力下,“快捷指令”中的图像分析功能从根本上改变了你与照片库交互的方式。通过让设备理解视觉内容,你可以实现以前无法想象的自动化分类、筛选和元数据生成。这项能力让你能够构建自定义的智能工作流,只需极少的人工干预,就能让你的照片保持井井有条。
我热衷于制作简单的 Apple 快捷指令,以节省时间并让你的设备变得更智能。想了解更多?加入我的快捷指令社区,获取数据库、每周快捷指令精选、直播内容以及其他成员的帮助。点击此处注册