iPhone 13发布后,有褒有贬,在处理器等升级上被人诟病,不过在软件上却有不少创新,其电影模式受到苹果的高度重视,苹果全球产品营销副总裁KaiannDrance等详细介绍了电影模式细节和工程师研发的故事。
在最近的一次深入采访中,苹果高管谈到了iPhone13系列新电影模式。苹果公司全球产品营销副总裁KaiannDrance和人机界面团队设计师JohnnieManzari与TechCrunch谈论了电影模式以及公司如何在没有明确目标的情况下运行这个想法。
Johnnie Manzari表示:“我们没有一个关于该功能的想法,我们只是好奇电影制作,这就导致了这条有趣的道路,然后我们开始学习更多的东西,并与整个公司的人进行更多的交流,以帮助我们解决这些问题。”
Kaiann Drance表示,该功能在很大程度上依赖于苹果新的A15仿生芯片和神经引擎。为视频带来高质量的深度,比照片要难得多。与照片不同,视频被设计为随着拍摄者的移动而移动,包括手的抖动,这意味着苹果将需要更高质量的深度数据,以便电影模式可以跨主体、人、宠物和物体工作,而且苹果需要这种深度数据不断地跟上每一帧。实时渲染这些自动对焦的变化是一个沉重的计算工作负荷。
在开始研究电影模式之前,苹果团队花时间研究电影摄影技术,以了解更多关于焦点转换和其他光学特性。该团队一开始就对图像和电影制作的历史有着深深的敬畏和尊重。当他们开发"Portrait Lightning"概念时,苹果设计团队研究了安迪-沃霍尔等经典肖像艺术家和伦勃朗等画家。
电影模式的开发过程也是如此,团队与世界上一些最好的电影摄影师和摄像师进行了交流。然后他们继续与摄影指导、摄像师和其他电影制作专业人士合作。当然,苹果设计师意识到,这些技术需要高水平的技能,不是一般iPhone用户可以轻易做到的。
这就是苹果公司的作用。该公司解决了技术问题,并通过凝视检测等修复手段解决了问题。有些问题是通过机器学习解决的,这就是为什么该模式在很大程度上依赖于iPhone内置的神经引擎。这种类型的功能开发代表了苹果所能提供最好的东西。
责编:EditorDan