人工智能使照片更清晰就像HDR固定颜色一样


数字摄影师多年前发明了“像素窥镜”一词来表示——主要是轻蔑——那些专注于创造照片而不是整个图像的单个点的缺陷的人 。有人说,放大到100%只是一个永远令人失望的配方;相反,根据拍摄的照片的整体质量来判断每个相机,而不要对细节细节 。
到目前为止,苹果的数字摄影方法一直是由其致力于提高大图片的质量而不进一步损害像素级质量来定义的 。我说“更远”是因为在一场公平的战斗中,微小的电话摄像机传感器在物理上无法匹配全帧DSLR摄像机传感器的像素级结果,这一事实是无法绕过的 。更大的传感器可以捕获更多的光,几乎总是比iPhone的12百万像素相机更多的实际像素 。拍摄一张照片与几乎任何DSLR对一个iPhone,DSLR将赢得像素级的质量 。
【人工智能使照片更清晰就像HDR固定颜色一样】不幸的是,对于DSLRS,苹果对公平的竞争不感兴趣 。在9月的媒体活动上进行了一次现场预览后,一个名为“深度融合”的新的iPhone11功能昨天以iOS13.2的第一个测试版的形式出现 。深度融合是苹果的名字,一个新的机器学习辅助计算摄影技巧,iPhone11模型可以应用于飞行,以提高细节 。
当DSLR在一秒钟内拍摄一张照片时,A13仿生驱动的iPhone11系列相机将拍摄三、五或七,使用技巧,如在快门按钮按下之前开始拍摄,并以如此快的速度拍摄多次曝光,使DSLRs无法跟上 。而当传统摄影师在复杂图像的完整性问题上挣扎时,苹果AI会从一堆照片中挑选出最好的部分,并在你眨眼的时候把它们变成一张理想化的“照片” 。
如果你接受高动态范围(HDR)图像作为“摄影”而不是艺术-使用三到七次曝光来创建一个具有理想化阴影、高亮和颜色细节的图像-你不能真正反对使用类似的技术来提高清晰度 。特别是当它工作得如此迅速和自动,以至于你甚至不知道它正在发生 。

    推荐阅读