智能手机摄影战斗从相机移动到芯片


一些中低端手机现在背面有多个摄像头 , 但安装在智能手机后面板上的摄像头数量并不等同于该设备产生的照片质量 。如果是这样的话 , 谷歌的Pixel手机凭借其单一的后置摄像头 , 将永远不会获得它作为拍摄照片的最好(如果不是最好的)手机之一所获得的赞誉和认可 。
秘密在于谷歌 , 华为 , 三星和苹果等公司使用的专用芯片 , 其中包括人工智能功能 , 以改善其设备拍摄的图像 。例如 , Pixels使用专门的Visual Core芯片 , 该芯片位于Pixel 2系列的每个单元内部 。该芯片包括机器学习功能 , 可自动调整摄像机的设置 , 以匹配照明和拍摄场景的其他方面 。它还驱动HDR +功能 , 它结合了多个图像以产生最佳拍摄效果 。
支持AI /机器学习的芯片已经成为高端手机制造商的最新战场
在周二举行的Apple新产品活动期间 , 该公司提到A13 Bionic芯片组的一部分包含一个“神经引擎” , 以帮助新款iPhone在低光照条件下拍摄可视照片 。正如科技巨头在推出新的iPhone Pro模型时指出的那样 , 这是依赖于数字图像处理而非光学处理的计算摄影 。这方面的一个例子是Deep Fusion功能 , 将在今年秋天的某个时候通过软件更新在新设备上启用 。正如我们已经解释的那样 , 这将允许手机在按下快门按钮之前拍摄8张图像 。通过按下快门添加捕获的图像 , 神经引擎在瞬间分析九个图像以确定产生最佳拍摄的图像组合 。与平均多个图像的HDR +过程不同 , Apple表示Deep Fusion将使用九幅图像将24MP图像组合在一起 , 逐像素地将最佳图像组合在一起 , 具有高细节和低噪点 。
【智能手机摄影战斗从相机移动到芯片】“按下快门按钮需要长时间曝光 , 然后在一秒钟内 , 神经引擎会分析长短图像的融合组合 , 选择最佳图像 , 选择所有像素 , 逐个像素 , 通过2400万像素 , 优化细节和低噪音 。“ - Apple全球营销高级副总裁Phil Schiller
路透社引用Ryan Reith在今天发布的一份新报告中 。在研究公司IDC工作的瑞思表示 , 这些人工智能/机器学习芯片已成为高端智能手机制造商正在竞争的最新战场 。Reith指出 , 在这个领域竞争的制造商是那些能够投资在他们的手机上优化相机所需的芯片和软件的制造商 。他说 , “今天拥有智能手机和芯片组的堆栈比以往任何时候都重要 , 因为手机的外部是商品 。”IDC项目副总裁还指出 , 这些芯片也将用于未来的设备 , 并提到苹果传闻的AR耳机作为该公司神经引擎工作的未来受益者 。“这一切都是为了更大的故事而建立起来的 - 增强现实 , 
虽然添加夜间模式和超宽相机等功能可能听起来像Apple解释它的方式一样具有革命性 , 但该公司正在追赶一些更具创新性的Android制造商 。随着华为和谷歌即将推出他们最新的高端手机 , 一旦尘埃落定 , 看看主要制造商的立场将会很有趣 。

    推荐阅读