各位都想知道的关于为什么你拍不出真实的北京沙尘暴?和天气没有权限怎么说的题吧,那就让小编带各位了解一下关于大家都关心的题。
关于北京的异常天气,也许朋友圈和微博比天气预报更快、更准确。
无论是晴朗的、朦胧的灰色还是最新的末日黄,我都能在微信朋友圈和微博上看到首都四环内外的异常天气。
沙尘暴中的角塔。图片来自朋友圈
以最近的“沙尘暴”为例。我早上醒来,查看了我的朋友圈。虽然身在炎热潮湿的广州,但从屏幕上的画面中我仍然能感觉到自己被黄沙逼到了街角。北京的朋友们他们的情况。
这被称为“十年来最严重的沙尘暴”。这被认为是近年来比较严重的恶劣天气状况,也是一个值得记录的时刻。智能手机影像的进步,让每个普通人都有机会成为“历史”记录者。
如果回到十年前,无论沙尘暴有多大,如果没有图像、没有网络,我都很难产生同理心。
不过看朋友圈里的照片,在“沙尘”天气下,还是有轻微色差的。有的照片呈现“末日黄昏”的橙红色,有的照片呈现寂静岭的“白雾”景象,仿佛他们就生活在那里。在不同的平行时空,享受不同的沙尘。
图片来自微博爸爸小张
朋友圈里也有摄影爱好者,趁机发帖教如何用手机拍出“真实的北京”。最重要的一步是将拍摄模式切换到专业模式并调整色温,也就是“摆脱AI算法的控制”,收回控制权。
按照本教程,我将色温提高到8000K,然后拍摄了一张照片。如果空气再差一点,肯定会有沙尘暴的味道。
人们一直希望让拍照变得更容易
无论你来自胶片时代还是进入数字时代。记录图像的工具一直在向自动化方向发展,从机械到电子,从35mm胶片到CMOS成像,自动进片、自动对焦、自动曝光等等,这些技术的出现,就是让人们使用复杂的测光技术。摆脱曝光过程,将所有精力集中在记录、创作和表达上。
相机全电子化之后,基于算法的物体识别功能其实很早就出现在相机上了。例如,索尼先进的自动模式曾经做非常基本的场景识别和优化直接输出,后来被移植到手机上的Xperia上。但当时的物体识别计算能力比较有限,最终的成像效果相差不大。
随着移动影像的发展,拍照的门槛再次降低,几乎触手可及。然而,由于尺寸和物理光学的,智能手机仅追随传统光学制造商的脚步。在成像上实现弯道超车几乎是不可能的任务。
智能手机扬长避短,充分发挥其在芯片领域的优势,发展出“计算摄影”新流派。其理念并不违背影像发展的大趋势,也遵循“让摄影变得简单”。
简单来说,智能手机利用芯片的AI算力,对传感器拍摄的图像在物体识别、场景识别、多帧降噪、合成等方面进行针对性优化。随着技术的不断进步,AI调色功底越来越深厚,对照片的把控也更加深入。一开始的激烈激烈的做法,逐渐变成了顺利顺利的过程,变得越来越微妙。
如今,只要你了解一点构图和光影知识,你就可以轻松地用智能手机拍出精的照片。人工智能对图像处理的参与越深,人们获取照片就越容易,越来越多的人感受到它的乐趣。
“AI增强”会是一把双刃剑吗?
不过,由于AI拥有更大的调整照片的权限,也引发了一些争议。
我无法拍摄沙尘暴的真实颜色,这只是我个人的观察。AI根据程序中的算法进行调整。当识别到天空时,就会调用“蓝天”的固有算法。简单来说,这个算法会让天更蓝,空气更清。的相反色调是蓝色。当遇到橙的沙尘暴时,它会被“优化”成淡白色的雾气。
其实这只是一个比较初级的改变,只是改变了色调和白平衡。对画面本身没有影响,这种效果在某些相机中也会存在。AI增强模式争议最大的其实是过去的“登月事件”以及各种软件上的“美颜算法”。
争论的核心是“拍”还是“画”,“真”还是“假”,是无中生有还是锦上添花。
图片来自知乎小成
以月事件为例。事实上,为了保证长焦能拍到大家喜欢的月亮,AI“用力过猛”。当识别出类似月亮的场景时,它会自动优化流程,甚至添加两笔,使其更加精确。你的照片里有坑坑洼洼。
拍月亮其实和近年来很多软件的“美颜”很相似。变身美颜算法可以把大妈变成女孩,把大男子主义变成娇妻。这类美颜滤镜还伴随着诸多与“”相关的内容。
这两类AI势力转型的例子有些令人厌恶,上升到了“欺骗”的程度。不过,遇到同样的场景,我还是会打开AI,让它给我一个“月亮”或者一张没有痕迹、没有胡须的脸。
追求还原“所见即所得”是摄影领域的原则底线。无论创作什么,都应该从真实出发。如果后期元素太多,就会逐渐脱离摄影的范围。在许多世界摄影比赛中,后期制作阶段不允许对照片进行过渡。需要的是一种记录的感觉。
对于我们普通人来说,我们想要的就是用最简单的设备,最简单的步骤,拍出一张好看的照片。而且,大部分拍摄的照片都用于在社交网络上分享。当你分享你“看到”你想分享的东西时,它是否真实并不那么重要。
或许对于摄影师或摄影爱好者来说,AI增强会对画面干扰过多,失去对照片的整体控制,难以匹配自己想要记录的场景。
但对于普通人来说,智能手机的AI增强是一个辅助工具,降低了拍照的门槛,让更多人参与其中,将其从小众群体活动变成大众。
快进AI拍照模式是否是一把双刃剑,取决于我们如何使用它。这就像DC宇宙中的“母盒”。它在达克赛德手中是毁灭性的武器,而在机械人手中,它可以成为复活超人的关键。
就像正义联盟的英雄们一样,他们对母盒知之甚少。目前我们也在探索AI拍照模式。
为什么不能拍摄“所见”的照片?
简短的回是人工智能不够强大。
对于蓝天、花朵、日落,AI会根据特定的算法进行优化。无论是锦上添花,还是无中生有,最终得到的都是我们脑海中空洞、华丽、丰富的画面。但对于“沙尘暴”等极端天气,AI没有标准案来优化,从而出现“负优化”。
雾霾肆虐的时候,各大厂商甚至Adobe旗下的Photoshop、Lightroom都推出了相应的去雾功能,让你的照片还一片蓝天。如果沙尘暴再次来临,相信“除沙”或者“银翼杀手”滤镜很快就会出现。
尚处于起步阶段的AI摄影模式除了无法针对特定环境进行专门优化外,其算法相对相似,制作出来的照片风格也比较相似,没有办法突出风格化。
另外,AI拍照模式还远远不够智能,尚不能自主学习来学习每个人的拍照喜好和后期制作偏好,并利用机器的大数据进行有针对性的拍摄。优化。例如,我喜欢采用高对比度、低色、低曝光的风格进行拍摄。拍摄时,我可以使用AI拍照模式,直接拍出类似的风格。这应该是AI或者计算摄影后续发展的一个大方向。换句话说,用同样的装备创造出不同的结果,才是一种高级的玩法。
每个人的“看到”都有非常主观的愿望在里面。同样的场景,不同的心情,可能会产生不同的画面。也许未来的某一天,你会发现你手机的AI拍照模式可以准确出你想要呈现的风格。那你看看朋友圈,就没有人会用《银翼杀手》的剧照来冒充北京了。沙尘暴场景。
为什么你拍不出真实的北京沙尘暴?和天气没有权限怎么说这样的话题,本文已经解完,希望对大家有所帮助。
No Comment