5iMX.com 我爱模型 玩家论坛 ——专业遥控模型和无人机玩家论坛(玩模型就上我爱模型,创始于2003年)

标题: 【5iMX大玩家】采用X5R的RAW格式航拍是一种什么体验? [打印本页]

作者: 悠悠假期    时间: 2016-6-2 15:51
标题: 【5iMX大玩家】采用X5R的RAW格式航拍是一种什么体验?
(, 下载次数: 220)

文/图 卓一航
文章仅代表笔者个人观点,不代表5iMX立场与观点,转载需征得作者同意。

RAW格式对于专业摄影或摄像人员来说,有着独特的魅力,但对于大多数普通用户来说,则是陌生而又显得很高逼格的词汇。究竟什么是RAW?对于航拍而言使用RAW记录方便吗?这次笔者有机会体验到大疆X5R这款号称全球最小尺寸的4K RAW相机,并将使用心得分享给大家。由于时间仓促,加上笔者并非影视专业人员,故文章可能存在错误和瑕疵,不足之处敬请指正。



大疆在前不久推出了两款航拍相机:禅思X5和禅思X5R。X5R是在X5的基础上增加了对RAW格式的支持。什么是RAW格式,我们首先来科普一下RAW是什么。


(, 下载次数: 234)

“肉”RAW是什么
RAW直译过来就是“原始的”,发音近似“肉”。对影像而言RAW就是CMOS或者CCD图像传感器将捕捉到的光源信号转化为数字信号的原始数据,包括相机拍摄时的参数数据(如ISO值、快门速度、光圈值、白平衡等)。你可以将RAW理解为未经处理、未经压缩的“原始图像编码数据”或更形象的称为“数字底片”。

不过,同为RAW格式,但其实各家相机厂商的RAW格式命名各不相同,也不相互兼容。用户在处理RAW格式图片的时候必须使用厂商提供的专用软件,这为图像处理带来不小的麻烦。并且由于RAW是未经压缩的无损文件(其实是无损压缩),相较于JPEG格式图片容量会大很多,打开和处理RAW文件也会耗费更多的时间。

(, 下载次数: 223)

航拍为什么也要“肉”RAW
虽然RAW格式容量大且处理起来麻烦,为什么还备受专业人士推崇呢?其实只因为一点:后期空间大。

目前较为主流的RAW格式均拥有12位色彩深度,在后期调整上,它能对包括白平衡、对比度、饱和度、曝光补偿、锐度等等设置根据摄影师的需要进行调整,榨取更多细节,并且不会损失图像质量。而这些细节是在8位数据的JPEG图片上不可能找到的。当编辑一个图像的时候,特别是当你需要对暗部区域或高光区域进行调整的时候,这一点非常重要。



传统CCD/CMOS每个像素只能感光一种颜色,根据感光的强度不同转换成不同的数字,早期为8bit,后来到10bit,目前主流是12bit,更专业级的产品能到16bit。8bit就是一个点感光从最暗到最亮分为256个层次,10bit就是1024个层次,12bit就是4096个层次……以此类推。数据位越大存储的信息量就越丰富,宽容度越高(确保高光不会溢出,而暗部细节又得以保留),但数据容量也就越大。

Tips:
假设1600万像素每个像素包含12bit*3RGB的数字信息,那么它的未压缩的RAW照片大小:
16,000,000*12bit*3RGB=576,000,000bit = 68.66MB
注:1个彩色像素点由RGB三基色构成,也就是RGB三色分别对应12bit数据,RGB总色域为36bit(我们日常观看照片/视频通常为RGB 24bit真彩色)。

X5R的推出,使其成为了目前市面上最小巧、最便宜的4K RAW相机。原本奥林巴斯的这套M4/3系统口碑就相当不错(目前很多航拍团队都采用松下GH4+大疆Z15云台为客户拍片),加上X5R对RAW格式的支持,使它在专业领域更容易获得认可。对于以航拍为职业的从业者来说,有了X5R以后,他们可以利用Inspire这样的载机便可为客户拍摄4K RAW视频,而无需RED EPIC这样的大型设备,成本和风险都大幅度降低。

我们对比一下X5和X5R相机便能发现,大疆为了支持4K RAW可谓“不惜代价”。首先为了支持4K RAW格式视频流的存储,大疆采用了SSD固态硬盘作为存储载体。在拍摄最高3840*2160分辨率、每秒30帧视频时,最大码流高达2.4Gbps(平均1.6-1.9Gbps),显然这已经超出了普通Micro SD卡的极限速度。然而代价是,这张512GB的SSD竟然要9500元!9500元!9500元!……并且在4K RAW模式下,只能记录35分钟!35分钟!35分钟!



其次,要对4K RAW 12bit原画进行处理,包括一定程度的无损压缩,处理器也要做相应的升级。所以X5R在X5基础上硬生生多出来一个巨大的“铝盒”,里面是PCB电路和SSD控制器。为了应对高速处理器产生的热量,铁盒上还增加了两个小风扇进行散热。不仅重量增加不少,耗电量也相应增加,让Inspire无人机的续航时间变得更短(安全情况下大约10-12分钟)。



言归正传,Inspire+X5R的组合使用起来如何?是否能带来画质上的飞跃?



大疆X5R的48小时初体验
X5R挂接Inspire非常简单,稍微用过悟的同学都能独立完成,但是悟1.0版本必须升级云台连接器,2.0版本则不用。

(, 下载次数: 281) (, 下载次数: 197)
装好机器后,就是升级Inspire的固件,登录DJI网站(www.dji.com/cn)找到Inspire 1 RAW的固件升级包(“悟”Inspire 1 RAW 固件升级包 v01.08.01.40)点击下载,解压后拷贝到SD上,插入机器中开机,系统便自动开始升级。升级成功后便可使用。这里不再赘述。
需要说明的是,X5R相机有2套存储系统,Micro SD和SSD,它们是独立工作的。当你拍摄视频时,Micro SD和SSD会同时记录下完全相同的视频信息,一个为MOV格式,另一个为DNG的序列帧(也就是X5R的RAW格式)。但是拍摄照片却不会记录RAW格式。只有存储Micro SD上的JPG格式。


(, 下载次数: 238)
(, 下载次数: 220)
此外,DJI GO上关于SSD或RAW格式的选项很少,除了格式化SSD一个选项外。拍摄视频时,APP上显示出SD和SSD的工作状态以及剩余容量。
不过有一点令我不解,DJI GO APP上原本可以回放和删除拍摄的视频,但删除操作只会删除掉SD卡上的视频,而SSD上的RAW文件还在。由于RAW格式容量巨大,这样必然占用很多SSD空间,造成容量浪费。更加令人不解的是,同样想在电脑上删除RAW文件也是不行的,只能通过格式化的方式来彻底清理SSD空间。每次外拍回来,都要反复比对哪几条是我想要的,哪些是不要的,并且把数据从SSD里导出来后都要格式化一遍,真是非常不方便,希望DJI赶紧改进。

这是我拍摄的一段38秒30帧的4K视频,Micro SD卡上存储下一个272MB容量的MOV文件。
(, 下载次数: 254)

再来看看SSD这边。连接DJI专用的SSD读卡器(USB 3.0接口),插上电脑,只有一个DJI SSD的目录,里面是“OS X”和“WIN”两个目录,再往下是说明文件和驱动程序。可见,SSD的格式是不被计算机识别的,必须通过专属的软件才能读取里面的视频文件。
(, 下载次数: 245) (, 下载次数: 245)

接着安装DJI CameraExporter程序,很快就可以看到RAW视频文件了(选中这个就是对应的38秒)。因为无法预览,所以只能根据时间和序列号来推测,那个视频是我所需要的。其余的视频都是测试过程记录下来的废片,但是无法删除。

(, 下载次数: 237)

也就是说,这38秒的视频存储容量总计8.4GB。
(, 下载次数: 244)

好了,这里有必要科普一下,为什么X5R的RAW视频是一张张的图片文件?其实很好理解,电影是一秒24格(又称帧),也就是24张照片在一秒内连续从我们眼前闪过,由于人眼有“视觉保持”特性,因此在人眼看来,就是连续的动作效果。低于这个帧速,人眼会分辨出其中的停顿。所以24格(帧)又是一个标准,可以高于但是不能低于。
这38秒的视频我们采用的是30fps(每秒30帧,PC显示器标准)速度拍摄,因此理论应该得到38*30=1140(我们实际拍摄38秒多一点)。这在专业领域被成为“序列帧”(Sequence)——把活动视频用一帧一帧的图像文件来表示。我们熟悉的很多视频格式比如AVI和序列帧之间是可以相互转换的,在很多专业视频编辑软件里面。

DJI X5R的4K RAW视频其实就是将一张张连续的1600万像素的RAW照片单独存储起来。那么DNG又是什么格式呢?就又要科普一下来自大名鼎鼎的Adobe公司的CinemaDNG格式了。
CinemaDNG是一个开放的编码格式,是由Adobe提出来的,试图为数字摄影机提供一个公共开放的RAW编码。DNG单帧文件中包含时码轨(timecode)、色彩矩阵以及元数据(meta data)。

先前我们讲过,各家相机公司都喜欢弄自己的RAW格式,封闭方式。DJI并非影像行业的老牌企业,选择采用开源的RAW格式未可厚非。只是,我尝试了好多工具都无法打开DJI的DNG文件,包括Adobe自家的Photoshop CS6、Premiere Pro CC等工具,最后唯一能在PC上打开的程序是Adobe的After Effects CS6。
(, 下载次数: 233)
AE中选择“导入—文件”,然后在菜单左下角的“RAW序列”位置勾选即可,AE会自动导入该目录下的全部文件。

(, 下载次数: 206)
导入时用户可以设置RAW图像的色温、色调等参数,这也是RAW的特点。也可以不管,直接默认导入即可。

(, 下载次数: 236)
在这个界面即可对视频进行特效处理,但是每拖动一帧都相当的缓慢,应该说是巨慢无比。我的电脑配置是i5 4670K(物理4核)+ 8GB内存 + 512MB SSD。

(, 下载次数: 234)
AE并非Adobe的专业调色软件,但也有基本的调色功能。我不是专业后期,100%菜鸟一枚,胡乱调了一下,竟然变成了秋天的颜色。注意看,天空的细节是有的哦!

后来我发现,如果只是想简单预览或转化DNG格式文件,有一款名为XNView的软件可以,而不用启用AE这么庞大的程序。但这款软件不是Free的,AE也不是Free的,请支持正版。

(, 下载次数: 244)
通过XNView可以看到X5R的DNG色彩位为48bit,应该是RGBA(Alpha)各12bit,而不是RGB 16bit。另外,如果通过XNView将DNG图片直接转为JPG等常见的图片格式,会发现照片色彩会非常的暗淡(预览小图也能看出)。这是因为RAW原始的12bit被压缩到8bit输出了,自然会暗淡。

好了,关于后期的具体调色我们不想讨论太多,我只想说由于是序列帧的关系,所以剪辑方面远不如MP4文件简单、高效。另外比较令人抓狂的就是容量,实在太大了。用一位影视行业资深前辈的话来说,“DNG的优点是开源的,缺点是容量太大了。倘若只是剪辑短片还行,但如果要做电影,那可就费劲了”。

(, 下载次数: 233)

简单调色后,我尝试用AE渲染输出了18秒钟(541帧)4K视频,花费了近50分钟才渲染完成,可见效率之低。而且输出MOV格式(最高画质)文件容量高达11GB。但其实RAW是可以被压缩的,据说RED EPIC就解决得很好。
另外,这个11GB的4K视频经过HandBrake这类软件压缩后只有100MB左右,效果损失几乎看不出来。可见编辑未压缩的视频是多么可怕的一件事情。



那么DJI X5R的RAW效果如何呢?
我相信很多摄影爱好者和航拍玩家和我一样都充满了好奇,RAW格式究竟比MP4或MOV格式效果好多少。

其实最开始我已经谈到过,RAW的优势主要就是宽容度高,动态范围大(76dB)。因为12bit(2^12=4096)能承载比8bit(2^8=256)多16倍的阶数,因此同一个画面中,强光和阴暗部分的细节都能被尽可能多的保留。

我们用同一个画面来对比一下就明白了。

(, 下载次数: 241) (, 下载次数: 247)
上图是我用Inspire+X5R拍摄的一段4K视频截图,是在逆光情况下拍摄完成的,手动光圈快门。注意,MP4(左)和RAW(右)是在同一个时刻同一个镜头拍摄到的画面,分别记录在Micro SD卡和SSD卡中。


(, 下载次数: 234) (, 下载次数: 246)
注意看天空,RAW(右)还保留着绝大多数的细节,但是MP4(左)已经过曝了,卡白一片。

(, 下载次数: 227) (, 下载次数: 249)
RAW(右)格式的细节表现也更好,中央树林的层次感很好,MP4(左)有点糊的感觉。

(, 下载次数: 244) (, 下载次数: 245)
画面右下角的建筑物,RAW(右)看上去更立体,不过MP4(左)似乎噪点少一些。

//视频
http://static.video.qq.com/TPout.swf?vid=d0304ebxz3r&auto=0

我不是后期专家,所以对于RAW格式的处理和使用还处于摸索阶段。有兴趣的朋友可以下载RAW格式视频(DNG序列帧)体验一下。每段只有几秒钟,因为它们实在太大了。
另外,我看到论坛里有模友放出了用Davinci Resolve处理DNG序列帧的教程,达芬奇乃影视领域最被认可的专业调色软件,我打算抽空再去研究一下。

(, 下载次数: 261)
还有,DJI官网推荐的CineLight软件比Windows下面那个CameraExporter好用不少,可以预览RAW视频,但还是不能删除视频,而且只有MacOS版挺令人不解的。



总结
优点:体积小巧、拍摄效果好,动态范围大、能为影视后期提供更大空间,用在Inspire上航拍非常适合;
缺点:后期使用不够方便,数据容量巨大,且SSD价格太贵。


大疆创新创始人、CEO汪滔曾说:“航拍者此前为获得高品质影像,通常要花费巨资购买操作复杂的大型设备,如今,用户只需将X5系列航拍相机安装到‘悟’Inspire上,然后拧上桨叶即可起飞拍摄了。这样一个小巧轻盈、易于使用的航拍平台,帮专业摄影师省去了大量时间、精力,同时获得专业级影像。”

没错,我完全赞同汪滔的说法,事实上Inspire+X5的组合已经让航拍迈入了专业级的范畴,而且成本极其低廉(相对从前而言),甚至让大疆自己的S900/S1000 +Z15系列产品都显得如此笨重和过时。只是,X5R的采购成本和使用门槛都比X5高出不止一个等级,是否一定要上RAW版本相机,还得再考虑下。

BTW:据说大疆马上要发布“悟”2产品,前些日子“悟”的大降价据说就是为给“悟”2腾出市场空间。“悟”2会标配X5相机吗?并且大幅度提升续航时间吗?还会增加避障和各种智能跟随功能吗?……非常值得期待。








作者: 575253206    时间: 2016-6-2 19:26
我的电脑配置是i5 4670K(物理4核)+ 8GB内存 + 512MB SSD。 我的电脑配置是i5 4670K(物理4核)+ 8GB内存 + 512MB SSD。 我的电脑配置是i5 4670K(物理4核)+ 8GB内存 + 512MB SSD。

作者: muqusa    时间: 2016-6-2 19:33
悟2就是载机升级。。。估计摄像部分很难大幅度进步。。。

作者: ljdiablo    时间: 2016-6-2 23:07
纠结X5和X5R,不知道这近1万元的差价是差在了哪里?

作者: Lugard    时间: 2016-6-3 06:22
ljdiablo 发表于 2016-6-2 23:07
纠结X5和X5R,不知道这近1万元的差价是差在了哪里?

ssd硬盘

作者: wangzhengtatata    时间: 2016-6-3 13:41
本帖最后由 wangzhengtatata 于 2016-6-3 13:45 编辑

说了这么多,就是不说关键点,底子小,天生残缺 ,后天也补不齐。

作者: zsfhappy    时间: 2016-6-3 16:03
老衲微微一笑,掐指一算,感觉悟二绝对还是会避障(多方向),而且相机也会提高(变焦),续航时间提高(多个电池),飞控算法提高(冗余)。不信的话,大家可以看看最近大疆发布的产品,我觉得这些技术都会体现在悟二上,这才是汪涛的拿手好戏;
我觉得,惊艳世人的悟,第二代不应该平庸的如同P4,整天被H骚扰。
立帖为证,哈哈哈

作者: scu319hy    时间: 2016-6-3 18:47
用raw格式的图片都有装B嫌疑, 用raw格式的视频纯属装B~
真正懂计算机图形的学的人不会这干这种蠢事. 所谓细节...
首先, 无论是电影还是图像处理,8bit灰度已经超出了大多数人的分辨能力了.  10bit灰度应该没有人能认得了. 更不用说12bit. 保留如此高的灰阶没有必要.
其实, 有些压缩格式也可以支持更高阶的灰度. 非要用无损方式进行存储, 说是要保留细节, 实际完全是浪费空间和电能. 大多数有损压缩是都是丢弃人类无法感知且熵值大的高频率信息, 从而达到减少数据的目的. 如果处理得当, 几乎和原始数没有区别. 不可能有人能感知到信息丢失. 就像狗是色盲, 你给它看彩色照片和黑白照片, 它会觉得是一样的, 色彩对于它来说就是无用信息.
再者, 视频压缩除了空域变换还有时域变换, 通过丢弃在时间上重复的数据进一步减小数据. 在适当的条件下, 这种损失对于视频处理是无关紧要的. 只要算法和参数得当, 只用1/10的空间就能得到和原始数据几乎没有区别的视频.
好莱坞也大片也不会用raw格式拍摄...这实在是愚蠢到家的方案.

楼主说对了一点, 用raw格式便于后期处理. 但实际上, 单反之所以要这么做, 有很浓重的商业行为味道. 因为几乎所有的单反都把图像处理器做为卖点, 它们会把拍摄的照片进行处理之后再保存(比如降噪, 白平衡等等), 这样得到的图片效果会好很多. 但对于一些应用场景来说, 不做处理的原始数据会更便于后期, 因为难保自动做的图像处理会丢失一些什么信息, 但厂家又想把raw格式处理软件再卖一次(小日本最擅长干这种事), 把图像处理器里的程序搬到PC上就可以了, 又不想其它厂家也能用自己的程序...于是就有了各种各样的raw格式. 但这和图片的有损压缩是完全不同的行为, 这种图像处理会丢弃人类可感知的信息, 图片有损压缩是丢弃人类不可感知或感知度低的信息.  用通用的有损压缩格式保存未经图像处理器处理过的图像数据, 一样不会影响后期处理...

至于楼主指出的图像细节差异... 这无非是压缩过程中, 自动进行了降噪,白平衡以及其它图像处理导致的. 要知道, 一般的民用显示器是6bit, 高端的也不过8bit, 再高品质的原始图像在这种显示器上也看不出来效果, 因为显示的时候就自动转成6bit或8bit了. 实际上, 用一般的h264编码, 完全有能力做到和原始数据在民用级显示器上看不出差异.

最后, 楼主上传的图片都是jpg的,8位灰度有损压缩, 而且是用的非常高的压缩比.可细节大部分还在... 这能说明什么? 细节不是的损压缩丢掉的.

作者: mjpyd41    时间: 2016-6-3 21:31
我只想说楼上打了这么多字,说了这么多话,结果还是个外行在给内行讲道理。关键问题根本就没有理解。

比如12 bit raw数据,压缩到8bit数据,并不是线性变换的。比如想看比较亮的区域。可以采用亮部拉伸,暗部压缩的方法,把12 bit 映射到8bit,这样,亮部就可以看清楚了,暗部就不需要了。
如果想看暗部细节,可以采取亮部压缩,暗部拉伸的方法,这样,暗部细节就能看清楚了。

12 -bit raw,是表明记录了更多的原始信息。最终转成8bit的时候,主要看想给观众展示哪一部分细节。所以才说,12-bit raw,有更大的后期空间。

如果原始采用8-bit,亮部一片过爆,拍回来之后,亮部分本无法恢复。怎么展示给观众。

暗部又一堆欠曝光,想把暗部拉伸,展示给观众,也是没法展示的。




作者: mjpyd41    时间: 2016-6-3 21:51
本帖最后由 mjpyd41 于 2016-6-3 21:54 编辑

人眼的感知范围,不能简单的说是0~255.

比如在晚上,只有昏暗的月亮,人眼也能看清不少物体,这个时候的照度,绝对很小。
到了白天有大太阳,人眼照样能看清楚天上的白云,蓝天,甚至太阳。

而且这种差别,也绝对不是255倍。

再说说不同环境拍摄下来的感光值。
晚上光线很暗,用相机拍摄,感光值可以是0~255,;
白天蓝天白云很亮,用相机拍摄,感光值同样也可以是0~255.

如果在黑屋子里对着窗外拍蓝天白云。屋子里的暗处,和外面的蓝天白云都要拍下来,感光值还得是0~255。这个时候,可能屋里太暗,感光范围只能限制到大概0~80, 外面很亮,感光值只能限制到200~255 。再还有一些不亮不暗的地方。
如果这种情况下,大光圈拍摄,让屋子里面感光范围在0~255,那窗外蓝天白云必然过曝光,全超过255了,一片白,什么都看不清楚。
如果用小光圈拍摄,让窗外蓝天白云感光范围在0~255,那屋子里面感光值,必然都欠曝光了,一片漆黑,什么都看不清楚了。

如果原始拍摄的照片,既想清晰的记录下来黑屋子里东西,又想记录下来窗外的蓝天白云,即必须用12bit,甚至更高的像素深度。


人眼其实很神奇,几个照度情况下,能看清。几十万,几百万照度下,也能看清。所以人眼的感知范围,绝对不是你说的那么小。


作者: HOBOS    时间: 2016-6-5 09:40
不错,拍 PM2.5的效果比1/2.3的好

作者: 悠悠假期    时间: 2016-6-6 11:41
mjpyd41 发表于 2016-6-3 21:51
人眼的感知范围,不能简单的说是0~255.

比如在晚上,只有昏暗的月亮,人眼也能看清不少物体,这个时候的 ...

这位兄弟,你说得非常好,12bit主要提供的是感光的宽容度,同时保留高光的和低光的信息。并且这个宽容度主要针对后期的调整,实际到最终输出时,会根据调色者的意图,来对接到8bit的范围,而非线性对应的。
谢谢你的补充和分析,再次感谢


作者: 悠悠假期    时间: 2016-6-6 11:42
scu319hy 发表于 2016-6-3 18:47
用raw格式的图片都有装B嫌疑, 用raw格式的视频纯属装B~
真正懂计算机图形的学的人不会这干这种蠢事. 所谓 ...

略有点偏激了 详见楼下兄弟的回帖


作者: scu319hy    时间: 2016-6-6 12:17
mjpyd41 发表于 2016-6-3 21:31
我只想说楼上打了这么多字,说了这么多话,结果还是个外行在给内行讲道理。关键问题根本就没有理解。

比 ...

这位兄台, 你从哪儿看到我说人眼只能分辨0~255的灰阶了? 你连我说的问题的关键点都没的抓住啊~~
我只是说人的分辨能力有限, 很多人可能连8bit的灰阶都分辨不了... 8bit对于绝大多数人来说是绝对足够的, 对于动态图像来说更不可能分辨得了这么高的灰阶. 保留过高的灰阶是没有必要的.
更高的灰阶能表现出更大的动态范围, 在一个合理的限度下使用高灰阶是有意义的, 就像你说的,可以保留更多明部和暗部细节. 但这种需求是有限度的. 盲目使用高灰阶只能说明搞不清楚自己想要什么. 比如要求能把太阳和它边上的暗星都拍到...那别说12bit, 20bit都做不到, 但这是正常拍摄要去追求的么? 另外, 没有哪种传感技术能把明部和暗部做得一样好,通常来说动态范围越大失真就越大.


而我之前回贴所说的重点并不是灰阶的问题, 我说的重点在于是否使用raw形式来保存数据的问题. raw和灰阶本身没有半毛钱关系. 灰阶只要在合理范围内使用就没有问题, 用12bit去表现一只熊猫的颜色过渡也不是一般人要干的事. 也不知道是我没了解关键还是兄台你没理解关键.


作者: scu319hy    时间: 2016-6-6 12:29
悠悠假期 发表于 2016-6-6 11:42
略有点偏激了 详见楼下兄弟的回帖

我不是偏激...我只是想告诉大家这些个厂家玩的花招而已.至于那位兄弟的回贴, 他的论点基本上是对的, 抡据却是歪曲了我的原话... 并且那也不是我的论述的重点



作者: 悠悠假期    时间: 2016-6-6 15:16
scu319hy 发表于 2016-6-6 12:29
我不是偏激...我只是想告诉大家这些个厂家玩的花招而已.至于那位兄弟的回贴, 他的论点基本上是对的, 抡据 ...

你是想表达,厂商有故弄玄虚多赚钱的目的在里面?


作者: unpersonxiao    时间: 2016-6-6 23:53
scu319hy: 这位兄台, 你从哪儿看到我说人眼只能分辨0~255的灰阶了? 你连我说的问题的关键点都没的抓住啊~~我只是说人的分辨能力有限, 很多人可能连8bit的灰阶都分辨不了... ...


人眼确实分辨力有限,但是人眼自带HDR而相机没有,要真正做到所拍即所见就只能靠后期调整,这才是RAW格式大显身手的地方

作者: yhzyhzyhzapple    时间: 2016-6-8 05:02
scu319hy 发表于 2016-6-6 12:17
这位兄台, 你从哪儿看到我说人眼只能分辨0~255的灰阶了? 你连我说的问题的关键点都没的抓住啊~~
我只是 ...

人眼的确分辨能力有限,但是这么说吧,拍电影或是航拍,不是能给你足够的时间去调节各种参数的,就算你有时间,太阳还不等人呢。
拍摄的时候你不能调节到合适的压缩曲线,这需要在后期处理的时候进行,所以后期处理的时候需要保留原始数据。医学影像更是如此,x光的原始灰度色深超过24bit,受过训练的医师可以分辨10bit以上的灰度差,医院那些笨重的医用显示器都是售价过万的专业显示器,必须按期校正,并且会搭配专业的软件进行显示处理。

你不会看到民用产品宣传RAW这种功能,因为大众用户不懂这些,也不需要这么复杂的后期处理,当然他们用不到raw。但是对于专业用户,比如拍电影,拍摄只是其中一小部分,他们需要对原始影像做细致的处理。所以专业机没有什么傻缺的笑脸快门之类的功能。


作者: 卓一航    时间: 2016-6-8 11:15
高端,玩不起啊

作者: mjpyd41    时间: 2016-6-8 20:41
本帖最后由 mjpyd41 于 2016-6-8 20:43 编辑
scu319hy: 这位兄台, 你从哪儿看到我说人眼只能分辨0~255的灰阶了? 你连我说的问题的关键点都没的抓住啊~~我只是说人的分辨能力有限, 很多人可能连8bit的灰阶都分辨不了... ...

其实我主要是不认同你在帖子里说的这段话:
用raw格式的图片都有装B嫌疑, 用raw格式的视频纯属装B~
真正懂计算机图形的学的人不会这干这种蠢事. 所谓细节...
首先, 无论是电影还是图像处理,8bit灰度已经超出了大多数人的分辨能力了.  10bit灰度应该没有人能认得了. 更不用说12bit. 保留如此高的灰阶没有必要.

这段话是你的重点,我的重点也是不认同你这个说法。
你认为8-bit灰度已经超出大多数人都分辨能力,所以用更高像素深度的相机没有必要。

其实我们首先要区分开素材和最终制作成的影片。一般最终编辑好的影片都是8-bit像素深度,当然绝大部分显示设备都是8-bit。这个是考虑到人眼的区分范围。
我们不能因为最终制作好的影片是8-bit,拍素材的时候,就用8-bit像素深度的设备。这点肯定是不对的。就比如做测绘的人,如果我们要求的结果是8位精度,那么在测量原始数据的时候,是不能只取8位精度,必须取更高位的精度,比如10位,12位精度。有了原始数据之后,回来要对原始数据进行处理计算,做加减乘除,还有一堆非线性变换,最后得到结果,然后保留8位精度。这样才是合理的。如果你测量原始数据就只保留了8位,回来随便处理一下,精度就不够用了。

举个极端的例子,你要去山上采金矿石回来炼制金手镯,不能因为金手镯只有几十克重,那你去山上采矿的时候就不需要开车,而是提个手袋就够了。这显然是不对的。

实际上很多摄像机即使用了12-bit深度的像素,但是动态范围依旧不够用,还要采用log技术,hdr等技术等来增加动态范围。由此可以看到,相机行业为了追求更高的动态范围,想尽了各种办法。而不是你说的,“保留如此高的灰阶完全没有必要”(这是你的原话)。也不是你说的,“纯粹是为了装B”(也是你的原话)。



作者: skierado    时间: 2016-6-9 18:39
學習了~

作者: caiwenping    时间: 2016-6-9 19:05
就看了一段,都是胡话


宽容度和采样精度是一回事吗?麻烦搞搞清楚再发评测

作者: 悠悠假期    时间: 2016-6-12 15:12
caiwenping 发表于 2016-6-9 19:05
就看了一段,都是胡话

我所理解的宽容度其实是胶片时代的概念,现在都数码了,在曝光一定的情况下,CMOS采样精度越高宽容度越大,如果不对请指正。


作者: 悠悠假期    时间: 2016-6-12 15:15
现实真正存在的亮度差,即最亮的物体亮度,和最小的物体亮度之比为10^8,而人类的眼睛所能看到的范围是10^5左右,但是一般的显示器,照相机能表示的只有256种不同的亮度。
但是我们可以多拍几张照片,2张,3张,...., 甚至几十张,这些照片的曝光依次增大,很多朋友应该可以想到,随着照片曝光的增大,照片会依次变亮,换一种角度,照片所表示的细节会从亮处向暗处shifting.
按照上面的理论,用很多张不同曝光的照片合成,结果图像表示的数量级一般为2^16甚至更多。
这样问题就出现了,2^16甚至更高数量级的亮度只能存在电脑里,而一般的显示器只能表示256个亮度值,用256个数字来模拟2^16个数量级所能表示的信息,这种模拟的方法就是HDR技术核心内容,学名叫Tone-Mapping(色调映射,俗名色调压缩)。用Tone-mapping压缩以后,我们所合成的HDR影像就能很好的在显示器上显示了,能给人以震撼人心的效果。

作者: zxl0306    时间: 2016-6-13 14:37
好帖子

作者: yhzyhzyhzapple    时间: 2016-6-16 01:03
悠悠假期 发表于 2016-6-12 15:12
我所理解的宽容度其实是胶片时代的概念,现在都数码了,在曝光一定的情况下,CMOS采样精度越高宽容度越大 ...

不对,曝光宽容度是量程而非分辨率。就好像广角、长焦镜头和像素的关系一样。像素高不代表可以拍到更广的视角,但是可以增加在这个视角下分辨物体的能力。色深并不增加曝光宽容度但是可以提高对颜色的分辨能力。
对人来说夜盲症是宽容度不足;色盲是色深(颜色分辨率)不够。


作者: 铁.汉.    时间: 2016-6-16 02:44
mjpyd41 发表于 2016-6-3 21:51
人眼的感知范围,不能简单的说是0~255.

比如在晚上,只有昏暗的月亮,人眼也能看清不少物体,这个时候的 ...

你好认真喔,说给一个又用不到RAW的人听。

其实1080P也足够了,何必拍4K呢?


作者: 张然    时间: 2016-6-19 13:22
厉害

作者: mubius    时间: 2016-6-25 01:03
用raw的人基本不会来这看,就好像你和一个消费者去解释整个生产链一样,lz这是何必呢。。。。

作者: 乐乐lele    时间: 2016-6-29 12:31
...


作者: wjl992006    时间: 2016-7-8 09:25
学习了





欢迎光临 5iMX.com 我爱模型 玩家论坛 ——专业遥控模型和无人机玩家论坛(玩模型就上我爱模型,创始于2003年) (http://bbs.5imx.com/) Powered by Discuz! X3.3