看,西南偏南上的中国“慧眼”

2018-03-19 16:03 稿源:用户投稿  0条评论

视觉应用技术的展示是今年西南偏南的重要议题。而除了AR、VR、8k等技术的体验之外,为机器“看见万物”而钻研的公司也备受关注。眼擎科技的CEO朱继志在西南偏南的舞台上分享了他创造这枚中国“慧眼”的经历心得,以及“AI最后一英里”的“中国经验”。


**给机器一双“慧眼”**

2016年5月,美国一辆电动车特斯拉Model S的车主,与一辆横穿路口的卡车相撞。经过调查,特斯拉公司认为出事车辆处于自动驾驶状态,至于为什么没能在天气良好的情况下识别出卡车而减速或者刹车,电动车公司认为在明亮的天空背景下,自动驾驶系统皆无法分辨出开车的白色边缘。


特斯拉的不幸事故暴露了一个自动驾驶领域的难题,即机器运算能力很高,但是其“视力”和人类相比还差的很远。而这个难题不仅局限于汽车,是目前所有机器和智能设备的“通病”。

自2014年成立以来,眼擎科技就专注在视觉成像芯片的研发上,团队的目标是让机器能更清晰的“看到”并感知这个世界。智能手机用户应该都有过这种经历,当拍摄对象处于逆光时,手机屏幕上经常出现的是一片昏暗不清的画面,因为相对于人眼的高分辨率和动态范围,当世最好的图像传感器也望尘莫及,这也是为什么像自动驾驶、无人机以及其他使用光学传感器作为导航的应用都需要避免逆光、强光、弱光等光照环境。

眼擎科技的视觉芯片要解决的最核心问题,就是要让机器能在各种复杂和极端的光照环境下,排除光线干扰,生成AI系统能够使用的可靠图像。眼擎科技研发的成像引擎,能够模拟人类眼球对光线的反应,以超高宽容度处理光比较大的图像。

在今年年初的极客公园创新大会上,眼擎科技做了这样一个演示:将会场灯光全部关闭,仅留台上的两个屏幕做参考,当观众已经看不到两个举着色卡的模特上台时,眼擎科技的机器不仅能看清模特,而且能准确识别出色卡上的颜色。眼擎用这个测试证明,其新发布的「eyemore X42芯片」在弱光环境下的识别能力,已经超过人类肉眼极限。

**从人眼到机器眼**


1878年乔治·伊士曼成功研发出早期的摄影胶片,同时也让“柯达”成为照相的代名词;一百年后,数码相机诞生,在商用不到二十年的时间里,迅速取代胶片成为人们保存影像的首选介质。


从胶片到比特,虽然用来存储影像的介质发生了变化,但有一点不变的是,存储在不同介质上的图像,最终的使用者都是人类。而现在,事情发生了变化。


根据BI Intelligence预测,2020年全球联网设备数量将达到340亿,其中物联网设备数量达到240亿,智能手机、平板电脑、智能手表等传统移动互联网设备数量仅为100亿。对于海量的物联网设备来说,让它们感知自己所处的环境,视觉依然是最重要的方向。而机器人“看懂”世界的方式,和人类不尽相同。这就代表我们此前用来处理图像的手段和硬件,已经不能满足新时代海量机器的诉求。

在人类视觉时期,我们关注的是如何增加更多像素,让用户看起来更清晰;在机器时代,我们需要做的是如何让图像能更好的被智能设备辨认出来。为了能让机器“看”的更清晰,我们不仅需要改变传统的图像信号处理方案,而且需要给图片处理设备提供足够的算力、优秀的算法和数据。最后,我们关注的焦点应该是像素的质量,而非数量。


这也是为什么眼擎科技认为,智能图像处理芯片会成为一个必然趋势,并投身其中。目前,眼擎科技的视觉芯片已经获得国内多家人工智能和无人驾驶公司的认可。


在不太遥远的未来,一个智能机器眼中的世界会是什么样子的,答案的可能就隐藏在像眼擎科技的视觉芯片之中。

本文由站长之家用户投稿,未经站长之家同意,严禁转载。如广大用户朋友,发现稿件存在不实报道,欢迎读者反馈、纠正、举报问题(反馈入口)。

免责声明:本文为用户投稿的文章,站长之家发布此文仅为传递信息,不代表站长之家赞同其观点,不对对内容真实性负责,仅供用户参考之用,不构成任何投资、使用建议。请读者自行核实真实性,以及可能存在的风险,任何后果均由读者自行承担。

有好的文章希望站长之家帮助分享推广,猛戳这里我要投稿

相关文章

相关热点

查看更多