疑难破解!抓取源图质量不佳,怎么准确识别?
著名的经济学家亚当。斯密认为,经济的发展会被市场这一双看不见的手所左右。同样,也有一双手,左右着元芒数字小鲜女视觉秤的算法的准确性。当商品放上秤台,设备抓取到的是一半红苹果,一半却是或黑或白的手指。
拍摄到的图片本身质量不佳,应该怎么保证准确度?
元芒数字视觉秤在过去一年多的发展中,有两个重要指标,一个是快,一个是准。为了达到更快的识别,我们需要从各个环节去争分夺毫秒,一旦秤体感受到重量,就要启动拍照工作,快速抓取。
抓取的速度太快,这时候就存在两个问题。
1、 商品还未放稳,比如梨,放下后可能会往侧边翻滚,拍摄照片存在动态模糊。最终导致识别不准确。
2、 店员来不及撒手,手对商品遮挡面积较严重时,严重影响识别的准确度。
当然,训练店员“佛山无影手“,去快速放好放稳是不现实的,毕竟,方案的初衷就是降低操作难度,而不是换一种难度。那么问题来了,要怎样才能快速拍到高质量未遮挡的照片呢?
作为一家科技公司,我们擅长的,就是用技术去解决问。
针对商品滚动,图片模糊问题:
我们的解决方案是,感受到重量的时候,连续拍摄多张照片,选出最清晰的照片用于识别。然而,这并不是一件简单的事情,难度不在筛选清晰的照片,而在于拍摄的同时,需要”实时“判断出照片是否清晰并不容易。
针对手遮挡问题:
得出清晰的照片之后。就是给出识别结果了,这个时候任务变成2个
1、前端APP开始画界面,并把识别结果告知店员
2、同时手遮挡检测AI算法开始判断,本次结果是否有手的遮挡,如果有,会在前端提示,建议再次识别。
以上两个过程基本是同时进行的。
☆ 商品被遮挡时,通过页面提示,避免打店员看到不准确的推荐结果,而手足无措。
☆ 同时,手遮挡AI算法运行,该算法是元芒数字定制过的高效算法,小网络高效率,整个识别过程在150毫秒左右就能给出结果。
良好的交互体验+AI技术结合,让整个方案都是以设备为主导,而店员只需要根据设备的交互去操作,就可以完成被动式升级,为顾客提供更加优质的服务。