疑难破解!抓取源图质量不佳,怎么准确识别?

首页    i识别-智能称重    疑难破解!抓取源图质量不佳,怎么准确识别?

著名的经济学家亚当。斯密认为,经济的发展会被市场这一双看不见的手所左右。同样,也有一双手,左右着元芒数字小鲜女视觉秤的算法的准确性。当商品放上秤台,设备抓取到的是一半红苹果,一半却是或黑或白的手指。

 

拍摄到的图片本身质量不佳,应该怎么保证准确度?

元芒数字视觉秤在过去一年多的发展中,有两个重要指标,一个是快,一个是准。为了达到更快的识别,我们需要从各个环节去争分夺毫秒,一旦秤体感受到重量,就要启动拍照工作,快速抓取。

 

抓取的速度太快,这时候就存在两个问题。

1、 商品还未放稳,比如梨,放下后可能会往侧边翻滚,拍摄照片存在动态模糊。最终导致识别不准确。

2、 店员来不及撒手,手对商品遮挡面积较严重时,严重影响识别的准确度。

 

当然,训练店员“佛山无影手“,去快速放好放稳是不现实的,毕竟,方案的初衷就是降低操作难度,而不是换一种难度。那么问题来了,要怎样才能快速拍到高质量未遮挡的照片呢?

 

作为一家科技公司,我们擅长的,就是用技术去解决问。

针对商品滚动,图片模糊问题:

我们的解决方案是,感受到重量的时候,连续拍摄多张照片,选出最清晰的照片用于识别。然而,这并不是一件简单的事情,难度不在筛选清晰的照片,而在于拍摄的同时,需要”实时“判断出照片是否清晰并不容易。

 

针对手遮挡问题:

得出清晰的照片之后。就是给出识别结果了,这个时候任务变成2个

1、前端APP开始画界面,并把识别结果告知店员

2、同时手遮挡检测AI算法开始判断,本次结果是否有手的遮挡,如果有,会在前端提示,建议再次识别。

 

以上两个过程基本是同时进行的。

 

☆  商品被遮挡时,通过页面提示,避免打店员看到不准确的推荐结果,而手足无措。

☆ 同时,手遮挡AI算法运行,该算法是元芒数字定制过的高效算法,小网络高效率,整个识别过程在150毫秒左右就能给出结果。

 

良好的交互体验+AI技术结合,让整个方案都是以设备为主导,而店员只需要根据设备的交互去操作,就可以完成被动式升级,为顾客提供更加优质的服务。

 

 

 

 

创建时间:2023-03-28 16:51
浏览量:0
收藏