NVIDIA GPU助力译图智讯部署高效AI计算处理平台

描述

北京译图智讯是一家 OCR 识别软件厂商,致力于为客户构建一站式 OCR 识别解决方案,专注于计算机视觉、图像识别、深度学习等 AI 技术的研发,助力企业实现数字化转型,降本增效。

图像处理和 OCR 识别是运算密集型技术,对算力要求较高,借助于NVIDIA A100 Tensor Core GPU及A10 Tensor Core GPU,译图智讯构建了更加高效的硬件训练平台,缩短了 OCR 模型训练、预测的处理周期,进一步提升了 OCR 识别速度与精度。

OCR 过程包括图像分类、目标检测、图像分割、OCR 识别、NLP 提取等模型训练任务,其中每一个模型都需要对大量样本进行标注训练,所需数据量庞大且复杂,整个建模过程对服务器算力、GPU 显存都提出了更高的要求。

译图智讯以往训练服务器采用的是 CPU + NVIDIA T4 GPU 多卡的硬件方案,其运行速度远远跟不上复杂模型建设的需求,实际运算性能大打折扣。NVIDIA A100 及 A10 GPU 配备了具有更高精度的第三代 Tensor Core 核心,可实现成千上万个 GPU 集群的高效扩展。A10 相较于 T4,可提供高达 2.5 倍的虚拟工作站性能及推理性能,结合 A100 跨工作负载的高强计算力,相比上一个平台,译图智讯实现了最高 20 倍的 AI 性能,以及 3 倍的 AI 训练速度,可快速完成数据建模。

借助 NVIDIA A100,满足了需要更大显存的训练任务。以 OCR 文本识别训练为例,需要对数千万的图像数据进行训练,采用基于 T4 构建的服务器时,训练周期需要 7 天,依托 A100,训练周期可缩减至 3-4 天,极大地提升了模型和产品的迭代周期;同样在模型预测阶段,以调用频次最高的身份证识别为例,在以 T4 构建的服务器中,OCR 识别一次需要 300ms,1 秒钟可识别 3 张身份证,依托 NVIDIA A100 服务器,每一次可以缩短至 100-200ms 左右,1 秒钟可识别 5-6 张身份证,单位时间处理时间显著降低,并发能力增加,给产品研发速度带来质的提速。

通过 NVIDIA A100 及 A10 强大的算力服务器支持,能够并行运行多个计算机视觉算法架构,在节省运行显存开销的同时,带来了更快的神经网络训练及推理效率,显著加速了 OCR 识别中对图像数据处理的时间。

译图智讯产品总监刘伟表示“模型训练在 NVIDIA GPU 上的运行速度更快,极大优化了图像处理流程,使研发人员能够更高效地投身到图像标注、训练、分析、文字识别的过程中。随着 OCR 识别技术的应用越来越广泛,译图智讯将更高效地利用 AI,借助NVIDIA GPU AI计算平台,提升 OCR 识别的速度与精度,使 OCR 在各个场景都达到毫秒级的运行速度,专注更智能、高效、安全稳定的 OCR 整体识别解决方案,助力 OCR 识别技术创新,加速社会信息化进程。”

本案例中,NVIDIA 优选级合作伙伴北京安联通助力译图智讯部署了高效 AI 计算处理平台,同时帮助译图网络数据中心的设备进行升级改造,部分网络设备换成全新的 NVIDIA 网络产品,使网络传输速度比原来的提高数 10 倍,给客户体验感更好,识别速度更快。

审核编辑:汤梓红
 
打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分