人工智能新图景:这里比想象更“无限”

光明日报记者 崔兴义

分布式智能感知系统、跨模态智能情报服务、多智能体博弈训练、自主无人系统、“电科芯云”微系统协同设计平台……近日,中国电子科技集团公司信息科学研究所(以下简称“中国电子科技集团公司”)智慧学院”公布了多项世界级创新成果,其中以Deepfake视频识别技术、仿生机器鱼智能检测系统、虚拟智能机器人等为代表的研究与应用成果可广泛应用于政府决策服务在公民的衣食住行、城市综合管理等诸多领域呈现人工智能新画卷。

“我们正在全面转向人工智能研究,重点突破人工智能关键核心技术,构建智能网络信息系统。” 情报院院长万谦告诉记者,围绕电科“军工电子主力军”、“网络信息产业国家队”“国家战略科技强国”三大定位,情报院成立不到10年,已全面转向人工智能研究,将推动人工智能技术在国家治理、社会民生等领域的深度融合和广泛应用,推动经济高质量发展。 在发展的同时,造福人民生活,服务大众,支撑和引领我国人工智能技术跨越式发展。

图片[1]-人工智能新图景:这里比想象更“无限”-首码网-网上创业赚钱首码项目发布推广平台

通过视觉SLAM算法实现自主定位的小型无人机资料图

视觉SLAM技术:机器人有自己的眼睛

有人曾经打过一个比喻,如果手机离开了WiFi和数据网络,就像机器人离开了SLAM。

机器人自主执行任务的前提是知道自己的位置,而定位信息由卫星导航定位系统提供。 如果机器人放置在城市建筑、立交桥下、室内、深山密林等环境中,卫星信号会因遮挡而微弱或消失,很容易导致机器人无法获取自身信号位置信息无法及时准确,无法执行精准任务。

“机器人的主动感知技术可以使机器人具备自主定位和感知周围环境的能力。” 智能研究院认知与智能实验室副主任张峰告诉记者,利用视觉SLAM(Simultaneous Localization and Mapping,意为“即时定位和地图构建”)算法不仅可以实现机器人的自主定位,还可以实时构建包含环境的几何结构、颜色、纹理等特征信息的三维地图。 拥有“眼睛”的机器人可以看到周围环境,摆脱对卫星导航定位系统的依赖,为自主完成既定任务提供关键保障。

如何在危险复杂的环境中探索和救援机器人? “机器人的‘眼睛’可以在黑暗中清晰地看到环境。” 张峰介绍,通过集成红外传感器,机器人可以在地下、洞穴等黑暗环境中执行探测任务,结合自身定位和目标探测识别信息,对视野范围内的指定目标进行探测、识别、跟踪和定位。视觉,感知周围物体及其位置,可用于危险复杂环境中的探索和救援任务。

除了用于探索和救援之外,视觉SLAM技术还可以应用在服务机器人领域。 比较简单,就像命令机器人去拾取一个物品,“机器人知道了物体的位置和环境地图后,利用SLAM技术构建家庭环境地图,然后规划一条没有障碍物的路径,这样可以顺利拿到指定的物品了。已经了。” 张峰说道。

在科技飞速发展的今天,AR/VR、无人机、无人驾驶等领域提升用户体验都离不开视觉SLAM技术的支持。

“AR技术就是将虚拟信息呈现给现实世界,通过SLAM技术的实时定位,将虚拟物体叠加在真实环境上进行实时显示。随着显示介质的移动,虚拟物体也不断跟随真实的环境。” 张峰告诉记者,利用AR技术进行室内导航,可以将虚拟物体叠加在真实房间中进行显示。 当观看者随着显示介质移动时,虚拟对象似乎保持在真实房间中的固定位置。 事实上,通过SLAM技术的实时定位,虚拟物体随着观察者视角的变化而实时更新位置显示,使观察者看到的与真实房间中的物体一样,可以从不同的观点。 观看角度。

“海雀”芯片:AI能力快速赋能无人设备

随着人工智能技术的不断发展,数据、算法和计算能力作为人工智能的三大基本要素,其发展趋势也在不断变化。 对于整个人工智能行业来说,海量数据的获取和处理难度正在降低,算法也在深度学习模型的基础上不断优化。 负责统一协调数据和深度算法的芯片能否实现大跨越,成为业界关注的焦点。 重点。

“面对边缘智能计算多元化、高效的需求,我们旨在打造一个好用、好用、好用的‘编译-处理’一体化智能计算生态系统,开发自主可控的边缘认知处理器和编译器。 研究。” 张峰告诉记者,处理器中,智院打造了研发周期短、资源需求低、模型适用性强的加速器IP核和硬件工具链,性能比通用处理器高出20倍以上。用途 CPU。 功耗降低5倍以上; 在编译器上,AI研究院实现了神经网络模型的统一表示、压缩优化和自动代码生成算法,可以快速将神经网络模型植入到硬件中,实现AI能力快速赋能无人设备。

具体到智能应用,图像和语音是两个重要领域。 “我们开发了基于AI指令集的可重构、可配置的卷积神经网络加速器,支持最常用的目标检测网络及其变体,可应用于无人机、无人车等无人设备,实现低成本实时图像。功耗、高精度目标检测。” 张峰表示,相关技术已应用于无人机编队海上搜救、无人车洞穴勘探等任务中,提高无人装备的目标发现能力。

智能语音技术是无人配备的耳朵。 “在语音智能应用领域,我们基于国产可控平台开发了适用于高噪声语音环境的车辆控制设备,连续语音识别准确率超过93%,并具有声纹识别和语音降噪能力”。 该所负责硬件、算法开发的王子维博士告诉记者,自控边缘认知处理器和编译器相关技术的应用,将智能算法在图像、语音领域的快速部署提升到了多倍。计算资源和功耗有限的异构硬件平台。 ,提高了无人系统在高复杂度、高实时场景下精准高效的边缘感知能力。

图片[2]-人工智能新图景:这里比想象更“无限”-首码网-网上创业赚钱首码项目发布推广平台

仿生机器鱼智能监控系统.资料图片

多雷达协同检测智能感知系统:实现“1+1>2”

雷达是探测空中目标的主要传感器。 可穿透云雾,不受天气影响,24小时稳定工作。 但目前雷达探测感知主要还是以“单手”探测为主。 面对无人机等低速小目标时,存在“看不清远、跟不上、无法准确识别”等问题。

智能研究院智能协同装备中心主任张德介绍,智能研究院通过集团内14个、38个重点研究院的共同努力,打造了一支敢于冒险、敢于拼搏的创新型企业团队,以及清华大学、北京理工大学、西北工业大学等大学。 研究团队联合开展技术攻关,先后攻克了探测、跟踪、定位、资源管控等一系列关键技术,成功构建了国内首个多雷达协同探测智能感知系统。

“系统采用多个低成本雷达+4G/5G或有线宽带通信网络+大数据云平台的智能感知系统架构,根据不同的探测任务动态控制前端雷达,自适应智能重构后端端处理算法,按需生成满足任务需求的产品。” 张德介绍,通过新技术的运用,可以有效挖掘原有设备的潜力,提高系统的整体能力。

系统可同时多角度观察目标,大幅提升系统能力,实现“看得远、跟得上、知准”的群体智能感知能力,推动从单设备检测到系统协同的跨代转变检测“采用大数据、人工智能等技术后,系统的能力可以像人类一样不断进化。” 张德告诉记者,经过针对性学习,这项技术还可以应用到新一代气象雷达上,实现全空域无线监测。 盲区覆盖、天气运动状态精准预测等新能力。

技术成果的推广应用还可以催生陆、海、空、天传感器广泛分布、自由互联、深度协作、透彻认知的新型智能感知系统,打造全球感知“一张网”和大大提高了全球意识。 对环境和物体的感知和认知,满足各种应用需求。 “这项工作具有广阔的应用前景,但仍有许多技术难点需要克服,需要我们加倍努力。” 张德说道。

分布式智能“大脑”:无人系统也能不断学习和进化

随着无人技术的发展,无人车、无人机、机器人等无人系统被用于搜索、跟踪和救援。 然而,如何实现无人系统自主协同运行、有效规避风险、提高工作效率仍然是业界公认的问题。

“我们研发的无人系统分布式智能‘大脑’,可以有效解决集中式集群控制的安全性和鲁棒性问题。” 张德介绍,智能“大脑”分为综合信息处理区和认知决策规划区。 “综合信息处理区”综合处理无人系统“眼睛”、“耳朵”等传感器采集的信息; “认知决策规划区”根据综合信息处理结果进行判断,形成决策规划方案; “行为协调控制区”根据决策规划结果对无人系统的行为进行协同控制; “学习训练进化区”利用数字孪生技术,将虚拟模型与物理实体紧密连接,通过线上线下协同学习和训练,提升无人系统的协同认知决策和控制能力,以及对环境的适应能力。复杂且未知的运行环境,正在不断改进。

目前,智能“大脑”已成功应用于空中无人蜂群区域搜索、重要场所空地协同防护、水下资源协同探测等场景。 张德告诉记者,智能大脑可以适应不同形态的无人设备,天上飞的、地上跑的、水中游泳的都可以作为无人系统的一部分。

“分布式智能大脑是智能所研究团队于2016年研发的,从最初的模拟环境测试,到半实物测试,再到现在的实际系统,历时近5年时间。” 张德和告诉记者,在实际应用中克服了两大难点。 一是如何将人工智能算法迁移到硬件设备上,因为人工智能算法的运行逻辑与传统算法完全不同; 二是智能“大脑”在实际设备中的应用。 同时,由于无人平台体积和能耗的限制,需要基于微系统等技术,使智能“大脑”重量更轻、体积更小、能耗更低。

“这些核心关键技术都是我们自主研发的。下一步,我们将继续研发更加稳健、更加智能的无人群体智能‘大脑’产品,让它们能够处理更多任务、适应更多场景、服务更多行业”。 张德说道。

《光明日报》(2021年9月2日第16版)

© 版权声明
THE END
喜欢就支持一下吧
赞赏 分享