MIT和Toyota发布用于自动驾驶研究的数据集DriveSeg是怎么样的

MIT和Toyota发布用于自动驾驶研究的数据集DriveSeg是怎么样的,很多新手对此不是很清楚,为了帮助大家解决这个难题,下面小编将为大家详细讲解,有这方面需求的人可以来学习下,希望你能有所收获。

成都创新互联公司2013年成立,是专业互联网技术服务公司,拥有项目做网站、网站制作网站策划,项目实施与项目整合能力。我们以让每一个梦想脱颖而出为使命,1280元南通做网站,已为上家服务,为南通各地企业和个人服务,联系电话:18980820575

DriveSeg包含许多常见道路对象的精确像素级表示,并通过连续视频驾驶场景的镜头。

我们如何训练自动驾驶模型,以加深对周围世界的认识?计算机能否从过去的经验中学习以识别未来的模式,以帮助他们安全地应对新的不可预测的情况?

麻省理工学院运输与物流中心AgeLab和丰田合作安全研究中心(CSRC)的研究人员发布了名为DriveSeg的创新性开放数据集。

通过发布DriveSeg,麻省理工学院和丰田汽车正在努力推进自动驾驶系统的研究,就像人类的感知一样,自动驾驶系统将驾驶环境视为连续的视觉信息流。

迄今为止,提供给研究团体的自动驾驶数据主要由大量静态的单一图像组成,这些图像可用于识别和跟踪在道路内和道路周围发现的常见物体,例如自行车,行人或交通信号灯,通过使用“边界框”。相比之下,DriveSeg包含许多相同的常见道路对象的更精确的像素级表示,但是是通过连续视频驾驶场景的镜头。这种类型的全场景分割对于识别更多不总是具有这种定义和统一形状的无定形对象(例如道路建设和植被)尤其有用。

根据Sherony的说法,基于视频的驾驶场景感知提供的数据流更类似于动态,现实世界的驾驶情况。它还使研究人员能够随着时间的推移探索数据模式,这可能推动机器学习,场景理解和行为预测方面的进步。

DriveSeg是免费提供的,研究人员和学术界可将其用于非商业目的。数据由两部分(manual与semi-auto)组成。DriveSeg(manual)是在马萨诸塞州剑桥市繁忙的街道上白天捕获的2分47秒的高分辨率视频。该视频的5,000帧使用12类道路对象的每像素人工标签进行密集注释。

DriveSeg(semi-auto)是从MIT高级车辆技术(AVT)联盟数据中提取的20,100个视频帧(67个10秒的视频剪辑)。DriveSeg(Semi-auto)与DriveSeg(manual)具有相同的像素级语义注释,除了注释是通过MIT开发的新型半自动注释方法完成的。与手动注释相比,此方法利用了手动和计算的努力,可以以较低的成本更有效地粗略地注释数据。创建该数据集的目的是评估注释各种现实驾驶场景的可行性,并评估在通过基于AI的标记系统创建的像素标记上训练车辆感知系统的潜力。 

看完上述内容是否对您有帮助呢?如果还想对相关知识有进一步的了解或阅读更多相关文章,请关注创新互联行业资讯频道,感谢您对创新互联的支持。


名称栏目:MIT和Toyota发布用于自动驾驶研究的数据集DriveSeg是怎么样的
转载源于:http://ybzwz.com/article/gjjcge.html