机器人视觉场景理解挑战赛

 

 

这是澳大利亚机器人视觉中心发起的一项比赛,刚刚开始,欢迎做机器人、SLAM、场景理解的朋友参与。

主要特点
  • BenchBot,用于运行语义场景理解算法的完整软件堆栈
  • 仅需几行Python代码即可在逼真的3D模拟和真实的机器人上运行算法
  • BenchBot API,它允许与机器人进行简单的交互,并支持OpenAI Gym风格的方法和简单的面向对象的Agent方法
  • 易于使用的脚本
  • 2500美元的现金奖励最佳参与者
  • 最佳团队有机会在澳大利亚机器人视觉中心实验室的真实机器人上执行代码,该机器人使用与模拟机器人相同的API
  • 使用Nvidia Isaac SDK与高保真3D环境进行接口和模拟
更多信息请看以下视频:

比赛任务

语义场景理解挑战分为3种模式,跨越2个不同的语义场景理解任务,共有6种不同的挑战形式。不同的挑战模式让更多的参赛者参与其中,从只想专注于视觉场景理解的参赛者,到希望将机器人定位与视觉检测算法相结合的参赛者,都可以通过不同的挑战模式来完成。

 

模式一:被动式控制,有ground-truth的定位

模式二:主动控制,有ground-truth的定位

模式三:主动控制,使用航位推算(无定位)

 

任务一:语义SLAM

参与者使用机器人在环境中穿行,通过机器人的RGBD传感器观察和测量的结果建立一个基于对象的语义图。

任务二:场景变化检测

 

参与者使用机器人穿越一个环境场景,建立起对场景的语义理解。然后,机器人在相同的环境中被移动到一个新的起始位置,但条件不同。伴随着从白天到黑夜的变化,新的场景会添加一些新的对象和/或删除对象。参与者必须制作一个基于对象的语义图,描述两个场景之间的变化。

 

详情参阅BenchBot评估文档:https://github.com/roboticvisionorg/benchbot_eval

例如:观察以下两个视频,找出不同,编写算法。

第一天:

第二天:

比赛准备
  • 下载并安装BenchBot软件栈
  • 选择一个任务开始研究解决方案,使用benchbot_run  –list-tasks列出支持的任务
  • 从开发环境 “miniroom “和 “house “开始,这两个环境包括地面真相图,帮助你的算法开发
  • 使用 benchbot_run, benchbot_submit, & benchbot_eval脚本开发一个解决方案。
  • 使用benchbot_batch  -t <your_task>  -E <benchbot_root>/batches/challenge/<your_task>  -z  -n <your_submission_cmd>创建结果
  • 提交方案
备注
BenchBot地址:
https://github.com/roboticvisionorg/benchbot
示例地址:
https://github.com/roboticvisionorg/benchbot_examples
主办单位
  • 澳大利亚机器人视觉中心
比赛时间
  • 开始于: 2020年5月16日上午8:00:00:00
  • 结束于: 2020年9月2日 7:59:59 AM
报名地址
  • https://evalai.cloudcv.org/web/challenges/challenge-page/625/overview

转载请注明:《机器人视觉场景理解挑战赛