滚动频道首页 > IT数码新闻滚动_搜狐资讯

徒手抓精灵微动Vidoo这样玩Pokémon GO

2016年09月01日12:43 | 我来说两句(人参与) | 保存到博客
徒手抓精灵微动Vidoo这样玩Pokémon GO


  Pokémon GO让AR和手游、街头甚至社交相结合,仅仅是这几个关键词就足够吸引人,再加上Pokémon 这一世纪大IP,好像不火反而没道理。但是在手机上用长按滑动的触屏操作模拟“抛出”精灵球,将宝可梦收入其中……会不会有些略显拘谨和中二?虽然国服还未开放,但是中国玩家对Pokémon GO的思考和想象并不少,Pokémon GO确实带给我们很多惊喜,但是玩家最期待看到的不是技术最初级的样子,而是将之与最适合的技术表现形式相结合,从情节设计和操作方式来看,VR/MR+手感操控能带给我们更爽的体验。

  开脑洞容易,但实现呢?

  微动和易瞳共同尝试了VR和MR版Pokémon GO,实拍视频:http://v.qq.com/vplus/ff5d3ca732a20c350f8cf579b9d6066f ,宝可梦从手机屏幕中解禁,你可以抓住想要选择的精灵球,在眼前调整角度瞄准后冲着宝可梦抛出。如果你遇到的是一只刚烈而又狡猾的宝可梦,为了避免被带节奏,还可以打圈儿扔出最强旋转精灵球、投喂食物,大概没有哪只宝可梦可以从阁下手中逃脱了吧。
关于开发教程
关于开发教程

  相信各位老司机们对VR的了解已经非常透彻,微动和易瞳携手做的这段demo除了想要帮大家解锁抓宝可梦的新姿势,还想把MR+手感操控的技术表现形式普及给大家,以下为开发教程,除此之外SDK也可以在微动Vidoo官网免费下载,期待开发者在吃下这记良心安利后会有更多大作产生。

  手感操控:

  首先,通过微动的双目深度传感器得到深度图像。在深度图像中,我们通过修改每个像素RGB的值用以标定该像素与传感器之间的距离。当我们观察深度图像时,会发现其效果与我们熟悉的红外热成像图像类似,只不过我们把温度替换成了距离。下图中,左侧为深度图像,右侧为原始图像。通过观察可以看出,距离越近的区域,颜色越红;距离越远的区域,颜色越蓝。
徒手抓精灵微动Vidoo这样玩Pokémon GO


  其次,我们将深度图像中符合人体手部特征的部分分割出来,进行手部姿态、动作的识别。这里需要指出的是手势识别算法是基于深度图像而不是普通图像的。这样可以方便我们获得手部每个点的深度信息。从而还原出整手的骨骼结构。如果我们想要与虚拟物体进行触碰式的交互,骨骼结构是不可缺失的技术前提。
徒手抓精灵微动Vidoo这样玩Pokémon GO


  最后,我们通过算法将传感器坐标系(包含手部骨骼空间信息)、虚拟世界坐标系(包含所有虚拟物体的空间信息)、现实坐标系(包含环境信息和手部信息)这三个坐标系对齐。这样,我们可以将检测到的手部骨骼与真实的双手对齐;将虚拟物体与现实环境对齐。当真实的手部触碰到虚拟的物体时,将会产生类似鼠标点击的事件,来驱动程序的执行,具体到Pokémon GO里面,就是投喂小精灵,扔出精灵球等操作。

  至此,已完成了手感操控的基础部分,后续将进一步在Unity3D中完善事件的逻辑,完成Pokémon GO中将精灵球、食物抛向小精灵的功能。

  MR显示

  接下来,我们要做的就是在空间当中显示Pokémon GO中的游戏元素,并且让皮卡丘和精灵球显示在合理的空间范围之内。我们采用视频透视技术,通过双目摄像头实时采集你看到的“现实”世界并将之数字化,然后通过计算机算法实时渲染画面。这样做完既可以完全叠加虚拟图像,也可以看到的经过计算机渲染后新的“现实画面”。满足了我们对于虚拟物体和现实环境同时存在的需求。
在解决了交互和显示核心技术之后,在Unity3D里面加入相应的SDK,调整下流程逻辑。MR版Pokémon GO便诞生啦!

  在解决了交互和显示核心技术之后,在Unity3D里面加入相应的SDK,调整下流程逻辑。MR版Pokémon GO便诞生啦!

  “手感操控”非“手势识别”

  划重点:手感操控不等于手势识别,手感操控包括手势识别。

  手感操控要满足以下三个基本点:

  1、手感操控一定要有深度信息,传感器要知道手离用户有多远。

  2、手感操控包括手势识别。手势识别通过图像算法更新得到手部姿态和手部动作指令,将手的深度信息和手势识别信息相叠加,得到:手离我有多远,手在做什么的完整信息,才能称为手感操控。

  3、在VR中,手感操控要给用户提供真实的手部图像。通过算法把手部影像拉近到和用户真实的前庭感官同步,能看到深度信息,给用户最真实的操控的感觉。如果用户看到的是机械的手或者模拟的手,交互友好度会大打折扣。

  微动Vidoo(www.sharpnow.com)是全球首款可以应用于移动端的手感操控设备,可以完成手部影像坐标系与虚拟世界坐标系的重合,构建1:1的虚拟手感操控空间;交互过程中使用原始的手部图像,使用者就像是在用自己真实的双手与VR/AR/MR世界中的虚拟物体进行交互;不再使用头部瞄准作为选择的工具,让显示交互与指令交互分离。微动的下一代产品,将双目模组作为传感基站,可同时进行手感操控、空间定位、光学手柄的检测,致力于打造完整的虚拟现实交互解决方案。除此之外还将致力于为车载电子、全息投影、智能家居等前沿领域提供手感操控的软/硬件解决方案。

  微动Vidoo和易瞳及其他VR团队在硬件和软件层面已达成多种形式的深入合作,接下来会为大家带来更多手感操控及VR/AR/MR领域有趣有料的合作成果。

  分享到:

  0 个人觉得赞好文章 点个赞您已经赞过了+1
分享到: