Tan Le是Emtoiv公司的创始人兼CEO,她在2010年7月份的TED大会上做过一次演说,向人们展示了一套可以利用人的脑电波实施控制的系统。那时演示者的头部戴着一套读取仪器,在进行十分艰难的想象过程后,屏幕上的一个虚拟3D物体在其脑电波发出的指令的控制下发生了位移。
这是一次令人惊叹的演示,因为它第一次让人看到了仅凭“意念”而无需动手就可以对目标实施控制的可能性。而现在,Tan Le的团队已经开发出了一款功能更加强大、更具商业化价值的脑电波编译设备——Emotiv Insight。
上周,Emotiv公司在Kickstarter发起了融资计划,准备筹集10万美元用于进一步完善并量产这台Emotiv Insight。而截至今日刚过去5天的时间,他们的计划就已经获得了超过1350人的支持,容得了超过41万美元的资金。
在Emotiv的宣传片中,我们甚至看到人们用他们的原型产品进行音乐创作、控制轮椅甚至驾驶汽车。Emtoiv Insight到底是个什么设备?用“意念”随意控制物体真的可以实现吗?
简单地说,Emotiv Insight是一套编译系统。对,如果你要用“意念”实施控制的话,要先把你脑中想象的“意念”,也即脑电波,翻译成电脑可以识别的指令。Emotiv Insight的作用,就用传感器感应人脑部的脑电波活动,然后将其编译成指令进而控制物体。
我们人的触觉是探察不到自己脑部的生物学活动的,而在医学领域大脑的活动是可以通过脑电图记录下来的。Emotiv Insight上有5个这样的脑电波传感器,以128Hz的频率进行取样,能够准确的感知并记录人的大脑的活动情况。
所记录的脑部活动信息会通过低能耗的蓝牙4.0 (Bluetooth LE)传输到计算机上,结合其开放的API和SDK去实现对程序的控制。只要能实现控制电脑程序,则程序就可以进一步控制实体。
这是Emotiv Insight的技术参数:
可以看到,这台设备内置一块480毫安的锂电池,可以续航至少4个小时。支持的操作系统有32或64位的Windows系统(从XP至Win 8)、Mac OS X、Linux、iOS以及Android 4.0以上版本的系统。此外,Emotiv Insight支持的语言也十分广泛:C++、C#、VB.NET、Java、Python、Matlab以及Unity。
目前,Emotiv Insight可以检测人的8种生理表现,包括:注意、聚焦、参与、兴趣、激动、亲密、放松以及压力。可以觉察到7种表情:眨眼、左眼眨眼、右眼眨眼、皱眉、惊喜、微笑以及咬牙。
通过这些人类常有的生理表现和面部表情,Emotiv Insight可以探测到相应的脑电波反映,并进一步将其编译成电脑可以理解的指令。
Emotiv Insight是通过探测脑电波来获取人的“意念”的,而不是通过人脑海中的想象场景。它当然无法知晓你的脑中到底在想些什么,只能通过你在想某些特定事物时你的大脑的活动情况来记录脑电图。
Emotiv Insight这项技术的应用前景十分广泛。它最大的价值并不是在“解放人的双手”,而是给予缺乏行动能力或肢体残疾的人以虚拟的“双手”。在Emotiv公司列举的应用案例中,我看到有残障人士用它来控制轮椅,还有人用它来协助控制电脑。
(演示者用Emotiv Insight控制遥控直升机)
这样的脑电波编译系统为人们提供了另外“一双手”,尤其是在医学界其价值不言而喻。
根据Emotiv的研发时间表,他们将从现在(8月份)开始进行原型机的测试与改良,最早将于2014年4月份正式发布。由于目前Emotiv Insight仍处于由产品像商品过度的阶段,所以关于该设备的定价并没有正式公布。不过从其Kickstarter上的支持者优惠政策来看,其将来的市场价格大约会在229美元左右。
Emotiv Insight并不是Emotiv公司的第一代产品,他们早前开发的Emtoiv EPOC已经发行到了100多个国家的开发者与工程师手中。这款EPOC设备在功能上与新一代的Insight类似,还曾获得过德国红点设计大奖。
Emotiv Insight则是该公司推出的针对大众市场的版本,配合其SDK,未来会涌现许多与之配套的软件与硬件产品。如用这套设备控制iPad上的游戏等等。其官方介绍视频如下: