手语也能有声音?谷歌AI:我可以
谷歌表示,其人工智能技术使智能手机能够解释和“阅读”手语。
这个技术巨人还没有开发自己的应用程序,但是已经发布了算法,希望开发者可以用它来开发自己的应用程序。
在此之前,这种软件只能在个人电脑上使用。
来自听力受损社区的活动人士对此举表示欢迎,但表示这项技术可能很难完全掌握对话的一部分。
在人工智能博客上,谷歌的两位研究工程师瓦伦丁·巴扎列夫斯基和张帆表示,这项*开放的技术旨在成为“理解手语的基础”。它是与图像软件公司MediaPipe合作创建的。
“我们期待着开发人员会提出什么想法。就我们而言,我们将继续我们的研究,使这项技术更加强大,进一步稳定手语手势的跟踪,并增加我们能够可靠检测的手势数量。”谷歌发言人告诉媒体。
谷歌承认这是第一步。活动人士指出,仅仅依靠手势来生成语音的应用程序可能会忽略任何面部表情或手势的速度,这些因素可能会影响对实际手语含义的理解。
此外,该技术不会考虑当地存在的任何区域性因素。
该算法可以跟踪双手
听力损失行动的技术经理Jesal Vishnuram说,该项目是倾听聋人“声音”的良好开端,但它需要其他功能的补充。
他说,“从聋人的角度来看,开发一种软件来自动将文本或音频翻译成手语,帮助他们日常交流,减少他们在听觉世界中的孤独感,会更有益。”
手指闭合
过去,当这种技术试图在视频中跟踪手的运动时,手指的弯曲和手腕的摆动会覆盖手的其他部分,所以不可能全面跟踪它们。这是此类软件早期版本的一个难点。
另一方面,谷歌的技术可以在手指、手掌和手背上的21个3D点上画出一个图形,这样当手和手臂弯曲或两个手指接触时,手势就更容易理解了。
美国的其他大型软件供应商也开发了技术,试图在个人电脑上解释手语。去年,微软与国家聋人工程学院合作,为教室配备台式电脑,然后通过实时翻译帮助有听力障碍的学生。
在博客中,学生们描述说,他们错过了一些教授之前说过的话,因为他们无法在课堂上同时看到人工手语翻译和教授在黑板上写的东西,所以他们不得不在两者之间来回转移注意力。
然而,这个问题可以通过使计算机桌面显示所有要查看的信息来解决。
在世界其他地方,创新者也创造了他们自己的本土技术。
一名25岁的肯尼亚开发人员开发了一副触觉手套,可以为安卓应用程序解释手语,然后它会大声朗读相应的文本。这只手套是罗伊·阿莱利亚为他有听力障碍的侄女特制的。他的发明最近获得了美国机械工程师协会的一个奖项。
上一篇:弯腿才能跳得高
推荐阅读