深度思考

二级分类:

AI让失语18年病人“开口说话”


 据日本《朝日新闻》网站4月6日报道,在人工智能(AI)对从人类大脑活动中读取到的、他们想要表达的信息进行处理后,因疾病后遗症而无法说话的人将可以用语言交流。相关研究结果由美国加利福尼亚大学的一个团队发布。据称,这项技术有可能减少时间延迟并实现更流畅的对话。

该研究论文3月31日发表在英国科学期刊《自然-神经科学》上。

作为临床试验的一部分,研究团队将一种片状装置植入一名47岁女性的大脑。该女子中风后瘫痪,18年来无法说话。经过训练,AI可以领会大脑活动产生的电信号与女子想要表达意思所需约1000个单词之间的对应关系。

AI能够快速解码大脑发出的信号并将其转化为文本信息,再将这些文本信息与该女子中风前的声音录音进行整合,之后就可以输出该女子试图说出的句子。

研究团队表示,过去曾出现过可以解码脑信号并输出声音的设备。但从想法的产生到声音的输出,存在“几秒钟的延迟”。这可能会在沟通时引发误解和不满。

在该团队所做的试验中,AI尝试以平均每分钟47.5个单词的速度解码脑信号,比传统设备快约1.7倍。虽然存在错误,但据说该系统可以在植入者脑海中浮现出想表达意思后约一秒钟内输出该句子的语音版本。

尽管研究团队表示试验数据量仍然很少,但他们称:“未来有可能实现更自然、不间断的实时对话,从而提高目标人群的生活质量。”(编译/刘林)