@
ikaros "理解"其实就是语音信息的逻辑化,即抽象声波数据转换成包含具体语义的"关键字"(在编程世界里叫做编译比较容易理解),然后逻辑机运行这些关键字,套用对应的逻辑,产出结果.
这样,我来简单模拟一个过程.
#1,假设,得到输入 "你吃饭了吗?" 语音信息
#2,得到转换 "你吃饭了吗?" 关键字信息
#3,逻辑机处理关键字信息,得到对象"你",操作"吃饭","了吗","?"
#4,套用逻辑处理关键字,通过数据库提取对象"你"的相关属性(这里是指自己),比如饱食度,心情状态等等.并匹配好操作,作为准备条件.
#5,根据准备好的条件,查询数据库选择合适的条件.产出查询结果.
实际上任何人对于外界信息输入都是这么个处理流程.
做出这些处理,算是半个人工智能了.
当然要想完成一个完整人工智能,还需要"成长"体系,即一套不断补充#5中所使用数据库的数据的体系.
目前siri和cortana基本都是依靠大规模人工补充的方式来实现.
什么?你说机械学习?我感觉目前还没有程序员能彻底理解人类自身的行为模式.在没做到这一点之前,都是不现实的.