日本人工智能学什么?
这个学不了,也不应该学。 人类是感性认知世界,AI是人通过计算来感知世界。 人有直觉和灵感,AI没有,所以人比AI快无数倍。 人有想象力,AI没有,所以人比AI能想象无数个可能的世界。 人拥有自我意识,AI没有,所以人可以控制自己的决策过程避免局部最优化。 你想研究AI,你可以去读计算机科学或者电气工程,但是如果你想弄出个人形机器人,还是歇歇吧。 也许几百年后有可能实现(如果真有人做这种白日梦想的话),但这肯定不是现在AI的研究方向。 现在所有的研究AI的人不会以一个人形机器人为目标(至少我没听说过)。
我虽然没读过日本的AI课程,但以我对AI的理解,它们应该也是学怎样让电脑或程序更“智能”一点,比如让电脑拥有更好的学习能力(神经网络、进化算法等),或是让电脑拥有更高水平的逻辑能力(机器学习、统计计算等)。 如果真是这样,那么跟中国、美国等学AI的没有什么本质区别——我们学怎么让电脑“更聪明”,他们也在学怎么让电脑“更聪明”。 AI是不是这么发展的呢?不是。 我刚才说了,人是感性认知世界,而AI是通过计算感知世界。 但人是有直觉的,AI没有。 所以当你看到一朵云像一只兔子的时候,你会在脑子里经过一系列的联想和反射做出判断——“这朵云像一个骆驼”;而当AI看到这一朵云时,它只能一步步倒推——“首先这是云,然后云是这样这样的,因此它是那样那样的”——最后得到的结果跟你脑补的结果天差地别。
人类的灵感也是AI所不能理解的。 例如音乐作曲,AI可以帮你筛选大量曲子找出“相似度最高”的那首,却无法理解这首相似的歌曲为什么能被作曲家写出来——这似乎超出了计算的能力。 再如设计,AI可以帮你设计出一套符合标准的图形用户界面(类似Windows经典界面的那种),却不能凭空设计出一个iPhone应用程序。 因为人是感性的,所以有时甚至不需要那么多的数据,一个灵感就能让你超越对手。
最后说到知识表示,确实所有学过AI的人都知道知识表示的重要性。 但是如何表示知识的真正意义却很少有人讨论。 举个例子说,我知道“鱼”的知识,这意味着我能够知道鱼的各个部分的名字,能够认识各种鱼,并且知道怎么描述一条鱼(比如说用JDK的api来描述java中的类)……但这不是知识的本质,知识的本质是我能够把这条鱼和其他的所有鱼区分开来(从数据库中区分两条记录之类的)。或者说,知识对我来说不仅仅是具体的某条信息,而且是多条信息的集合,并且这些信息能够被更新、添加或删除。
简而言之,对于知识而言最重要的是它的结构,而不是其中一条条具体的信息。然而目前的所有AI课程都没有讲到如何构建知识(如何表示知识的关系),只讲了如何去填充知识(如何获取知识的具体信息)。这也是我认为的最不合理的地方。