您的位置:首页软件教程 → 如何定义AI的真假 普林斯顿大学教授教你如何分辨真假AI

从处理器、手机的相机技术、FinTech、安全辨识系统,近来几乎所有的3C 电子产品,都会在一定程度上表示自家产品具备AI 技术。不过,普林斯顿大学电脑科学系副教授Arvind Narayanan 日前撰文,抨击许多产品强调AI,其实只是为了销售产品或融资,根本不是真正的AI。

如何定义AI的真假 普林斯顿大学教授教你如何分辨真假AI

例如,有新创公司开发了一套AI 面试系统,并以此募得了9,300 万美元的资金,但Narayanan 认为,其实没有任何证据指出这套面试系统能精准预测员工表现。因此说穿了,该系统只不过是认真设计的随机数字产生器。

随后,Narayanan 科普了几种现代的AI 表现,包括精准计算、渐进调整,或是预测结果。

举例来说,Shazam 这类的音乐辨识,将语音输入成文书,或是脸部辨识,是现代AI 表现得最好的领域,成果也通常很不错,而像是Facebook、YouTube 等平台会侦测用户留言、确认是否违规,或是推送用户他们喜欢的内容这类的渐进式调整AI,则是当代AI 表现次佳的领域,但它们至少会不断进步,仍有一定进展。

而所谓的「假AI」,则大多是用来「预测未来」。为何这类AI 的表现通常最糟?Narayanan 的论证也其实很简单:因为人类几乎没有能力预测未来。他举了两项普林斯顿大学的研究,都曾想透过以上万笔数据训练模型,预测弱势家庭孩子在成年后的表现,以及再犯罪率。

然而,最终成果这些AI 系统的准确率,只比完全随机的结果好一些。这也导致盲信AI,甚至是其他背后机制不透明、用户也不了解的AI 系统,其结果几乎无异于传统的求神问卜。

Narayanan 随后也指出了训练这些AI 模型的缺点:其一,它需要大量的用户资料,而这些资料可能涉及隐私;第二,AI 系统有明显的黑箱属性,导致其结果经常没有解释性。换言之,用户有异议时,往往只能接受结果,却不容易对此反驳。

有趣的是,许多乍听很强大的AI,其表现实际上可能也没有厂商宣布的那么神奇,即使是Google 发布的服务。《纽约时报》曾拨打电话, 想测试Google 的「Duplex AI」。该服务可以自动和用户通话,为用户解决类似订餐这类问题,不过据《纽时》实测,订位成功的4 次通话,最终其实仍有3 次是由人工协助完成。

Google 也坦言,大约25% 的Duplex「AI」,是由Google 设立的电话服务中心里的真人参与,但其目的是为了提升用户体验、避免出错,因此Google 才没有100% 都采用自动化设计。

关于我们|免责申明|商务合作|友情链接|网站地图

@2019- QHmanhua.com 清欢网 All Rights Reserved