2020年1月4日,中国云计算生态发展峰会暨安徽信息技术应用创新产业联盟揭牌仪式在合肥隆重举行。会议云集政府领导、专家院士以及数百家知名企业,共同探讨信息技术应用的创新前景,剖析云计算生态产业的发展。会上,联想作为云计算生态发展联盟核心单位…
人工智能有什么用?AI人工智能不仅能识别人脸,还能“读心术”?
近日,《自然》杂志发表了一篇利用人工智能研究性格与面部特征关系的论文。研究团队招募了12000多名志愿者,利用人工智能技术从31000多张自拍照中学习了128个面部特征,并将志愿者的性格特征分为五类,即责任心、神经质、外向、宜人。性、开放性。结果显示,AI基于静态面部图像预测性格的准确率达到58%,其中责任心的准确率高于其他四种性格特征。利用AI识别性格,这种“神秘”的操作不禁让人想起网络上非常流行的“AI人脸识别”。事实证明,利用AI人脸识别是假的,是真钱骗局。
那么这次发表在《自然》杂志上的研究成果和“AI人脸识别”有什么区别呢?我们真的能通过五官看出一个人的内心吗?
通过映射函数确定面部和性格关系
“‘人工智能生理学’并不可靠,大多是数据拟合得出的牵强结果。”中国科学院自动化研究所研究员孙哲南在接受科技日报记者采访时表示。
媒体此前曾报道过“AI换脸”的“吸金”套路及其分工明确的业务链。北京理工大学教授翁东东在接受媒体采访时也表示,虽然人脸识别是身份识别的主流方向,但用它来读脸并没有科学依据,更多的是一种娱乐自然。开发这样一个程序的门槛并不高。只需花费数百至数千元在网络购物平台上外包服务即可快速发展。
孙哲南表示,与“AI人脸识别”不同的是,论文中的研究收集了大量样本,利用计算机深度神经网络模型来学习面部特征与性格之间的相关映射函数。论文显示,该研究的初始样本参与者达到25202人,照片总数达到77346张。经过数据筛选,最终保留的数据集包含有效问卷12,447份,照片31,367张。这些参与者的年龄从18岁到60岁不等,其中女性占59.4%,男性占40.6%。在此基础上,研究团队利用神经网络评估了人脸的128个特征,如嘴宽、嘴唇或眼睛高度,保证了实验覆盖的数据量级和多样性。获得数据后,研究人员将数据分为两组,一组用于训练AI,另一组用于测试神经网络的准确性。实验中的两类数据分别占用于训练的数据集的90%和用于验证的数据集的10%。
在AI系统的设计中,研究人员开发了计算机视觉神经网络来区分不同的面孔并记住面部图像的特征。同时,研究团队还训练了一个用于人格诊断的神经网络。NNPD根据NNCV分析的信息预测并输出五种人格特征。整个过程分别针对男性和女性面部识别进行。
要进行情感计算,我们首先需要与心理活动建立联系。
通过上述研究不难发现,目前人脸识别有从“读脸”到“读心”的发展趋势。那么人脸识别技术需要怎样的发展才能通过照片、视频等来识别面部表情呢?
孙哲南认为,人工智能的“读心”功能目前主要是通过情感计算来实现。
早在1997年,麻省理工学院媒体实验室就提出了情感计算的概念。情感计算旨在通过赋予计算机识别、理解和表达人类情感的能力,使计算机变得更加智能。在情感计算的研究中,情感识别是最基本、最重要的内容之一。情绪识别主要通过面部表情、语音、文本、生理信号等模态的数据来识别人类的各种情绪。
“目前,情感计算已经有了一些研究成果和进展,但技术还不够成熟。通过表情来分析心理活动是识别情绪不可或缺的方式,但表情识别比人脸识别难度更大,因为表情识别的性能比人脸识别要困难得多。”心理活动因人而异,很难对世界上所有人的喜怒哀乐与人脸数据之间的量化关系进行统一建模。首先,为人的情感类别和强度标注是非常困难的。“一千个观众眼中有一千个哈姆雷特”;此外,情感判断具有主观性,甚至掺杂了地域文化风俗习惯等因素。孙哲南表示,从识别身份到识别表情,人脸识别技术需要更先进的计算模型来建立面部图像、视频和心理活动。之间的关系。但目前,机器人既有智能,也有无情,要实现人与机器的高度和谐共处,还有很长的路要走。
此外,孙哲南强调,如果通过面部外观自动判断性格的技术达到成熟阶段,该技术将应用于企业招聘、职业规划、人机交互、广告营销等领域。然而,这种基于面子的人格识别会预先判断出人物的性格,从而会导致一些伦理问题,例如性格歧视和偏见。