机器读眼破谎言 捕捉泄漏说谎者天机的视觉线索

时间:2012-03-31 11:32来源:科技日报 作者: 点击: 载入中...

今日视点


  有心理学家通过研究人面部表情(变化)的方法来判断一个人是否在说谎。受此启发,美国纽约州立大学水牛城分校的科学家正试图了解是否可以让机器也能解读那些泄漏说谎者天机的视觉线索。至今,科学家的研究已显示出良好的前景。


  该项目研究人员有水牛城分校的爱芙玛·诺瓦古、尼沙·巴哈斯卡伦、文诺·古威达拉居以及马克·弗兰克。诺瓦古为学校标准生物统计学和传感器中心研究助理教授,弗兰克是人类行为学家,其研究重点领域是面部表情和欺骗。


  过去,弗兰克曾尝试用不同系统分析人体散热的变化或大量无意识的面部表情来完成自动测谎。新开发的自动分析系统采取了不同的跟踪途径——眼睛运动,其利用统计学原理建立起人在正常对话和说谎这两种截然不同的情况下眼睛运动的模式。


  如果访谈者(接受测谎者)的眼睛运动模式在第一个情景和第二个情景之间发生了变化,那么可以认为他在撒谎;反之,如果眼睛始终保持相同的运动模式,那么则说明他在讲实话。换句话说,面临重要问题,访谈者正常的眼睛运动模式出现强烈的偏差时,则表明他在撒谎。


  弗兰克在其过去完成的测谎研究中,留下了132段访谈录像,接受访谈的人被安排有“偷窃”支票的选择。“偷窃”了支票同时在对话中成功地骗过了退休执法测谎专家的访谈者受到了奖励;而被发现撒谎的访谈者则受到处罚,没有奖励。与此同时,没有“偷窃”支票但被判定为撒谎者的访谈者受到了类似的处罚,而被判定为诚实的人获得了小数额的奖励。


  测谎专家在进行访谈时,通常用基本的日常问题作为开端。在常见的问题之后,专家便询问支票之事。在这个关键的时刻,现金奖励和处罚作为撒谎和讲实话的激励机制,增强了访谈者撒谎的欲望。


  为测试自动测谎系统,诺瓦古和同事们从132段访谈录像中选择了40段。他们用每段录像中开始阶段回答日常问题的情形建立起每位访谈者眼睛运动的基线,重点是每位访谈者眨眼的频率以及其凝视方向转移的频率。


  随后,研究人员便用他们开发的自动测谎系统将每位访谈者面对关键问题(也就是由日常问题转为有关支票问题)时眼睛运动情况与其眼睛运动基线相比。如果自动测谎系统此时察觉到访谈者眼睛运动相对基线出现不同寻常的变化,研究人员便认为访谈者在撒谎。


  研究结果表明,在针对40段访谈录像的测试中,自动测谎系统能正确地判断出访谈者是在撒谎还是在讲实话,其准确率高达82.5%。诺瓦古表示,自动分析系统的准确率高于典型测谎实验中测谎专家的准确率。她说,公开出版的资料显示,即使是最有经验的测谎专家,其准确率也只是接近65%。


  诺瓦古介绍说,工作开始时,他们要了解的是当人们撒谎时,其眼光是否会出现变化以及机器能否捕捉到变化。研究的结果表明,自动分析系统具有这方面的能力。研究人员表示,计算机系统或许能在短时间内足够多地了解某人的行为,协助人们甚至是有经验的测谎专家完成棘手的工作。在研究的对话录像中,面谈者来自不同的种族,处于不同的灯光环境中,同时还有如眼镜这类的遮挡物。


  诺瓦古同时表示,但这并不意味着计算机系统现在就能代替人类问讯者,它们只能是帮助人们验证撒谎者的工具。她解释说,自动测谎系统的技术并非完美无瑕。事实上,少部分的访谈者是十分出色的撒谎者,他们能够在撒谎时做到维持他们眼睛的运动模式不变。此外,测谎专家的自然性格能够影响测谎方法的有效性。


  诺瓦古和计算机专家所开发的自动测谎系统能够查核相关信息,成功地辨别撒谎者和说真话者。下一步,他们将增加研究对象,并开发除眼接触外能够分析人类肢体语言的自动系统。诺瓦古表示,未来测谎系统的尺寸会更小,但其获得的结果将更为精确。(毛黎)

(责任编辑:鑫报)
>相关新闻
  • 2020年,机器人已不是幻想 但它还没有“以假乱真”的野心
  • 智博会:“机器人”为观众展示才艺
  • 中国科学家成功破译距今约3800年的古小麦全基因组
  • 中科大校园上演机器人大赛
  • 中石油取得页岩气钻井技术重大突破
  • 2017丝绸之路机器人创意大赛在西安交大启动
  • 顶一下
    (0)
    0%
    踩一下
    (0)
    0%
    ------分隔线----------------------------
    推荐内容
    网站简介  |  保护隐私权  |  免责条款  |  广告服务  |  About Big northwest network  |  联系我们  |  版权声明
    陇ICP备08000781号  Powered by 大西北网络 版权所有  建议使用IE8.0以上版本浏览器浏览
    Copyright © 2010-2014 Dxbei Corporation. All Rights Reserved