6月17日消息,一项最新研究报告指出,随着人工智能技术的飞速跃进,GPT-4在图灵测试中展现出令人瞩目的表现,令超过半数的评估者难以辨别其与真人的对话差异。
这项由艾伦·图灵在1950年代构想的“模仿游戏”标准,如今正面临来自GPT-4前所未有的挑战,它不仅能够进行流畅自然的对话,还能在多数互动中成功模拟人类交流特征,再次引发了关于人工智能与人类智能边界的深刻探讨。
加州大学圣地亚哥分校的研究人员招募了 500 名参与者,让他们与四位“对话者”进行五分钟的交流,这四位“对话者”分别是真人、上世纪 60 年代的初代聊天机器人 ELIZA、以及驱动聊天机器人 ChatGPT 的 GPT-3.5 和 GPT-4。参与者在对话结束后需判断对方是人还是机器。
这项测试的结果发表于预印网站 arXiv 上,结果显示,有 54% 的参与者将 GPT-4 误认为真人。相比之下,预先设定好回复的 ELIZA 只有 22% 的人将其认作真人,GPT-3.5 则为 50%,而人类对话者被正确辨认的比例则为 67%。
研究人员指出,图灵测试过于简单,对话的风格和情感因素在测试中扮演着比传统智能认知更重要的角色。
电气和电子工程师协会 (IEEE) 的人工智能研究员内尔·沃森 (Nell Watson) 表示,单纯的智力并不能代表一切,真正重要的是足够智能地理解情境、他人的技能并具备同理心将这些要素结合起来。能力仅仅是 AI 价值的一部分,理解人类的价值观、偏好和界限也同样重要,正是这些品质才能让 AI 成为我们生活中忠诚可靠的管家。
沃森还提到,这项研究对未来的人机交互提出了挑战,人们将会对互动对象的真实性愈发疑虑,尤其是在涉及敏感话题时。同时,这项研究也凸显了 GPT 时代人工智能的巨大进步。
文明上网,理性发言,共同做网络文明传播者