在巴黎,9月15日——周四发布的一项研究显示,支撑聊天机器人及其他应用的人工智能模型在区分无意义的内容与自然语言方面仍然面临挑战。
来自美国哥伦比亚大学的研究团队指出,他们的研究揭示了当前人工智能模型的局限性,并警告在法律或医疗领域使用这些模型仍为时尚早。
研究人员对9种人工智能模型进行了测试,向它们提供了数百对句子,并询问哪些句子可能在日常交流中出现。
此外,他们还让100名参与者对几对句子进行相同的判断,例如:“一个买家也可以拥有正品/一个精通高中圆周的人我漫步。”
这项研究发表在《自然机器智能》期刊上,研究团队将人工智能的判断与人类的判断进行了比较,发现了显著的差异。
像GPT-2这样的复杂模型,作为病毒式聊天机器人ChatGPT的早期版本,通常能与人类的回答相匹配。
然而,其他一些较简单的模型表现则不尽如人意。
研究人员强调,所有模型都存在错误。
该报告的作者之一、心理学教授克里斯托弗·巴尔达萨诺(Christopher Baldassano)表示:“每个模型都显示出盲点,将一些人类参与者认为是无意义的句子标记为有意义的。”
他补充道:“这应该促使我们深思,人工智能系统在多大程度上能够做出重要决策,至少在目前是这样。”
论文的另一位作者塔尔·戈兰告诉法新社,这些模型是一项“令人兴奋的技术,可以极大地增强人类的生产力”。
然而,他认为,“让这些模型在法律、医学或学生评估等领域取代人类决策可能为时尚早”。
他说,潜在的陷阱之一是,人们可能会故意利用模型的盲点进行操控。
随着ChatGPT的发布,人工智能模型在去年突然进入公众视野。自那时起,ChatGPT通过了各种考试,并被誉为医生、律师及其他专业人士的潜在助手。(法新社)
本文来自作者[茹杰]投稿,不代表怀缘榴立场,如若转载,请注明出处:https://wak.hy6.cc/wiki/202505-462.html
评论列表(4条)
我是怀缘榴的签约作者“茹杰”!
希望本篇文章《研究发现:人工智能模型在识别废话方面存在困难》能对你有所帮助!
本站[怀缘榴]内容主要涵盖:国足,欧洲杯,世界杯,篮球,欧冠,亚冠,英超,足球,综合体育
本文概览: 在巴黎,9月15日——周四发布的一项研究显示,支撑聊天机器人及其他应用的人工智能模型在区分无意义的内容与自然语言方面仍然面临挑战。...