Wood教授评论说,这项技术令人兴奋,但每个人都必须知道如何将其与其他技能结合使用,而不是突然将其放在审计或纳税申报表上,然后立即使用。换句话说, 即使你通过了注册会计师考试,ChatGPT也不是一名合格的注册会计师。Wood教授说,也许它可以帮助我们做无聊的工作,专注于最有趣的事情。
华尔街见闻的报道是来自四位美国学者发表的一篇论文:
Marc Eulerich,University of Duisburg-Essen
Aida Sanatizadeh,University of Illinois Chicago
Hamid Vakilzadeh,University of Wisconsin – Whitewater
David A. Wood,Brigham Young University
02
ChatGPT测试则通过了美国注会考试
1个多月之前的4月13日,美国《今日会计》网站在也做过相似的测试。当时3.5版的ChatGPT未能通过美国《今日会计》做的美国注会考试测试。四个科目的分数分别是 审计和鉴证(AUD)39分、财务会计和报告(FAR)46分、(法规)35分和商业环境(BEC)48分。在近日利用4.0版本的ChatGPT测试则通过了美国注会考试。
另有报道称:4.0版的ChatGPT在美国律师考试中获得了90分,在15次美国大学预修课程考试(AP)中通过了13次,在GRE口语考试中获得近满分的成绩。
此前,美国杨百翰大学会计学教授David Wood在2023年1月进行 ChatGPT 3.0测试,表明 人工智能应对大学会计课程考试还是不如人类的。他从14个国家186所教育机构的327名合作者里获得了25181道会计课堂考试题。杨百翰大学的本科生还提供了2268个教科书测试库问题。这些问题涵盖了各种会计子领域,例如会计信息系统(AIS),审计,财务会计,管理会计和税务。它们的难度和类型也各不相同。
Wood教授的测试结果表示—学生的表现是优于AI的。学生的平均得分为76.7%,而ChatGPT为47.4%。在11.3%的问题上,ChatGPT的得分总体高于学生平均水平,特别是在会计信息系统(AIS)和审计方面表现的十分不错。
然而,它在税务、财务和管理评估方面不是十分理想,可能是由于它在数学过程中的困难。ChatGPT 判断题(68.7%正确率)和多选题(59.5%)上表现更好,但在简答题(28.7%至39.1%)方面有困难。它通常与高阶问题作斗争,有时会为不正确的答案提供权威的书面描述或以不同的方式回答相同的问题。研究人员预计 GPT-4 将改进会计问题并解决他们发现的问题。最有希望的方面是聊天机器人增强教学和学习的潜力,例如帮助设计和测试任务或起草项目部分。
素材来源:YCY会计行业观察。版权归原作者所有,如需转载,请务必注明以上信息,侵权必究。查看