0°

ChatGPT编程准确率暴降13%!UIUC&南大新基准让AI代码现原形了

  用ChatGPT写代码,已经是不少程序员的常规操作了。

  △“至少提速3~5倍”

  但你有没有想过,ChatGPT生成的代码,有不少只是“看起来准确”而已?

  来自伊利诺伊大学香槟分校和南京大学的一项最新研究表明:

  ChatGPT和GPT-4生成代码的准确率,比之前评估的至少要降低13%!

  有网友感叹,太多ML论文都在用一些有问题或有局限性的基准来评估模型,来短暂地达到“SOTA”,结果换个测评方法就现出原形了。

  还有网友表示,这也说明大模型生成的代码仍然需要人工监督,“AI写代码的黄金时间还没到呢”。

  所以,论文提出了一种怎样的新测评方法?

  给AI代码考题加大难度

  这个新方法名叫EvalPlus,是一个自动化代码评估框架。

  具体来说,它会通过改进现有评估数据集的输入多样性和问题描述准确性,来将这些评估基准变得更严格。

  一方面是输入多样性。EvalPlus会先根据标准答案,用ChatGPT生成一些种子输入样例(虽然要测ChatGPT的编程能力,但用它生成种子输入似乎也不矛盾doge)

  随后,用EvalPlus改进这些种子输入,将它们改得更难、更复杂、更刁钻。

  另一方面是问题描述准确性。EvalPlus会将代码需求描述改得更精确,在约束输入条件的同时,补充自然语言问题描述,以提高对模型输出的精确度要求。

  这里,论文选择了HUMANEVAL数据集作为示范。

  HUMANEVAL是OpenAI和Anthropic AI一起制作的代码数据集,包含164个原创编程题,涉及语言理解、算法、数学和软件面试几种类型的题目。

  EvalPlus会通过改进这类数据集的输入类型和功能描述,让编程问题看起来更清晰,同时用于测试的输入更“刁钻”或是更困难。

  以其中的一道求并集编程题为例,要求AI写一段代码,找出两个数据列表中的共同元素,并给这些元素排序。

  EvalPlus用它来测测ChatGPT写的代码准确度。

  首先用几个简单输入进行测试,发现ChatGPT能输出正确答案。但如果换个输入,就找出了ChatGPT版代码的bug:

  属实是给AI们加大了考题难度。

0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论