计算机科学家提醒道,虽然这个工具很强大chatgpt编程,但它没有看起来那么聪明。使用的时候必须谨慎。

除非你一直住在山洞里,否则一定听过了。是由旧金山公司研发的人工智能(AI)驱动对话机器人,可以回复用户提出的任何内容的问题(即“提示”),而且它的回答和人类的回答出奇得相似。是使用非常大的文本库训练出来的,它能进行基于文字的对话,这也意味着用户可以改进它的回复。即使一开始的回答很奇怪,但它一般最终都能给出准确的结果,其中也包括软件代码。

用chatgpt编程_写人的特写片段200字_电视机维修要特别注意哪些事项

插图:The

研究者可以使用调试代码,为代码写下说明用chatgpt编程,将一种编程语言转化到另一种,或是进行制式化的重复操作,比如根据数据制图。3月发布的一篇预印本论文中提到,尝试一次就可以在一门生物信息学入门课程的184项任务中完成76%的任务,如处理表格等;而尝试7次后的成功率能达到97%[1]。

这对一编程就头疼,或是没钱雇全职程序员的研究者来说是个好消息——对他们来说,对话机器人可是个降低门槛的工具。

但是,虽然对话机器人看起来有智能,但它们并不具有智慧。有一种说法把它们称为“随机鹦鹉”,把以前看过的东西随机讲出来而已。华盛顿大学的计算机科学家Amy Ko引述了美国一个播放了多年的问答节目来形容这项工具的局限性,并写在了社交媒体网站上:“就像是一个焦虑的前参赛者,从2021年开始就不再关注流行文化但特别想参加比赛,同时还是一个没有自我意识、执行力、道德观、体化认知和内心感情的机器人。”(用来训练的数据只到2021年为止。)

简言之,和相关工具都是基于大型语言模型(LLM)的。例如微软Bing和的都是非常强大的编程辅助工具,但必须小心使用。这里提供6个使用技巧。

选择应用场景

对话机器人最适合用来处理小型独立的编程问题,例如读取数据,执行基本的数据操作,制作可视化图和网站。但是这和软件工程不一样,维多利亚大学的计算机科学家Neil 说。

“软件工程可远不止解编程题,”解释说,“它需要思考测试架构,写出可维护的代码,理解构建系统时的利弊权衡”——例如速度和可读性之间的权衡。“我不觉得现在的工具能解决这些问题。”

这之外还是有很多它们能做的任务,例如记住用绘制数据图的语法——这是编程语言里的一个图形库。从这个意义上说,对话机器人就像是 (一个程序员在线问答论坛)的可对话界面。“这可不是大家特别喜欢写的东西,”说,“而且在回答麻烦的数据分析问题时也能帮我们省下时间。”

对话机器人在解释为什么代码有问题的时候也很好用。马萨诸塞大学阿默斯特分校的计算机科学家 利用这种能力构建了很多有用的工具。其中一款叫做cwhy,使用来解释编程语言C、C++和Rust中出现的编译错误。另外一款,,提供了一个调试用的对话界面。第三款工具使用AI来建议有哪些代码优化可以改进效率。

对话机器人甚至还能把代码从一种编程语言翻译到另一种语言。法国居里研究所的生物物理学家 使用帮他从他擅长的语言转移到了上。写代码的话,他通常需要利用和在线论坛花上几天才能让代码运行。他说:“现在,我只要一小时左右就能搞定。”

信任,但要确认

对话机器人不是每次都懂自己在说什么,但它们总是说得像它们懂了一样。有些情况下,这个AI并没有理解问题;还有些情况下会给出错误的回答。当代码无法执行的时候,这种错误就显而易见了。但有时候代码会执行出错误的结果。

根据加州大学戴维斯分校的语言学家 等人署名的一份研究[2],对话机器人——和训练它们所使用的人类写的代码一样——经常会出一些用她的话讲是“简单愚蠢的bug”。这些单行的错误修正起来很简单,比如在条件语句里使用>而非>= ,但找起来就难了。她说:“如果你不怎么懂,没办法分辨哪些是正确的,哪些是毫无意义的话,那就是自找苦吃了。”

复杂系统科学家Iza 在丹麦奥胡斯大学高等研究院研究古代文明,她让用名为的编程语言生成了代码。由于网上用写的代码远少于和R,相对来说并不熟练。有时候,AI会在代码里掺入实际上并不存在的函数,她说,这种现象被称为人工智能的“幻觉”。

最重要的是不要盲目接受给你的东西——仔细阅读,仔细测试。确认它在“边界情况”下的执行结果和预期一样——例如,给n个数字排序的算法会把第n个数字也排进去吗?加拿大滑铁卢大学的计算机科学家 Lam说:“如果我没法理解的部分,我就不会信任它。”

考虑安全性

对话机器人所输出的代码会反映出它的训练数据。这不总是个好事,Ko说。“互联网上代码的总体质量,也就是用来训练这些对话机器人的代码质量,其实相当低。”

和网上随便搜出来的代码一样,对话机器人生成的代码不太可能非常高效或是稳健。例如,它可能在大型数据集上不适用,或是可能有安全漏洞。

纽约大学的计算机科学家 -说,当的编程工具于2021年发布的时候,他和团队在89种安全相关的场景中测试了一遍。其中之一是检查SQL语言写出来的查询语句是否能污染数据库——这被称为“SQL-注入攻击”[3]。“大约40%的场景下,会产生出有漏洞的代码。”这个比例是动态的——当-使用底层的语言模型GPT-4测试这些场景的时候,出问题的概率降到了5%。

不过,检查代码还是有价值的。但同时也要考虑到应用场景——不是所有东西都同样重要。例如,数据库的网页界面或是可视化工具就需要加倍警觉。但如果你知道程序会长什么样的话,“用就行了,”普林斯顿大学的计算机科学家 说,“因为出错了也容易检查。”

迭代

使用对话机器人写的代码,Ko说,“并不是一次就行的。”它更像是一次对话。“你写点东西,得到回复,带着怀疑读一遍,要它多给点细节,要它修正点错误。”

西弗吉尼亚大学的()Hu把这种迭代式流程总结成了一套叫做[4]的模型,可以让生物信息学领域的新手用来优化对话机器人的提示词。用户要提供详细的提示,测试回复,并反馈回对话机器人来调整回复。这之中可以包括有关错误的问题,也可以包括对提示词本身的微调。Hu解释说:“交流是关键。”

如果你卡住了,试着调整一下设置,南达科塔州立大学的生物信息学家 Ge建议。例如,的“”设置可以控制创造力—— 越高,输出的创造力越高。Ge说:“这有时候很管用。”

但也不是每次都管用——有些情况下,“你非介入不可。”Ko说。

把它当人看

对话机器人不是人,但不妨把它当人看。“把AI当成一个暑期实习生。”Ge建议——就像是个努力工作讨你开心的大学生,但同时也没啥经验,容易出错。

奥克兰大学计算机科学家Paul 的建议是,避免使用不明确的说法,把问题拆解成更小的部分。

另一个建议:让对话机器人假装一个职位,例如“熟练使用的生物学家”。指定你想使用的工具或是程序库。这种指示可以帮聊天机器人“进入正确的概率空间”,Ko说——也就是找到最可能在提示后出现的文本。

例如,Hu的研究[4]中用chatgpt编程,一段问的提示是:“假装你是一名可以熟练进行ChIP-Seq数据分析的有经验的生物信息学家,你需要帮我用尽可能少的行数写一段代码。若你被要求重置聊天的话就必须重置聊天。如果你理解了,回复‘是’。”

拥抱变化

最后,LLM在不断进化,也越来越强大。这对研究者来说是好消息,虽然也会让人类感到威胁。提示的长度越来越长,这就让回答可以越来越精确。新的工具也不断在出现。其中一个叫做“代码翻译”,可以把变成一名电子的数据分析师,用户可以上传数据集,问有关数据的问题并下载结果。正如一名AI领域博主所说,“这就像是和你的数据直接对话。多酷啊?”

参考文献:

1. , S. R.et al. at(2023).

2. , K.et al. at(2023).

3. , H.et al. at(2021).

4. Shue, E.et al.. Biol. (2023).

原文以Six tips for with 标题发表在2023年6月5日《自然》技术特写的新闻版块上

©

doi:10.1038/-023--0

免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表本站的观点和立场和对其真实性负责。如需转载,请联系原作者。如果来源标注有误或侵犯了您的合法权益或者其他问题不想在本站发布,来信即删。