新奥门2023资料大全

大公报电子版
首页 > 艺文 > 小公园 > 正文

墟 里/AI工作坊\叶 歌

2024-08-26 05:02:15大公报
字号
放大
标准
分享

  暑假参加了大学举办的“合乎职业道德(ethical)的AI辅助性科研”线上工作坊,获益匪浅。

  参与者大部分是人文、社科各系的教授。很多人像我一样,对AI的了解仅限于听说过ChatGPT,对它的功用也多半心存疑虑,担心会造成学生抄袭成风。主持人则包括大学图书馆和写作中心的工作人员。她们介绍除了ChatGPT之外能辅助科研的不少AI工具,还鼓励大家亲自尝试,分享体验。有的AI工具找到资料后能组织、连接搜索结果,排定论文影响力。有的能概括论文内容,提供讨论题。还有的可启发思路,建议新方向。

  然而AI工具的局限性也不言而喻。有时提供虚假引用和链接以外,它们还不可避免地反映、加深了现有偏见。“影响因子”高的论文代表传统、主流趋势,最新发现或原本边缘化的声音易遭忽视、排斥。另外,AI只是覆製、反馈现有材料。尽管机器可能越来越聪明,但归根结底工具无法取代个人独立的思考。要不落窠臼,发挥创意,还得看人的主观能动性。

  和同事们的交流中,也能看出不同学科使用AI的标准存在差异。实验结果能否被覆製、证伪,是理科的基本操作,所以研究者评价已有发现时力求全面、完备,AI能辅助完成机械性的搜索、总结工作。人文、社科各系却不然。很多时候要求学者眼光独到,提出他人尚未涉及的独创性课题。哪怕文科论文同样需要被阅读、认可,但研究人员搜集材料的过程往往不可覆製,对材料的诠释也是个人行为。正因为不同学科对研究的广度和深度要求不同,使用AI的道德标准有所差别也是应有之义。

点击排行