【2024美赛】在COMAP比赛中使用大型语言模型和生成式AI工具的政策Use of Large Language ModelGenerative AI Tools in COMAP Contests_美赛使用翻译软件算使用大模型吗-程序员宅基地

技术标签: 经验分享  数学建模  美赛  笔记  翻译  2024  人工智能  

【2024美赛】在COMAP比赛中使用大型语言模型和生成式AI工具的政策Use of Large Language ModelGenerative AI Tools in COMAP Contests

  • 写在最前面
    • 2024美赛翻译 —— 跳转链接
  • 中文翻译
    • 在COMAP比赛中使用大型语言模型和生成式AI工具的政策
    • 团队指南
    • 当我们识别出可能是未声明使用此类工具准备的提交时,COMAP将采取适当行动。
    • 引用和参考文献指南
    • AI使用报告
  • 英文原文
    • Use of Large Language Models and Generative AI Tools in COMAP Contests
      • Guidance for teams
      • COMAP will take appropriate action when we identify submissions likely prepared withundisclosed use of such tools.
        • Citation and Referencing Directions
    • Report on Use of AI

写在最前面

注:中文初稿由ChatGPT-4自动翻译,Yu进行了细节上的完善和调整,欢迎留言补充。本文仅供学习和交流使用,祝大家取得超乎预期的好成绩!

请添加图片描述

2024美赛翻译 —— 跳转链接

【2024美赛】在COMAP比赛中使用大型语言模型和生成式AI工具的政策Use of Large Language ModelGenerative AI Tools in COMAP Contests
【2024美赛】A题(中英文):资源可用性与性别比例Problem A: Resource Availability and Sex Ratios
【2024美赛】B题(中英文):搜寻潜水器Problem B: Searching for Submersibles
【2024美赛】C题(中英文):网球中的势头Problem C: Momentum in Tennis
【2024美赛】D题(中英文):五大湖水资源问题Problem Problem D: Great Lakes Water Problem
【2024美赛】E题(中英文):房产保险的可持续性Problem E: Sustainability of Property Insurance
【2024美赛】F题(中英文):减少非法野生动物贸易Problem F: Reducing Illegal Wildlife Trade

中文翻译

在COMAP比赛中使用大型语言模型和生成式AI工具的政策

这项政策是由于大型语言模型(LLMs)和生成式AI辅助技术的兴起而提出的。该政策旨在为团队、顾问和评委提供更大的透明度和指导。这项政策适用于学生工作的所有方面,从研究和开发模型(包括代码创建)到书面报告。由于这些新兴技术正在迅速发展,COMAP将适时对这一政策进行完善。

团队必须对使用AI工具的所有情况开放和诚实。团队及其提交的内容越透明,其工作就越有可能被完全信任、赏识并被他人正确使用。这些披露有助于理解智力工作的发展和对贡献的适当认可。如果没有对AI工具的作用进行开放和明确的引用和参考文献,那么可疑的段落和工作更有可能被识别为抄袭并取消资格。

解决问题不需要使用AI工具,尽管允许负责任地使用它们。COMAP认识到LLMs和生成式AI作为生产力工具的价值,这些工具可以帮助团队准备他们的提交;例如,生成结构的初步想法,或在总结、改写、语言润色等方面。在模型开发的许多任务中,人类的创造力和团队合作是必不可少的,而依赖AI工具引入风险。因此,我们建议在使用这些技术进行模型选择和构建、辅助创建代码、解释模型的数据和结果以及得出科学结论等任务时谨慎行事。

重要的是要注意,LLMs和生成式AI有其局限性,无法取代人类的创造力和批判性思维。如果团队选择使用LLMs,COMAP建议团队注意这些风险:

  • 客观性:之前发布的包含种族主义、性别歧视或其他偏见的内容可能出现在LLM生成的文本中,一些重要的观点可能不被代表。
  • 准确性:LLMs可能会“幻想”即生成虚假内容,特别是在超出其领域或处理复杂或模棱两可的主题时。它们可以生成在语言上但非科学上合理的内容,它们可以搞错事实,并且已经显示出它们可以生成不存在的引用。一些LLMs只训练了特定日期之前发布的内容,因此呈现了一个不完整的画面。
  • 上下文理解:LLMs不能将人类理解应用于文本的上下文,特别是在处理成语表达、讽刺、幽默或比喻性语言时。这可能导致生成内容中的错误或误解。
  • 训练数据:LLMs需要大量高质量的训练数据才能达到最佳性能。然而,在某些领域或语言中,这样的数据可能不容易获得,从而限制了任何输出的有用性。

团队指南

团队需要:

  1. 在报告中明确指出使用LLMs或其他AI工具,包括使用了哪个模型以及用途。请使用文中引用和参考文献部分。还需在你的25页解决方案之后附上AI使用报告(如下所述)。
  2. 验证由语言模型生成的内容及任何引用的准确性、有效性和适当性,并纠正任何错误或不一致之处。
  3. 提供引用和参考文献,按照这里提供的指导。仔细检查引用以确保它们准确且得到适当引用。
  4. 意识到抄袭的潜在风险,因为LLMs可能会复制其他来源的大量文本。检查原始来源以确保你没有抄袭别人的工作。

当我们识别出可能是未声明使用此类工具准备的提交时,COMAP将采取适当行动。

引用和参考文献指南

仔细考虑如何记录和引用团队可能选择使用的任何工具。各种风格指南开始纳入AI工具引用和参考的政策。在你的25页解决方案的参考文献部分使用文中引用,并列出所有使用的AI工具。

无论团队是否选择使用AI工具,主要解决报告仍限制在25页。如果团队选择使用AI,在报告结束后,添加一个名为AI使用报告的新部分。这个新部分没有页数限制,不计入25页解决方案内。

示例(这不是详尽无遗的 - 根据你的情况调整这些示例):

AI使用报告

  1. OpenAI ChatGPT(2023年11月5日版本,ChatGPT-4)
    Query1: <输入你向AI工具输入的确切措辞>
    Output: <插入AI工具的完整输出>
  2. OpenAI Ernie(2023年11月5日版本,Ernie 4.0)
    Query1: <输入你对AI工具的任何后续输入的确切措辞>
    Output: <插入第二次查询的完整输出>
  3. Github CoPilot(2024年2月3日版本)
    Query1: <输入你向AI工具输入的确切措辞>
    Output: <插入AI工具的完整输出>
  4. Google Bard(2024年2月2日版本)
    Query: <输入你的查询的确切措辞>
    Output: <插入AI工具的完整输出>

英文原文

Use of Large Language Models and Generative AI Tools in COMAP Contests

This policy is motivated by the rise of large language models (LLMs) and generative AI assisted technologies. The policy aims to provide greater transparency and guidance to teams, advisors, and judges. This policy applies to all aspects of student work, from research and development of models (including code creation) to the written report. Since these emerging technologies are quickly evolving, COMAP will refine this policy as appropriate.

Teams must be open and honest about all their uses of AI tools. The more transparent a team and its submission are, the more likely it is that their work can be fully trusted, appreciated, and correctly used by others. These disclosures aid in understanding the development of intellectual work and in the proper acknowledgement of contributions. Without open and clear citations and references of the role of AI tools, it is more likely that questionable passages and work could be identified as plagiarism and disqualified.

Solving the problems does not require the use of AI tools, although their responsible use is permitted. COMAP recognizes the value of LLMs and generative AI as productivity tools that can help teams in preparing their submission; to generate initial ideas for a structure, for example, or when summarizing, paraphrasing, language polishing etc. There are many tasks in model development where human creativity and teamwork is essential, and where a reliance on AI tools introduces risks. Therefore, we advise caution when using these technologies for tasks such as model selection and building, assisting in the creation of code, interpreting data and results of models, and drawing scientific conclusions.

It is important to note that LLMs and generative AI have limitations and are unable to replace human creativity and critical thinking. COMAP advises teams to be aware of these risks if they choose to use LLMs:

  • Objectivity: Previously published content containing racist, sexist, or other biases can arise in LLM-generated text, and some important viewpoints may not be represented.
  • Accuracy: LLMs can ‘hallucinate’ i.e. generate false content, especially when used outside of their domain or when dealing with complex or ambiguous topics. They can generate content that is linguistically but not scientifically plausible, they can get facts wrong, and they have been shown to generate citations that don’t exist. Some LLMs are only trained on content published before a particular date and therefore present an incomplete picture.
  • Contextual understanding: LLMs cannot apply human understanding to the context of a piece of text, especially when dealing with idiomatic expressions, sarcasm, humor, or metaphorical language. This can lead to errors or misinterpretations in the generated content.
  • Training data: LLMs require a large amount of high-quality training data to achieve optimal performance. In some domains or languages, however, such data may not be readily available, thus limiting the usefulness of any output.

Guidance for teams

Teams are required to:

  1. Clearly indicate the use of LLMs or other AI tools in their report, including which model was used and for what purpose. Please use inline citations and the reference section. Also append the Report on Use of AI (described below) after your 25-page solution.
  2. Verify the accuracy, validity, and appropriateness of the content and any citations generated by language models and correct any errors or inconsistencies.
  3. Provide citation and references, following guidance provided here. Double-check citations to ensure they are accurate and are properly referenced.
  4. Be conscious of the potential for plagiarism since LLMs may reproduce substantial text from other sources. Check the original sources to be sure you are not plagiarizing someone else’s work.

COMAP will take appropriate action when we identify submissions likely prepared withundisclosed use of such tools.

Citation and Referencing Directions

Think carefully about how to document and reference whatever tools the team may choose to use. A variety of style guides are beginning to incorporate policies for the citation and referencing of AI tools. Use inline citations and list all AI tools used in the reference section of your 25-page solution.

Whether or not a team chooses to use AI tools, the main solution report is still limited to 25 pages. If a team chooses to utilize AI, following the end of your report, add a new section titled Report on Use of AI. This new section has no page limit and will not be counted as part of the 25-page solution.

Examples (this is not exhaustive – adapt these examples to your situation):

Report on Use of AI

  1. OpenAI ChatGPT (Nov 5, 2023 version, ChatGPT-4)
    Query1: <insert the exact wording you input into the AI tool>
    Output: <insert the complete output from the AI tool>
  2. OpenAI Ernie (Nov 5, 2023 version, Ernie 4.0)
    Query1: <insert the exact wording of any subsequent input into the AI tool>
    Output: <insert the complete output from the second query>
  3. Github CoPilot (Feb 3, 2024 version)
    Query1: <insert the exact wording you input into the AI tool>
    Output: <insert the complete output from the AI tool>
  4. Google Bard (Feb 2, 2024 version)
    Query: <insert the exact wording of your query>
    Output: <insert the complete output from the AI tool>

在这里插入图片描述


请添加图片描述

你好呀!我是 是Yu欸
2024每日百字篆刻时光,感谢你的陪伴与支持 ~
欢迎一起踏上探险之旅,挖掘无限可能,共同成长!

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/wtyuong/article/details/135989349

智能推荐

Python 入门的60个基础练习_练习python基础语法-程序员宅基地

文章浏览阅读4.2w次,点赞329次,收藏2.7k次。Python 入门的60个基础练习_练习python基础语法

iOS6和iOS7代码的适配(2)——status bar_ios7 statusbar-程序员宅基地

文章浏览阅读1w次。用Xcode5运行一下应用,第一个看到的就是status bar的变化。在iOS6中,status bar是系统在处理,应用_ios7 statusbar

gdb调试时No symbol "var" defined in current context && No Register_no registers调试显示-程序员宅基地

文章浏览阅读2.1k次。问题描述:,在gdb调试程序输出变量:p var,会提示No symbol "var" in current context.原因:程序编译时开启了优化选项,那么在用GDB调试被优化过的程序时,可能会发生某些变量不能访问,或是取值错误码的情况。这个是很正常的,因为优化程序会删改程序,整理程序的语句顺序,剔除一些无意义的变量等,所以在GDB调试这种程序时,运行时的指令和你所编写指_no registers调试显示

IDGeneratorUtil 主键id生成工具类_idgeneratorutils.generateid()-程序员宅基地

文章浏览阅读3.4k次。import java.util.Random;import org.drools.util.UUIDGenerator;/** * * * 类名称:GenerateIdUtil * 类描述: 主键生成工具类 * @author chenly * 创建时间:Jul 10, 2012 8:10:43 AM * 修改人: * 修改时间:Jul 10, 2012 8..._idgeneratorutils.generateid()

关于汇编 BX 和 BLX 跳转指令_汇编blx-程序员宅基地

文章浏览阅读5k次。BX:跳转到寄存器reg给出的目的地址处,如:BX R2BLX:跳转到寄存区reg给出的目的地址处并将返回地址存储到LR(R14)使用这两个指令时有一点特别需要注意:跳转的目的地址必须是奇数,若不是奇数则在后面加1,如某函数的起始地址是0x80000f00,则要跳转到此函数则应该跳转到0x80000f01处!否则会进入硬件错误中断!..._汇编blx

前端vue,打包整合进后端springboot的resources里面后,运行只要刷新就报404_前端项目放入resource-程序员宅基地

文章浏览阅读2.6k次,点赞2次,收藏4次。vue打包后,其实就剩index.html和一堆静态资源,页面的加载和替换都是通过刷新index.html种的dom来实现的(应该是这样,可能表述不是很好),所以做个重定向就可以了。(博主是这么解决的,网上还有很多人是各种路径错误,大家可以尝试下自己是哪个原因)import org.springframework.boot.web.server.ConfigurableWebServerFa..._前端项目放入resource

随便推点

添加远程github仓库时报错 Warning: Permanently added the RSA host key for IP address 52.74.223.119_cmd warning: permanently added-程序员宅基地

文章浏览阅读9.7k次。1.问题展示2.解决方案1.任意窗口, 打开git bash2.命令行界面, 输入cd C:3.cat ~/.ssh/id_rsa.pub正常下面应该显示一大串公钥如果没有,显示如下图, 则进行下一步, 创建公钥4.创建公钥, 输入 ssh-keygen5.然后一直下一步, 直到出现6.再次输入cat ~/.ssh/id_rsa.pub下面一大串数字便是公钥,复制这些字符串, 打开github, 点击头像, 打开settings, 打开SSH and GPG Keys_cmd warning: permanently added

SQL*Plus 使用技巧1-程序员宅基地

文章浏览阅读154次。[code="java"]1. SQL/Plus 常用命令 a. help [topic] 查看命令的使用方法,topic表示需要查看的命令名称。 如: help desc; b. host 该命令可以从SQL*Plus环境切换到操作系统环境,以便执行操作系统命名。 c. host [command] 在sql*plus环境中执行操作系统命令,如:host notepad.exe..._sql+plus的使用方法

域控服务器搭建与管理论文,校园网络服务器的配置与管理 毕业论文.doc-程序员宅基地

文章浏览阅读441次。该文档均来自互联网,如果侵犯了您的个人权益,请联系我们将立即删除!**学校毕 业 论 文**学校园网络服务器的配置与管理姓 名: **学 号: **指导老师:系 名:专 业: 计算机网络技术班 级:二0一一年十二月十五日摘 要随着网络技术的不断发展和Internet的日益普及,许多学校都建立了校园网络并投入使用,这无疑对加快信息处理,提高工作效..._服务器配置与应用论文

mysql单实例多库与多实例单库_数据库单实例和多实例-程序员宅基地

文章浏览阅读1k次。一、单实例多库:一个mysql实例,创建多个数据目录。规划:实例路径:/usr/local/mysql数据目录路径:(1)/usr/local/mysql/data(2)/usr/local/mysql/data2步骤:安装mysql。配置my.cnf文件。初始化各个数据库。用mysqld_multi启动。1、安装mysql。平常安装。2、m..._数据库单实例和多实例

MFC解决找不到MFC90.DLL的问题_microsoft v90.debugmfc-程序员宅基地

文章浏览阅读6.3k次。今天装了第三方的MFC软件库Xtreme ToolkitPro v15.0.1,听说搞MFC的人都知道它的强大,我刚学习,所以装了一个,然后想运行一下它自带的例子看看。出现一个“找不到mfc90.dll“的问题,百度一下,记录如下:vs2008已经打过sp1补丁,编译C++程序会提示找不到mfc90.dll文件的错误,但是如果是release版的话就能正常运行csdn看到解决方案,粘贴_microsoft v90.debugmfc

XeLaTeX-中文排版解决方案_latex 中文排版 texlive-程序员宅基地

文章浏览阅读2.1k次。以前使用CJK进行中文的排版,需要自己生成字体库,近日,出现了XeTeX,可以比较好的解决中文字体问题,不需要额外生成LaTeX字体库,直接使用计算机系统里的字体,本文以在Linux下为例说明XeTeX的使用。操作系统: UbuntuTeX:除了texlive包外,还需要安装的包是texlive-xetex。字体:可以使用fc-list查看你自己的字体库,注意字体的完整名称,在XeTe..._latex 中文排版 texlive