SHF: Small: Automated Unit Test Generation using Large Language Models
SHF:小型:使用大型语言模型自动生成单元测试
基本信息
- 批准号:2307742
- 负责人:
- 金额:$ 60万
- 依托单位:
- 依托单位国家:美国
- 项目类别:Standard Grant
- 财政年份:2023
- 资助国家:美国
- 起止时间:2023-07-01 至 2026-06-30
- 项目状态:未结题
- 来源:
- 关键词:
项目摘要
Large Language Models (LLMs) are systems that rely on machine learning techniques to solve queries that are stated using natural language. To interact with an LLM, a user provides a textual description, commonly referred to as a "prompt", of the problem to be solved. In response to receiving a prompt, an LLM generates one or more textual results that represent solutions to the problem. LLMs have recently become very popular for applications such as translation and chatbots. Furthermore, LLMs are starting to be adopted for applications in software development such as automatic code completion in Integrated Development Environments used by programmers. This project explores the use of LLMs for automatically testing software. To this end, tests are generated by providing LLMs with prompts containing code fragments of the software under test and artifacts associated with the software such as documentation and usage examples. The project will result in improved testing of software, thereby improving its quality. Moreover, the project will unburden developers from the chore of writing tests manually, thereby increasing their productivity. The developed automatic test generation techniques based on Large Language Models (LLMs) will feature a feedback-directed, iterative approach. In each iteration, an LLM is given a prompt containing the signature of a function under test, along with usage examples, test framework code, and results obtained from previously generated tests. The resulting completions consist of candidate tests, which are checked for syntactic validity and executed to check if they pass or fail. Analysis of the execution behavior of failing tests will direct the construction of refined prompts. The project will target both dynamically typed and statically typed programming languages. The work will be evaluated by comparing the generated test suites against those produced by state-of-the-art test generation tools. All developed test generation tools will be made available as open-source software for others to use and build on, and results will be disseminated via publications. Societal benefits will follow from improvements in software quality enabled by the adoption of the developed techniques.This award reflects NSF's statutory mission and has been deemed worthy of support through evaluation using the Foundation's intellectual merit and broader impacts review criteria.
大型语言模型 (LLM) 是依靠机器学习技术来解决使用自然语言表述的查询的系统。为了与法学硕士进行交互,用户需要提供要解决的问题的文本描述,通常称为“提示”。为了响应收到的提示,法学硕士会生成一个或多个代表问题解决方案的文本结果。法学硕士最近在翻译和聊天机器人等应用领域变得非常流行。此外,法学硕士开始应用于软件开发中的应用,例如程序员使用的集成开发环境中的自动代码完成。该项目探讨了如何使用法学硕士来自动测试软件。为此,通过向法学硕士提供包含被测软件的代码片段以及与软件相关的工件(例如文档和使用示例)的提示来生成测试。该项目将改进软件测试,从而提高其质量。此外,该项目将使开发人员摆脱手动编写测试的苦差事,从而提高他们的生产力。基于大型语言模型(LLM)开发的自动测试生成技术将采用反馈导向的迭代方法。在每次迭代中,LLM 都会收到一个提示,其中包含被测函数的签名、使用示例、测试框架代码以及从先前生成的测试中获得的结果。最终的完成结果包括候选测试,这些测试将检查语法有效性并执行以检查它们是否通过。对失败测试的执行行为的分析将指导细化提示的构建。该项目将针对动态类型和静态类型编程语言。将通过将生成的测试套件与最先进的测试生成工具生成的测试套件进行比较来评估工作。所有开发的测试生成工具都将作为开源软件提供给其他人使用和构建,结果将通过出版物传播。通过采用所开发的技术而实现的软件质量的提高将带来社会效益。该奖项反映了 NSF 的法定使命,并且通过使用基金会的智力价值和更广泛的影响审查标准进行评估,被认为值得支持。
项目成果
期刊论文数量(1)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)
An Empirical Evaluation of Using Large Language Models for Automated Unit Test Generation
- DOI:10.1109/tse.2023.3334955
- 发表时间:2023-02
- 期刊:
- 影响因子:7.4
- 作者:Max Schäfer;Sarah Nadi;A. Eghbali;F. Tip
- 通讯作者:Max Schäfer;Sarah Nadi;A. Eghbali;F. Tip
{{
item.title }}
{{ item.translation_title }}
- DOI:
{{ item.doi }} - 发表时间:
{{ item.publish_year }} - 期刊:
- 影响因子:{{ item.factor }}
- 作者:
{{ item.authors }} - 通讯作者:
{{ item.author }}
数据更新时间:{{ journalArticles.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ monograph.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ sciAawards.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ conferencePapers.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ patent.updateTime }}
Frank Tip其他文献
LLMorpheus: Mutation Testing using Large Language Models
LLMorpheus:使用大型语言模型进行突变测试
- DOI:
10.48550/arxiv.2404.09952 - 发表时间:
2024 - 期刊:
- 影响因子:0
- 作者:
Frank Tip;Jonathan Bell;Max Schäfer - 通讯作者:
Max Schäfer
Frank Tip的其他文献
{{
item.title }}
{{ item.translation_title }}
- DOI:
{{ item.doi }} - 发表时间:
{{ item.publish_year }} - 期刊:
- 影响因子:{{ item.factor }}
- 作者:
{{ item.authors }} - 通讯作者:
{{ item.author }}
{{ truncateString('Frank Tip', 18)}}的其他基金
SaTC: CORE: Medium: Securing WebAssembly using Static Analysis and Binary Instrumentation
SaTC:核心:中:使用静态分析和二进制工具保护 WebAssembly
- 批准号:
2329540 - 财政年份:2023
- 资助金额:
$ 60万 - 项目类别:
Continuing Grant
SHF: Small: Testing and Profiling Asynchronous Software
SHF:小型:测试和分析异步软件
- 批准号:
1907727 - 财政年份:2019
- 资助金额:
$ 60万 - 项目类别:
Standard Grant
NSF Student Travel Grant for 2018 European Conference on Object-Oriented Programming/International Symposium on Software Testing and Analysis (ECOOP/ISSTA 2018)
NSF 学生旅费资助 2018 年欧洲面向对象编程会议/软件测试与分析国际研讨会 (ECOOP/ISSTA 2018)
- 批准号:
1745926 - 财政年份:2017
- 资助金额:
$ 60万 - 项目类别:
Standard Grant
SHF: Small: Automated Detection and Repair of Errors in Event-Driven Applications
SHF:小型:自动检测和修复事件驱动应用程序中的错误
- 批准号:
1715153 - 财政年份:2017
- 资助金额:
$ 60万 - 项目类别:
Standard Grant
相似国自然基金
单细胞分辨率下的石杉碱甲介导小胶质细胞极化表型抗缺血性脑卒中的机制研究
- 批准号:82304883
- 批准年份:2023
- 资助金额:30 万元
- 项目类别:青年科学基金项目
小分子无半胱氨酸蛋白调控生防真菌杀虫活性的作用与机理
- 批准号:32372613
- 批准年份:2023
- 资助金额:50 万元
- 项目类别:面上项目
诊疗一体化PS-Hc@MB协同训练介导脑小血管病康复的作用及机制研究
- 批准号:82372561
- 批准年份:2023
- 资助金额:49 万元
- 项目类别:面上项目
非小细胞肺癌MECOM/HBB通路介导血红素代谢异常并抑制肿瘤起始细胞铁死亡的机制研究
- 批准号:82373082
- 批准年份:2023
- 资助金额:49 万元
- 项目类别:面上项目
FATP2/HILPDA/SLC7A11轴介导肿瘤相关中性粒细胞脂代谢重编程影响非小细胞肺癌放疗免疫的作用和机制研究
- 批准号:82373304
- 批准年份:2023
- 资助金额:49 万元
- 项目类别:面上项目
相似海外基金
SHF: Small: Modular Automated Verification of Concurrent Data Structures
SHF:小型:并发数据结构的模块化自动验证
- 批准号:
2304758 - 财政年份:2023
- 资助金额:
$ 60万 - 项目类别:
Standard Grant
SHF: Small: Automated Verification and Synthesis of Input Generators in Property-Based Testing Frameworks
SHF:小型:基于属性的测试框架中输入生成器的自动验证和合成
- 批准号:
2321680 - 财政年份:2023
- 资助金额:
$ 60万 - 项目类别:
Standard Grant
SHF: Small: Toward Fully Automated Formal Software Verification
SHF:小型:迈向全自动形式软件验证
- 批准号:
2210243 - 财政年份:2022
- 资助金额:
$ 60万 - 项目类别:
Standard Grant
SHF: Small: Synergy between Automated Reasoning and Interactive Theorem Proving
SHF:小:自动推理和交互式定理证明之间的协同作用
- 批准号:
2229099 - 财政年份:2022
- 资助金额:
$ 60万 - 项目类别:
Standard Grant
SHF : Small: Certified Automated Reasoning with BDDs (CARB)
SHF:小型:经过 BDD 认证的自动推理 (CARB)
- 批准号:
2108521 - 财政年份:2021
- 资助金额:
$ 60万 - 项目类别:
Standard Grant