Advertisement

2024年6月26日Arxiv语言模型相关论文

阅读量:

cs.CL: 背诵、重构、回忆:大语言模型中的记忆作为多方面现象

Reiterate, Rebuild, Retain: A Multifaceted Phenomenon of Memorization in LMs

Authors : USVSN Sai Prashanth et al., Alvin Deng et al., Kyle O'Brien et al., Jyothir S V et al., Mohammad Aflah Khan et al., Jaydeep Borkar et al., Christopher A. Choquette-Choo et al., Jacob Ray Fuehne et al., Stella Biderman et al., Tracy Ke et al., Katherine Lee et al., Naomi Saphra et al.

机构 : 纽约大学 微软 东北大学 印度信息技术研究所以普拉斯塔为中心 伊利诺伊大学厄巴纳-香槟分校 哈佛大学 企业名称字段值为空字符串

摘要

论文链接 : https://arxiv.org/pdf/2406.17746

cs.CL: BMIKE-53:使用上下文学习调查跨语言知识编辑

原标题 : BMIKE-53: Investigating Cross-Lingual Knowledge Editing with In-Context Learning

Nie Ercong, Shao Bo, Ding Zifeng, Wang Mingyang, Schmid Helmut, Schütze Hinrich

机构 : LMU 设在德国 以及慕尼赫工业大学 设在德国 的机器学习中心和AI技术研究机构

摘要

论文链接 : https://arxiv.org/pdf/2406.17764

cs.CL: 衡量和基准大语言模型生成有说服力语言的能力

Assessing and Comparing the Models' Competencies in Expressive Language Generation.

作者 : Amalie Brogaard Pauli, Isabelle Augenstein, Ira Assent

机构 : 奥胡斯大学 哥本哈根大学

摘要

论文链接 : https://arxiv.org/pdf/2406.17753

cs.CL: 利用大语言模型加速临床证据综合

Rapidly Enhancing Clinical Evidence Synthesis via Advanced Large Language Models

作者 : Zifeng Wang, Lang Cao, Benjamin Danek, Yichi Zhang, Qiao Jin, Zhiyong Lu, Jimeng Sun

机构 : 伊利诺伊州厄巴纳-香槟分校 国家生物技术信息中心 美国国家医学图书馆 Carle·伊利诺伊医学院

摘要

论文链接 : https://arxiv.org/pdf/2406.17755

cs.CL: CaLMQA:探索跨23种语言的具有文化特色的长篇问题回答

CaLMQA: Investigating cultural-aware extended Q&A systems across 23 languages.

Shane Arora, Marzena Karpinska, Hung-Ting Chen, Ipsita Bhattacharjee, Mohit Iyyer and Eunsol Choi are the primary contributors to this work.

机构 : 德克萨斯大学奥斯汀分校 马萨诸塞大学阿默斯特分校

摘要

论文链接 : https://arxiv.org/pdf/2406.17761

cs.CL: 在说明中遵循长度约束

原标题 : Following Length Constraints in Instructions

Main authors Weizhe Yuan, Ilia Kulikov, Ping Yu, Kyunghyun Cho, Sainbayar Sukhbaatar, Jason Weston, Jing Xu.

机构 : 纽约大学 Meta FAIR

摘要

论文链接 : https://arxiv.org/pdf/2406.17744

cs.CL: 识别父节点;随后标注子节点:基于预训练语言模型的双阶段分类优化策略

基于父节点先标签子节点:一种基于预训练语言模型的两阶段分类方法

作者 : Fei Xia, Yixuan Weng, Shizhu He, Kang Liu, Jun Zhao

机构 : 中国科学院自动化研究所 中国科学院大学

摘要

论文链接 : https://arxiv.org/pdf/2406.17739

cs.CL: 大语言模型的有针对性的低性能会不成比例地影响到脆弱用户。

The LLM's poor performance targeting disproportionately affects vulnerable groups.

作者 : Elinor Poole-Dayan, Deb Roy, Jad Kabbara

机构 : 麻省理工学院 MIT Center for Constructive Communication

摘要

论文链接 : https://arxiv.org/pdf/2406.17737

cs.CL: ViANLI:越南语对抗自然语言推理

原标题 : ViANLI: Adversarial Natural Language Inference for Vietnamese

作者 : Tin Van Huynh, Kiet Van Nguyen, Ngan Luu-Thuy Nguyen

机构 : 越南胡志明市信息技术大学 越南国立大学胡志明市

摘要

论文链接 : https://arxiv.org/pdf/2406.17716

cs.CL: 从分布式到奥弗顿多元主义:探究大语言模型的对齐

原标题 : From Distributional to Overton Pluralism: Investigating Large Language Model Alignment

作者 : Thom Lake, Eunsol Choi, Greg Durrett

机构 : 德克萨斯大学奥斯汀分校 Indeed

摘要 : 对大语言模型(LLM)的对齐过程会改变输出分布的几个属性。我们分析了LLM响应的对齐后分布转移的两个方面。首先,我们重新审视了对齐后响应多样性的降低。我们的分析表明,响应多样性的明显下降在很大程度上可以通过质量控制和信息聚合来解释。对齐会抑制不相关和无用的内容,同时将输出分布转向覆盖基础LLM的多个响应中的信息的更长响应,从根本上在单个响应中呈现多样的信息。我们发现很少证据表明对齐会抑制有用信息,因此自然而然地会问相反的问题:对齐模型是否会呈现无法从基础模型中恢复的信息?我们的第二项研究表明情况并非如此,对齐模型的行为可以在不经过微调的情况下从基础模型中恢复。在上下文示例和有关响应内容的低分辨率语义提示的组合可以引发基础LLM的响应,这些响应与对齐调整的LLM响应之间的相似程度与对齐调整的LLM响应之间的相似程度一样。综合起来,这些结果表明当前的对齐技术捕捉了但没有扩展助理型基础LLM行为的有用子集,进一步证明了表面对齐假设。它们还表明,在上下文对齐中可以出人意料地作为一种策略来模仿对齐的LLM而无需进行微调。我们的代码和数据可在此网址获得:https://…(链接地址)。

论文链接 : https://arxiv.org/pdf/2406.17692

Github : https://github.com/thomlake/investigating-alignment

cs.CL: VarBench:通过动态变量扰动实现鲁棒的语言模型基准测试

Effective Variants: Robust Model Benchmarking via Dynamic Variable Testing

作者 : Kun Qian, Shunji Wan, Claudia Tang, Youzhi Wang, Xuanming Zhang, Maximillian Chen, Zhou Yu

机构 : 哥伦比亚大学 Barnard学院

摘要

论文链接 : https://arxiv.org/pdf/2406.17681

cs.CL: LLM-ARC: 用自动推理评论者增强LLM

原标题 : LLM-ARC: Enhancing LLMs with an Automated Reasoning Critic

主要贡献者包括Aditya Kalyanpur等如Victor Barres和Kailash Saravanakumar。

机构 : Elemental Cognition Inc.

摘要

论文链接 : https://arxiv.org/pdf/2406.17663

cs.CL: 量化AI心理学:大语言模型的心理测量基准

Assessing the psychometric properties of AI psychology: a standard measure of mental processes in large language models

作者 : Yuan Li, Yue Huang, Hongyi Wang, Xiangliang Zhang, James Zou, Lichao Sun

机构 : 剑桥大学 诺特丹大学 卡内基梅隆大学 斯坦福大学 利哈伊大学

摘要

论文链接 : https://arxiv.org/pdf/2406.17675

cs.CL: 变体学:探索书面语言数据中多方面的变化和偏见

Research Methodology: Systematic Analysis of Diverse Patterns and Systematic Biases within Written Communication Data

作者 : Alan Ramponi, Camilla Casula, Stefano Menini

机构 : Fondazione Bruno Kessler 意大利 University of Trento 意大利

摘要

论文链接 : https://arxiv.org/pdf/2406.17647

cs.CL: 自动标注中的知识蒸馏:LLM 生成的训练标签进行监督文本分类

Knowledge Distillation in Automated Annotation: A Supervised Text Classification Method Using LLM-Generated Training Labels

作者 : Nicholas Pangakis, Samuel Wolken

机构 : 宾夕法尼亚大学

摘要

论文链接 : https://arxiv.org/pdf/2406.17633

cs.CL: 消除大语言模型的幻觉需要重新思考泛化

Eliminating hallucinations in large language models necessitates a reevaluation of their generalization capabilities.

The team comprises a group of highly skilled and experienced professionals including Johnny Li with extensive experience in digital innovation Saksham Consul distinguished for his contributions to global governance Eda Zhou renowned researcher in the field of environmental sustainability James Wong a dedicated academician specializing in artificial intelligence Naila Farooqui a passionate entrepreneur with a focus on tech startups Yuxin Ye an expert in data analytics Nithyashree Manohar a creative technologist known for her work in product design Zhuxiaona Wei an accomplished diplomat shaping international relations Tian Wu a leading expert in renewable energy Ben Echols completing his studies and ready to contribute further Sharon Zhou a visionary leader in the tech industry Gregory Diamos an innovative thinker driving forward new business ventures

机构 : Lamini AI

摘要 : 尽管大语言模型(LLMs)具有强大的聊天、编码和推理能力,但它们经常出现幻觉。传统智慧认为,幻觉是创造力和事实之间的平衡的结果,可以通过将LLM与外部知识来源联系起来来减轻,但无法完全消除。通过广泛的系统实验,我们表明这些传统方法无法解释LLMs在实践中为何会出现幻觉。具体来说,我们表明,通过大规模的混合记忆专家(MoME)增强的LLMs可以轻松记忆大量随机数字的数据集。我们用理论构建证实了这些实验结果,该构建显示,当训练损失超过阈值时,简单的神经网络在训练时通常会出现幻觉,这通常在训练互联网规模数据时发生。我们通过与传统检索方法进行比较来解释我们的发现,以减轻幻觉。我们利用我们的发现设计了第一代模型 Lamini-1,用于消除幻觉,该模型将事实存储在数百万个动态检索的混合记忆专家中。

论文链接 : https://arxiv.org/pdf/2406.17642

cs.CL: 自我评估、展示和认知:大语言模型中的人格评价综述

通过自我评估、展示和认可机制对大型语言模型的人格特征进行详细调查与分析:《Large Language Models: A Comprehensive Survey of Personality Profile》

主要研究者:张智远文、于杨、曹建功、孙浩明、杨若松、刘帅齐

机构 : 香港理工大学 华为技术有限公司

摘要

论文链接 : https://arxiv.org/pdf/2406.17624

cs.CL: CoSafe:在多轮对话共指中评估大语言模型的安全性

原标题 : CoSafe: Evaluating Large Language Model Safety in Multi-Turn Dialogue Coreference

作者 : Erxin Yu, Jing Li, Ming Liao, Siqi Wang, Zuchen Gao, Fei Mi, Lanqing Hong

机构 : 香港理工大学 华为Noah’s Ark Lab

摘要

论文链接 : https://arxiv.org/pdf/2406.17626

cs.CL: 以简驭繁:LLM是否能在有限的提示下模拟人类处理自然语言推理的能力?

Understanding Large-Scale Phenomena via Fine-Grained Perspectives: Do Large Language Models Capable of Approximating HumanJudgmentDistributionsonNLIwhenProvidedwithFewExplanations?

研究团队由Beiduo Chen、Xinpeng Wang、Siyao Peng、Robert Litschko、Anna Korhonen和Barbara Plank组成

机构 : 慕尼黑大学LMU(德国) 剑桥大学(英国)

摘要

论文链接 : https://arxiv.org/pdf/2406.17600

cs.CL: LongIns:面向大语言模型的具有挑战性的长文本指令型考试

原标题 : Long-Instructions: A Difficult Long-context Instruction Type Test for LLMs

Contributors: Shawn Gavin,Tuney Zheng,Jiaheng Liu,Qehry Que,Noah Wang,Jian YangChenchen Zhang,Wenhao Huang,Wenhu Chen,Zhang Ge

机构 : M-A-P, University of Waterloo, 301.ai

摘要

论文链接 : https://arxiv.org/pdf/2406.17588

cs CL: 突破传统文本至SQL转换在物联网防护中的应用:一套全面的方法论体系用于检索与识别物联网安全威胁

Moving beyond traditional text-to-SQL approaches, we present a thorough solution for enhancing IoT defense mechanisms. Our framework focuses on efficient querying and effective classification of IoT threats, ensuring robust protection against emerging cyber threats.

Ryan Pavlich, Nima Ebadi, Richard Tarbell, Billy Linares, Adrian Tan, Rachael Humphreys, Jayanta Kumar Das, Rambod Ghandiparsi, Hannah Haley-George-Hernandez-Ramirez-Adams-Jameson-McCormack-Barker-Davis-Garcia-Castro-Tapia-Sanchez-Valenzuela-Gutierrez-Rivera-Lopez-Vega-Bautista-Mendez-Pinto-Whitehead-Wilson-Barnes-Harris-Weaver-Chaves-Cabrera-Gonzalez-Vega-Lopez-Sanchez-Aguilar-Guzman-Morales-Castillo-Garcia-Castro-Tapia-Sanchez-Valenzuela-Gutierrez-Rivera-Lopez-Vega-Bautista-Mendez-Pinto-Whitehead-Wilson-Barnes-Harris-Weaver-Chaves-Cabrera-Gonzalez-Vega-Lopez-Sanchez-Aguilar-Guzman-Morales-Castillo

机构 : 圣安东尼奥得克萨斯大学

摘要

论文链接 : https://arxiv.org/pdf/2406.17574

cs.CL: FrenchToxicityPrompts:该大型基准测试旨在评估并减轻法语文本中的毒性

French toxicity prompts: a large benchmark dataset designed to evaluate and mitigate toxicity in French texts.

作者 : Caroline Brun, Vassilina Nikoulina

机构 : NAVER LABS Europe

摘要

论文链接 : https://arxiv.org/pdf/2406.17566

cs.CL: 大语言模型的多属性导向与动态激活组合

多属性调节大型语言模型的动态激活组合

作者 : Daniel Scalena, Gabriele Sarti, Malvina Nissim

机构 : 米兰比科卡 Univ. 根廷 Univ.

摘要

论文链接 : https://arxiv.org/pdf/2406.17563

cs.CL: 检索增强代码生成用于情境动作生成:Minecraft案例研究

Enhanced Retrieval-Driven Approach for the Development of the Code Generation Process in Situated Action Generation Tasks: A Comprehensive Case Study on Minecraft.

作者 : Chalamalasetti Kranti, Sherzod Hakimov, David Schlangen

机构 : 波茨坦大学 德国 德国人工智能研究中心(DFKI)

摘要

论文链接 : https://arxiv.org/pdf/2406.17553

cs.CL: FineWeb数据集:在规模上提取网络中最精细的文本数据

FinestWeb Dataset Series: Curating the Web Content to Provide Top-tier Textual Data on a Large Scale

作者 : Guilherme Penna, Hynek Kydlíček, Loubna Benallal, Anton Zhukov, Margaret Mitchell, Colin Raffel, Leandro Von Werra, Thomas Wolf

机构 : Hugging Face

摘要

论文链接 : https://arxiv.org/pdf/2406.17557

cs.CL: 检索式上下文学习用于少样本层次文本分类

Retrieval-based in-context learning represents a promising approach for few-shot hierarchical text classification tasks.

作者 : Huiyao Chen, Yu Zhao, Zulong Chen, Mengjia Wang, Liangyue Li, Meishan Zhang, Min Zhang

机构 : 哈尔滨工业大学(深圳) 天津大学

摘要

论文链接 : https://arxiv.org/pdf/2406.17534

cs.CL: 基于熵的解码用于检索增强的大语言模型

基于熵的解码方法用于增强的大规模语言模型中

作者 : Zexuan Qiu, Zijing Ou, Bin Wu, Jingjing Li, Aiwei Liu, Irwin King

机构 : 香港中文大学 伦敦帝国学院 伦敦大学学院 清华大学

摘要

论文链接 : https://arxiv.org/pdf/2406.17519

cs.CL: LumberChunker:长篇叙事文档分割

原标题 : LumberChunker: Long-Form Narrative Document Segmentation

研究者:André V. Duarte João Marques Miguel Graça Miguel Freire Lei Li Arlindo L. Oliveira

机构名称 : INESC-Id Instituto Superior Técnico NeuralShift Artificial Intelligence Carnegie Mellon University

摘要

论文链接 : https://arxiv.org/pdf/2406.17526

Github : https://github.com/joaodsmarques/LumberChunker

cs.CL: 在语言模型中对心理状态表示进行基准测试

原标题 : Benchmarking Mental State Representations in Language Models

作者 : Matteo Bortoletto, Constantin Ruhdorfer, Lei Shi, Andreas Bulling

摘要

论文链接 : https://arxiv.org/pdf/2406.17513

cs.CL: MedCare:通过解耦临床对齐和知识聚合推进医学大语言模型

MedCare: 推动医疗领域大语言模型发展的新方案——通过分离临床对齐与知识整合

作者 : Yusheng Liao, Shuyang Jiang, Yanfeng Wang, Yu Wang

机构 : 上海交通大学 合作性中介创新中心 复旦大学 上海人工智能实验室

摘要

论文链接 : https://arxiv.org/pdf/2406.17484

cs.CL: 利用大语言模型的迭代反馈来增强工具检索

We can improve tool retrieval by incorporating iterative feedback provided by large language models.

作者 : Qiancheng Xu, Yongqi Li, Heming Xia, Wenjie Li

机构 : 香港理工大学

摘要

论文链接 : https://arxiv.org/pdf/2406.17465

cs.CL: 基于Transformer的命名实体识别与组合数据表示

原标题 : Transformer-based Named Entity Recognition with Combined Data Representation

作者 : Michał Marcińczuk

机构 : CodeNLP

摘要

论文链接 : https://arxiv.org/pdf/2406.17474

cs.CL: 通过上下文数据增强改进语法错误校正

通过基于上下文的数据增强技术能显著提升语法错误校正的效果

作者 : Yixuan Wang, Baoxin Wang, Yijun Liu, Qingfu Zhu, Dayong Wu, Wanxiang Che

机构 : 哈尔滨工业大学 中国 西安交通大学 中国科大讯飞研究院

摘要

论文链接 : https://arxiv.org/pdf/2406.17456

cs.CL: 研究者们在探索如何通过偏好调整和预期信息收益来提升其性能。

Mastering the Art of Formulating Valuable Queries: Optimizing Preferences and Maximizing Expected Information Gain.

作者 : Davide Mazzaccara, Alberto Testoni, Raffaella Bernardi

机构 : 特伦托大学 阿姆斯特丹大学

摘要

论文链接 : https://arxiv.org/pdf/2406.17453

cs.CL: 避免不留下任何文件:通过扩展的多文档问答对长上下文大语言模型评估其性能。

Eliminate All Paper Documents: Evaluating the Performance of Long-Context LLMs Through Expanded Multi-Doc Question Answering

作者 : Minzheng Wang, Longze Chen, Cheng Fu, Shengyi Liao, Xinghua Zhang, Bingli Wu, Haiyang Yu, Nan Xu, Lei Zhang, Run Luo, Yunshui Li, Min Yang, Fei Huang, Yongbin Li

机构 : 中科院自动化研究所 中科院深圳先进技术研究院 中科院大学 阿里巴巴集团

摘要

论文链接 : https://arxiv.org/pdf/2406.17419

cs.CL: 探索大型多模态模型中的语音特定风险:分类、基准和洞见

Investigating Speech-Specific Challenges in Large Multimodal Models: A Classification Framework, Evaluation Metrics, and Key Findings.

作者 : Hao Yang, Lizhen Qu, Ehsan Shareghi, Gholamreza Haffari

机构 : 莫纳什大学 Monash University

摘要

论文链接 : https://arxiv.org/pdf/2406.17430

cs.CL: 变量逐层量化:一种简单有效的大语言模型量化方法

基于变层数分层量化:一种直观且高效的LLM量化方法

作者 : Razvan Gabriel Dumitru, Vikas Yadava, Rishabh Maheshwary, Paul Ioan Clotan, Sathwik Tejasvi Madhusudhan, Mihai Surdeanu

机构 : 亚利桑那大学 Università di Bologna ServiceNow Research

摘要

论文链接 : https://arxiv.org/pdf/2406.17415

Github : https://github.com/RazvanDu/LayerwiseQuant

cs.CL: 本土设计偏见:研究英语本土化对语言模型性能的影响

Design Bias in Native Settings: Examining the Influence of English Native Status on Language Model Efficiency

作者 : Manon Reusens, Philipp Borchert, Jochen De Weerdt, Bart Baesens

该机构设置包括:鲁汶大学(University of Liege, ULg)、国立信息系统工程研究中心(LIRIS)、南安普敦大学(University of Southampton)以及IESEG管理学院

摘要

论文链接 : https://arxiv.org/pdf/2406.17385

cs.CL: 制造一些噪音:通过嘈杂训练解锁语言模型的并行推理能力

Introduce noise into the training process to effectively unlock the potential of parallel inference capability in language models, a technique known as "Make Some Noise"."

作者 : Mr. Yixuan Wang, Mr. Xianzhen Luo, Mr. Fuxuan Wei, Mr. Yijun Liu, Dr. Qingfu Zhu, Prof. Xuanyu Zhang, Dr. Qing Yang, Dr. Dongliang Xu, Prof. Wanxiang Che

机构 : 哈尔滨工业大学 杜小满(北京)科技有限公司

摘要

论文链接 : https://arxiv.org/pdf/2406.17404

cs.CL: 一段文本价值连城:LLM 秘密地将文本嵌入与关键 Token 很好地对齐

A Text Corresponding to Several Tokens: Text Embedding from LLMs Subtly Corresponds to The Key Tokens.

作者 : Zhijie Nie, Richong Zhang, Zhanyu Wu

摘要

论文链接 : https://arxiv.org/pdf/2406.17378

cs.CL: 跨语言适应的三管齐下方法:多语言大语言模型的跨语言适应

This paper presents a Three-Faceted Strategy for Achieving Cross-Language Readjustment Utilizing Multilingual LLMs. The approach integrates technical support, optimized methods, and measurable outcomes to ensure effective cross-lingual adaptation.

作者 : Vaibhav Singh, Amrith Krishna, Karthika NJ, Ganesh Ramakrishnan

机构 : 印度理工学院孟买分校 SML

摘要

论文链接 : https://arxiv.org/pdf/2406.17377

cs.CL: 利用合成音频数据进行端到端低资源语音翻译

Making Use of Synthetic-Audio-Based Data in an End-to-End Approach for Low-Resource Speech Translation.

作者 : Yasmin Moslem

机构 : Bering Lab

摘要

论文链接 : https://arxiv.org/pdf/2406.17363

cs.CL: 一项关于孟加拉语上下文长度变化对偏见特征的实证研究

修改后的标题

著者:Jayanta Sadhu, Ayan Antik Khan, Abhik Bhattacharjee, Rifat Shahriyar

机构 : 孟加拉国工程技术大学 (BUET)

摘要

论文链接 : https://arxiv.org/pdf/2406.17375

cs.CL: 系统性分析大语言模型在INVALSI意大利基准测试中的性能

原标题 : Disce aut Deficere: Evaluating LLMs Proficiency on the INVALSI Italian Benchmark

作者 : Fabio Mercorio, Mario Mezzanzanica, Daniele Potèri, Antonio Seringo, Andrea Severso

机构 : 米兰比科卡大学 意大利 经济管理与统计学院 crispresearch.eu

摘要

论文链接 : https://arxiv.org/pdf/2406.17535

cs.CL: 大语言模型的双空间知识蒸馏

原标题 : Dual-Space Knowledge Distillation for Large Language Models

作者 : Songming Zhang, Xue Zhang, Zengkui Sun, Yufeng Chen, Jinan Xu

机构 : 北京交通大学

摘要

论文链接 : https://arxiv.org/pdf/2406.17328

cs.CL: 并非所有偏好对都是平等的:一种高效标注的迭代偏好学习方法

Only a Few Preference Pairs Are Considered Unequal: An Approach to Efficiently Implementing Annotation-Efficient Iterative Preference Learning

作者 : Sen Yang, Leyang Cui, Deng Cai, Xinting Huang, Shuming Shi, Wai Lam

机构 : 香港中文大学 腾讯人工智能实验室

摘要

论文链接 : https://arxiv.org/pdf/2406.17312

cs.CL: 探究在天文科学出版物中利用 ChatGPT 的运用

The application of ChatGPT within the domain of scientific publications, particularly in astronomy, is a significant area of exploration.

作者 : Simone Astarita, Sandor Kruk, Jan Reerink, Pablo Gómez

机构 : 欧洲空间局(ESA)

摘要

论文链接 : https://arxiv.org/pdf/2406.17324

cs.CL: 使用大语言模型进行检索增强指令调整,用于开放式命名实体识别

Enhanced Retrieval-Based Instruction Fine-tuning for Open NER using Large Language Models

作者 : Tingyu Xie, Jian Zhang, Yan Zhang, Yuanyuan Liang, Qi Li, Hongwei Wang

机构 : 浙江大学 国立新加坡大学 华东师范大学

摘要

论文链接 : https://arxiv.org/pdf/2406.17305

Github : https://github.com/Emma1066/Retrieval-Augmented-IT-OpenNER

cs.CL: 利用大语言模型进行对话质量评估

原标题 : Leveraging LLMs for Dialogue Quality Measurement

Contributors include Jinghan Jia, Abi Komma, Timothy Leffel, Xujun Peng, Ajay Nagesh, Tamer Soliman, Aram Galstyan and Anoop Kumar.

机构 : 密歇根州立大学 亚马逊 AGI基金会

摘要

论文链接 : https://arxiv.org/pdf/2406.17304

cs.CL: Math-LLaVA: 为多模态大语言模型引入数学推理的引导程序

Math-LLaVA: 通过引导数学推理能力的建立来实现多模态大型语言模型系统

Wen Hao Shi, Zhi Qiang Hu, Bin Yi, Hui Jun Liu, Yang Yang, See Kiong Ng, Li Dong Bing, Ka Wee Lee

学术机构:包括电子科技大学(中国)、南洋理工大学(新加坡)、同济大学(中国)以及国立新加坡大学(新加坡)。

摘要

论文链接 : https://arxiv.org/pdf/2406.17294

Github : https://github.com/HZQ950419/Math-LLaVA

CS:CL: Causality Score: 一种衡量工具, 用于评估对话回复的相关性. 该方法特别适用于在开放信息密度较高的对话系统中运行, 并且无需依赖任何参考数据或外部资源.

CausalScore metric is a reference-free metric that is automatically calculated to evaluate the relevance of responses within open-domain dialogue systems.

作者 : Tao Feng, Lizhen Qu, Xiaoxi Kang, Gholamreza Haffari

机构 : 莫纳什大学 澳大利亚

摘要

论文链接 : https://arxiv.org/pdf/2406.17300

cs.CL: 利用大语言模型预测中国辅导对话中的大五人格特质

原标题 : Predicting the Big Five Personality Traits in Chinese Counselling Dialogues Using Large Language Models

作者 : Yang Yan, Lizhi Ma, Anqi Li, Jingsong Ma, Zhenzhong Lan

学院/机构:包括浙江大学、西湖大学、工程学院、未来产业研究院以及杭州工商职业技术学院

摘要

论文链接 : https://arxiv.org/pdf/2406.17287

Github : https://github.com/kuri-leo/BigFive-LLM-Predictor

cs.CL: 楔形文字符号的递归编码

原标题 : A Recursive Encoding for Cuneiform Signs

作者 : Daniel M. Stelzer (University of Illinois at Urbana-Champaign)

机构 : 伊利诺伊大学香槟分校

摘要

论文链接 : https://arxiv.org/pdf/2406.17283

其他链接 : https://bitbucket.org/dstelzer/hantatallas

cs.CL: BERT, 神经信息检索, 布尔检索, 否定检索

BERT, 基于神经网络的信息检索系统, 布尔信息检索方法, 否定信息检索机制

作者 : Quan Mai, Susan Gauch, Douglas Adams

机构 : 美国阿肯色大学

摘要

论文链接 : https://arxiv.org/pdf/2406.17282

cs.CL: 我们能相信文本摘要中不确定性估计方法的性能评估吗?

Should We Have Confidence in the Evaluation of Performance for Methods Estimating Uncertainty in Text Summarization?

主要贡献者 : Jianfeng He等主要贡献者:Yang Runing等

机构 : 弗吉尼亚理工大学 美国 德克萨斯大学达拉斯分校

摘要

论文链接 : https://arxiv.org/pdf/2406.17274

cs.CL: OPT-Tree:具有自适应草案树结构的推测解码

原标题 : OPT-Tree: Speculative Decoding with Adaptive Draft Tree Structure

作者 : Jikai Wang, Yi Su, Juntao Li, Qinrong Xia, Zi Ye, Xinyu Duan, Zhefeng Wang, Min Zhang

机构 : 苏州大学 华为集团

摘要

论文链接 : https://arxiv.org/pdf/2406.17276

Github : https://github.com/Jikai0Wang/OPT-Tree

cs.CL: DARG: 通过自适应推理图动态评估大语言模型

DARG: A Dynamic Evaluation Mechanism for Large Language Systems Based on an Adaptive Reasoning Framework

作者 : Zhehao Zhang, Jiaao Chen, Diyi Yang

机构 : 达特茅斯学院 乔治亚理工学院 斯坦福大学

摘要

论文链接 : https://arxiv.org/pdf/2406.17271

Github : https://github.com/SALT-NLP/DARG

cs.CL: D2LLM:分解和精炼的大语言模型用于语义搜索

原标题 : **D2LLM: Decomposed and Distilled Large Language Models for Semantic Search

作者 : Zihan Liao, Hang Yu, Jianguo Li, Jun Wang, Wei Zhang

机构 : 华东师范大学 Ant Group

摘要

论文链接 : https://arxiv.org/pdf/2406.17262

Github : https://github.com/codefuse-ai/D2LLM

cs.CL: TRAWL:大语言模型的张量减少和近似权重

全称名称:TRAWL: 嵌入矩阵压缩与估计方法用于大型语言模型

贡献者包括:Yiran Luo、Het Patel、Yu Fu、Dawon Ahn、Jia Chen、Yue Dong和Evangelos E. Papalexakis

机构 : 加州大学河滨分校

摘要

论文链接 : https://arxiv.org/pdf/2406.17261

cs.CL: 在虚构角色扮演中减轻幻觉

原标题 : Mitigating Hallucination in Fictional Character Role-Play

作者:Nafis Sadeq、Zhouhang Xie、Byungkyu Kang、Prarit Lamba、Xiang Gao、Julian McAuley

机构 : 加州大学圣地亚哥分校 Intuit

摘要

论文链接 : https://arxiv.org/pdf/2406.17260

Github : https://github.com/NafisSadeq/rolefact.git

cs.CL: 利用参数高效的迁移学习进行多语言文本转语音适应

This paper presents an innovative approach to enhancing the efficiency of parameter-efficient transfer learning in multi-lingual text-to-speech adaptation systems.

作者 : Yingting Li, Ambuj Mehrish, Bryan Chew, Bo Cheng, Soujanya Poria

机构 : 北京邮电大学 新加坡科技与设计大学

摘要

论文链接 : https://arxiv.org/pdf/2406.17257

cs.CL: MPCODER:包含基于显式的与隐式的风格表示学习机制设计出的多用户个性化代码生成系统

原标题 : MPCODER: Multi-user Personalized Code Generator with Explicit and Implicit Style Representation Learning

Zhenlong Dai, Yang Yao, Wen Kang Han, Ying Yuan, Zhi peng Gao, Jing Yuan Chen

机构 : 浙江大学 浙江警察学院

摘要

论文链接 : https://arxiv.org/pdf/2406.17255

cs.CL: 知识编辑方法能够有效编辑令人困惑的知识吗?

原标题 : How Well Can Knowledge Edit Methods Edit Perplexing Knowledge?

作者 : Huaizhi Ge, Frank Rudzicz, Zining Zhu

摘要

论文链接 : https://arxiv.org/pdf/2406.17253

cs.CL: 这些电路代表什么?知识编辑视图

原标题 : What Do the Circuits Mean? A Knowledge Edit View

作者 : Huaizhi Ge, Frank Rudzicz, Zining Zhu

机构 : 哥怀志:哥怀志:哥伦比亚大学 达尔豪斯大学 史蒂文斯理工学院

摘要

论文链接 : https://arxiv.org/pdf/2406.17241

cs.CL: CogMG:大语言模型和知识图谱之间的协作增强

CogMG : CogMG stands for Collaborative Augment in collaboration with LLMs for knowledge graph aid.

作者 : Tong Zhou, Yubo Chen, Kang Liu, Jun Zhao

机构 : 中国科学院自动化研究所 西安交通大学 上海人工智能实验室

摘要

论文链接 : https://arxiv.org/pdf/2406.17231

该研究突破了传统的cs:CL框架,在超越人口统计学领域取得显著进展。具体而言,在大语言模型代理方面通过人类信念网络校准了基于角色扮演的系统

Moving Beyond Demographics: Calibrating Role-Playing LLM-Based Agents by Leveraging Human Belief Networks

主要贡献者包括Yun-Shiuan Chuang博士等研究人员,在多个领域拥有丰富的经验

机构 : 威斯康星大学麦迪逊分校

摘要

论文链接 : https://arxiv.org/pdf/2406.17232

cs.CL: 在美国枪支暴力报道中检测新闻标题和主要图片中的框架

Identifying Frames in News Headlines and Also Recognizing Lead Images in U.S.-Focused on firearm-related violence coverage.

本研究的主要贡献者包括Isidora Chara Tourni、Lei Guo、Hengchang Hu等

机构 : 波士顿大学

摘要

论文链接 : https://arxiv.org/pdf/2406.17213

cs.CL: FedBiOT:在联邦学习中进行大语言模型的本地微调,无需完整模型

FedBiOT is a method that enables Local Fine-Tuning of LLM within the framework of Federated Learning without the need for a complete model.

作者 : Feijie Wu, Zitao Li, Yaliang Li, Bolin Ding, Jing Gao

机构 : 普渡大学 阿里巴巴集团

摘要

论文链接 : https://arxiv.org/pdf/2406.17706

cs.CL: 这篇论文吸引了顶级审稿人,并通过音频文本Transformer的方法进行阿谀检测

Among this paper's peer reviews, the reviewers demonstrated exceptional acumen in detecting emotional manipulation. The study employs a sophisticated approach that integrates both audio and textual data to identify patterns of flattery and emotional manipulation within written texts.

Contributors include Dr. Lukas Christ, Dr. Shahin Amiriparian, and others such as Friederike Hawighorst.

机构 : 奥格斯堡学术学院 德国 慕尼黑技术大学 德国 北线 paralleling工厂 德国 工业城 德国 英国 伦敦帝国学院

摘要

论文链接 : https://arxiv.org/pdf/2406.17667

cs.CL: ELIZA再作解释:最初的聊天机器人并非最初被设计为专门的聊天机器人。

**ELIZA Reimagined: The original world's first chatbot was never designed to function as a conversation system

作者 : Jeff Shrager

机构 : 斯坦福大学 蓝点变革

摘要

论文链接 : https://arxiv.org/pdf/2406.17650

cs.CL: 缩小差距:探讨改进 CLIP 中跨模态对齐的方法

Close the Gap: Examining Strategies to Enhance Cross-Modality Alignment within CLIP

作者 : Sedigheh Eslami, Gerard de Melo

机构 : 哈索普拉特纳研究所

摘要

论文链接 : https://arxiv.org/pdf/2406.17639

cs.CL: 构建端到端多语言自动歌词转录模型

原标题 : Starting from the development of an End-to-End Multilingual Automatic Lyrics Transcription Model.

作者 : Jiawen Huang, Emmanouil Benetos

机构 : 伦敦大学玛丽皇后学院

摘要

论文链接 : https://arxiv.org/pdf/2406.17618

CS-CL: CDQuant leverages the greedy coordinate-wise descent algorithm to achieve highly accurate large-scale pre-trained model fine-tuning weight quantization.

原标题 : CDQuant: Accurate Post-training Weight Quantization of Large Pre-trained Models using Greedy Coordinate Descent

作者 : Pranav Ajit Nair, Arun Sai Suggala

机构 : 谷歌DeepMind

摘要

论文链接 : https://arxiv.org/pdf/2406.17542

cs.CL: 大语言模型能理解 DL-Lite 本体吗?一项实证研究

是否大型语言模型能够理解DL-Lite本体?一项实证研究

作者 : Keyu Wang, Guilin Qi, Jiaqi Li, Songlin Zhai

机构 : 东南大学 计算机科学与工程学院

摘要

论文链接 : https://arxiv.org/pdf/2406.17532

cs.CL: AG-LSEC:基于音频的词汇发音错误修正

原标题 : AG-LSEC: Audio Grounded Lexical Speaker Error Correction

作者 : Rohit Paturi, Xiang Li, Sundararajan Srinivasan

机构 : 亚马逊AI实验室

摘要

论文链接 : https://arxiv.org/pdf/2406.17266

cs.CL: 自构建上下文反编译与细粒度对齐增强

自构建的上下文分解与细粒度对齐增强

作者 : Yunlong Feng, Yang Xu, Dechuan Teng, Honglin Mu, Xiao Xu, Libo Qin, Wanxiang Che, Qingfu Zhu

机构 : 哈尔滨工业大学

摘要

论文链接 : https://arxiv.org/pdf/2406.17233

cs.CL: 大语言模型是可解释的学习者

原标题 : Large Language Models are Interpretable Learners

主要贡献者为 Ruochen Wang, Si Si, Felix Yu, Dorothea Wiesmann, Cho-Jui Hsieh, Inderjit Dhillon

机构 : 加州大学洛杉矶分校 谷歌研究

摘要

论文链接 : https://arxiv.org/pdf/2406.17224

cs.CL: 在语言模型中解锁持续学习能力

原标题 : Unlocking Continual Learning Abilities in Language Models

contributors : Wen Yu Du, Shuang Cheng, Tongxu Luo, Zihan Qiu, Zeyu Huang, Ka Chun Cheung, Reynold Cheng, Jie Fu.

机构 : 香港大 中科院信通院 港中大(深圳)研 清华 UoE NVIDIA 香港科大

摘要

论文链接 : https://arxiv.org/pdf/2406.17245

Github : https://github.com/wenyudu/MIGU

全部评论 (0)

还没有任何评论哟~