Advertisement

2024年6月3日Arxiv大语言模型相关论文

阅读量:

cs.CL: 代码预训练改善了语言模型的实体跟踪能力

Through the Process of Code Pretraining, the language models’ entity tracking capabilities are enhanced.

作者 : Najoung Kim, Sebastian Schuster, Shubham Toshniwal

机构 : 波士顿大学 伦敦大学学院 NVIDIA

摘要

论文链接 : https://arxiv.org/pdf/2405.21068

cs.CL: 通过质量感知的自我完善直接对齐语言模型

Direct Alignment or Realignment of Language Models via Self-Refinement Guided by Quality Awareness

作者 : Runsheng Yu, Yong Wang, Xiaoqi Jiao, Youzhi Zhang, James T. Kwok

科研机构由三部分组成:香港科技大学、腾讯智能机器人研究工作室以及国家科技创新实验室(人工智能与机器人)。

摘要

论文链接 : https://arxiv.org/pdf/2405.21040

cs.CL: LACIE:针对大语言模型中置信度校准的听众感知微调

LACIE: Listener-Aware Fine-tuning for Enhanced Confidence Calibration within Advanced Large Language Models.

作者 : Elias Stengel-Eskin, Peter Hase, Mohit Bansal

机构 : 北卡罗来纳大学教堂山分校

摘要

论文链接 : https://arxiv.org/pdf/2405.21028

cs.CL: 你只扫描一次:使用LightNet进行高效的多维序列建模

You Only Scan Once: Highly Efficient Sequence-based Multi-dimensional Sequential Modeling with LightNet

作者 : Zhen Qin, Yuxin Mao, Xuyang Shen, Dong Li, Jing Zhang, Yuchao Dai, Yiran Zhong

摘要

论文链接 : https://arxiv.org/pdf/2405.21022

cs.CL: SaySelf: 教导大语言模型通过自我反思的理由表达自信

Empowering large language models to convey self-assurance through self-reflective reasoning pathways.

作者 : Tianyang Xu, Shujin Wu, Shizhe Diao, Xiaoze Liu, Xingyao Wang, Yangyi Chen, Jing Gao

机构 : 普渡大学 伊利诺伊大学厄巴纳-香槟分校 南加州大学 香港科技大学

摘要

论文链接 : https://arxiv.org/pdf/2405.20974

Github : https://github.com/xu1868/SaySelf

cs.CL: 超级级别的语境:超级级别框架的显式和隐式领域限制

关于超级修饰词的语境分析:明确与隐含领域限制及其框架

作者 : Valentina Pyatkin, Bonnie Webber, Ido Dagan, Reut Tsarfaty

机构 : 巴伊兰大学 爱丁堡大学 艾伦人工智能研究所

摘要 : 最高级形式用于突出具有最大/最小属性的元素。从语义上讲,最高级形式执行一种集合比较:某物(或某些事物)在一组中具有最小/最大属性。因此,最高级形式为研究隐含现象和话语限制提供了一个理想的现象。虽然这种比较集合通常没有明确定义,但可以从表达式出现的话语背景中推断出其(隐含的)限制。在这项工作中,我们对最高级形式的语义进行了广泛的计算研究。我们提出了一个统一的最高级语义解释,使我们能够推导出一个广泛覆盖的注释模式。使用这个统一模式,我们对一个多领域的最高级数据集及其语义解释进行了注释。我们专门关注解释隐含或模糊的最高级表达,通过分析话语背景如何限制解释的集合。在一系列实验中,我们分析了模型在预测最高级语义的不同变体时表现如何,包括有无上下文。我们展示了最高级形式在上下文中的细粒度语义对于当代模型(包括 GPT-4)来说可能具有挑战性。

论文链接 : https://arxiv.org/pdf/2405.20967

cs.CL: OR-Bench:大语言模型的过度拒绝基准

原标题 : OR-Bench: An Over-Refusal Benchmark for Large Language Models

作者 : Justin Cui, Wei-Lin Chiang, Ion Stoica, Cho-Jui Hsieh

机构 : 加州大学洛杉矶分校 加州大学伯克利分校

摘要

论文链接 : https://arxiv.org/pdf/2405.20947

其他链接 : https://huggingface.co/datasets/bench-llm/OR-Bench

cs.CL: 学习使用Transformer和Mamba来估计线性时序逻辑中的系统规范

We develop an ability to evaluate system specifications within a linear temporal logic framework by employing transformers and mamba.

作者 : İlker Işık, Ebru Aydin Gol, Ramazan Gokberk Cinbis

机构 : 中东技术大学 微软

摘要

论文链接 : https://arxiv.org/pdf/2405.20917

cs.CL: 对链式推理的“先发制人”回答攻击

原标题 : Preemptive Answer “Attacks” on Chain-of-Thought Reasoning

作者 : Rongwu Xu, Zehan Qi, Wei Xu

机构 : 清华大学

摘要

论文链接 : https://arxiv.org/pdf/2405.20902

cs.CL: 大语言模型:大规模隐私政策分析的新方法

原标题 : Large Language Models: A New Approach for Privacy Policy Analysis at Scale

作者 : David Rodriguez, Ian Yang, Jose M. Del Alamo, Norman Sadeh

机构 : 马德里理工大学 卡内基梅隆大学

摘要 : Web和移动应用程序的数量和动态性给评估它们是否符合数据保护法律带来了重大挑战。在这种情况下,符号和统计自然语言处理(NLP)技术已被用于自动分析这些系统的隐私政策。然而,这些技术通常需要耗时且潜在存在错误的手动注释数据集用于训练和验证。这项研究提出了将大语言模型(LLMs)应用作为一种替代方法,以有效且高效地从隐私政策中提取隐私实践。特别是,我们利用众所周知的LLMs,如ChatGPT和Llama 2,并就提示、参数和模型的最佳设计提供指导,结合少样本学习等先进策略。我们进一步展示了其准确检测详细和多样的隐私实践的能力。通过使用该领域中的几个知名数据集作为基准,我们的评估验证了其出色的性能,实现了超过93%的F1分数。此外,它在降低成本、加快处理时间和减少技术知识要求方面做到了这一点。因此,我们主张基于LLMs的解决方案作为传统NLP技术的一种可靠替代方案,用于大规模自动分析隐私政策。

论文链接 : https://arxiv.org/pdf/2405.20900

cs.CL: 一项将对应分析与基于PMI的词嵌入方法进行比较的研究

对PMI关联度方法与其他向量空间模型进行对比分析

作者 : Qianqian Qi, David J. Hessen, Peter G. M. van der Heijden

摘要

论文链接 : https://arxiv.org/pdf/2405.20895

cs.CL: clembench-2024是一套具有挑战性、灵活变化且支持多种语言的基准测试与灵活框架,用于LLMs作为多动作智能体

clembench-2024: A Complex and Adaptable Benchmark with Complimentary Features and Multilingual Capabilities, Supporting a Flexible Framework Structure for Large Language Models Operating as Multi-Action Agents.

研究者 Anne Beyer, Kranti Chalamalasetti, Sherzod Hakimov,… Brielen Madureira,… Philipp Sadler,… David Schlangen

摘要

论文链接 : https://arxiv.org/pdf/2405.20859

cs.CL: 通过多层多粒度对比学习实现口语理解

This work aims to advance spoken language understanding through multi-level, multi-grained contrastive learning. The objective of this research is to enhance spoken language comprehension by employing a multi-level, multi-grained contrastive learning framework.

作者 : Xuxin Cheng, Wanshi Xu, Zhihong Zhu, Hongxiang Li, Yuexian Zou

机构 : 北京大学

摘要

论文链接 : https://arxiv.org/pdf/2405.20852

cs.CL: 改进奖励模型与合成评论

原标题 : Improving Reward Models with Synthetic Critiques

该研究的主要参与者包括以下几位研究者:张智文、弗雷泽·格林利-斯科特等

机构 : 牛津大学 Cohere

摘要

论文链接 : https://arxiv.org/pdf/2405.20850

cs.CL: 不要购买!重新评估对比多模态模型的广告理解能力

Refain from Engaging with it! Re-examining Their Ad Comprehension Capacities: A Potential Implication for Cross-modal Learning and Retrieval.

作者 : A. Bavaresco, A. Testoni, R. Fernández

机构 : 阿姆斯特丹大学逻辑、语言和计算研究所

摘要

论文链接 : https://arxiv.org/pdf/2405.20846

Github : https://github.com/dmg-illc/trade

cs.CL: 这是可选的:对英语从属子句中“that”省略的当代探讨

Omission of the Subjunctive 'that' is a Common Practice: An Exploration of Contemporary Issues within English Subordinate Clauses

作者 : Ella Rabinovich

机构 : 特拉维夫-雅法学术学院

摘要

论文链接 : https://arxiv.org/pdf/2405.20833

cs.CL: 自我增强偏好优化:用于语言模型对齐的离策略范式

原标题 : Self-Augmented Preference Optimization: Off-Policy Paradigms for Language Model Alignment

作者 : Yueqin Yin, Zhendong Wang, Yujia Xie, Weizhu Chen, Mingyuan Zhou

摘要

论文链接 : https://arxiv.org/pdf/2405.20830

Github : https://github.com/yinyueqin/SAPO

cs.CL: 一个混合了监督学习和无监督学习的语言变化的迭代学习模型

An iterative model for the repeated evolution of language that combines supervised vs. unsupervised learning approaches.

作者 : Jack Bunyan, Seth Bullock, Conor Houghton

摘要

论文链接 : https://arxiv.org/pdf/2405.20818

cs.CL: 基于本地样本融合的方法旨在提升代码混合中的仇恨检测性能:以印地语-英语混合编码为例进行实证研究

Enhancing hate speech detection in code-mixed languages through native speaker samples integrated into the training data: A detailed examination of the Hindi-English language mixtures.

作者 : Debajyoti Mazumder, Aakash Kumar, Jasabanta Patro

机构 : 印度科学教育与研究学院博帕尔分院 印度

摘要

论文链接 : https://arxiv.org/pdf/2405.20755

cs.CL: FinGen:金融领域论点生成数据集

原标题 : FinGen: A Dataset for Argument Generation in Finance

作者 : Chung-Chi Chen, Hiroya Takamura, Ichiro Kobayashi, Yusuke Miyao

机构 : 人工智能研究中心、AIST、日本 东京大学、日本 御茶水女子大学

摘要

论文链接 : https://arxiv.org/pdf/2405.20708

cs.CL: 有时候很简单:关于提高基于方面的情感分析性能的研究

Simplicity Often Occurs: An Investigation Of Evaluating and Enhancing Aspect-Based Sentiment Analysis Techniques

作者 : Laura Cabello, Uchenna Akujuobi

机构 : 哥本哈根大学 索尼人工智能公司

摘要

论文链接 : https://arxiv.org/pdf/2405.20703

cs.CL: 揭示LLM的词汇敏感性:用于提示增强的组合优化

Investigating the Investigative Aspects of LLMs: A Combinatorial Approach to Enhancing Prompts.

作者 : Pengwei Zhan, Zhen Xu, Qian Tan, Jie Song, Ru Xie

机构 : 中国科学院信息工程研究所 中国科学院大学网络空间安全学院

摘要

论文链接 : https://arxiv.org/pdf/2405.20701

cs.CL: DORY: 用于大语言模型的审慎提示恢复

原标题 : DORY: Deliberative Prompt Recovery for LLM

作者 : Lirong Gao, Ru Peng, Yiming Zhang, Junbo Zhao

机构 : 浙江大学

摘要

论文链接 : https://arxiv.org/pdf/2405.20657

cs.CL: 针对大语言模型在问答中的段落重新排序进行特定段落提示调整

Passage-specific Prompt Optimization for Passage Reranking in QA with Large Language Models

作者 : Xuyang Wu, Zhiyuan Peng, Sravanthi Rajanala, Hsin-Tai Wu, Yi Fang

机构 : 圣克拉拉大学 沃尔玛全球科技 Docomo创新

摘要

论文链接 : https://arxiv.org/pdf/2405.20654

cs.CL: 基于奖励的输入构建用于跨文档关系抽取

奖励驱动型输入构建用于跨文档关系抽取

作者 : Byeonghu Na, Suhyeon Jo, Yeongmin Kim, Il-Chul Moon

机构 : 清华大学 基础科学研究院

摘要

论文链接 : https://arxiv.org/pdf/2405.20649

Github : https://github.com/aailabkaist/REIC

cs.CL: 利用大语言模型进行实体匹配

原标题 : Leveraging Large Language Models for Entity Matching

作者 : Qianyu Huang, Tongfang Zhao

摘要

论文链接 : https://arxiv.org/pdf/2405.20624

cs(CL): FineRadScore 是一种用于逐行评估放射学报告的技术,并且能够生成包含严重程度评分的校正版本。

FineRadScore:一种用于逐行评估的医学影像报告技术,生成具有严重程度评分的校正

研究者 : Alyssa Huang是一位研究人员,Oishi Banerjee是一位研究科学家,Kay Wu是一位数据科学家,Eduardo Pontes Reis是一位人工智能专家,Pranav Rajpurkar是一位机器学习工程师

摘要

论文链接 : https://arxiv.org/pdf/2405.20613

cs.CL: UniBias: 通过内部注意力和FFN调整揭示和减轻LLM偏见

UniBias: Revealing and Alleviating LLM Bias through Internal Attention and FFN Manipulation

作者 : Hanzhang Zhou, Zijian Feng, Zixiao Zhu, Junlang Qian, Kezhi Mao

摘要

论文链接 : https://arxiv.org/pdf/2405.20612

cs.CL: 在学习中识别文档事件因果关系识别

During the learning process, identifying can be employed to address document event causality identification.

作者 : Cheng Liu, Wei Xiang, Bang Wang

机构 : 华中科技大学 软件工程学院

摘要

论文链接 : https://arxiv.org/pdf/2405.20608

cs.CL: DAFNet: 大语言模型中用于顺序模型编辑的动态辅助融合

原标题 : DAFNet: Dynamic Auxiliary Fusion for Sequential Model Editing in Large Language Models

作者 : Tao Lin Zhang, Qizhou Chen, Dong Yang Li, Cheng Yu Wang, Xiao Feng He, Longtao Huang, Hui Xue, Jun Huang

机构 : 阿里巴巴集团 东华师范大学

摘要

论文链接 : https://arxiv.org/pdf/2405.20588

cs.CL: GAMedX: 使用大语言模型的生成式AI医疗实体数据提取器

MedEx: 基于AI驱动的生成式医疗实体数据提取器借助于大语言模型

作者 : M'hammoud-Khalil Ghashli, Abdelrahman Farrag, Hajara Sakai, Hicham El-Baz, Yu Jin, Sarah-Lamb

机构 : 纽约州立大学宾汉姆顿分校

摘要

论文链接 : https://arxiv.org/pdf/2405.20585

cs.CL: 一个情感的观点:朝向精神科笔记中临床医生偏见检测

Sentiment analysis perspective aims to develop robust methods to identify clinician bias within electronic psychiatric notes.

作者 : Alissa A. Valentine, Lauren A. Lepow, Alexander W. Charney, Isotta Landi

机构 : 西奈山医疗系统

摘要

论文链接 : https://arxiv.org/pdf/2405.20582

cs.CL: Video-MME:首个视频分析中多模态LLM的全面评估基准。

原标题 : Video-MME: The First-Ever Comprehensive Evaluation Benchmark of Multi-modal LLMs in Video Analysis

作者 : Shuhuai Ren, Zihan Wang, Enhong Chen, Rongrong Ji, Xing Sun, Mengdan Zhang, Peixian Chen, Yanwei Li, Shaohui Lin, Sirui Zhao, Ke Li, Tong Xu, Xiawu Zheng, Rongrong Ji

机构 : 中国科学技术高校 厦门教育机构 香港高等学府 北京教育学府 香港中文高校 华东师范大学学府

摘要

论文链接 : https://arxiv.org/pdf/2405.21075

Github : https://video-mme.github.io

cs.CL: 数据不平衡的泛化:关于 CLIP 的可控研究,可转移的见解

超越数据不平衡的泛化能力:针对CLIP技术的系统性研究以可转移见解为目标

作者 : Xin Wen, Bingchen Zhao, Yilun Chen, Jiangmiao Pang, Xiaojuan Qi

机构 : 香港大学 爱丁堡大学 上海人工智能实验室

摘要

论文链接 : https://arxiv.org/pdf/2405.21070

Github : https://github.com/CVMI-Lab/clip-beyond-tail

cs.CL: 语法对齐解码

原标题 : Grammar-Aligned Decoding

研究者 Kanghee Park(贡献者)、Jiayu Wang(贡献者)、Taylor Berg-Kirkpatrick(贡献者)、Nadia Polikarpova(贡献者)以及 Loris D'Antoni (贡献者)参与了本项目

机构 : 威斯康星大学麦迪逊分校 加州大学圣地亚哥分校

摘要

论文链接 : https://arxiv.org/pdf/2405.21047

cs.CL: 探索性偏好优化:利用隐式 Q* 近似进行样本高效 RLHF

修改后 : 探索性偏好优化:利用隐式Q-近似提升样本效率的方式用于RLHF_

作者 : Tengyang Xie, Dylan J. Foster, Akshay Krishnamurthy, Corby Rosset, Ahmed Awadallah, Alexander Rakhlin

机构 : 威斯康星大学 微软 麻省理工学院

摘要

论文链接 : https://arxiv.org/pdf/2405.21046

cs.CL: 在大语言模型上改进的基于优化的越狱技术

原标题 : Improved Techniques for Optimization-Based Jailbreaking on Large Language Models

Contributors include Xiaojun Jia, Tianyu Pang, Chao Du, Yihao Huang, Jindong Gu, Yang Liu, Xiaochun Cao,and Min Lin.

机构 : 新加坡国立大学 人工智能研究中心 牛津大学 中山大学 计算机学院

摘要 : 大语言模型(LLMs)正在迅速发展,它们广泛部署的关键组成部分是与安全相关的对齐。许多红队努力旨在越狱LLMs,在这些努力中,贪婪坐标梯度(GCG)攻击的成功导致人们对基于优化的越狱技术的研究越来越感兴趣。尽管GCG是一个重要的里程碑,但其攻击效率仍然令人不满意。在本文中,我们提出了几种改进的(经验性)技术,用于像GCG这样基于优化的越狱。我们首先观察到,“Sure”单目标模板在很大程度上限制了GCG的攻击性能;鉴于此,我们建议应用包含有害的自我建议和/或指导的多样化目标模板来误导LLMs。此外,从优化的角度出发,我们提出了一种自动多坐标更新策略在GCG中(即,自适应地决定每一步替换多少个标记)以加速收敛,以及易于困难初始化等技巧。然后,我们将这些改进的技术结合起来开发出一种高效的越狱方法,称为I\mathcal{I}-GCG。在我们的实验中,我们评估了一系列基准测试(如NeurIPS 2023 Red Teaming Track)。结果表明,我们改进的技术可以帮助GCG胜过最先进的越狱攻击,并实现近100%的攻击成功率。代码发布在此https URL。

论文链接 : https://arxiv.org/pdf/2405.21018

Github : https://github.com/jiaxiaojunQAQ/I-GCG

cs.CL: 朝向流体计算机

原标题 : Towards a Fluid computer

作者 : Robert Cardona, Eva Miranda, Daniel Peralta-Salas

摘要

论文链接 : https://arxiv.org/pdf/2405.20999

cs CL: CWRCzech 一百万查询-文档捷克点击数据集及其在Web相关性排名中的应用

原标题 : CWRCzech: 100M Query-Document Czech Click Dataset and Its Application to Web Relevance Ranking

参与者包括Josef Vonášek、Milan Straka等

机构 : 查尔斯大学 捷克共和国 信封数学与物理学院 Seznam.cz

摘要

论文链接 : https://arxiv.org/pdf/2405.20994

其他链接 : http://Seznam.cz

cs.CL: LCQ: 基于低秩码书的量化方法,用于大语言模型

原标题 : LCQ: Low-Rank Codebook-based Quantization用于大规模语言模型

作者 : Wen-Pu Cai, Wu-Jun Li

机构 : 南京大学

摘要

论文链接 : https://arxiv.org/pdf/2405.20973

cs.CL: 大语言模型是零样本下一个位置预测器

原标题 : Large Language Models are Zero-Shot Next Location Predictors

作者 : Ciro Beneduce, Bruno Lepri, Massimiliano Luca

机构 : 特伦托大学 布鲁诺·凯斯勒基金会

摘要

论文链接 : https://arxiv.org/pdf/2405.20962

Github : http://github.com/ssai-trento/LLM-zero-shot-NL

机器人首次在酒吧展示其创意能力:探讨该技术如何助力喜剧创作?研究者将深入分析大语言模型与幽默表演者的匹配度

原标题 : A Robot Walks into a Bar: Can Language Models Serve asCreativity Support Tools for Comedy? An Evaluation of LLMs’ Humour Alignment with Comedians

作者 : Piotr Wojciech Mirowski, Juliette Love, Kory W. Mathewson, Shakir Mohamed

摘要

论文链接 : https://arxiv.org/pdf/2405.20956

cs.CL: 增强视觉模型,以便理解和交互文本密集内容

The task of enhancing vision models is essential for understanding and interacting with rich textual content.

作者 : Adithya.T.G., Adithya.S.K., Abhinav.R.Bharadwaj, Abhiram.H.A., Dr.Surabhi.Narayan

摘要

论文链接 : https://arxiv.org/pdf/2405.20906

cs.CL: 异常值和校准集对现代大语言模型的量化影响逐渐减弱。

The diminishing impact of Outliers and Calibration Sets on the quantization process within modern large language models is notable.

作者 : Davide Paglieri, Saurabh Dash, Tim Rocktäschel, Jack Parker-Holder

摘要

论文链接 : https://arxiv.org/pdf/2405.20835

cs.CL: Ovis: 结构嵌入对齐多模态大语言模型

原标题 : Ovis: Structural Embedding Alignment for Multimodal Large Language Model

作者 : Shiyin Lu, Yang Li, Qing-Guo Chen, Zhao Xu, Weihua Luo, Kaifu Zhang, Han-Jia Ye

机构

摘要

论文链接 : https://arxiv.org/pdf/2405.20797

cs.CL: 图指令调整的联合嵌入

原标题 : Joint Embeddings for Graph Instruction Tuning

作者 : Vlad Argatu, Aaron Haag, Oliver Lohse

机构 : 西门子技术部 慕尼黑 德国

摘要

论文链接 : https://arxiv.org/pdf/2405.20684

cs.CL: 揭示和减轻在检索增强的大语言模型中的检索不一致性

The process of analyzing and addressing inconsistencies within retrieval-enhanced large language models is crucial for enhancing their performance.

作者 : Mingda Li, Xinyu Li, Yifan Chen, Wenfeng Xuan, Weinan Zhang

机构 : 哈尔滨工业大学 XVERSE科技公司

摘要

论文链接 : https://arxiv.org/pdf/2405.20680

cs.CL: 位置耦合:利用任务结构提高Transformer的长度泛化能力

Position-based coupling: Exploiting task-related structure to achieve better performance in handling sequence lengths of transformers.

主要研究者包括 Hanseul Cho 等人在内

机构 : 清华大学 谷歌研究所 纽约大学

摘要

论文链接 : https://arxiv.org/pdf/2405.20671

cs.CL: Shakespeare-Shaw family: 一种在视频字幕和摘要方面应用广泛的高效小规模大规模语言视觉模型集合

The Shotluck Holmes: A family of efficiently designed small-scale Language Vision Models optimized for large-scale tasks, aimed at improving video captioning and summarization performance.

作者 : Richard Luo, Austin Peng, Adithya Vasudev, Rishabh Jain

摘要

论文链接 : https://arxiv.org/pdf/2405.20648

cs.CL: 大语言模型增强了长尾用户和物品的顺序推荐

Large Language Models Improved Sequence-Based Recommendations Aimed at Serving User Groups with Infrequent Interaction Patterns and Providing Diverse Items.

作者 : Qidong Liu, Xian Wu, Xiangyu Zhao, Yejing Wang, Zijian Zhang, Feng Tian, Yefeng Zheng

摘要

论文链接 : https://arxiv.org/pdf/2405.20646

cs.CL: ToxVidLLM:以多模态LLM为基础构建的一个专门用于检测代码混合视频中毒有害内容的框架

原标题 : ToxVidLLM: A Multimodal LLM-based Framework for Toxicity Detection in Code-Mixed Videos

作者 : Krishanu Maity, A.S. Poornash, Sriparna Saha, Pushpak Bhattacharyya

机构 : 印度理工学院巴特那分校 印度理工学院孟买分校

摘要

论文链接 : https://arxiv.org/pdf/2405.20628

cs.CL: 双向Transformer vs. word2vec:发现提升编译代码中的漏洞

双向Transformer架构与word2vec:识别潜在漏洞于提升编译代码

作者 : Gary A. McCully, John D. Hastings, Shengjie Xu, Adam Fortier

机构 : 贝考姆学院 达科他州立大学 应用科学与技术学院 乔治亚理工学院

摘要

论文链接 : https://arxiv.org/pdf/2405.20611

cs.CL: 遮蔽语言建模变成了表格数据合成的条件密度估计

Masked Token Language Modeling is Equivalent to a Conditional Density Estimation Framework in the Context of Tabular Data Synthesis.

作者 : Seunghwan An, Gyeongdong Woo, Jaesung Lim, ChangHyun Kim, Sungchul Hong, Jong-June Jeon

机构 : 首尔大学 统计数据科学系 韩国 统计学系

摘要

论文链接 : https://arxiv.org/pdf/2405.20602

全部评论 (0)

还没有任何评论哟~