自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

HyperAI超神经

人工智能领域实验媒体,站在技术与人文的路口,读懂人工智能。

  • 博客(1370)
  • 收藏
  • 关注

原创 【持续更新中!图像-文本对数据集汇总】Stable Diffusion 3 重磅开源,超全图像生成必备训练数据集、教程汇总

Stability AI 已经正式开源 Stable Diffusion 3(简称 SD3)!SD3 是一个图像生成模型,只要给定一段描述性的文字,就能够创造出与之匹配的视觉作品。下图就是由 SD3 生成的图像。* prompt史诗级动漫作品:一位巫师在夜晚的山顶上向黑暗的天空施放宇宙咒语,咒语上写着「Stable Diffusion 3」,由五彩缤纷的能量组成在 SD3 的背后,是庞大的图像-文...

2024-06-13 11:00:53 3553

原创 【持续更新中!气象数据集汇总】气象局首次发布训练数据目录!CAMELS 美国天文气象数据集等上线官网

该数据集为论文 「Global prediction of extreme floods in ungauged watersheds」的研究数据,主要内容为 AI 模型生成的洪水重新分析 (1984-2021) 和重新预测 (2014-2021) 数据以及相应的 GloFAS 基准数据。数据集可鼓励在天气领域进行机器学习研究,方便在理解和减轻气候变化影响方面的工作。SEVIR 将多种天气传感模式组合并整合成一个单一的、可访问的数据集,该数据集可在云端免费访问,可供气象学家、数据科学家和其他研究人员使用。

2024-05-30 16:18:00 1918

原创 【持续更新中,图像分割数据集】字节发布 COCONut 入选 CVPR 2024,立即体验 Segment Anything 分割万物!|持续更新中!

随着计算机视觉技术的不断发展,图像分割在诸多领域展现出重要的应用价值。近年来,各种图像分割数据集如雨后春笋般涌现。上个月,字节跳动发布了首个大规模全景图像分割数据集「COCONut」,为这一领域的研究注入了新鲜血液。HyperAI超神经本周汇总了 10 个优质的图像分割数据集进行汇总和分析,以更好地推动相关研究的进展。除此之外,GitHub 上超火的项目「Segment Anything 分割万物...

2024-05-09 15:09:25 1140 1

原创 【持续更新中!数学数据集汇总】天才博士陶哲轩力荐数据集!含代码、中文竞赛题目、正向逆向问答对等

数学数据集持续更新中,建议收藏!欢迎投稿优质数据集

2024-04-23 20:19:00 2069

原创 同时处理蛋白质主链和侧链信息,斯坦福等基于消息传递神经网络实现全原子结构建模

这一模块的输入包括全原子编码器的特征、生成的序列和侧链坐标以及扩散过程中的噪声水平,输出的 pSCE 能有效反映侧链 Packing 的精度,既有助于筛选高质量的设计结果,也可以增强模型的可解释性,从而完善了侧链结构生成的质量评估环节。对于不存在特定原子类型的侧链,使用幽灵原子(设为残基的 Cα 位置)表示。此外,与 LigandMPNN 相比,FAMPNN 能够更有效地利用侧链上下文,并且在基于不同数量的部分序列或侧链构象上下文的条件下进行侧链 Packing,上下文越多,包装准确率越高。

2025-07-15 12:52:16 546

原创 推理能力跃迁!GLM-4.1V-Thinking推动认知智能演进;500万个分步思维数据示例!MathX-5M解锁数学推理新境界

来自 AMD 的 AI 架构师张宁,在「助力开源社区,剖析 AMD Triton 编译器」为题的演讲中,围绕公司在开源社区的技术贡献,系统解读了 AMD Triton 编译器的核心技术、底层架构支撑及生态建设成果,为开发者深入理解高性能 GPU 编程与编译器优化提供了全面视角。CIFAKE 是一个识别 AI 生成图像的合成数据集,该数据集是一个二分类图像数据集,对增强图像处理技术的鲁棒性、提升 AI 生成内容的辨识能力,尤其在新闻传播、社交媒体监控等领域,具有重要的实际应用价值。

2025-07-14 15:27:51 382

原创 入选ICML 2025,Meta/剑桥/MIT提出全原子扩散Transformer框架,首次实现周期性与非周期性原子系统统一生成

如下图所示,随着 DiT 去噪器参数量从 3,200 万(ADiT-S,蓝色)增至1.3 亿(ADiT-B,橙色),再到 4.5 亿(ADiT-L,绿色),即使在约 13 万个样本的中等规模数据集上,扩散训练损失持续降低,有效性比率稳步提升,呈现出显著的规模效应。构建起统一的原子扩散模型架构,一举攻克蛋白质结构预测与设计任务。值得注意的是,ADiT 基于标准 Transformer 架构,几乎不引入分子归纳偏差,且无需显式预测原子键,却能达到与等变模型相当的性能,进一步体现了其设计的通用性和广泛适用性。

2025-07-14 14:14:45 835

原创 在线教程丨一句话精准P图,FLUX.1 Kontext可实现图像编辑/风格迁移/文本编辑/角色一致性编辑

目前,「FLUX.1-Kontext-dev:文本驱动的一键图像编辑」已上线至 HyperAI超神经官网的「教程」板块,点击下方链接即可一键部署。3.选择「NVIDIA RTX A6000」以及「PyTorch」镜像,OpenBayes 平台提供了 4 种计费方式,大家可以按照需求选择「按量付费」或「包日/周/月」,点击「继续执行」。1.进入 hyper.ai 首页后,选择「教程」页面,并选择「FLUX.1-Kontext-dev:文本驱动的一键图像编辑」,点击「在线运行此教程」。

2025-07-11 14:49:33 396

原创 AI 论文周报 | Chai-2刷新抗体设计效率,命中率提高100倍;多篇ICML入围论文一键速览

以下是我们为大家推荐的 5 篇热门 AI 论文,内含 UniMate 机械超材料基准数据集及其下载地址,同时我们还为大家总结了论文架构的思维导图,一起来速览本周 AI 前沿成果吧

2025-07-10 17:30:19 843

原创 AMD AI 架构师张宁:多视角解析 AMD Triton 编译器,助力开源生态建设

2025 Meet AI Compiler 第 7 期技术沙龙于 7 月 5 日在北京中关村圆满落幕。来自 AMD 的 AI 架构师张宁,在「助力开源社区,剖析 AMD Triton 编译器」为题的演讲中,围绕公司在开源社区的技术贡献,系统解读了 AMD Triton 编译器的核心技术、底层架构支撑及生态建设成果,为开发者深入理解高性能 GPU 编程与编译器优化提供了全面视角。本文为张宁老师的分享精华实录。

2025-07-10 16:37:24 656

原创 新加坡国立大学基于多维度EHR数据实现细粒度患者队列建模,住院时间预测准确率提升16.3%

新加坡国立大学联合浙江大学提出了创新性的 NeuralCohort 方法,为 EHR 表征学习开辟了新的路径

2025-07-09 13:21:19 1060

原创 【vLLM 学习】Eagle

vLLM 是一款专为大语言模型推理加速而设计的框架,实现了 KV 缓存内存几乎零浪费,解决了内存管理瓶颈问题。

2025-07-09 11:59:29 149

原创 OmniGen2 多模态推理×自我纠正双引擎,引领图像生成新范式;95 万分类标签!TreeOfLife-200M 解锁物种认知新维度

HyperAI超神经为大家整理了一系列极具价值且应用广泛的数据集,涵盖生物视觉、医疗分析、图像生成和农业等多个领域~

2025-07-09 11:11:00 790

原创 专治AI审稿?论文暗藏好评提示词,谢赛宁呼吁关注AI时代科研伦理的演变

来自 14 所高校的研究论文被曝出嵌入了隐藏指令,引导 AI 审稿人给出正面评价。这一报道在学术圈内引发激烈讨论,更是引起了人们对于利用 AI 审稿所带来的风险及伦理挑战的关注。

2025-07-08 19:57:40 573

原创 OmniGen2多模态推理×自我纠正双引擎,引领图像生成新范式;95万分类标签!TreeOfLife-200M解锁物种认知新维度

使用生成性合成器将它们融合成一个连贯的场景。中国海洋大学计算机学院的张树刚副教授,在「蛋白智能计算体系构建及其应用」为题的演讲中,围绕蛋白质研究领域的传统挑战,系统阐述了智能计算技术带来的革新突破,重点介绍了团队在功能注释、交互识别及设计优化等方向的研究成果。弗吉尼亚理工学院和 Meta AI 的研究团队提出了一种名为 UNIMATE 的统一模型,通过创新的模型架构解决了当前超材料 AI 设计中的关键瓶颈,首次实现了对超材料设计三大核心要素,即三维拓扑结构、密度条件和力学性能的统一建模与协同处理。

2025-07-08 19:32:03 689

原创 【Triton 教程】triton_language.zeros_like

Triton 是一种用于并行编程的语言和编译器。它旨在提供一个基于 Python 的编程环境,以高效编写自定义 DNN 计算内核,并能够在现代 GPU 硬件上以最大吞吐量运行。

2025-07-08 10:41:30 186

原创 钱学森「灵境」 预言成真!上交/上体/清华等构建全球首个VR运动干预系统REVERIE,重塑青少年脑-身-心健康

上海交通大学携手上海体育大学等团队,创建了全球首个面向超重或肥胖青少年体重控制的虚拟现实(VR)智能运动干预系统 REVERIE(「灵境」)。

2025-07-07 12:02:07 525

原创 【TVM 教程】如何处理 TVM 报错

Apache TVM 是一个深度的深度学习编译框架,适用于 CPU、GPU 和各种机器学习加速芯片。

2025-07-07 10:36:05 255

原创 AI Complier明日开讲丨AMD/沐曦/字节/北大线下集结,TVM/Triton/TileLang各展所长

2022 年 11 月,在 MLC.AI 社区志愿者的共同努力下,首个完整的 TVM 中文文档上线,并成功托管至 HyperAI超神经官网,进一步为对机器学习编译感兴趣的国内开发者,提供了接触并学习一门新技术的基础设置——文档。旨在通过提供行业资讯报道、数据集加速下载、在线教程演示、热门模型性能评测、前沿论文推荐、高价值成果解读、顶会日历集成等一系列服务,助力全球数据科学及⼈⼯智能⾏业的开发者及爱好者学习、理解、实践,与社区⼀起构建⼈⼯智能的未来。这次讨论主要围绕如何在沐曦 GPU 上应用 TVM。

2025-07-04 15:02:18 990

原创 AI论文周报丨1亿细胞数据建模/高效预测遗传轨迹/指令歧义破解/可验证奖励/高动态游戏生成,5大领域突破一文速览

细胞对扰动的反应是理解生物学机制和选择潜在药物靶点的基石。与实验方法相比,计算模型在预测扰动效应方面具有巨大潜力,但因其难以将实验观察到的细胞环境的效应推广到未观察到的环境中,限制了它的实际应用。基于此,Arc Institute 联合加州大学等高校共同介绍了一种机器学习架构 State,可在预测扰动效应的同时考虑扰动实验内部和之间的细胞异质性。在多个大型数据集上,State 对扰动效应的区分能力提高了 50% 以上,并且在遗传、信号和化学扰动中识别真正差异表达基因的准确性是现有模型的 2 倍以上。

2025-07-03 15:05:05 998

原创 超材料设计破局!Meta AI等提出UNIMATE,首次实现拓扑生成/性能预测等任务的统一建模

弗吉尼亚理工学院和 Meta AI 的研究团队提出了一种名为 UNIMATE 的统一模型,通过创新的模型架构解决了当前超材料 AI 设计中的关键瓶颈,首次实现了对超材料设计三大核心要素,即三维拓扑结构、密度条件和力学性能的统一建模与协同处理。

2025-07-03 14:03:31 718

原创 内含教程丨医疗VLM新突破!HealthGPT对复杂MRI模态理解准确率达99.7%,单一模型可处理多类生成任务

「HealthGPT:AI 医疗助手」已上线至 HyperAI超神经官网的「教程」板块,仅需上传医疗影像,便可开启与专业医生媲美的问诊对答,快来体验吧~

2025-07-02 13:14:42 1039

原创 【vLLM 学习】Distributed

vLLM 是一款专为大语言模型推理加速而设计的框架,实现了 KV 缓存内存几乎零浪费,解决了内存管理瓶颈问题。

2025-07-02 10:30:13 164

原创 蛋白质结构预测/功能注释/交互识别/按需设计,中国海洋大学张树刚团队直击蛋白质智能计算核心任务

中国海洋大学计算机学院的张树刚副教授,在「蛋白智能计算体系构建及其应用」为题的演讲中,围绕蛋白质研究领域的传统挑战,系统阐述了智能计算技术带来的革新突破,重点介绍了团队在功能注释、交互识别及设计优化等方向的研究成果。本文为张树刚副教授的演讲精华实录。

2025-07-01 13:24:01 857

原创 【Triton 教程】triton_language.zeros

Triton 是一种用于并行编程的语言和编译器。它旨在提供一个基于 Python 的编程环境,以高效编写自定义 DNN 计算内核,并能够在现代 GPU 硬件上以最大吞吐量运行。

2025-07-01 10:45:17 121

原创 58k+ star! RAGFlow 集成 Qwen3 Embedding,轻松处理复杂格式数据;Webclick 解锁网页理解新维度

HyperAI 超神经官网已上线了「构建 RAG 系统:基于 Qwen3 Embedding 的实践」教程,快来试试吧~

2025-06-30 14:29:00 661

原创 ICML 2025 丨慕尼黑工业大学等基于 SD3 开发卫星图像生成方法,构建当前最大规模遥感数据集

德国慕尼黑工业大学和瑞士苏黎世大学的团队提出以地理气候提示为条件并使用 Stable Diffusion 3 (SD3)生成卫星图像的新方法,并创建了一个迄今为止最大、最全面的遥感数据集 EcoMapper。

2025-06-30 13:22:23 1438

原创 58k+ star! RAGFlow集成Qwen3 Embedding,轻松处理复杂格式数据;Webclick解锁网页理解新维度

这种统一显著简化并增强了稀疏化和量化的效果。该方法中 PAROAttention 在几乎不损失指标的情况下实现了视频和图像生成,并且在显著降低密度和位宽的情况下,达到了与全精度基线几乎相同的结果,实现了 1.9 倍到 2.7 倍的端到端延迟加速。QwenLong-L1-32B 是首个基于强化学习训练的长文本推理大模型,专注于解决传统大模型在处理超长上下文(如 12 万 token)时出现的记忆力差,逻辑混乱等问题,突破了传统大模型的上下文限制,为金融、法律等高精度场景提供了低成本、高性能的解决方案。

2025-06-30 11:01:09 976

原创 ICML 2025丨慕尼黑工业大学等基于SD3开发卫星图像生成方法,构建当前最大规模遥感数据集

在人们的日常生活中,无论是宏观的环境治理还是微观的城市生活都已离不开它,比如在林业监测中,通过卫星图像可以快速圈定森林分布范围,计算不同林种覆盖比例,检测因砍伐、种植、病虫灾害等导致的森林覆盖变化等。云层覆盖的干扰影响尤甚。毫无疑问,生成式模型正在重塑卫星图像的生成与应用范围,从洪水预警到全球尺度生成面模型,从多光谱数据融合再到时空动态模拟,其不仅展示先进的技术突破,同时也展示了巨大的应用潜力。相信不久的未来,随着扩散模型、自级联框架等技术的进一步优化,生成模型有望为卫星图像的发展注入更加强劲的动力。

2025-06-30 11:01:09 724

原创 58k+ star! RAGFlow集成Qwen3 Embedding,轻松处理复杂格式数据;Webclick解锁网页理解新维度

这种统一显著简化并增强了稀疏化和量化的效果。该方法中 PAROAttention 在几乎不损失指标的情况下实现了视频和图像生成,并且在显著降低密度和位宽的情况下,达到了与全精度基线几乎相同的结果,实现了 1.9 倍到 2.7 倍的端到端延迟加速。QwenLong-L1-32B 是首个基于强化学习训练的长文本推理大模型,专注于解决传统大模型在处理超长上下文(如 12 万 token)时出现的记忆力差,逻辑混乱等问题,突破了传统大模型的上下文限制,为金融、法律等高精度场景提供了低成本、高性能的解决方案。

2025-06-30 11:01:09 666

原创 58k+ star! RAGFlow集成Qwen3 Embedding,轻松处理复杂格式数据;Webclick解锁网页理解新维度

这种统一显著简化并增强了稀疏化和量化的效果。该方法中 PAROAttention 在几乎不损失指标的情况下实现了视频和图像生成,并且在显著降低密度和位宽的情况下,达到了与全精度基线几乎相同的结果,实现了 1.9 倍到 2.7 倍的端到端延迟加速。QwenLong-L1-32B 是首个基于强化学习训练的长文本推理大模型,专注于解决传统大模型在处理超长上下文(如 12 万 token)时出现的记忆力差,逻辑混乱等问题,突破了传统大模型的上下文限制,为金融、法律等高精度场景提供了低成本、高性能的解决方案。

2025-06-30 11:01:09 932

原创 58k+ star! RAGFlow集成Qwen3 Embedding,轻松处理复杂格式数据;Webclick解锁网页理解新维度

这种统一显著简化并增强了稀疏化和量化的效果。该方法中 PAROAttention 在几乎不损失指标的情况下实现了视频和图像生成,并且在显著降低密度和位宽的情况下,达到了与全精度基线几乎相同的结果,实现了 1.9 倍到 2.7 倍的端到端延迟加速。QwenLong-L1-32B 是首个基于强化学习训练的长文本推理大模型,专注于解决传统大模型在处理超长上下文(如 12 万 token)时出现的记忆力差,逻辑混乱等问题,突破了传统大模型的上下文限制,为金融、法律等高精度场景提供了低成本、高性能的解决方案。

2025-06-30 11:01:09 841

原创 58k+ star! RAGFlow集成Qwen3 Embedding,轻松处理复杂格式数据;Webclick解锁网页理解新维度

这种统一显著简化并增强了稀疏化和量化的效果。该方法中 PAROAttention 在几乎不损失指标的情况下实现了视频和图像生成,并且在显著降低密度和位宽的情况下,达到了与全精度基线几乎相同的结果,实现了 1.9 倍到 2.7 倍的端到端延迟加速。QwenLong-L1-32B 是首个基于强化学习训练的长文本推理大模型,专注于解决传统大模型在处理超长上下文(如 12 万 token)时出现的记忆力差,逻辑混乱等问题,突破了传统大模型的上下文限制,为金融、法律等高精度场景提供了低成本、高性能的解决方案。

2025-06-30 11:01:09 667

原创 58k+ star! RAGFlow集成Qwen3 Embedding,轻松处理复杂格式数据;Webclick解锁网页理解新维度

这种统一显著简化并增强了稀疏化和量化的效果。该方法中 PAROAttention 在几乎不损失指标的情况下实现了视频和图像生成,并且在显著降低密度和位宽的情况下,达到了与全精度基线几乎相同的结果,实现了 1.9 倍到 2.7 倍的端到端延迟加速。QwenLong-L1-32B 是首个基于强化学习训练的长文本推理大模型,专注于解决传统大模型在处理超长上下文(如 12 万 token)时出现的记忆力差,逻辑混乱等问题,突破了传统大模型的上下文限制,为金融、法律等高精度场景提供了低成本、高性能的解决方案。

2025-06-30 11:01:09 539

原创 58k+ star! RAGFlow集成Qwen3 Embedding,轻松处理复杂格式数据;Webclick解锁网页理解新维度

这种统一显著简化并增强了稀疏化和量化的效果。该方法中 PAROAttention 在几乎不损失指标的情况下实现了视频和图像生成,并且在显著降低密度和位宽的情况下,达到了与全精度基线几乎相同的结果,实现了 1.9 倍到 2.7 倍的端到端延迟加速。QwenLong-L1-32B 是首个基于强化学习训练的长文本推理大模型,专注于解决传统大模型在处理超长上下文(如 12 万 token)时出现的记忆力差,逻辑混乱等问题,突破了传统大模型的上下文限制,为金融、法律等高精度场景提供了低成本、高性能的解决方案。

2025-06-30 11:01:09 864

原创 58k+ star! RAGFlow集成Qwen3 Embedding,轻松处理复杂格式数据;Webclick解锁网页理解新维度

这种统一显著简化并增强了稀疏化和量化的效果。该方法中 PAROAttention 在几乎不损失指标的情况下实现了视频和图像生成,并且在显著降低密度和位宽的情况下,达到了与全精度基线几乎相同的结果,实现了 1.9 倍到 2.7 倍的端到端延迟加速。QwenLong-L1-32B 是首个基于强化学习训练的长文本推理大模型,专注于解决传统大模型在处理超长上下文(如 12 万 token)时出现的记忆力差,逻辑混乱等问题,突破了传统大模型的上下文限制,为金融、法律等高精度场景提供了低成本、高性能的解决方案。

2025-06-30 11:01:09 382

原创 58k+ star! RAGFlow集成Qwen3 Embedding,轻松处理复杂格式数据;Webclick解锁网页理解新维度

这种统一显著简化并增强了稀疏化和量化的效果。该方法中 PAROAttention 在几乎不损失指标的情况下实现了视频和图像生成,并且在显著降低密度和位宽的情况下,达到了与全精度基线几乎相同的结果,实现了 1.9 倍到 2.7 倍的端到端延迟加速。QwenLong-L1-32B 是首个基于强化学习训练的长文本推理大模型,专注于解决传统大模型在处理超长上下文(如 12 万 token)时出现的记忆力差,逻辑混乱等问题,突破了传统大模型的上下文限制,为金融、法律等高精度场景提供了低成本、高性能的解决方案。

2025-06-30 11:01:09 926

原创 58k+ star! RAGFlow集成Qwen3 Embedding,轻松处理复杂格式数据;Webclick解锁网页理解新维度

这种统一显著简化并增强了稀疏化和量化的效果。该方法中 PAROAttention 在几乎不损失指标的情况下实现了视频和图像生成,并且在显著降低密度和位宽的情况下,达到了与全精度基线几乎相同的结果,实现了 1.9 倍到 2.7 倍的端到端延迟加速。QwenLong-L1-32B 是首个基于强化学习训练的长文本推理大模型,专注于解决传统大模型在处理超长上下文(如 12 万 token)时出现的记忆力差,逻辑混乱等问题,突破了传统大模型的上下文限制,为金融、法律等高精度场景提供了低成本、高性能的解决方案。

2025-06-30 11:01:09 289

原创 58k+ star! RAGFlow集成Qwen3 Embedding,轻松处理复杂格式数据;Webclick解锁网页理解新维度

这种统一显著简化并增强了稀疏化和量化的效果。该方法中 PAROAttention 在几乎不损失指标的情况下实现了视频和图像生成,并且在显著降低密度和位宽的情况下,达到了与全精度基线几乎相同的结果,实现了 1.9 倍到 2.7 倍的端到端延迟加速。QwenLong-L1-32B 是首个基于强化学习训练的长文本推理大模型,专注于解决传统大模型在处理超长上下文(如 12 万 token)时出现的记忆力差,逻辑混乱等问题,突破了传统大模型的上下文限制,为金融、法律等高精度场景提供了低成本、高性能的解决方案。

2025-06-30 11:01:09 332

原创 58k+ star! RAGFlow集成Qwen3 Embedding,轻松处理复杂格式数据;Webclick解锁网页理解新维度

这种统一显著简化并增强了稀疏化和量化的效果。该方法中 PAROAttention 在几乎不损失指标的情况下实现了视频和图像生成,并且在显著降低密度和位宽的情况下,达到了与全精度基线几乎相同的结果,实现了 1.9 倍到 2.7 倍的端到端延迟加速。QwenLong-L1-32B 是首个基于强化学习训练的长文本推理大模型,专注于解决传统大模型在处理超长上下文(如 12 万 token)时出现的记忆力差,逻辑混乱等问题,突破了传统大模型的上下文限制,为金融、法律等高精度场景提供了低成本、高性能的解决方案。

2025-06-30 11:01:09 392

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除