首页 文章 精选 留言 我的

精选列表

搜索[镜像无法拉取],共10000篇文章
优秀的个人博客,低调大师

🔥 新增图表配置的 Al 员工:开源代码 / 低代码平台 NocoBase

原文链接:https://www.nocobase.com/cn/blog/weekly-updates-20251120 汇总一周产品更新日志,最新发布可以前往我们的博客查看。 NocoBase 目前更新包括的版本更新包括三个分支:main ,next和 develop。 main :截止目前最稳定的版本,推荐安装此版本。 next:包含即将发布的新功能,经过初步测试的版本,可能存在部分已知或未知问题。主要面向测试用户,用于收集反馈和进一步优化功能。适合愿意提前体验新功能并提供反馈的测试用户。 develop:开发中的版本,包含最新的功能代码,可能尚未完成或存在较多不稳定因素,主要用于内部开发和快速迭代。适合对产品功能前沿发展感兴趣的技术用户,但可能存在较多问题或不完整功能,不建议在生产环境中使用。 main v1.9.8 发布时间:2025-11-19 🐛 修复 [工作流:自定义操作事件] 修复监听不存在的外部数据源事件产生的报错 by @mytharcher [模板打印] 解析filter中变量 by @jiannx [工作流:审批] 修复由于多个审批人并发处理审批时的竞态导致的节点重复执行的问题 by @mytharcher v1.9.7 发布时间:2025-11-18 🐛 修复 [client] 修复审批表单的联动规则不生效的问题 (#7858) by @zhangzhonghe [server] 修复服务拆分模式下未订阅无法发布队列消息的问题 (#7875) by @mytharcher [工作流] 修复监听不存在的外部数据源事件产生的报错 (#7855) by @mytharcher 使用底层事件队列代替共享后台任务队列,以避免共享队列在服务拆分模式下会被错误消费的问题 (#7871) by @mytharcher [工作流:人工处理节点] 修复翻译语言指向的命名空间,以正确的翻译内容 (#7877) by @mytharcher [权限控制] 关系字段关联操作 snippets 不生效的问题 (#7876) by @2013xile [工作流:审批] 修复通知渠道分页数量太小加载不全的问题 by @mytharcher 修复审批表单的联动规则不生效的问题 by @zhangzhonghe 修复待办中心审批列表卡片上的日期格式,展示完整的日期和时间 by @mytharcher 修复提交审批处理时查询审批记录列表的性能问题 by @mytharcher develop v2.0.0-alpha.42 发布时间:2025-11-19 🐛 修复 [client] 修复 JS block 区块中的标题和描述不显示的问题。 (#7913) by @gchust v2.0.0-alpha.41 发布时间:2025-11-19 🎉 新特性 [数据可视化] 新增图表配置的 AI 员工 (#7815) by @heziqiang 🚀 优化 [flow-engine] 支持 flow engine 层监听 models 树变更。 (#7905) by @gchust 优化当前记录的变量解析,提高弹窗打开的速度 (#7895) by @gchust 优化 runjs 的上下文中第三方库的 api 结构,并支持 Antd 图标库。 (#7896) by @gchust [database] 重构字段加密插件,提升安全性,支持应用密钥生成与更换、字段独立密钥。 (#7769) by @cgyrock [数据表字段:加密] 优化字段加密插件,支持独立 IV 下的数据检索 by @cgyrock 🐛 修复 [client] 修复区块被隐藏后依然占用页面空间的问题。 (#7906) by @gchust 修复筛选按钮中,重置按钮清空默认条件的问题 (#7903) by @zhangzhonghe 修复新增表单子表单字段权限判断错误的问题 (#7902) by @katherinehhh [server] 修复服务拆分模式下未订阅无法发布队列消息的问题 (#7875) by @mytharcher [工作流] 修复监听不存在的外部数据源事件产生的报错 (#7855) by @mytharcher 使用底层事件队列代替共享后台任务队列,以避免共享队列在服务拆分模式下会被错误消费的问题 (#7871) by @mytharcher [工作流:人工处理节点] 修复翻译语言指向的命名空间,以正确的翻译内容 (#7877) by @mytharcher [权限控制] 关系字段关联操作 snippets 不生效的问题 (#7876) by @2013xile [工作流:自定义操作事件] 修复监听不存在的外部数据源事件产生的报错 by @mytharcher [评论] 修复评论区块引用评论失效问题 by @katherinehhh [模板打印] 解析 ilter 中变量 by @jiannx [工作流:审批] 修复由于多个审批人并发处理审批时的竞态导致的节点重复执行的问题 by @mytharcher v2.0.0-alpha.40 发布时间:2025-11-18 🚀 优化 [flow-engine] 优化工具栏样式,防止图标被遮挡 (#7883) by @zhangzhonghe 🐛 修复 [flow-engine] 修复用户重登陆了 acl 权限数据未重新加载的问题。 (#7874) by @gchust [client] 修复表单字段配置项缺陷 (#7867) by @katherinehhh [数据可视化] 仅在图表预览时使用 sql 数据查询的 debug 模式 (#7893) by @heziqiang [多空间] 修复多空间关联用户 by @jiannx [工作流:审批] 修复通知渠道分页数量太小加载不全的问题 by @mytharcher 修复提交审批处理时查询审批记录列表的性能问题 by @mytharcher 修复待办中心审批列表卡片上的日期格式,展示完整的日期和时间 by @mytharcher v2.0.0-alpha.39 发布时间:2025-11-17 🚀 优化 [client] 适配移动端组件 (#7870) by @zhangzhonghe 🐛 修复 [client] 修复默认的 js field 配置未使用显示模式配置。 (#7862) by @gchust 修复拖拽引用模板后再删除引用模板而导致的复制模板不显示的问题 (#7847) by @zhangzhonghe 修复无法正确设置筛选表单日期字段默认值的问题。 (#7853) by @gchust 修复审批表单的联动规则不生效的问题 (#7858) by @zhangzhonghe 修复表格区块的快捷编辑操作无法正确更新数据的问题。 (#7845) by @gchust 修复富文本字段无法输入默认值及多选字段默认值无法选择多个选项的问题。 (#7864) by @gchust [多应用管理器(已废弃)] 子应用停止后发布同步信号,通知其他节点停止对应子应用 (#7849) by @2013xile [工作流:审批] 修复审批表单的联动规则不生效的问题 by @zhangzhonghe [邮件管理] ShadowHtml 刷新报错 by @jiannx

优秀的个人博客,低调大师

🔥类似飞书钉钉&代码&低代码流程引擎 FlowLong 1.1.2 发布

开源地址:https://gitee.com/aizuda/flowlong 开源地址:https://github.com/aizuda/flowlong 官网文档:https://flowlong.aizuda.com 支持全流程操作监听,仅 8 张表实现整个流程引擎(更符合中国人的思维模式设计),截至当前近 300 家企业自用登记接入使用。300 多家企业包括,国家计算中心,电信 等国企已上车,你还在等什么呢? 开源登记使用名单如下,企业版用户暂不公开 https://gitee.com/aizuda/flowlong/issues/IB5K4V Flowlong 1.1.2 主要亮点 feat: 新增支持banner打印 feat: 新增支持业务实现重定义任务参与者类型 feat: 新增执行节点跳转任务更新实例当前节点信息 opt: 优化驳回跳转处理重新审批策略 opt: 优化统一涉及参与者注释说明

优秀的个人博客,低调大师

Falcon Mamba: 首个高效的注意力机制 7B 模型

Falcon Mamba 是由阿布扎比的 Technology Innovation Institute (TII) 开发并基于 TII Falcon Mamba 7B License 1.0 的开放获取模型。该模型是开放获取的,所以任何人都可以在 Hugging Face 生态系统中 这里 使用它进行研究或应用。 Falcon Mamba https://falconllm.tii.ae/tii-releases-first-sslm-with-falcon-mamba-7b.html Technology Innovation Institute (TII) https://www.tii.ae/ai-and-digital-science TII Falcon Mamba 7B License 1.0 https://falconllm.tii.ae/falcon-mamba-7b-terms-and-conditions.html falcon-mamba-7b https://hf.co/tiiuae/falcon-mamba-7b 在这篇博客中,我们将深入模型的设计决策、探究模型与其他现有的 SoTA 模型相比的竞争力,以及如何在 Hugging Face 生态系统中使用它。 第一款通用的大规模纯 Mamba 模型 目前,所有顶级大型语言模型都使用基于注意力机制的 Transformer 架构。然而,由于计算和内存成本随序列长度增加而增加,注意力机制在处理大序列时存在根本性的局限性。状态空间语言模型 (SSLMs) 等各种替代架构尝试解决序列扩展的限制,但在性能上仍不及最先进的 Transformer 架构模型。 通过 Falcon Mamba,我们证明了序列扩展的限制确实可以在不损失性能的情况下克服。Falcon Mamba 基于原始的 Mamba 架构,该架构在 Mamba: Linear-Time Sequence Modeling with Selective State Spaces 中提出,并增加了额外的 RMS 标准化层以确保大规模稳定训练。这种架构选择确保 Falcon Mamba: Mamba: Linear-Time Sequence Modeling with Selective State Spaces https://arxiv.org/abs/2312.00752 能够处理任意长度的序列,而不增加内存存储,特别是适用于单个 A10 24GB GPU。 生成新令牌的时间是恒定的,不论上下文的大小。 模型训练 Falcon Mamba 训练所用的数据量约为 5500GT,主要包括经过精选的网络数据,并补充了来自公开源的高质量技术和代码数据。我们在大部分训练过程中使用恒定的学习率,随后进行了一个相对较短的学习率衰减阶段。在最后这个阶段,我们还添加了一小部分高质量的策划数据,以进一步提高模型性能。 模型评估 我们使用 lm-evaluation-harness 包在新排行榜版本的所有基准上评估我们的模型,然后使用 Hugging Face 分数规范化方法规范化评估结果。model name``IFEval``BBH``MATH LvL5``GPQA``MUSR``MMLU-PRO``Average model name IFEval BBH MATH LvL5 GPQA MUSR MMLU-PRO Average Pure SSM models Falcon Mamba-7B 33.36 19.88 3.63 8.05 10.86 14.47 15.04 TRI-ML/mamba-7b-rw* 22.46 6.71 0.45 1.12 5.51 1.69 6.25 Hybrid SSM-attention models recurrentgemma-9b 30.76 14.80 4.83 4.70 6.60 17.88 13.20 Zyphra/Zamba-7B-v1* 24.06 21.12 3.32 3.03 7.74 16.02 12.55 Transformer models Falcon2-11B 32.61 21.94 2.34 2.80 7.53 15.44 13.78 Meta-Llama-3-8B 14.55 24.50 3.25 7.38 6.24 24.55 13.41 Meta-Llama-3.1-8B 12.70 25.29 4.61 6.15 8.98 24.95 13.78 Mistral-7B-v0.1 23.86 22.02 2.49 5.59 10.68 22.36 14.50 Mistral-Nemo-Base-2407 (12B) 16.83 29.37 4.98 5.82 6.52 27.46 15.08 gemma-7B 26.59 21.12 6.42 4.92 10.98 21.64 15.28 此外,我们使用 lighteval 工具在 LLM 排行榜第一版的基准测试上对模型进行了评估。model name``ARC``HellaSwag``MMLU``Winogrande``TruthfulQA``GSM8K``Average model name ARC HellaSwag MMLU Winogrande TruthfulQA GSM8K Average Pure SSM models Falcon Mamba-7B* 62.03 80.82 62.11 73.64 53.42 52.54 64.09 TRI-ML/mamba-7b-rw* 51.25 80.85 33.41 71.11 32.08 4.70 45.52 Hybrid SSM-attention models recurrentgemma-9b** 52.00 80.40 60.50 73.60 38.60 42.60 57.95 Zyphra/Zamba-7B-v1* 56.14 82.23 58.11 79.87 52.88 30.78 60.00 Transformer models Falcon2-11B 59.73 82.91 58.37 78.30 52.56 53.83 64.28 Meta-Llama-3-8B 60.24 82.23 66.70 78.45 42.93 45.19 62.62 Meta-Llama-3.1-8B 58.53 82.13 66.43 74.35 44.29 47.92 62.28 Mistral-7B-v0.1 59.98 83.31 64.16 78.37 42.15 37.83 60.97 gemma-7B 61.09 82.20 64.56 79.01 44.79 50.87 63.75 对于用 星号 标记的模型,我们内部评估了任务; 而对于标有两个 星号 的模型,结果来自论文或模型卡片。 处理大规模序列 基于 SSM (状态空间模型) 在处理大规模序列方面理论上的效率,我们使用 optimum-benchmark 库比较了 Falcon Mamba 与流行的 Transformer 模型在内存使用和生成吞吐量上的差异。为了公平比较,我们调整了所有 Transformer 模型的词汇大小以匹配 Falcon Mamba,因为这对模型的内存需求有很大影响。 optimum-benchmark https://github.com/huggingface/optimum-benchmark 在介绍结果之前,首先讨论提示 (prefill) 和生成 (decode) 部分序列的区别。我们将看到,对于状态空间模型而言,prefill 的细节比 Transformer 模型更为重要。当 Transformer 生成下一个令牌时,它需要关注上下文中所有之前令牌的键和值。这意味着内存需求和生成时间都随上下文长度线性增长。状态空间模型仅关注并存储其循环状态,因此不需要额外的内存或时间来生成大序列。虽然这解释了 SSM 在解码阶段相对于 Transformer 的优势,但 prefill 阶段需要额外努力以充分利用 SSM 架构。 prefill 的标准方法是并行处理整个提示,以充分利用 GPU。这种方法在 optimum-benchmark 库中被使用,并被我们称为并行 prefill。并行 prefill 需要在内存中存储提示中每个令牌的隐藏状态。对于 Transformer,这额外的内存主要由存储的 KV 缓存所占据。对于 SSM 模型,不需要缓存,存储隐藏状态的内存成为与提示长度成比例的唯一组成部分。结果,内存需求将随提示长度扩展,SSM 模型将失去处理任意长序列的能力,与 Transformer 类似。 optimum-benchmark https://github.com/huggingface/optimum-benchmark 另一种 prefill 方法是逐令牌处理提示,我们将其称为 顺序 prefill 。类似于序列并行性,它也可以在更大的提示块上执行,而不是单个令牌,以更好地利用 GPU。虽然对于 Transformer 来说,顺序 prefill 几乎没有意义,但它让 SSM 模型重新获得了处理任意长提示的可能性。 基于这些考虑,我们首先测试了单个 24GB A10 GPU 可以支持的最大序列长度,具体结果请见下方的图表。批处理大小固定为 1,我们使用 float32 精度。即使对于并行 prefill,Falcon Mamba 也能适应比 Transformer 更大的序列,而在顺序 prefill 中,它释放了全部潜力,可以处理任意长的提示。 接下来,我们在提示长度为 1 且生成高达 130k 令牌的设置中测量生成吞吐量,使用批量大小 1 和 H100 GPU。结果报告在下方的图表中。我们观察到,我们的 Falcon Mamba 在恒定的吞吐量下生成所有令牌,且 CUDA 峰值内存没有增加。对于 Transformer 模型,峰值内存随生成令牌数的增加而增长,生成速度也随之减慢。 接下来,我们在使用单个 H100 GPU 和批量大小为 1 的设置中,测量了提示长度为 1 且生成高达 130,000 个令牌的生成吞吐量。结果显示在下方的图表中。我们观察到,我们的 Falcon Mamba 能够以恒定的吞吐量生成所有令牌,并且 CUDA 峰值内存没有任何增加。对于 Transformer 模型,随着生成令牌数量的增加,峰值内存增长,生成速度减慢。 在 Hugging Face transformers 中如何使用 Falcon Mamba? Falcon Mamba 架构将在下一个版本的 Hugging Face transformers 库 (>4.45.0) 中提供。要使用该模型,请确保安装了最新版本的 Hugging Face transformers 或从源代码安装库。 Falcon Mamba 与 Hugging Face 提供的大多数 API 兼容,您可能已经熟悉了,如 AutoModelForCausalLM 或 pipeline : fromtransformersimportAutoModelForCausalLM,AutoTokenizermodel_id="tiiuae/falcon-mamba-7b"tokenizer=AutoTokenizer.from_pretrained(model_id)model=AutoModelForCausalLM.from_pretrained(model_id,torch_dtype="auto",device_map="auto")inputs=tokenizer("Helloworld,today",return_tensors="pt").to(0)output=model.generate(**inputs,max_new_tokens=100,do_sample=True)print(tokenizer.decode(Output[0],skip_special_tokens=True)) 由于模型较大,它还支持诸如 bitsandbytes 量化的特性,以便在较小的 GPU 内存限制下运行模型,例如: fromtransformersimportAutoModelForCausalLM,AutoTokenizer,BitsAndBytesConfigmodel_id="tiiuae/falcon-mamba-7b"tokenizer=AutoTokenizer.from_pretrained(model_id)quantization_config=BitsAndBytesConfig(load_in_4bit=True)model=AutoModelForCausalLM.from_pretrained(model_id,quantization_config=quantization_config)inputs=tokenizer("Helloworld,today",return_tensors="pt").to(0)output=model.generate(**inputs,max_new_tokens=100,do_sample=True)print(tokenizer.decode(output[0],skip_special_tokens=True)) 我们很高兴继续介绍 Falcon Mamba 的指令调优版本,该版本已通过额外的 50 亿令牌的监督微调 (SFT) 数据进行了微调。这种扩展训练增强了模型执行指令任务的精确性和有效性。您可以通过我们的演示体验指令模型的功能,演示可在 此处 找到。对于聊天模板,我们使用以下格式: Hugging Face Spaces https://hf.co/spaces/tiiuae/falcon-mamba-playground <|im_start|>userprompt<|im_end|><|im_start|>assistant 您也可以选择使用 基础模型 及其 指令模型 的 4 位转换版本。确保您有权访问与 bitsandbytes 库兼容的 GPU 来运行量化模型。 基础模型 https://hf.co/tiiuae/falcon-mamba-7b-4bit 指令模型 https://hf.co/tiiuae/falcon-mamba-7b-instruct-4bit 您还可以使用 torch.compile 实现更快的推理; 只需在加载模型后调用 model = torch.compile(model) 。 致谢 我们感谢 Hugging Face 团队在整合过程中提供的无缝支持,特别鸣谢以下人员: Alina Lozovskaya 和 Clementine Fourrier 帮助我们在排行榜上评估模型 https://hf.co/alozowski https://hf.co/clefourrier Arthur Zucker 负责 transformers 的整合 https://hf.co/ArthurZ Vaibhav Srivastav , hysts 和 Omar Sanseviero 在 Hub 相关问题上提供的支持 https://hf.co/reach-vb https://hf.co/hysts https://hf.co/osanseviero 作者还要感谢 Tri Dao 和 Albert Gu 将 Mamba 架构实现并开源给社区。 英文原文: https://hf.co/blog/falconmamba 原文作者: Jingwei Zuo, Maksim Velikanov, Rhaiem, Ilyas Chahed, Younes Belkada, Guillaume Kunsch 译者: Evinci 本文分享自微信公众号 - Hugging Face(gh_504339124f0f)。 如有侵权,请联系 support@oschina.cn 删除。 本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一起分享。

优秀的个人博客,低调大师

国产云输入法——仅华为云端数据上传安全问题

加拿大多伦多大学公民实验室 (CitizenLab) 的研究人员分析了百度、荣耀、华为、讯飞、OPPO、Vivo、三星、腾讯、小米九家厂商的云输入法,发现八家输入法软件包含严重漏洞,允许研究人员完整破解厂商设计用于保护用户输入内容的加密法。还有部分厂商并未使用任何加密法保护用户输入内容。 ▲ 百度 IME 在 Android 和 iOS 上使用的 BCTR 模式加密方案示意图 研究人员向受影响的九家开发商提交了漏洞报告,大部分开发商均认真看待问题并予以回应,修补了漏洞,但仍有少数输入法未修补漏洞。 在测试的九家厂商的应用程序中,仅有华为的产品未发现任何上传用户输入内容至云端相关的安全问题,其余每一家厂商都至少有一个应用程序含有漏洞,使得被动型网络攻击者得以监看用户输入的完整内容。 参考链接 https://citizenlab.ca/2024/04/vulnerabilities-across-keyboard-apps-reveal-keystrokes-to-network-eavesdroppers/ https://citizenlab.ca/2024/04/%e6%95%b2%e6%95%b2%e6%89%93%e6%89%93%e4%b8%80%e7%b3%bb%e5%88%97%e4%ba%91%e7%ab%af%e8%be%93%e5%85%a5%e6%b3%95%e6%bc%8f%e6%b4%9e%e4%bd%bf%e7%bd%91%e7%bb%9c%e6%94%bb%e5%87%bb%e8%80%85%e5%be%97-zh-cn/ https://citizenlab.ca/wp-content/uploads/2024/04/CitizenLabReport175-keyboardvuln.pdf

资源下载

更多资源
腾讯云软件源

腾讯云软件源

为解决软件依赖安装时官方源访问速度慢的问题,腾讯云为一些软件搭建了缓存服务。您可以通过使用腾讯云软件源站来提升依赖包的安装速度。为了方便用户自由搭建服务架构,目前腾讯云软件源站支持公网访问和内网访问。

Nacos

Nacos

Nacos /nɑ:kəʊs/ 是 Dynamic Naming and Configuration Service 的首字母简称,一个易于构建 AI Agent 应用的动态服务发现、配置管理和AI智能体管理平台。Nacos 致力于帮助您发现、配置和管理微服务及AI智能体应用。Nacos 提供了一组简单易用的特性集,帮助您快速实现动态服务发现、服务配置、服务元数据、流量管理。Nacos 帮助您更敏捷和容易地构建、交付和管理微服务平台。

Spring

Spring

Spring框架(Spring Framework)是由Rod Johnson于2002年提出的开源Java企业级应用框架,旨在通过使用JavaBean替代传统EJB实现方式降低企业级编程开发的复杂性。该框架基于简单性、可测试性和松耦合性设计理念,提供核心容器、应用上下文、数据访问集成等模块,支持整合Hibernate、Struts等第三方框架,其适用范围不仅限于服务器端开发,绝大多数Java应用均可从中受益。

Sublime Text

Sublime Text

Sublime Text具有漂亮的用户界面和强大的功能,例如代码缩略图,Python的插件,代码段等。还可自定义键绑定,菜单和工具栏。Sublime Text 的主要功能包括:拼写检查,书签,完整的 Python API , Goto 功能,即时项目切换,多选择,多窗口等等。Sublime Text 是一个跨平台的编辑器,同时支持Windows、Linux、Mac OS X等操作系统。

用户登录
用户注册