我们在标准模型的简单扩展中讨论了对长期存在的(g−2)μ异常的最小解决方案,该模型具有一个额外的Z'向量玻色子,该玻色子仅对第二代和第三代子具有对角线以外的风味,即 μ,τ,νμ,ντ及其反粒子。 讨论了简化的模型实现,以及对该模型的各种碰撞和低能耗约束。 我们发现,比tau的Z'的(g-2)μ-有利区域被完全排除,而Z'溶液仍然较重。 这种情况在未来的实验中有一些可检验的含义,例如在佳丽2处违反子风味通用性的tau衰变,在HL-LHC和FCC-ee处出现了新的四子签名,其中包含相同符号的介子和二重子 ,指出。 中微子望远镜如IceCube和KM3NeT也可以在高能中微子光谱中观察到共振吸收特征。
2026-03-14 16:43:05 1.05MB Open Access
1
我们对标准模型的低比例I型跷跷板扩展内的中微子质量矩阵的单环校正进行了详细的分析,以及它们在无中微子双β衰变实验搜索中的意义。 我们显示,只要需要在树级和中微子质量的单回路贡献之间进行微调抵消,总是可以通过交换重的中微子对有效的中微子中微子质量做出贡献。 我们将微调水平作为跷跷板参数的函数进行量化,并引入中微子Yukawa矩阵的Casas-Ibarra参数化的一般化,这很容易允许包括对中微子质量的单环校正。
2026-03-13 18:25:29 1.08MB Open Access
1
Schechter-Valle定理指出,当没有任何可能的微调或抵消时,对中微子双β(0ββ)衰变的积极观察意味着中微子的有限马约拉纳质量项。 在此笔记中,我们重新检查了Schechter值定理的定量影响,发现当前对0β-衰变核的半衰期的实验下限对马约拉纳中微子质量|μmee|施加了限制上限。 在四回路水平上辐射产生的<7.43×10×29 eV。 此外,我们归纳了这种定量分析的0ββ衰变到子数违反(LNV)介子衰变Mâââ´Mâ€++++“α+ + +”“β” (对于α,β= e或¼)。 给定当前的上限,这些罕见的LNV衰变,我们得出了环诱导的马约拉纳中微子质量|αm½ee| <9.7×10â18’eV ||mμe¼| <1.6×10×15eV 和|απ¼¼| <1.0×10×12 eV来自Kâˆâ€ÏÏ++ e∠+ eâˆ,KâˆâÏâÏ ++ e∠+++ ”和“ Kâˆâ€” ++++“¼” +“ +”。 还给出了D,Ds和B介子的LNV衰减的辐射中微子质量的部分列表。
2026-03-13 16:31:39 297KB Open Access
1
我们提出了一种使用LHC上的纯子衰变来区分重中微子的狄拉克/马约拉那特性的方法,该中微子的质量低于W玻色子质量。 该策略利用了W +→l + 1l +1'-ν衰变中相反电荷子的前后不对称性。 为了检验该模型的实验可行性,我们通过数值分析和重中微子质量的不同范围表明,在衰变W +→e + e +μ+ν中,可以将正电子与W衰变区分开 来自重中微子的正电子。 最后,我们估计Dirac和Majorana N中微子在LHC Run II上的事件数,其综合光度为120 fb-1。 如果从重到的中微子混合是|UNμ| 2,| UNe |2≳10-6,则可以找到信号。
2026-03-13 16:10:57 289KB Open Access
1
llama.cpp 是由 Georgi Gerganov 开发的开源 C++ 框架,专注于在本地硬件上高效运行大型语言模型(LLM)。它通过量化设计、量化技术和跨平台优化,让原本依赖高端 GPU 的大模型(如 Llama 系列)能在普通 CPU、Mac 甚至嵌入式设备上运行。以下是其核心特点与技术解析: 一、核心技术特点 ​量化压缩与内存优化 支持 ​1.5-bit 至 8-bit 整数量化,可将模型体积压缩至原版的 1/4,推理速度提升 3 倍。例如,4-bit 量化的 Llama-7B 模型仅需 3.8GB 内存。 采用 ​GGUF 格式​(GPT-Generated Unified Format),实现按需加载模型块和内存映射技术,减少全量加载的内存占用。 ​跨平台与硬件加速 适配 ​CPU(x86/ARM)​、Apple Silicon(Metal 加速)​、NVIDIA/AMD GPU,甚至支持国产芯片(如昇腾 NPU 和摩尔线程 GPU)。 通过 ​OpenMP 多线程和 CUDA/HIP 内核优化计算性能,实现 CPU+GPU 混合推理。 ​高效计算架构 基于 ​ggml 张量库,通过定点运算替代浮点计算,降低资源消耗。 支持 ​内存池管理 和连续内存预分配,减少内存碎片。 二、核心功能特性 ​模型兼容性 支持 ​Llama、Qwen、DeepSeek、Falcon 等 50+ 主流开源模型架构。 提供 convert.py 工具,支持将 PyTorch/HuggingFace 格式模型转换为 GGUF 格式。 ​交互与部署 ​命令行交互:支持上下文保留的连续对话模式(-cnv 参数)。 ​API 服务化:内置 llama-server 组件,提供 OpenAI 兼容的 REST API,便于对接 LangChain 等框架。 ​多语言支持:提供
2026-02-22 22:01:06 120.94MB
1
本文详细介绍了BIM量化的流程,特别是通过revit导出GLTF格式的模型文件。文章首先分析了市面上主流的量化工具和技术方向,如广联达BIMFace、葛兰岱尔的GLWebGLBIMEngine等,并指出threejs是实现量化的主流技术。接着,文章详细阐述了revit的分类结构、编码规则以及插件开发的环境搭建和数据提取方法。重点介绍了GLTF格式的优势及其在revit中的导出实现,包括文件格式定义和导出步骤。最后,文章提到了通过Draco等工具对模型文件进行优化的方法,显著减小了文件大小。整体而言,本文为BIM量化和GLTF导出提供了全面的技术指导和实践参考。 BIM(建筑信息模型)作为建筑行业重要的数字化工具,其量化处理对于提高工作效率和促进项目协作具有重要意义。本文深入探讨了BIM量化流程及其与GLTF导出的相关技术细节。文章分析了市场上流行的量化工具和技术路线,其中广联达BIMFace和葛兰岱尔的GLWebGLBIMEngine作为典型案例被提出。这些工具通过优化BIM模型的加载和显示效率,为工程人员提供了更为便捷的操作体验。 文章深入介绍了Three.js技术,它是实现BIM量化的一个关键技术。Three.js作为一个开源的WebGL库,使得在浏览器中进行3D渲染成为可能,它的量级特性和灵活的接口对BIM量化起到了极大的推动作用。文章详细解析了revit软件的分类结构和编码规则,这对于理解BIM模型的组织方式和数据构成至关重要。文章还涉及了revit插件开发的环境搭建步骤和如何高效地从revit中提取所需数据。 紧接着,文章重点介绍了GLTF格式的优势和其在revit中的导出实现。GLTF(GL Transmission Format)是一种开放标准的3D传输格式,它支持将3D模型直接传输到Web应用程序中,无需任何插件。GLTF格式文件的定义、结构以及导出步骤在这部分得到了全面的阐述,为BIM模型的Web化和量化提供了直接的技术支持。 除了介绍技术本身,文章还提出了一些模型优化的实用方法,比如利用Draco压缩算法。通过这种压缩技术,可以有效地减小模型文件的大小,而不损失太多的视觉和几何细节,这对于提升模型在网络中的传输效率至关重要。 本文不仅从技术层面详细介绍了BIM量化和GLTF导出的流程,而且为相关领域的技术人员提供了实践中的操作指南,无论是对于BIM初学者还是有经验的工程师,都是一份宝贵的学习和参考资料。
2026-01-22 18:59:51 17KB 软件开发 源码
1
内容概要:SM7算法由中国国家密码管理局于2012年公布,是国产密码算法系列之一,旨在提供高安全性、低计算复杂度的数据加密服务。它遵循GB/T 33928-2017标准,采用128位分组长度和密钥长度,经过11轮加密/解密。核心结构基于线性反馈移位寄存器和仿射变换,包括初始轮密钥扩展、字节代换、行移位、列混淆和轮密钥加等步骤。S-Box表用于非线性替换,基于有限域GF(2^8)的仿射变换,增强了抗差分分析能力。SM7具有良好的抗攻击性和量化特点,适用于物联网通信、移动支付和身份认证等场景。; 适合人群:从事信息安全、密码学研究或开发的人员,特别是关注国产密码算法的研究者和技术开发者。; 使用场景及目标:①物联网通信中设备间数据加密;②移动支付交易信息的机密性与完整性保护;③用户身份凭证的安全存储与传输。; 阅读建议:读者应重点关注SM7算法的设计目标、核心结构及其安全特性,了解其相对于其他算法的优势,特别是在资源受限环境下的应用。同时,建议参考提供的优化建议,以更好地理解和实现该算法。
1
卷积神经网络(Convolutional Neural Networks, CNNs 或 ConvNets)是一类深度神经网络,特别擅长处理图像相关的机器学习和深度学习任务。它们的名称来源于网络中使用了一种叫做卷积的数学运算。以下是卷积神经网络的一些关键组件和特性: 卷积层(Convolutional Layer): 卷积层是CNN的核心组件。它们通过一组可学习的滤波器(或称为卷积核、卷积器)在输入图像(或上一层的输出特征图)上滑动来工作。 滤波器和图像之间的卷积操作生成输出特征图,该特征图反映了滤波器所捕捉的局部图像特性(如边缘、角点等)。 通过使用多个滤波器,卷积层可以提取输入图像中的多种特征。 激活函数(Activation Function): 在卷积操作之后,通常会应用一个激活函数(如ReLU、Sigmoid或tanh)来增加网络的非线性。 池化层(Pooling Layer): 池化层通常位于卷积层之后,用于降低特征图的维度(空间尺寸),减少计算量和参数数量,同时保持特征的空间层次结构。 常见的池化操作包括最大池化(Max Pooling)和平均池化(Average Pooling)。 全连接层(Fully Connected Layer): 在CNN的末端,通常会有几层全连接层(也称为密集层或线性层)。这些层中的每个神经元都与前一层的所有神经元连接。 全连接层通常用于对提取的特征进行分类或回归。 训练过程: CNN的训练过程与其他深度学习模型类似,通过反向传播算法和梯度下降(或其变种)来优化网络参数(如滤波器权重和偏置)。 训练数据通常被分为多个批次(mini-batches),并在每个批次上迭代更新网络参数。 应用: CNN在计算机视觉领域有着广泛的应用,包括图像分类、目标检测、图像分割、人脸识别等。 它们也已被扩展到处理其他类型的数据,如文本(通过卷积一维序列)和音频(通过卷积时间序列)。 随着深度学习技术的发展,卷积神经网络的结构和设计也在不断演变,出现了许多新的变体和改进,如残差网络(ResNet)、深度卷积生成对抗网络(DCGAN)等。
2025-12-29 16:43:02 5KB
1
我们从动态晶格QCD计算中得出高激发的charm,D s和D介子谱,其中夸克数对应于Mπ〜240 MeV,并将其与以前的结果与Mπ〜400 MeV进行比较。 利用蒸馏框架,精心构造的内插算子的庞大基础以及变分程序,我们提取并可靠地确定了一系列激子介子的连续自旋。 其中包括具有奇异量子数的状态,以及具有非奇异量子数的状态,我们将其识别为具有激动的胶子自由度,并将其解释为混合介子。 比较两个不同的Mπ处的光谱,我们发现仅存在度的夸克质量依赖性,而总体状态模式没有变化。
2025-12-12 18:48:02 660KB Open Access
1