Simu5G 与INET框架兼容的5G NR和LTE / LTE-A用户平面仿真模型。 网站: : 免责声明 Simu5G是根据LGPL许可的开放源代码模拟器,基于OMNeT框架,该框架可根据学术公共许可和商业许可获得(请参阅 )。 您全权负责获取适当的许可证以供您使用OMNeT。 英特尔不负责获取任何此类许可,也不对与您使用OMNeT有关的任何许可费用负责。 比萨大学或该软件的作者均不负责获取任何此类许可,也不对与使用OMNeT相关的任何许可费用负责。 Simu5G基于3GPP规范,其中可能涉及专利和专有技术。 参见 。 您全权负责确定您对Simu5G的使用是否需要任何其他许可证。 英特尔不负责获取任何此类许可,也不对与您使用Simu5G有关的任何许可费用负责。 比萨大学或该软件的作者均不负责获取任何此类许可,也不对与使用OMNeT相关的任何许可费用负责。 本软件按“原样”提供
2021-11-09 19:45:18 5.19MB C++
1
修剪后的OpenVINO-YOLO 先决条件 首先安装mish-cuda: : 测试平台:WIN10 + RTX3090 + CUDA11.2 如果您无法在设备上安装它,也可以尝试 开发日志 扩张 2021-2-25支持yolov4-tiny和yolov4-tiny-3l。请使用或修剪yolov4-tiny和yolov4-tiny-3l模型(提示:使用darknet调整修剪后的模型而无需加载权重)和转换权重 2021-3-13更新了Mish-cuda支持。增强了代码对yolov4的适应性(训练更快,内存占用更少) 介绍 当在OpenVINO上部署YOLOv3 / v4时,该模型的完整版本的FPS较低,而微型模型的准确性较低且稳定性较差。 完整版的模型结构通常被设计为能够在更复杂的场景中检测80个或更多的类。 在我们的实际使用中,通常只有几个类,而且场景并不那么复杂。 本教程将分享如何修
2021-11-09 16:08:38 1.41MB yolov3 openvino yolov4 pruned-yolo
1
伯特 ***** 2020年3月11日新产品:更小的BERT模型***** 此版本发行了24个较小的BERT模型(仅限英语,无大小写,使用WordPiece掩码进行了培训),在读物精通的 。 我们已经证明,除了BERT-Base和BERT-Large之外,标准BERT配方(包括模型体系结构和训练目标)对多种模型尺寸均有效。 较小的BERT模型适用于计算资源有限的环境。 可以按照与原始BERT模型相同的方式对它们进行微调。 但是,它们在知识提炼的情况下最有效,在这种情况下,微调标签是由更大,更准确的老师制作的。 我们的目标是允许在计算资源较少的机构中进行研究,并鼓励社区寻找替代增加模型容量的创新方向。 您可以从 下载全部24个,也可以从下表单独下载: 高= 128 高= 256 高= 512 高= 768 L = 2 L = 4 L = 6 L = 8 L = 10 L = 12 请注意,此版本中包含的BERT-Base模型仅出于完整性考虑; 在与原始模型相同的条件下进行了重新训练。 这是测试集上相应的GLUE分数: 模型 得分 可乐 SST-2 MR
2021-11-08 15:02:52 106KB nlp natural-language-processing google tensorflow
1
文字傻瓜 自然语言对文本分类和推理的攻击模型 这是该论文的源代码: 。 如果使用代码,请引用以下文章: @article{jin2019bert, title={Is BERT Really Robust? Natural Language Attack on Text Classification and Entailment}, author={Jin, Di and Jin, Zhijing and Zhou, Joey Tianyi and Szolovits, Peter}, journal={arXiv preprint arXiv:1907.11932}, year={2019} } 数据 我们的7个数据集在。 先决条件: 所需的软件包在requirements.txt文件中列出: pip install requirements.txt 如何使用
1
albert_zh 使用TensorFlow实现的实现 ALBert基于Bert,但有一些改进。 它以30%的参数减少,可在主要基准上达到最先进的性能。 对于albert_base_zh,它只有十个百分比参数与原始bert模型进行比较,并且保留了主要精度。 现在已经提供了针对中文的ALBERT预训练模型的不同版本,包括TensorFlow,PyTorch和Keras。 海量中文语料上预训练ALBERT模型:参数充分,效果更好。预训练小模型也能拿下13项NLP任务,ALBERT三大改造登顶GLUE基准 一键运行10个数据集,9个层次模型,不同任务上模型效果的详细对比,见 一键运行CLUE中
2021-11-07 16:51:30 969KB tensorflow pytorch albert bert
1
基于LDA模型的用户画像构建 运行配置 请同时配置python2 与 python3 简介 "主题模型"是对文本中隐含主题的一种建模方法。 每个主题其实是词表上单词的概率分布。 常见的主题模型有3种: PLSA LDA L-LDA LDA 包含“词 - 主题 - 文档” 三层结构。 基于LDA的用户画像核心是对于文本提取用户特征,并输出用户特征所对应的关键词。 在本文的实际问题中,“文档”对应“用户的文本信息”,“用户特征”对应为“主题”,“词”代表“用户所对应的标签”。 LDA模型详细介绍请参考 运行步骤 cookies获取 打开chrome开发者工具,选择Network,勾选Preserve log 登陆weibo.cn,可找到名字为weibo.cn的文件,复制其中cookies即可 单用户分析 分析一个用户的用户特征 请配置 conf.cookies 为可用cookies 请配置 c
2021-11-07 14:42:20 19KB scrapy weibo lda Python
1
Gammy –使用贝叶斯扭曲的Python中的广义加性模型 广义加性模型是一种预测性数学模型,定义为用观察数据校准(拟合)的项之和。 该软件包为配置和拟合此类模型提供了希望的界面。 模型参数的贝叶斯解释得到了促进,并简化了特征集。 概括 广义的加性模型形成了令人惊讶的通用框架,用于为生产软件和科学研究构建模型。 该Python软件包提供了用于将模型项构建为各种基础函数的分解的工具。 可以将术语建模为各种内核的高斯过程(降维),分段线性函数以及B样条。 当然,还支持非常简单的术语,例如行和常量(这些只是非常简单的基函数)。 权重参数分布中的不确定性是通过贝叶斯统计方法在出色的包的帮助下。 这项工作尚处于初期阶段,因此仍然缺少许多功能。 具有GAM功能的其他项目 目录 安装 该软件包可以在PyPi中找到。 pip install gammy 例子 'roids的多项式回归 从非常简单的数
2021-11-07 11:09:37 827KB Python
1
Amazon-Review:使用情感分析在Amazon Review数据中构建机器学习模型
2021-11-06 04:07:10 75KB JupyterNotebook
1
网络 使用MobileNetV2上的转移学习方法在移动环境中进行巩膜分割的U-Net模型 该存储库包含使用Keras和Tensorflow的U-Net架构的实现,其背后支持Tensorflow,以使用转移学习方法对Sclera进行分段。 1-建议的方法 所提出的方法采用了以MobileNetV2类特征为条件的U-Net启发模型来分割眼睛的巩膜和背景,其中对MobileNetV2模型应用了两阶段的微调。 数据通过不同的模型进行了扩充。 在我们的方法中,我们将U-Net [U-Net]与预训练的MobileNetV2 [MobileNetV2]结合使用。 U-Net基于全卷积网络,我们修改了其体系结构以使用较少的训练样本并实现更准确的分段。 我们将MobileNetV2随附的预训练权重用于ImageNet数据集[ImageNet],并在巩膜域上对其进行了微调。 为了提供域适应性,我们根据M(
2021-11-05 16:31:43 9KB Python
1
| 本项目提供了针对中文的XLNet预训练模型,扩展了丰富的自然语言处理资源,提供多种中文预训练模型选择。我们欢迎各位专家学者下载使用,并共同促进和发展中文资源建设。 本项目基于CMU /谷歌官方的XLNet: : 其他相关资源: MacBERT预训练模型: : 中文ELECTRA预训练模型: : 中文BERT-wwm预训练模型: : 知识蒸馏工具TextBrewer: : 查看更多哈工大讯飞联合实验室(HFL)发布的资源: : 新闻 2021年1月27日所有模型已支持TensorFlow 2,请通过变压器库进行调用或下载。 2020/9/15我们的论文被录用为长文。 2020/8/27哈工大讯飞联合实验室在通用自然语言理解评论GLUE中荣登榜首,查看,。 2020/3/11为了更好地了解需求,邀请您填写,刹车为大家提供更好的资源。 2020/2/26哈工大讯飞联合实验室发布 历史新闻2019/12/19本目录发布的模型已接受[Huggingface-Transformers]( ) 2019/9/5 XLNet-base已可下载,查看 2019/8/1
1