De-embedding Techniques in Advanced Design System, Keysight关于射频参数提取去嵌入技术非常好的介绍资料。
2023-02-03 09:11:01 2.96MB 去嵌入
1
Representation Learning on Networks 1) Node embeddings:Map nodes to low dimensional embeddings 2) Graph neural networks:Deep learning architectures for graph structured data 3) Applications
2023-01-01 15:26:42 1.69MB 图学习 人工智能 机器学习 深度学习
1
基于知识图嵌入的推荐系统 基于知识图嵌入的推荐系统 本系统是一个基于知识图嵌入的商品推荐系统,以下是该系统的详细介绍,基本代码都是自己所写,TransE和Rescal方法实现部分是照着论文与相关代码自己进行的复现,并且相关代码中都有我写的一些注释。 1.generate_data.py是用于生成模拟数据,在进行真实使用时可以参照所生成的模拟数据的格式进行数据录入 2.data文件夹下需要有entities.txt以及relations.txt两个数据,他们分别是实体(people和items)的名称以及索引号,以及关联的名称以及索引号,关联也可以有多种,然后该文件夹下还应该有train.txt,valid.txt和test.txt,作为模型训练的依托,其中的neg.txt可要可不要,这个文件并不参与模型的训练过程 3.dataset.py文件主要是模型训练中处理数据的代码,model.p
2022-11-21 21:20:29 1.77MB 系统开源
1
中华英语 中文的深层上下文单词表示。 本仓库只是输出某些无关的单词嵌入。 依赖 python3 张量流> = 1.10 界坝 使用方法 准备数据,参考data和vocab目录,可用pre_data/vocab.py处理出字典(每个data文件不能太大,否则内存不足) 训练模型train_elmo.py 输出模型dump_weights.py 把options.json里的261改成262 输出单词嵌入到hdf5文件usage_token.py 实验结果 用可视化工具看合理, textmatch任务textmatch AUC 1-2。 执照 麻省理工学院
2022-11-15 21:49:53 3.32MB nlp tensorflow word-embedding wordvectors
1
StatNLP语义解析器版本0.3-n ACL-18论文的代码:学习用于语义分析的跨语言分布式逻辑表示形式。 本文从使用不同语言注释的数据中学习了逻辑表达式的分布式表示形式。 它进一步研究了如何学习到的包含不同语言的内容共享信息的学习表示形式可用于提高单语语义解析器的性能。 安装 Java 1.8 sudo add-apt-repository ppa:webupd8team/java sudo apt-get update sudo apt-get install oracle-java8-installer 零MQ git clone https://github.com/zeromq/libzmq cd libzmq ./autogen.sh && ./configure && make -j 4 make check && sudo make install && sudo
2022-10-29 20:08:02 4.98MB java torch Java
1
用于TRL去嵌套,得到待测件真实的S参数。
2022-10-22 00:23:18 162KB TRL TRLde-embedding
1
Introduction Background and Traditional Approaches Node Embeddings Graph Neural Networks Generative Graph Models
2022-10-18 17:05:47 5.57MB 图嵌入
1
期刊: 作者:Jiajing Wu, Dan Lin , Zibin Zheng and Qi Yuan 单位:Sun Yat-sen University 联系方式:wujiajing@mail.sysu.edu.cn Abstract 近来,图嵌入技术已被广泛用于各种网络的分析中,但是大多数现有的嵌入方法都忽略了可能在金融交易网络中起作用的边缘的时间和加权信息。以太坊的开放性为我们提供了该领域前所未有的数据挖掘机会。考虑到交易网络的现实规则和特征,我们建议将以太坊交易网络建模为时间加权多重图(TWMDG),其中每个节点都是唯一的以太坊账户,每个边代表按金额加权并分配时间戳的交易。在TWM
2022-10-16 11:44:41 414KB act action al
1
最近在工作中进行了NLP的内容,使用的还是Keras中embedding的词嵌入来做的。 Keras中embedding层做一下介绍。 中文文档地址:https://keras.io/zh/layers/embeddings/ 参数如下: 其中参数重点有input_dim,output_dim,非必选参数input_length. 初始化方法参数设置后面会单独总结一下。 demo使用预训练(使用百度百科(word2vec)的语料库)参考 embedding使用的demo参考: def create_embedding(word_index, num_words, word2vec_mode
2022-06-15 15:37:58 74KB AS dd ed
1
tensorflow-chatbot-中文 :person_running: [中文聊天机器人]具有bahdanau注意和Word2Vec预训练嵌入的seq2seq模型的Tensorflow实现 此基于撰写的。 如何 [选项1]重新训练模型 $ git clone https://github.com/AdrianHsu/tensorflow-chatbot-chinese.git # put your own training/eval data in the correct path, as shown above $ ./run.sh [选项2]使用预先训练的保护程序文件测试模型 您应该在下载经过预训练的模型,然后将其放入save/目录。 确保您的输入已经放置在正确的路径中,并且已通过文本分段API(例如jieba)进行了预处理。 $ ./hw2_seq2seq.sh 操作方法(网络) 您必须先下载冻结
2022-05-13 18:27:54 13.64MB nlp deep-learning tensorflow chatbot
1