yolov5各子类权重 l, m, s, x
2023-02-12 13:22:47 294.34MB 神经网络 人工智能 深度学习 机器学习
1
神经网络作图大全ppt
2023-02-07 00:48:36 37.32MB 神经网络 人工智能 深度学习 机器学习
1
由浅入深的深度学习教材,张志华翻译版
2023-02-03 15:20:56 580KB 深度学习 机器学习
1
关于ppt 近年来,以机器学习、知识图谱为代表的人工智能技术逐渐变得普及。从车牌识别、人脸识别、语音识别、智能助手、推荐系统到自动驾驶,人们在日常生活中都可能有意无意地用到了人工智能技术。这些技术的背后都离不开人工智能领域研究者的长期努力。特别是最近这几年,得益于数据的增多、计算能力的增强、学习算法的成熟以及应用场景的丰富,越来越多的人开始关注这个“崭新”的研究领域:深度学习。深度学习以神经网络为主要模型,一开始用来解决机器学习中的表示学习问题。但是由于其强大的能力,深度学习越来越多地用来解决一些通用人工智能问题,比如推理、决策等。目前,深度学习技术在学术界和工业界取得了广泛的成功,受到高度重视,并掀起新一轮的人工智能热潮。
2023-01-29 17:25:07 145.68MB 神经网络 深度学习 人工智能 机器学习
1
数值特征 离散值处理 数值特征的处理,最常见的方法,就是离散值处理了 对于一份新拿到手的数据来说,会有很多不能被计算机识别的数据,这就需要对它们进行处理 LabelEncoder import pandas as pd import numpy as np # 加载数据 vg_df = pd.read_csv('datasets/vgsales.csv', encoding = ISO-8859-1) vg_df[['Name', 'Platform', 'Year', 'Genre', 'Publisher']].head() # 拿到某个特征的离散数据 genres = np.uniq
2023-01-27 14:57:10 334KB 学习 机器学习 机器学习入门
1
这里是 ShowMeAI 持续分享的【开源eBook】系列!内容覆盖机器学习、深度学习、数据科学、数据分析、大数据、Keras、TensorFlow、PyTorch、强化学习、数学基础等各个方向。整理自各平台的原作者公开分享(审核大大请放手) ◉ 简介:这是新书『强化学习的数学基础』的书稿,作者赵世钰,现任西湖大学工学院智能无人系统实验室主任。2022年秋季是作者第四次教授强化学习的研究生课程,撰写这份资料是为了弥补已有教材的不足。 ◉ 目录: 第2章:贝尔曼方程,是分析状态值的基本工具 第3章:贝尔曼最优方程,是一个特殊的贝尔曼方程 第4章:值迭代算法,是一种求解贝尔曼最优方程的算法 第5章:蒙特卡罗学习,是第4章策略迭代算法的扩展 第6章:随机逼近的基础知识 第7章:时差学习,第6章是本章的基础 第8章:扩展了表格时间对价值函数逼近情况的差分学习方法 第9章:策略迭代 第10章:actor-critic 方法
2022-12-29 20:28:27 1.68MB 人工智能 强化学习 机器学习 数学
1
高清版,应用预测建模,人工智能nlp方向必读书籍,BAT算法工程师极力推荐!
1
压缩包包含 1:EMNIST数据集压缩包 2:EMNIST转化为图片后的格式(PNG) 3:EMNIST数据集转化为图片代码 EMNIST数据集介绍:名字的由来为,Extended MNIST (EMNIST), 一个在手写字体分类任务中更有挑战的 Benchmark EMNIST 主要分为以下 5 类: 1:By_Class : 共 814255 张,62 类,与 NIST 相比重新划分类训练集与测试机的图片数 2:By_Merge: 共 814255 张,47 类, 与 NIST 相比重新划分类训练集与测试机的图片数 3:Balanced : 共 131600 张,47 类, 每一类都包含了相同的数据,每一类训练集 2400 张,测试集 400 张 4:Digits :共 28000 张,10 类,每一类包含相同数量数据,每一类训练集 24000 张,测试集 4000 张 5:Letters : 共 145600 张,26 类,每一类包含相同数据,每一类训练集5600 张,测试集 800 张
2022-12-26 19:31:32 579.13MB 人工智能 深度学习 机器学习 神经网络
1
最全最新最受欢迎深度学习入门301页PPT,李宏毅老师讲解涵盖深度学习发展进程,算法演进,实例分析,基础实验,图文并茂,深入浅出,揭开深度学习神秘面纱,窥探里面的真实世界,读完收益匪浅
2022-12-26 10:02:28 31.17MB 人工智能 深度学习 机器学习 PPT
1
Abstract The style-based GAN architecture (StyleGAN) yields state-of-the-art results in data-driven unconditional generative image modeling. We expose and analyze several of its characteristic artifacts, and propose changes in both model architecture and training methods to address them. In particular, we redesign generator normalization, revisit progressive growing, and regularize the generator to encourage good conditioning in the mapping from latent vectors to images. In addition to improving image quality, this path length regularizer yields the additional benefit that the generator becomes significantly easier to invert. This makes it possible to reliably detect if an image is generated by a particular network. We furthermore visualize how well the generator utilizes its output resolution, and identify a capacity problem, motivating us to train larger models for additional quality improvements. Overall, our improved model rede- fines the state of the art in unconditional image modeling, both in terms of existing distribution quality metrics as well as perceived image quality.
1