论文框架:介绍,概述(问题定义,相关问题,关键点,分类),数据(有标签数据,弱标签数据,相似数据集,总结),模型(多任务学习,嵌入式学习,外部记忆空间学习,生成模型,总结),算法(已有参数优化,元参数优化,学习优化器,总结),展望(问题场景,技术,应用,理论),结论
2021-07-27 15:14:47 6.53MB 小样本学习 元学习
1
离散元定义和离散元程序 离散元 “Discrete Element Method” (DEM) 被定义为: 允许离散体发生有限位移和转动,包括完全的脱离 计算过程中能够自动识别接触状态的变化 离散元 “Distinct Element Method” 采用显示差分动态解牛顿运动定律 离散元程序采用了高效的求解方法来侦察接触并对接触进行分类,程序同时维持数据结构和内存分配,因此来处理数以万计的接触。 有限元程序模拟非连续体时常采用修正连续体程序的方式,因此无法以接触间相互作用为主体的问题(如大量相交节理),当接触状态不断更新时,计算效率可能受到很大影响。
2021-07-17 22:49:01 23.28MB 离散元
1
详细介绍了有限元分析中线性及非线性的理论知识,以及其中的应用
2021-07-13 19:45:05 6.31MB 有限元学习
1
《Python元学习实战》随书代码
2021-07-01 15:26:23 36.59MB Python开发-机器学习
1
百面深度学习 之 元学习知识笔记
2021-06-23 09:07:34 13.4MB 元学习 深度学习
1
导弹模型matlab代码学习指南:基于深度元学习和模型预测路径积分控制的制导律 关于 这项工作的目的是利用本文所述的导弹制导问题,利用模型预测路径积分控制器实施基于模型的深度强化学习,该IEEE Access论文位于arXiv上,并且在arXiv上也可用。 依存关系 此代码已经在python上进行了测试,并且需要安装tensorflow-gpu和numpy。 该演示运行建立在预先训练的指导神经网络模型的基础上,如果有人提出要求,其代码,系统模型和训练数据集将在之后发布。 怎么跑 请使用mppi_run.py运行。 也可以使用monte_carlo_simu.sh进行迭代运行以获取蒙特卡洛采样结果。 在本文中,使用MATLAB的get_Monte.m文件收集了蒙特卡洛模拟的结果。 引用 如果您发现我们的作品对您的研究有用,请考虑引用: @article{liang2019learning, title={Learning to Guide: Guidance Law Based on Deep Meta-Learning and Model Predictive Path Integra
2021-06-12 22:18:44 13.91MB 系统开源
1
元学习旨在学会学习,是当下研究热点之一。最近来自爱丁堡大学的学者发布了关于元学习最新综述论文《Meta-Learning in Neural Networks: A Survey》,值得关注,详述了元学习体系,包括定义、方法、应用、挑战,成为不可缺少的文献。
2021-06-06 14:23:20 713KB 元学习
1
智能系统的核心能力是不断建立在以往经验的基础上,以加快和加强对新任务的学习。有两种截然不同的研究范式研究了这个问题。元学习将这一问题视为优先学习模型参数,以便对新任务进行快速适应,但通常假设任务集可以作为批处理一起使用。相比之下,在线(基于后悔的)学习考虑的是一个连续的设置,在这个设置中问题一个接一个地被发现,但传统上只训练一个单一的模型,没有任何特定任务的适应性。这项工作引入了在线元学习设置,它融合了上述两种模式的想法,以更好地捕捉持续终身学习的精神和实践。我们建议遵循元leader算法,它扩展了MAML算法(Finn et al., 2017)到这个设置。从理论上讲,这项工作提供了一个O(log T)遗憾保证,附加了一个更高阶的平滑假设(与标准在线设置相比)。在三种不同的大规模任务上的实验评价表明,该算法显著优于基于传统在线学习方法的其他算法。
2021-06-01 22:06:07 1.12MB 元学习 在线学习
1
许多元学习方法的少数镜头学习依赖于简单的基础学习者,如最近邻分类器。然而,即使在少量射击的情况下,有区别地训练线性预测器可以提供更好的泛化。我们建议使用这些预测器作为基础学习者来学习少量镜头学习的表示,并表明它们在一系列少量镜头识别基准之间提供了更好的特征大小和性能之间的权衡。我们的目标是学习特征嵌入,在新的类别线性分类规则下很好地一般化。为了有效地解决这一目标,我们利用了线性分类器的两个性质:凸问题的最优性条件的隐式微分和最优问题的对偶公式。这允许我们使用高维嵌入改进的泛化,并适度增加计算开销。我们的方法名为MetaOptNet,在miniImageNet、tieredImageNet、CIFAR-FS和FC100的几次学习基准上实现了最先进的性能。
2021-06-01 22:06:07 2.64MB 可微 凸优化 元学习
1
由于模型固有的不确定性,学习从少量数据集推断贝叶斯后验是实现稳健元学习的重要一步。在本文中,我们提出了一种新的贝叶斯模型不可知的元学习方法。该方法结合了有效的基于梯度的元学习和非参数变分推理。与以往的方法不同的是,在快速适应过程中,该方法能够学习复杂的不确定性结构,而不是简单的高斯近似;在元更新过程中,采用了新的贝叶斯机制,防止了元级过拟合。它仍然是一种基于梯度的方法,也是第一个适用于包括强化学习在内的各种任务的不依赖贝叶斯模型的元学习方法。实验结果表明,该方法在正弦回归、图像分类、主动学习和强化学习等方面具有较好的准确性和鲁棒性。
2021-06-01 22:06:07 2.88MB 元学习 贝叶斯 MAML
1