Cuda-Opengl-LBM:使用CUDA和OpenGL的Lattice-Botlzmann流体模拟器
2023-04-03 15:41:09 34.66MB opengl cuda gpu-acceleration cfd
1
高效且可扩展的物理信息深度学习 搭配为主PINN求解器和PDE发现方法之上分布式计算多工人。 如果需要,请使用TensorDiffEq: 一个无网格的PINN求解器,可以分布在多个工作程序(GPU)上以解决正向问题(推理)和逆向问题(发现) 可扩展域-迭代求解器构造允许ND时空支持包括对不带时间元素的ND空间域的支持 正向和反向PINN的自适应配置方法 直观的用户界面,可对变量域,边界条件,初始条件和强格式PDE进行明确定义 是什么让TensorDiffEq与众不同? 完全开源 求解可解决正向和反向问题,从而提高了解决方案的准确性和培训的稳定性,从而减少了总体培训时间 适用于大型或细粒度时空域的多GPU分布式训练 建立在Tensorflow 2.0之上,以增加对最新TF版本独有的新功能的支持,例如,有效图形构建的以及图形优化的*-源代码不可能再被淘汰Tensorflow版本发行 直
2022-02-25 16:59:54 817KB tensorflow gpu neural-networks gpu-acceleration
1
TensorFlow_Lite_Pose_Jetson-Nano 在Jetson Nano上运行的TensorFlow Lite Posenet 在Jetson Nano上的TensorFlow Lite Posenet的快速C ++实现。 一旦超频至2015 MHz,该应用程序将以15.2 FPS的速度运行。 基准。 CPU 2015兆赫 GPU 2015 MHz CPU 1479兆赫 GPU 1479 MHZ RPi 4 64os 1950 MHz 15.2帧/秒 11.8帧/秒 12 FPS 11 FPS 9.4帧/秒 专为Jetson Nano设计的产品,请参阅 依赖关系。 要运行该应用程序,您必须: 已安装TensorFlow Lite框架。 安装了可选的OpenCV。 代码::已安装块。 ( $ sudo apt-get install codebloc
2022-01-05 07:59:16 12.77MB cpp gpu-acceleration aarch64 tensorflow-examples
1
PHC包装 PHCpack是用于通过同伦连续方法求解多项式系统的软件包。 多项式系统是由多个变量组成的多项式序列。 同伦延续方法分两个阶段运行。 在第一阶段,构造了一系列的多项式系统(所谓的同伦)。 该同态包含具有已知解的多项式系统。 在第二阶段,从已知解开始,使用数值连续法来跟踪由同伦定义的解路径,并得出给定多项式系统的解。 PHCpack的1.0版已由ACM Transactions of Mathematical Software(ACM TOMS)作为算法795存档。PHCpack包含MixedVol(T。Gao,TY Li和M. Wu的ACM TOMS的算法846),可快速计算混合量。 DEMiCs(由T. Mizutani,A。Takeda和M. Kojima进行的所有混合单元的动态枚举)对于具有许多不同支持的大型系统,以比MixedVol更快的速度计算混合体积。 DEMi
1
梦幻广场 启用了深度学习工具包的VLSI放置。 与非线性VLSI放置和深度学习训练问题之间的类比,该工具与深度学习工具包一起开发,以提高灵活性和效率。 该工具可在CPU和GPU上运行。 使用Nvidia Tesla V100 GPU,在ISPD 2005竞赛基准测试的全球排名和合法化方面,其CPU实现( )的速度提高了30X以上。 DREAMPlace还集成了GPU加速的详细布局器与CPU上广泛采用的顺序器相比,该布局可以在百万大小的基准上实现约16X加速。 DREAMPlace可在CPU和GPU上运行。 如果将其安装在没有GPU的计算机上,则只有多线程支持CPU支​​持。 动画片 大蓝4 密度图 电位 电场 参考流程 刊物 ,Shounak达尔,,豪兴仁,Brucek Khailany和,“DREAMPlace:深度学习工具包启用GPU加速现代VLSI布局”,ACM / IEE
2021-11-10 18:49:05 15.55MB deep-learning pytorch gpu-acceleration vlsi
1
GPy火炬 新闻:GPyTorch v1.3 GPyTorch v1.3刚刚发布。 GPyTorch是使用PyTorch实现的高斯进程库。 GPyTorch旨在轻松创建可扩展,灵活和模块化的高斯过程模型。 在内部,GPyTorch与许多现有的GP推理方法不同,它使用诸如预处理共轭梯度之类的现代数值线性代数技术执行所有推理操作。 实施可扩展的GP方法非常简单,就像通过我们的LazyTensor接口或内核很多现有的LazyTensors为内核矩阵及其派生词提供矩阵乘法例程LazyTensors 。 与基于Cholesky分解的求解器相比,这不仅可以轻松实现流行的可扩展GP技术,而且通常还可以显着提高GPU计算的利用率。 GPyTorch提供(1)显着的GPU加速(通过基于MVM的推理); (2)用于可伸缩性和灵活性( ,, , ,...)的最新算法进步的最新实现; (3)易于与深
1
Image Blending Techniques Based on GPU Acceleration
2021-07-24 14:03:03 358KB Blending GPU Acceleration
1